0

0

Pandas 数据框:基于日期区间条件的数据填充技巧

霞舞

霞舞

发布时间:2025-10-18 14:11:25

|

698人浏览过

|

来源于php中文网

原创

Pandas 数据框:基于日期区间条件的数据填充技巧

本文详细介绍了如何利用 pandas 库,根据另一个 dataframe 中定义的日期范围条件,对目标 dataframe 进行数据填充。通过将日期列转换为标准格式,结合 `melt`、`merge_asof` 和 `pivot` 等操作,实现高效且精确的条件性数据合并与筛选,最终生成符合特定日期区间要求的数据视图。

在数据分析和处理中,我们经常需要根据复杂的条件从一个数据集填充或筛选另一个数据集。其中一种常见场景是基于日期范围进行条件性数据填充。例如,我们有一个包含公司及其有效日期范围的 DataFrame (df1),以及另一个包含每日公司数据值的 DataFrame (df2)。我们的目标是创建一个新的 DataFrame (df3),其中 df2 中的值仅在对应公司的日期落在 df1 定义的有效范围内时才保留,否则置为 NaN。

数据准备

首先,我们定义两个示例 DataFrame df1 和 df2。df1 包含每个公司的有效起始和结束日期,而 df2 包含每日的各项公司数据。

import pandas as pd

# 定义 df1:包含公司及其有效日期范围
data1 = {'company': {0: 'a', 1: 'b', 2: 'c', 3: 'd'},
         'start date': {0: '2023-01-02', 1: '2023-01-05', 2: '2023-01-04', 3: '2023-01-03'},
         'end date': {0: '2023-01-06', 1: '2023-01-12', 2: '2023-01-13', 3: '2023-01-10'}}
df1 = pd.DataFrame(data1)

# 定义 df2:包含每日的公司数据
data2 = {'DATE': {0: '2023-01-02', 1: '2023-01-03', 2: '2023-01-04', 3: '2023-01-05',
                  4: '2023-01-06', 5: '2023-01-09', 6: '2023-01-10', 7: '2023-01-11',
                  8: '2023-01-12', 9: '2023-01-13'},
         'a': {0: 1, 1: 2, 2: 3, 3: 4, 4: 5, 5: 6, 6: 7, 7: 8, 8: 9, 9: 10},
         'b': {0: 10, 1: 11, 2: 12, 3: 13, 4: 14, 5: 15, 6: 16, 7: 17, 8: 18, 9: 19},
         'c': {0: 30, 1: 31, 2: 32, 3: 33, 4: 34, 5: 35, 6: 36, 7: 37, 8: 38, 9: 39},
         'd': {0: 40, 1: 41, 2: 42, 3: 43, 4: 44, 5: 45, 6: 46, 7: 47, 8: 48, 9: 49}}
df2 = pd.DataFrame(data2)

print("df1 原始数据:")
print(df1)
print("\ndf2 原始数据:")
print(df2)

日期类型转换

在进行任何日期相关的操作之前,将日期列转换为 Pandas 的 datetime 类型至关重要。这确保了日期比较和合并的准确性。

df1['start date'] = pd.to_datetime(df1['start date'])
df1['end date'] = pd.to_datetime(df1['end date'])
df2['DATE'] = pd.to_datetime(df2['DATE'])

print("\ndf1 转换日期类型后:")
print(df1)
print("\ndf2 转换日期类型后:")
print(df2)

核心逻辑实现

为了实现基于日期范围的条件填充,我们将采用以下步骤:

天工AI
天工AI

昆仑万维推出的国内首款融入大语言模型的AI对话问答、AI搜索引擎,知识从这里开始。

下载
  1. 数据重塑 (melt): 将 df2 从宽格式(每列代表一个公司)转换为长格式。这使得每个数据点(日期、公司、值)都成为一行,便于与 df1 进行合并。
  2. 近似合并 (merge_asof): 使用 merge_asof 将 df2(长格式)与 df1 合并。merge_asof 是一种特殊的合并,它根据最近的键进行合并,而不是精确匹配。在这里,我们将 df2 的 DATE 与 df1 的 start date 进行近似合并,同时按 company 分组。
  3. 条件筛选 (where): 合并后,我们将得到一个包含 DATE、company、value、start date 和 end date 的临时 DataFrame。然后,我们检查每个数据点的 DATE 是否落在对应的 start date 和 end date 之间。如果不在,则将 value 设置为 NaN。
  4. 数据重塑 (pivot): 最后,将临时 DataFrame 重新 pivot 回原始的宽格式,以 DATE 为索引,company 为列,value 为值。
# 步骤1:将 df2 转换为长格式并按日期排序,以准备 merge_asof
tmp = df2.melt('DATE', var_name='company').sort_values('DATE')

# 步骤2:使用 merge_asof 进行近似合并
# by='company' 表示在每个公司内部进行合并
# left_on='DATE' 和 right_on='start date' 表示以 df2 的 DATE 和 df1 的 start date 进行近似匹配
# 注意:merge_asof 要求左右 DataFrame 的合并键(这里是 DATE 和 start date)必须已排序
df1_sorted = df1.sort_values('start date')
tmp = pd.merge_asof(tmp, df1_sorted, by='company', left_on='DATE', right_on='start date')

# 步骤3:根据日期范围条件筛选值
# .where() 方法会根据条件保留值,不满足条件的置为 NaN
df3_filtered = tmp.assign(value=tmp['value'].where(
    (tmp['DATE'] >= tmp['start date']) & (tmp['DATE'] <= tmp['end date'])
))

# 步骤4:将数据透视回宽格式
# index='DATE' 设置日期为行索引
# columns='company' 设置公司为列名
# values='value' 设置填充的值
df3 = df3_filtered.pivot(index='DATE', columns='company', values='value') \
                  .rename_axis('', axis=1) \
                  .reset_index()

print("\ndf3 期望输出:")
print(df3)

完整示例代码

以下是整合了所有步骤的完整代码,可以直接运行:

import pandas as pd

# 原始数据定义
data1 = {'company': {0: 'a', 1: 'b', 2: 'c', 3: 'd'},
         'start date': {0: '2023-01-02', 1: '2023-01-05', 2: '2023-01-04', 3: '2023-01-03'},
         'end date': {0: '2023-01-06', 1: '2023-01-12', 2: '2023-01-13', 3: '2023-01-10'}}
df1 = pd.DataFrame(data1)

data2 = {'DATE': {0: '2023-01-02', 1: '2023-01-03', 2: '2023-01-04', 3: '2023-01-05',
                  4: '2023-01-06', 5: '2023-01-09', 6: '2023-01-10', 7: '2023-01-11',
                  8: '2023-01-12', 9: '2023-01-13'},
         'a': {0: 1, 1: 2, 2: 3, 3: 4, 4: 5, 5: 6, 6: 7, 7: 8, 8: 9, 9: 10},
         'b': {0: 10, 1: 11, 2: 12, 3: 13, 4: 14, 5: 15, 6: 16, 7: 17, 8: 18, 9: 19},
         'c': {0: 30, 1: 31, 2: 32, 3: 33, 4: 34, 5: 35, 6: 36, 7: 37, 8: 38, 9: 39},
         'd': {0: 40, 1: 41, 2: 42, 3: 43, 4: 44, 5: 45, 6: 46, 7: 47, 8: 48, 9: 49}}
df2 = pd.DataFrame(data2)

# 1. 转换日期列为 datetime 类型
df1['start date'] = pd.to_datetime(df1['start date'])
df1['end date'] = pd.to_datetime(df1['end date'])
df2['DATE'] = pd.to_datetime(df2['DATE'])

# 2. 将 df2 转换为长格式并排序
tmp = df2.melt('DATE', var_name='company').sort_values('DATE')

# 3. 对 df1 进行排序,以满足 merge_asof 的要求
df1_sorted = df1.sort_values('start date')

# 4. 使用 merge_asof 进行近似合并
# left_on='DATE' 和 right_on='start date' 确保将 df2 的 DATE 与 df1 中不大于该 DATE 的最近 start date 合并
tmp = pd.merge_asof(tmp, df1_sorted, by='company', left_on='DATE', right_on='start date')

# 5. 根据日期范围条件筛选值
# 只有当 df2 的 DATE 在 df1 定义的 [start date, end date] 范围内时,才保留其值
df3 = tmp.assign(value=tmp['value'].where(
    (tmp['DATE'] >= tmp['start date']) & (tmp['DATE'] <= tmp['end date'])
)) \
         .pivot(index='DATE', columns='company', values='value') \
         .rename_axis('', axis=1) \
         .reset_index()

print("\n最终结果 df3:")
print(df3)

注意事项与总结

  1. 日期类型的重要性: 始终确保涉及日期比较的列是 datetime 类型。不一致的类型会导致错误或意外结果。
  2. merge_asof 的排序要求: merge_asof 函数要求左右 DataFrame 的合并键(在本例中是 DATE 和 start date)必须是已排序的。如果未排序,结果将不准确。
  3. 数据重塑的必要性: melt 和 pivot 操作是处理这种宽-长-宽转换问题的关键。它们使得在多列之间应用条件变得可行。
  4. 条件逻辑: (tmp['DATE'] >= tmp['start date']) & (tmp['DATE'] <= tmp['end date']) 是实现日期范围筛选的核心逻辑。where() 方法提供了一种简洁的方式来应用此条件并用 NaN 替换不符合条件的值。
  5. 性能考量: 对于非常大的数据集,melt 和 pivot 操作可能会消耗较多内存和计算资源。在处理大规模数据时,应评估其性能影响。

通过上述步骤,我们能够高效且准确地根据复杂的日期范围条件,从一个 DataFrame 中有选择性地填充另一个 DataFrame 的数据,这在财务分析、事件日志处理等领域具有广泛应用。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

82

2025.12.04

Python 数据清洗与预处理实战
Python 数据清洗与预处理实战

本专题系统讲解 Python 在数据清洗与预处理中的核心技术,包括使用 Pandas 进行缺失值处理、异常值检测、数据格式化、特征工程与数据转换,结合 NumPy 高效处理大规模数据。通过实战案例,帮助学习者掌握 如何处理混乱、不完整数据,为后续数据分析与机器学习模型训练打下坚实基础。

34

2026.01.31

C++类型转换方式
C++类型转换方式

本专题整合了C++类型转换相关内容,想了解更多相关内容,请阅读专题下面的文章。

321

2025.07.15

抖漫入口地址合集
抖漫入口地址合集

本专题整合了抖漫入口地址相关合集,阅读专题下面的文章了解更多详细地址。

12

2026.03.17

多环境下的 Nginx 安装、结构与运维实战
多环境下的 Nginx 安装、结构与运维实战

本专题聚焦多环境下Nginx实战,详解开发、测试及生产环境的差异化安装策略与目录结构规划。深入剖析配置模块化设计、灰度发布流程及跨环境同步机制。结合监控告警、故障排查与自动化运维工具,提供全链路管理方案,助力团队构建灵活、高可用的Nginx服务体系,从容应对复杂业务场景挑战。

1

2026.03.17

PS 批量添加图片
PS 批量添加图片

本专题整合了PS批量添加图片教程合集,阅读专题下面的文章了解更多详细操作。

2

2026.03.17

Nginx 基础架构:从安装配置到系统化管理
Nginx 基础架构:从安装配置到系统化管理

本专题深入解析Nginx基础架构,涵盖从源码编译与包管理安装,到核心配置文件优化及虚拟主机部署。进一步探讨日志轮转、性能调优、高可用集群构建及自动化运维策略,助力管理员实现从单一服务搭建到企业级系统化管理的全面升级,确保Web服务高效、稳定运行。

3

2026.03.17

mulerun骡子快跑入口地址汇总
mulerun骡子快跑入口地址汇总

本专题整合了mulerun入口地址合集,阅读专题下面的文章了解更多详细内容。

50

2026.03.17

源码编译安装Nginx详解:模块选择、依赖准备与常见错误排查
源码编译安装Nginx详解:模块选择、依赖准备与常见错误排查

本专题详解Nginx源码编译全流程:从GCC、OpenSSL等依赖准备,到按需定制HTTP/SSL/流媒体模块的configure参数策略。深入剖析“缺少库文件”、“配置选项冲突”及“权限错误”等常见报错,提供精准排查思路与解决方案。助您掌握灵活构建高性能、定制化Nginx的核心技能,满足复杂生产环境需求。

1

2026.03.17

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
誉天教育RHCE视频教程
誉天教育RHCE视频教程

共9课时 | 1.5万人学习

尚观Linux RHCE视频教程(二)
尚观Linux RHCE视频教程(二)

共34课时 | 6.1万人学习

尚观RHCE视频教程(一)
尚观RHCE视频教程(一)

共28课时 | 4.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号