0

0

Pandas 数据框:基于日期区间条件的数据填充技巧

霞舞

霞舞

发布时间:2025-10-18 14:11:25

|

698人浏览过

|

来源于php中文网

原创

Pandas 数据框:基于日期区间条件的数据填充技巧

本文详细介绍了如何利用 pandas 库,根据另一个 dataframe 中定义的日期范围条件,对目标 dataframe 进行数据填充。通过将日期列转换为标准格式,结合 `melt`、`merge_asof` 和 `pivot` 等操作,实现高效且精确的条件性数据合并与筛选,最终生成符合特定日期区间要求的数据视图。

在数据分析和处理中,我们经常需要根据复杂的条件从一个数据集填充或筛选另一个数据集。其中一种常见场景是基于日期范围进行条件性数据填充。例如,我们有一个包含公司及其有效日期范围的 DataFrame (df1),以及另一个包含每日公司数据值的 DataFrame (df2)。我们的目标是创建一个新的 DataFrame (df3),其中 df2 中的值仅在对应公司的日期落在 df1 定义的有效范围内时才保留,否则置为 NaN。

数据准备

首先,我们定义两个示例 DataFrame df1 和 df2。df1 包含每个公司的有效起始和结束日期,而 df2 包含每日的各项公司数据。

import pandas as pd

# 定义 df1:包含公司及其有效日期范围
data1 = {'company': {0: 'a', 1: 'b', 2: 'c', 3: 'd'},
         'start date': {0: '2023-01-02', 1: '2023-01-05', 2: '2023-01-04', 3: '2023-01-03'},
         'end date': {0: '2023-01-06', 1: '2023-01-12', 2: '2023-01-13', 3: '2023-01-10'}}
df1 = pd.DataFrame(data1)

# 定义 df2:包含每日的公司数据
data2 = {'DATE': {0: '2023-01-02', 1: '2023-01-03', 2: '2023-01-04', 3: '2023-01-05',
                  4: '2023-01-06', 5: '2023-01-09', 6: '2023-01-10', 7: '2023-01-11',
                  8: '2023-01-12', 9: '2023-01-13'},
         'a': {0: 1, 1: 2, 2: 3, 3: 4, 4: 5, 5: 6, 6: 7, 7: 8, 8: 9, 9: 10},
         'b': {0: 10, 1: 11, 2: 12, 3: 13, 4: 14, 5: 15, 6: 16, 7: 17, 8: 18, 9: 19},
         'c': {0: 30, 1: 31, 2: 32, 3: 33, 4: 34, 5: 35, 6: 36, 7: 37, 8: 38, 9: 39},
         'd': {0: 40, 1: 41, 2: 42, 3: 43, 4: 44, 5: 45, 6: 46, 7: 47, 8: 48, 9: 49}}
df2 = pd.DataFrame(data2)

print("df1 原始数据:")
print(df1)
print("\ndf2 原始数据:")
print(df2)

日期类型转换

在进行任何日期相关的操作之前,将日期列转换为 Pandas 的 datetime 类型至关重要。这确保了日期比较和合并的准确性。

df1['start date'] = pd.to_datetime(df1['start date'])
df1['end date'] = pd.to_datetime(df1['end date'])
df2['DATE'] = pd.to_datetime(df2['DATE'])

print("\ndf1 转换日期类型后:")
print(df1)
print("\ndf2 转换日期类型后:")
print(df2)

核心逻辑实现

为了实现基于日期范围的条件填充,我们将采用以下步骤:

元典智库
元典智库

元典智库:智能开放的法律搜索引擎

下载
  1. 数据重塑 (melt): 将 df2 从宽格式(每列代表一个公司)转换为长格式。这使得每个数据点(日期、公司、值)都成为一行,便于与 df1 进行合并。
  2. 近似合并 (merge_asof): 使用 merge_asof 将 df2(长格式)与 df1 合并。merge_asof 是一种特殊的合并,它根据最近的键进行合并,而不是精确匹配。在这里,我们将 df2 的 DATE 与 df1 的 start date 进行近似合并,同时按 company 分组。
  3. 条件筛选 (where): 合并后,我们将得到一个包含 DATE、company、value、start date 和 end date 的临时 DataFrame。然后,我们检查每个数据点的 DATE 是否落在对应的 start date 和 end date 之间。如果不在,则将 value 设置为 NaN。
  4. 数据重塑 (pivot): 最后,将临时 DataFrame 重新 pivot 回原始的宽格式,以 DATE 为索引,company 为列,value 为值。
# 步骤1:将 df2 转换为长格式并按日期排序,以准备 merge_asof
tmp = df2.melt('DATE', var_name='company').sort_values('DATE')

# 步骤2:使用 merge_asof 进行近似合并
# by='company' 表示在每个公司内部进行合并
# left_on='DATE' 和 right_on='start date' 表示以 df2 的 DATE 和 df1 的 start date 进行近似匹配
# 注意:merge_asof 要求左右 DataFrame 的合并键(这里是 DATE 和 start date)必须已排序
df1_sorted = df1.sort_values('start date')
tmp = pd.merge_asof(tmp, df1_sorted, by='company', left_on='DATE', right_on='start date')

# 步骤3:根据日期范围条件筛选值
# .where() 方法会根据条件保留值,不满足条件的置为 NaN
df3_filtered = tmp.assign(value=tmp['value'].where(
    (tmp['DATE'] >= tmp['start date']) & (tmp['DATE'] <= tmp['end date'])
))

# 步骤4:将数据透视回宽格式
# index='DATE' 设置日期为行索引
# columns='company' 设置公司为列名
# values='value' 设置填充的值
df3 = df3_filtered.pivot(index='DATE', columns='company', values='value') \
                  .rename_axis('', axis=1) \
                  .reset_index()

print("\ndf3 期望输出:")
print(df3)

完整示例代码

以下是整合了所有步骤的完整代码,可以直接运行:

import pandas as pd

# 原始数据定义
data1 = {'company': {0: 'a', 1: 'b', 2: 'c', 3: 'd'},
         'start date': {0: '2023-01-02', 1: '2023-01-05', 2: '2023-01-04', 3: '2023-01-03'},
         'end date': {0: '2023-01-06', 1: '2023-01-12', 2: '2023-01-13', 3: '2023-01-10'}}
df1 = pd.DataFrame(data1)

data2 = {'DATE': {0: '2023-01-02', 1: '2023-01-03', 2: '2023-01-04', 3: '2023-01-05',
                  4: '2023-01-06', 5: '2023-01-09', 6: '2023-01-10', 7: '2023-01-11',
                  8: '2023-01-12', 9: '2023-01-13'},
         'a': {0: 1, 1: 2, 2: 3, 3: 4, 4: 5, 5: 6, 6: 7, 7: 8, 8: 9, 9: 10},
         'b': {0: 10, 1: 11, 2: 12, 3: 13, 4: 14, 5: 15, 6: 16, 7: 17, 8: 18, 9: 19},
         'c': {0: 30, 1: 31, 2: 32, 3: 33, 4: 34, 5: 35, 6: 36, 7: 37, 8: 38, 9: 39},
         'd': {0: 40, 1: 41, 2: 42, 3: 43, 4: 44, 5: 45, 6: 46, 7: 47, 8: 48, 9: 49}}
df2 = pd.DataFrame(data2)

# 1. 转换日期列为 datetime 类型
df1['start date'] = pd.to_datetime(df1['start date'])
df1['end date'] = pd.to_datetime(df1['end date'])
df2['DATE'] = pd.to_datetime(df2['DATE'])

# 2. 将 df2 转换为长格式并排序
tmp = df2.melt('DATE', var_name='company').sort_values('DATE')

# 3. 对 df1 进行排序,以满足 merge_asof 的要求
df1_sorted = df1.sort_values('start date')

# 4. 使用 merge_asof 进行近似合并
# left_on='DATE' 和 right_on='start date' 确保将 df2 的 DATE 与 df1 中不大于该 DATE 的最近 start date 合并
tmp = pd.merge_asof(tmp, df1_sorted, by='company', left_on='DATE', right_on='start date')

# 5. 根据日期范围条件筛选值
# 只有当 df2 的 DATE 在 df1 定义的 [start date, end date] 范围内时,才保留其值
df3 = tmp.assign(value=tmp['value'].where(
    (tmp['DATE'] >= tmp['start date']) & (tmp['DATE'] <= tmp['end date'])
)) \
         .pivot(index='DATE', columns='company', values='value') \
         .rename_axis('', axis=1) \
         .reset_index()

print("\n最终结果 df3:")
print(df3)

注意事项与总结

  1. 日期类型的重要性: 始终确保涉及日期比较的列是 datetime 类型。不一致的类型会导致错误或意外结果。
  2. merge_asof 的排序要求: merge_asof 函数要求左右 DataFrame 的合并键(在本例中是 DATE 和 start date)必须是已排序的。如果未排序,结果将不准确。
  3. 数据重塑的必要性: melt 和 pivot 操作是处理这种宽-长-宽转换问题的关键。它们使得在多列之间应用条件变得可行。
  4. 条件逻辑: (tmp['DATE'] >= tmp['start date']) & (tmp['DATE']
  5. 性能考量: 对于非常大的数据集,melt 和 pivot 操作可能会消耗较多内存和计算资源。在处理大规模数据时,应评估其性能影响。

通过上述步骤,我们能够高效且准确地根据复杂的日期范围条件,从一个 DataFrame 中有选择性地填充另一个 DataFrame 的数据,这在财务分析、事件日志处理等领域具有广泛应用。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

71

2025.12.04

Python 数据清洗与预处理实战
Python 数据清洗与预处理实战

本专题系统讲解 Python 在数据清洗与预处理中的核心技术,包括使用 Pandas 进行缺失值处理、异常值检测、数据格式化、特征工程与数据转换,结合 NumPy 高效处理大规模数据。通过实战案例,帮助学习者掌握 如何处理混乱、不完整数据,为后续数据分析与机器学习模型训练打下坚实基础。

1

2026.01.31

C++类型转换方式
C++类型转换方式

本专题整合了C++类型转换相关内容,想了解更多相关内容,请阅读专题下面的文章。

301

2025.07.15

2026赚钱平台入口大全
2026赚钱平台入口大全

2026年最新赚钱平台入口汇总,涵盖任务众包、内容创作、电商运营、技能变现等多类正规渠道,助你轻松开启副业增收之路。阅读专题下面的文章了解更多详细内容。

52

2026.01.31

高干文在线阅读网站大全
高干文在线阅读网站大全

汇集热门1v1高干文免费阅读资源,涵盖都市言情、京味大院、军旅高干等经典题材,情节紧凑、人物鲜明。阅读专题下面的文章了解更多详细内容。

40

2026.01.31

无需付费的漫画app大全
无需付费的漫画app大全

想找真正免费又无套路的漫画App?本合集精选多款永久免费、资源丰富、无广告干扰的优质漫画应用,涵盖国漫、日漫、韩漫及经典老番,满足各类阅读需求。阅读专题下面的文章了解更多详细内容。

50

2026.01.31

漫画免费在线观看地址大全
漫画免费在线观看地址大全

想找免费又资源丰富的漫画网站?本合集精选2025-2026年热门平台,涵盖国漫、日漫、韩漫等多类型作品,支持高清流畅阅读与离线缓存。阅读专题下面的文章了解更多详细内容。

11

2026.01.31

漫画防走失登陆入口大全
漫画防走失登陆入口大全

2026最新漫画防走失登录入口合集,汇总多个稳定可用网址,助你畅享高清无广告漫画阅读体验。阅读专题下面的文章了解更多详细内容。

13

2026.01.31

php多线程怎么实现
php多线程怎么实现

PHP本身不支持原生多线程,但可通过扩展如pthreads、Swoole或结合多进程、协程等方式实现并发处理。阅读专题下面的文章了解更多详细内容。

1

2026.01.31

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
誉天教育RHCE视频教程
誉天教育RHCE视频教程

共9课时 | 1.4万人学习

尚观Linux RHCE视频教程(二)
尚观Linux RHCE视频教程(二)

共34课时 | 5.8万人学习

尚观RHCE视频教程(一)
尚观RHCE视频教程(一)

共28课时 | 4.8万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号