0

0

使用 Pandas 高效关联与提取多文件数据

心靈之曲

心靈之曲

发布时间:2025-09-21 11:48:02

|

379人浏览过

|

来源于php中文网

原创

使用 pandas 高效关联与提取多文件数据

本文详细介绍了如何利用 Python Pandas 库高效地从多个结构化文本文件中关联和提取特定数据。通过将文件内容加载为 DataFrame,并利用其强大的 merge 操作,可以实现基于共同字段的数据匹配和整合,最终按需输出关联后的结果,显著提升处理复杂数据关联任务的效率和可维护性。

在日常的数据处理工作中,我们经常会遇到需要从多个文件中提取并关联信息的需求。例如,从一个IP地址列表中查找其对应的MAC地址,再通过MAC地址查找其关联的端口信息。手动编写嵌套循环来处理这类任务不仅效率低下,而且代码复杂难以维护。Python的Pandas库提供了一种强大且高效的解决方案,通过数据框(DataFrame)和合并(merge)操作,可以简洁地完成这类多文件数据关联任务。

1. 理解数据结构与目标

假设我们有三个文件,分别包含以下信息:

  • file1.txt: 包含一系列IP地址,每行一个。
    1.1.1.1
    1.1.1.2
    1.1.1.3
    1.1.1.6
    1.1.1.11
  • file2.txt: 包含IP地址与MAC地址的映射关系,以及其他网络信息。
    Protocol  Address   Age (min)  Addr            Type   Interface
    Internet  1.1.1.1         5    6026.aa11.1111  A      Ethernet1/49
    Internet  1.1.1.2         -    0006.f2d2.2d2f  A      Vlan1
    Internet  1.1.1.3         -    6026.aa33.3333  A      Vlan1
    Internet  1.1.1.4         0    Incomplete      A
    Internet  1.1.1.5         0    Incomplete      A
    Internet  1.1.1.6         64   fa16.6edb.6666  A      Vlan1
    Internet  1.1.1.11        23   fa16.7e7d.7777  A      Vlan1

    其中,Address 列是IP地址,Addr 列是对应的MAC地址。

  • file3.txt: 包含MAC地址与端口的映射关系。
    Unicast Entries
     vlan     mac address     type        protocols               port
    ---------+---------------+--------+---------------------+-------------------------
     1        6026.aa11.1111   static  ip,ipx,assigned,other Switch
     1        0006.f2d2.2d2f   dynamic ip,ipx,assigned,other Ethernet1/24
     1        6026.aa33.3333   dynamic ip,ipx,assigned,other Ethernet1/12
     1        fa16.6edb.6666   dynamic ip,ipx,assigned,other Ethernet1/8
     1        fa16.7e7d.7777   dynamic ip,ipx,assigned,other Ethernet1/10

    其中,mac address 列是MAC地址,port 列是对应的端口。

我们的目标是:

  1. 读取 file1.txt 中的每个IP地址。
  2. 在 file2.txt 中找到该IP地址,并提取其对应的MAC地址(Addr 列)。
  3. 在 file3.txt 中找到该MAC地址,并提取其对应的端口(port 列)。
  4. 最终输出格式为 ip addr port 。

2. 使用 Pandas 加载数据

首先,我们需要导入 Pandas 库,并将各个文件的内容加载到 DataFrame 中。对于实际文件,通常使用 pd.read_csv() 或 pd.read_fwf() 等函数。为了演示方便,这里我们直接从字符串数据创建 DataFrame。

多奥淘宝客程序API免费版 F8.0
多奥淘宝客程序API免费版 F8.0

多奥淘宝客程序免费版拥有淘宝客站点的基本功能,手动更新少,管理简单等优点,适合刚接触网站的淘客们,或者是兼职做淘客们。同样拥有VIP版的模板引擎技 术、强大的文件缓存机制,但没有VIP版的伪原创跟自定义URL等多项创新的搜索引擎优化技术,除此之外也是一款高效的API数据系统实现无人值守全自动 化运行的淘宝客网站程序。4月3日淘宝联盟重新开放淘宝API申请,新用户也可使用了

下载
import pandas as pd
import io

# 模拟 file1.txt 的内容
file1_content = """1.1.1.1
1.1.1.2
1.1.1.3
1.1.1.6
1.1.1.11"""

# 模拟 file2.txt 的内容
file2_content = """Protocol  Address   Age (min)  Addr            Type   Interface
Internet  1.1.1.1         5    6026.aa11.1111  A      Ethernet1/49
Internet  1.1.1.2         -    0006.f2d2.2d2f  A      Vlan1
Internet  1.1.1.3         -    6026.aa33.3333  A      Vlan1
Internet  1.1.1.4         0    Incomplete      A
Internet  1.1.1.5         0    Incomplete      A
Internet  1.1.1.6         64   fa16.6edb.6666  A      Vlan1
Internet  1.1.1.11        23   fa16.7e7d.7777  A      Vlan1"""

# 模拟 file3.txt 的内容
file3_content = """vlan     mac address     type        protocols               port
---------+---------------+--------+---------------------+-------------------------
 1        6026.aa11.1111   static  ip,ipx,assigned,other Switch
 1        0006.f2d2.2d2f   dynamic ip,ipx,assigned,other Ethernet1/24
 1        6026.aa33.3333   dynamic ip,ipx,assigned,other Ethernet1/12
 1        fa16.6edb.6666   dynamic ip,ipx,assigned,other Ethernet1/8
 1        fa16.7e7d.7777   dynamic ip,ipx,assigned,other Ethernet1/10"""

# 加载 file1.txt
# 由于 file1 只有一列,直接读取即可,并命名列为 'ipv4'
df1 = pd.read_csv(io.StringIO(file1_content), header=None, names=['ipv4'])

# 加载 file2.txt
# file2 是固定宽度格式,需要指定列宽或使用空格作为分隔符
# 这里使用 read_fwf 更合适,但为了与原始答案保持一致,我们手动构造DataFrame
# 实际应用中,如果列名清晰且分隔符一致,read_csv(sep=r'\s+') 也是一个选择
df2 = pd.read_csv(io.StringIO(file2_content), sep=r'\s+', engine='python')

# 加载 file3.txt
# file3 也有一些特殊的分隔符和标题行,需要处理
# 同样,这里手动构造DataFrame,实际可使用 read_csv 或 read_fwf
# 注意:file3_content 的第一行是标题,第二行是分隔线,实际读取时需要跳过分隔线
df3_lines = file3_content.splitlines()
df3 = pd.read_csv(io.StringIO("\n".join(df3_lines[2:])), sep=r'\s+', engine='python')

# 打印加载后的数据框,检查是否正确
print("df1:\n", df1)
print("\ndf2:\n", df2)
print("\ndf3:\n", df3)

实际文件加载示例: 如果文件是真实存在的,你可以这样加载:

# df1 = pd.read_csv('file1.txt', header=None, names=['ipv4'])
# df2 = pd.read_csv('file2.txt', sep=r'\s+', engine='python') # 假设是空格分隔
# df3 = pd.read_csv('file3.txt', sep=r'\s+', skiprows=[1], engine='python') # 跳过第二行分隔线

3. 使用 Pandas merge 操作关联数据

Pandas 的 merge 函数是进行数据关联的核心工具,它类似于 SQL 中的 JOIN 操作。我们需要进行两次合并:

  1. 将 df1 (IP地址列表) 与 df2 (IP-MAC映射) 合并,基于 df1 的 ipv4 列和 df2 的 Address 列。
  2. 将第一次合并的结果与 df3 (MAC-Port映射) 合并,基于结果 DataFrame 的 Addr 列和 df3 的 mac address 列。

我们使用 how="inner" 参数,这意味着只保留在两个 DataFrame 中都存在匹配键的行,这符合我们“查找并关联”的需求。

# 第一次合并:df1 (ipv4) 与 df2 (Address)
# 关联键:df1['ipv4'] == df2['Address']
merged_df_1_2 = df1.merge(df2, how="inner", left_on="ipv4", right_on="Address")
print("\n第一次合并结果 (df1与df2):\n", merged_df_1_2)

# 第二次合并:merged_df_1_2 (Addr) 与 df3 (mac address)
# 关联键:merged_df_1_2['Addr'] == df3['mac address']
final_merged_df = merged_df_1_2.merge(df3, how="inner", left_on="Addr", right_on="mac address")
print("\n最终合并结果 (df1, df2, df3):\n", final_merged_df)

4. 提取并格式化输出结果

经过两次合并后,final_merged_df 包含了所有我们需要的关联信息。现在,我们只需选择所需的列 (ipv4, Addr, port) 并按照指定格式输出。

# 选择需要的列
result_columns = final_merged_df[["ipv4", "Addr", "port"]]

# 打印最终结果
print("\n最终提取结果:")
for index, row in result_columns.iterrows():
    print(f"ip {row['ipv4']} addr {row['Addr']} port {row['port']}")

预期输出:

ip 1.1.1.1 addr 6026.aa11.1111 port Switch
ip 1.1.1.2 addr 0006.f2d2.2d2f port Ethernet1/24
ip 1.1.1.3 addr 6026.aa33.3333 port Ethernet1/12
ip 1.1.1.6 addr fa16.6edb.6666 port Ethernet1/8
ip 1.1.1.11 addr fa16.7e7d.7777 port Ethernet1/10

5. 注意事项与总结

  • 数据清洗与预处理: 在实际应用中,文件中的数据可能不总是干净的。例如,列名可能包含空格或特殊字符,数据类型可能不一致,或者存在缺失值。在使用 read_csv 等函数时,可能需要结合 skiprows, header, sep, names, dtype 等参数进行预处理。对于本例中的 file3.txt,其标题下有一行分隔符,需要用 skiprows 跳过。
  • 合并类型 (how 参数):
    • inner (内连接): 只保留两个DataFrame中都存在的匹配键的行。
    • left (左连接): 保留左DataFrame的所有行,以及右DataFrame中匹配的行。如果右DataFrame没有匹配项,则结果中对应列为 NaN。
    • right (右连接): 与左连接类似,但以右DataFrame为基准。
    • outer (外连接): 保留两个DataFrame中的所有行,如果某侧没有匹配项,则结果中对应列为 NaN。 根据具体需求选择合适的连接方式。
  • 性能优化: 对于非常大的文件,Pandas 的 read_csv 和 merge 操作通常比纯 Python 循环更高效,因为它们底层是用 C/C++ 实现的优化算法。
  • 列名一致性: 确保用于合并的列名在 left_on 和 right_on 参数中正确指定。如果列名相同,可以直接使用 on='column_name'。

通过上述步骤,我们展示了如何利用 Pandas 库以一种专业且高效的方式处理多文件数据关联任务。这种方法不仅代码简洁易读,而且在处理大规模数据集时表现出卓越的性能。掌握 Pandas 的 DataFrame 和 merge 操作是进行数据分析和处理的关键技能。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
数据分析工具有哪些
数据分析工具有哪些

数据分析工具有Excel、SQL、Python、R、Tableau、Power BI、SAS、SPSS和MATLAB等。详细介绍:1、Excel,具有强大的计算和数据处理功能;2、SQL,可以进行数据查询、过滤、排序、聚合等操作;3、Python,拥有丰富的数据分析库;4、R,拥有丰富的统计分析库和图形库;5、Tableau,提供了直观易用的用户界面等等。

707

2023.10.12

SQL中distinct的用法
SQL中distinct的用法

SQL中distinct的语法是“SELECT DISTINCT column1, column2,...,FROM table_name;”。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

327

2023.10.27

SQL中months_between使用方法
SQL中months_between使用方法

在SQL中,MONTHS_BETWEEN 是一个常见的函数,用于计算两个日期之间的月份差。想了解更多SQL的相关内容,可以阅读本专题下面的文章。

350

2024.02.23

SQL出现5120错误解决方法
SQL出现5120错误解决方法

SQL Server错误5120是由于没有足够的权限来访问或操作指定的数据库或文件引起的。想了解更多sql错误的相关内容,可以阅读本专题下面的文章。

1221

2024.03.06

sql procedure语法错误解决方法
sql procedure语法错误解决方法

sql procedure语法错误解决办法:1、仔细检查错误消息;2、检查语法规则;3、检查括号和引号;4、检查变量和参数;5、检查关键字和函数;6、逐步调试;7、参考文档和示例。想了解更多语法错误的相关内容,可以阅读本专题下面的文章。

360

2024.03.06

oracle数据库运行sql方法
oracle数据库运行sql方法

运行sql步骤包括:打开sql plus工具并连接到数据库。在提示符下输入sql语句。按enter键运行该语句。查看结果,错误消息或退出sql plus。想了解更多oracle数据库的相关内容,可以阅读本专题下面的文章。

799

2024.04.07

sql中where的含义
sql中where的含义

sql中where子句用于从表中过滤数据,它基于指定条件选择特定的行。想了解更多where的相关内容,可以阅读本专题下面的文章。

581

2024.04.29

sql中删除表的语句是什么
sql中删除表的语句是什么

sql中用于删除表的语句是drop table。语法为drop table table_name;该语句将永久删除指定表的表和数据。想了解更多sql的相关内容,可以阅读本专题下面的文章。

423

2024.04.29

Python 自然语言处理(NLP)基础与实战
Python 自然语言处理(NLP)基础与实战

本专题系统讲解 Python 在自然语言处理(NLP)领域的基础方法与实战应用,涵盖文本预处理(分词、去停用词)、词性标注、命名实体识别、关键词提取、情感分析,以及常用 NLP 库(NLTK、spaCy)的核心用法。通过真实文本案例,帮助学习者掌握 使用 Python 进行文本分析与语言数据处理的完整流程,适用于内容分析、舆情监测与智能文本应用场景。

10

2026.01.27

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.3万人学习

Django 教程
Django 教程

共28课时 | 3.6万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.3万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号