0

0

Pandas DataFrame中NLP文本预处理的正确顺序与类型处理

聖光之護

聖光之護

发布时间:2025-07-22 19:44:25

|

345人浏览过

|

来源于php中文网

原创

Pandas DataFrame中NLP文本预处理的正确顺序与类型处理

本文深入探讨在Pandas DataFrame中进行NLP文本预处理时常见的类型不匹配问题及其解决方案。重点阐述了在不同预处理步骤中(如分词、大小写转换、停用词移除、词形还原等)如何正确处理字符串与列表类型数据的转换,并提供了一个结构清晰、类型安全的Python代码示例,以确保预处理流程的顺畅与高效。

引言:NLP文本预处理的挑战

在自然语言处理(nlp)任务中,文本预处理是至关重要的一步,它直接影响后续模型训练的效果和性能。然而,当我们在pandas dataframe中处理文本数据时,常常会遇到一个核心挑战:不同预处理函数对输入数据类型(字符串或字符串列表)的要求不一致,导致 attributeerror 等类型错误。例如,str.split() 方法只能应用于字符串,而不能应用于列表。理解数据在不同处理阶段的类型变化,并采取相应的处理策略,是构建健壮高效预处理管道的关键。

核心问题:类型不匹配与处理顺序

在构建文本预处理流程时,一个常见的错误是将分词(Tokenization)操作过早地应用于DataFrame列,导致列中的每个单元格从单个字符串变为一个单词列表。此后,如果继续使用期望字符串作为输入的函数(例如 contractions.fix()、unidecode() 或 re.sub()),就会引发 AttributeError: 'list' object has no attribute 'split' 等错误。

正确的处理方式是,一旦数据被分词成列表,后续所有针对单个单词的操作都必须通过遍历列表中的每个单词来完成。这意味着需要将操作封装在列表推导式中,如 [func(word) for word in x],其中 x 是一个单词列表。

构建类型安全的预处理管道

为了解决上述问题并构建一个类型安全的文本预处理管道,我们需要仔细规划每个步骤,并确保函数能够正确处理当前数据类型。

1. 必要的库和资源导入

首先,导入所需的Python库和NLTK资源。

光子AI
光子AI

AI电商服饰商拍平台

下载
import pandas as pd
import nltk
from nltk.corpus import stopwords
from nltk.stem import WordNetLemmatizer
from nltk.corpus import wordnet
from nltk.tokenize import word_tokenize
import re
import string
from unidecode import unidecode
import contractions
from textblob import TextBlob # 注意:TextBlob可能需要单独安装
# nltk.download('punkt')
# nltk.download('stopwords')
# nltk.download('wordnet')
# nltk.download('averaged_perceptron_tagger')

2. 辅助函数:智能词形还原(Lemmatization)

词形还原通常需要词性(Part-of-Speech, POS)信息以获得更准确的结果。由于我们的数据在经过分词后将是单词列表,我们需要一个能够接受单词列表并对每个单词进行POS标记和词形还原的辅助函数。

def lemmatize_words(words_list, lemmatizer, pos_tag_dict):
    """
    对单词列表进行POS标记并执行词形还原。
    Args:
        words_list (list): 待处理的单词列表。
        lemmatizer (nltk.stem.WordNetLemmatizer): WordNet词形还原器实例。
        pos_tag_dict (dict): NLTK POS标签到WordNet POS标签的映射字典。
    Returns:
        list: 词形还原后的单词列表。
    """
    lemmatized_words = []
    # 对整个单词列表进行POS标记,效率更高
    pos_tuples = nltk.pos_tag(words_list)

    for word, nltk_word_pos in pos_tuples:
        # 获取WordNet对应的词性
        wordnet_word_pos = pos_tag_dict.get(nltk_word_pos[0].upper(), None)
        if wordnet_word_pos is not None:
            new_word = lemmatizer.lemmatize(word, wordnet_word_pos)
        else:
            new_word = lemmatizer.lemmatize(word) # 默认动词
        lemmatized_words.append(new_word)
    return lemmatized_words

3. 主处理函数:processing_steps(df)

这个函数将包含所有预处理步骤,并确保每一步都正确处理数据类型。

def processing_steps(df):
    """
    对DataFrame中的文本列执行一系列NLP预处理步骤。
    Args:
        df (pd.DataFrame): 包含文本数据的DataFrame。
    Returns:
        pd.DataFrame: 预处理后的DataFrame。
    """
    lemmatizer = WordNetLemmatizer()
    # 定义NLTK POS标签到WordNet POS标签的映射
    pos_tag_dict = {"J": wordnet.ADJ, "N": wordnet.NOUN, "V": wordnet.VERB, "R": wordnet.ADV}

    # 初始化停用词列表
    local_stopwords = set(stopwords.words('english'))
    additional_stopwords = ["http", "u", "get", "like", "let", "nan"]
    words_to_keep = ["i'", "i", "me", "my", "we", "our", "us"] # 确保这些词不会被移除
    local_stopwords.update(additional_stopwords)
    # 从停用词中移除需要保留的词
    for word in words_to_keep:
      if word in local_stopwords:
        local_stopwords.remove(word)

    new_data = {} # 用于存储处理后的数据

    for column in df.columns:
        # 复制原始列数据进行处理,避免直接修改原始DataFrame
        results = df[column].copy()

        # 1. 分词 (Tokenization)
        # 将每个字符串单元格转换为单词列表
        results = results.apply(word_tokenize)

        # 从这里开始,'results' 中的每个元素都是一个单词列表。
        # 因此,所有后续操作都需要通过列表推导式应用于列表中的每个单词。

        # 2. 小写化 (Lowercasing each word within the list)
        results = results.apply(lambda x: [word.lower() for word in x])

        # 3. 移除停用词 (Removing stopwords)
        # 移除非字母字符和停用词
        results = results.apply(lambda tokens: [word for word in tokens if word.isalpha() and word not in local_stopwords])

        # 4. 替换变音符号 (Replace diacritics)
        # unidecode函数期望字符串输入,因此需要对列表中的每个单词应用
        results = results.apply(lambda x: [unidecode(word, errors="preserve") for word in x])

        # 5. 扩展缩写 (Expand contractions)
        # contractions.fix期望字符串输入。这里假设每个“单词”可能包含缩写(如"don't"),
        # 并且扩展后可能变成多个词(如"do not")。
        # word.split()在这里是为了确保contractions.fix处理的是一个完整的短语,
        # 并将可能产生的多个词重新组合。
        results = results.apply(lambda x: [" ".join([contractions.fix(expanded_word) for expanded_word in word.split()]) for word in x])

        # 6. 移除数字 (Remove numbers)
        # re.sub期望字符串输入,对列表中的每个单词应用
        results = results.apply(lambda x: [re.sub(r'\d+', '', word) for word in x])

        # 7. 移除标点符号 (Remove punctuation except period)
        # re.sub期望字符串输入,对列表中的每个单词应用
        # 保留句号,因为它们可能用于句子的分割或表示缩写
        results = results.apply(lambda x: [re.sub('[%s]' % re.escape(string.punctuation.replace('.', '')), '' , word) for word in x])

        # 8. 移除多余空格 (Remove double space)
        # re.sub期望字符串输入,对列表中的每个单词应用
        results = results.apply(lambda x: [re.sub(' +', ' ', word).strip() for word in x]) # .strip()去除首尾空格

        # 9. 词形还原 (Lemmatization)
        # 使用我们自定义的lemmatize_words函数,它接受一个单词列表
        results = results.apply(lambda x: lemmatize_words(x, lemmatizer, pos_tag_dict))

        # 10. (可选) 拼写纠错 (Typos correction)
        # TextBlob.correct() 通常在完整的句子或段落上表现更好。
        # 如果在此阶段应用,它将对每个单词进行纠错,可能效果不佳或效率低下。
        # 如果需要,可以考虑在分词前进行,或在所有处理完成后将词列表重新连接成字符串再进行。
        # results = results.apply(lambda x: [str(TextBlob(word).correct()) for word in x])

        # 将处理后的列存入新字典
        new_data[column] = results

    # 将处理后的数据转换为新的DataFrame
    new_df = pd.DataFrame(new_data)

    return new_df

示例用法:

# 创建一个示例DataFrame
data = {
    'title': ["Don't you love NLP?", "This is an amazing article about ML. I've read it 10 times."],
    'body': ["It's really cool. I'm learning a lot. https://example.com", "The author is great! He doesn't skip anything."]
}
df = pd.DataFrame(data)

print("原始DataFrame:")
print(df)

# 执行预处理
processed_df = processing_steps(df.copy()) # 传入副本,避免修改原始df

print("\n预处理后的DataFrame:")
print(processed_df)

预处理的最佳实践与注意事项

  1. 操作顺序的重要性
    • 缩写扩展:contractions.fix() 最好在分词前或在分词后针对每个词进行。如果在分词后进行,需要确保它能处理单个词,并正确处理扩展后可能产生的多个词。
    • 大小写转换:通常在早期进行,以便后续操作(如停用词移除)能够正确匹配。
    • 停用词、数字、标点移除:通常在分词和大小写转换后进行,因为它们依赖于识别单个词。
    • 词形还原/词干提取:通常在分词、大小写转换和POS标记后进行。
    • 拼写纠错:TextBlob 等工具在处理完整的句子或较长的文本时效果最佳。如果在分词

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

78

2025.12.04

Python 数据清洗与预处理实战
Python 数据清洗与预处理实战

本专题系统讲解 Python 在数据清洗与预处理中的核心技术,包括使用 Pandas 进行缺失值处理、异常值检测、数据格式化、特征工程与数据转换,结合 NumPy 高效处理大规模数据。通过实战案例,帮助学习者掌握 如何处理混乱、不完整数据,为后续数据分析与机器学习模型训练打下坚实基础。

12

2026.01.31

数据类型有哪几种
数据类型有哪几种

数据类型有整型、浮点型、字符型、字符串型、布尔型、数组、结构体和枚举等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

334

2023.10.31

php数据类型
php数据类型

本专题整合了php数据类型相关内容,阅读专题下面的文章了解更多详细内容。

223

2025.10.31

c语言 数据类型
c语言 数据类型

本专题整合了c语言数据类型相关内容,阅读专题下面的文章了解更多详细内容。

138

2026.02.12

js 字符串转数组
js 字符串转数组

js字符串转数组的方法:1、使用“split()”方法;2、使用“Array.from()”方法;3、使用for循环遍历;4、使用“Array.split()”方法。本专题为大家提供js字符串转数组的相关的文章、下载、课程内容,供大家免费下载体验。

718

2023.08.03

js截取字符串的方法
js截取字符串的方法

js截取字符串的方法有substring()方法、substr()方法、slice()方法、split()方法和slice()方法。本专题为大家提供字符串相关的文章、下载、课程内容,供大家免费下载体验。

219

2023.09.04

java基础知识汇总
java基础知识汇总

java基础知识有Java的历史和特点、Java的开发环境、Java的基本数据类型、变量和常量、运算符和表达式、控制语句、数组和字符串等等知识点。想要知道更多关于java基础知识的朋友,请阅读本专题下面的的有关文章,欢迎大家来php中文网学习。

1561

2023.10.24

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

1

2026.03.06

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 4.8万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.8万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号