NLP学习路线图(十二):停用词处理

article/2025/6/28 14:23:45

一、 文本预处理的基石:为什么关注停用词?

在自然语言处理(NLP)的流程中,原始文本数据必须经过预处理才能被算法有效理解。文本预处理包括:

  • 分词(Tokenization)

  • 停用词过滤(Stopword Removal)

  • 词干提取/词形还原(Stemming/Lemmatization)

  • 大小写转换(Lowercasing)

  • 拼写校正等步骤

其中,停用词处理直接关系到特征空间的质量与模型效率。未经处理的文本中,高频功能词(如“的”、“是”、“in”、“the”)占比可达30%-50%,这些词汇:

  1. 携带极少语义信息

  2. 显著增加计算复杂度

  3. 稀释关键词语义权重

  4. 导致稀疏特征矩阵问题 

例如在情感分析中,“这个产品真的非常”中,“真的”作为停用词去除后,“非常好”的情感强度反而更突出。 

 

二、 停用词的深层定义:超越直觉的理解

2.1 语言学视角

停用词(Stop Words)主要指不承担核心语义功能的词语类别:

  • 功能词:介词(in, on)、连词(and, or)、冠词(a, the)

  • 代词:我、你、它(I, you, it)

  • 助动词:是、有(be, have)

  • 部分副词:很、非常(very, extremely)

2.2 统计学视角

基于词频(TF-IDF)的停用词判定:

from sklearn.feature_extraction.text import TfidfVectorizercorpus = ["This is a sample document.", "Another example document."]
vectorizer = TfidfVectorizer()
X = vectorizer.fit_transform(corpus)# 输出词项IDF值
print(dict(zip(vectorizer.get_feature_names_out(), vectorizer.idf_)))

输出示例:

{'document': 1.0, 'sample': 1.4, 'this': 1.4, 'is': 1.4, 'a': 1.4} 
# "a", "is", "this" 具有较高IDF?实际场景需更大语料

关键洞察:完全依赖预设词表可能导致错误过滤。如“can”在“I can help”中为助动词,但在“tin can”中为名词。

三、 停用词处理的核心方法

3.1 基于预定义词表(Rule-Based)
  • 常用库默认词表

    • NLTK:179个英文停用词

    • spaCy:326个英文停用词

    • 中文:哈工大停用词表(1200+)、百度停用词表

      # 中文停用词过滤示例 (Jieba分词)
      import jieba
      from jieba.analyse import set_stop_wordsset_stop_words("chinese_stopwords.txt")
      text = "机器学习模型需要高质量的数据预处理"
      words = [word for word in jieba.cut(text) if word not in stopwords]
      # ['机器学习', '模型', '需要', '高质量', '数据', '预处理']
3.2 基于统计阈值(Data-Driven)
  • 词频倒排法:移除语料中频率最高的前N%词语

  • TF-IDF阈值法:过滤IDF值低于阈值的词项

  • 词熵筛选法:选择信息熵高的词语保

    # 基于词频自动生成停用词表
    from collections import Counterword_counts = Counter(all_tokens)
    top_10_percent = int(len(word_counts) * 0.1)
    stopwords_auto = {word for word, count in word_counts.most_common(top_10_percent)}

3.3 混合方法(Hybrid Approach)
  • 使用基础词表进行初筛
  • 基于当前语料统计动态补充
  • 结合词性标注(POS Tagging)过滤特定词性
    # spaCy实现词性辅助过滤
    import spacynlp = spacy.load("en_core_web_sm")
    doc = nlp("The quick brown fox jumps over the lazy dog")
    filtered = [token.text for token in doc if not token.is_stop and token.pos_ not in ["DET", "AUX"]]

四、 多语言停用词处理的特殊挑战

4.1 中文处理的特殊性
  • 分词依赖:停用词移除必须在分词后进行

  • 虚词复杂性:如助词“了”、“着”、“过”的语义敏感性

  • 未登录词问题:新词与停用词冲突(如“的士”含“的”)

解决方案

  • 使用分词工具的词性标注功能

  • 构建领域自适应停用词表

    # Jieba词性标注过滤
    import jieba.posseg as psegwords = pseg.cut("人工智能的发展速度惊人")
    filtered = [word for word, flag in words if flag not in ['u', 'c'] and word not in stopwords]
4.2 形态丰富语言(如俄语、阿拉伯语)
  • 功能词存在复杂变体

  • 需要词形归一化后再过滤

  • 示例:阿拉伯语冠词 "ال" (al-) 需处理附着形式

五、 实践中的关键决策点

5.1 何时应该保留停用词?
  • 情感分析:否定词(not, never)决定情感极性

  • 问答系统:代词(it, he)可能指代关键实体

  • 短语检索:介词决定关系(“flight to” vs “flight from”)

5.2 领域自适应策略
  1. 医疗领域:保留否定词(“no”, “negative”)

  2. 法律文本:保留情态动词(“shall”, “must”)

  3. 社交媒体:添加网络用语停用词(“lol”, “omg”)

领域停用词扩展代码

medical_stopwords = base_stopwords - {'no', 'without', 'negative'} | {'patient', 'diagnosis'}  # 添加领域高频非功能词

六、 主流NLP库的停用词实现对比

工具语言支持词表大小自定义便捷性词性集成
NLTK多语言★★☆★★★
spaCy多语言★★★★★☆
Gensim多语言★★☆★★★
Jieba中文★★★★★★
SnowNLP中文★★☆★★☆
# spaCy停用词自定义示例
from spacy.lang.en.stop_words import STOP_WORDS# 添加新停用词
STOP_WORDS |= {"awesome", "cool"}
# 从停用词集中移除
STOP_WORDS.remove("not")

七、 处理陷阱与最佳实践

7.1 常见错误
  • 过度过滤:删除否定词导致语义反转

  • 跨语言误用:英文词表用于中文处理

  • 忽略大小写:“US” (美国) vs “us” (我们)

  • 未处理变形:goes, went 未关联到go

7.2 最佳实践清单
  1. 任务驱动选择:根据下游任务决定过滤策略

  2. 语料分析先行:可视化词频分布(词云/直方图)

  3. 保留否定词:显式标记否定范围

  4. 版本控制词表:记录停用词表版本

  5. A/B测试验证:比较过滤前后的模型效果

    # 否定范围处理示例(spaCy依赖解析)
    def handle_negation(doc):negations = {"not", "no", "never"}for token in doc:if token.dep_ == "neg" or token.text in negations:# 标记后续词语为否定for child in token.head.children:child._.is_negated = Truereturn doc

八、 深度学习时代的新思考

8.1 嵌入技术的挑战
  • Word2Vec/GloVe等嵌入模型受停用词影响:

    • 高频停用词作为上下文噪声

    • 但可能携带风格/作者信息

  • BERT等Transformer模型:

    • 自注意力机制自动学习词语重要性

    • [CLS], [SEP]等特殊标记部分替代停用词功能

8.2 可解释性需求
  • 在模型决策解释中,停用词可能揭示:

    • 文本风格特征

    • 模板化结构

    • 作者写作习惯

实验数据:在新闻分类任务中,保留停用词使CNN模型的准确率下降2.3%,但提高了可解释性报告中关键短语的完整性。 

九、 完整处理流程示例(英文+中文)

# ===== 英文处理流水线 =====
import spacy
nlp_en = spacy.load("en_core_web_sm")def preprocess_en(text):doc = nlp_en(text)return [token.lemma_.lower()for token in docif not token.is_stop and not token.is_punctand token.is_alpha]# ===== 中文处理流水线 =====
import jieba
import jieba.posseg as psegjieba.load_userdict("custom_dict.txt")
stopwords = set(open('chinese_stopwords.txt').read().splitlines())def preprocess_zh(text):words = pseg.cut(text)return [word for word, flag in wordsif word not in stopwords and flag not in ['x', 'c']  # 过滤助词和连词and len(word) > 1  # 移除单字非实体]

十、 未来发展与总结

10.1 进化方向
  • 动态停用词识别:基于上下文的实时过滤

  • 跨语言统一框架:解决低资源语言问题

  • 神经网络过滤层:可学习的端到端停用词模块

10.2 核心结论

停用词处理不是简单的“删除高频词”,而是一个需要结合语言学知识、统计方法和业务目标的决策过程。在当今NLP实践中:

  1. 传统方法依然在轻量级场景中占优

  2. 深度学习模型降低了预处理的重要性

  3. 可解释性需求使停用词分析焕发新生


http://www.hkcw.cn/article/QjEJdWoOpq.shtml

相关文章

vue3项目之大事件管理系统(三) 二级路由:文章分类页,文章管理页

文章目录 一.文章分类页1.封装pageContainer组件2.调用PageContainer组件3.渲染文章分类页ArticleChannel封装api接口页面调用动态渲染父传子优化:添加loading效果优化:无数据返回时的页面渲染 4.添加弹层并显示弹层组件封装ChannelEdit.vue组件在文章列表页ArticleChannel调用…

成都银行14年估值大逆转 政务类业务助力逆袭

2022年以来,中国银行业普遍面临信贷需求不足的难题,资产扩张明显放缓,但成都银行似乎并不存在这个烦恼。2021年至2024年间,上市银行(含港股)总资产合计增长了33%。其中,成都银行异军突起,成为扩张最快的商业银行——期间其总资产增长了63%,居上市银行首位。财报数据显…

端午快乐还是端午安康 祝福语之争引发热议

端午节这天,许多网友在互道祝福时犯了难,到底是祝“端午快乐”还是“端午安康”。其实不必太纠结。说“快乐”没问题,说“安康”也可以。设立端午节的初衷是欢乐喜庆、祛毒平安的。古诗词中也有描绘端午节快乐祥和的诗句,如《端午三殿宴群臣并序》中的“叹节气之循环,美君…

百年陈韵,三代匠心——陈汇堂新会陈皮的传承与新生

百年陈韵,三代匠心——陈汇堂新会陈皮的传承与新生 在五邑大地氤氲的柑橘香里,藏着一段跨越世纪的陈皮传奇。自清末民初的货郎担起第一篓新会柑皮,到如今现代化仓储中静默陈化的岁月瑰宝,陈汇堂三代人用双手编织出一张贯通历史与…

只剩几面烂墙的别墅拍出2683万 瑕疵房产高价成交

近日,在京东资产交易平台上,一栋存在瑕疵的别墅(国有建设用地使用权部分)进行了司法拍卖。起拍价为2073万元,最终以2683万元成交。照片显示,这栋别墅周围搭起了钢架,地面部分只剩几面墙,且部分墙体的钢筋裸露在外,地面散落着碎石,房屋结构已不完整。评估报告显示,此…

吴宣仪《浪姐》助阵嘉宾引粉丝不满 友谊助攻惹争议

近日,吴宣仪选择刘宇作为《乘风2025》总决赛的助演嘉宾,引发部分粉丝不满。吴宣仪在超话中回应称,不应将个人意愿强加于她,她的朋友来助阵应该受到热烈欢迎。她还表示未来还有很多机会,并喜欢听话不乱闹的可爱粉丝。吴宣仪1995年出生于海南海口,2016年正式出道。2018年参…

SkyWalking如何实现跨线程Trace传递

一、概述 SkyWalking 的中构建 Trace 信息时会借助 ThreadLocal来存储一些上下文信息,当遇到跨线程的时候,如果 Trace 的上下文信息没有传递到新线程的ThreadLocal 中,那么链路就断开了。那么SkyWalking是如何解决这个问题的呢? …

日本版安踏在中国“杀”疯了 复古潮流引领销量逆袭

亚瑟士这个品牌虽然名气不如耐克和阿迪达斯,但在地铁通勤、公园晨跑和马拉松比赛中却经常看到人们穿着。亚瑟士被称为“日本版安踏”,近两年在国内越来越受欢迎。亚瑟士的国际化战略与安踏有相似之处。自2006年进入中国市场以来,亚瑟士在中国的表现一直不佳,大部分时间都在…

大明湖一龙舟刚开赛就翻船 网友调侃 北方人不擅水战

北方人不擅长水战这一点再次得到了体现。5月31日,正值端午佳节,山东济南大明湖景区举办了一场龙舟赛,吸引了大量游客前来观赛。比赛于上午9时39分左右开始,两只龙舟敲鼓出发展开角逐。然而,刚一开始,围观的人群中就传来呼声,有游客发现一艘龙舟翻船了,比赛似乎在瞬间结…

杨丞琳发文为42岁陈妍希庆生 愿好友事事顺心

5月31日凌晨,杨丞琳发文为陈妍希庆生,祝福她事事顺心,每天都幸福快乐,并表示永远爱她。2月18日,陈晓和陈妍希在社交平台上宣布离婚。杨丞琳在接受采访时说,作为好友,她尊重陈妍希处理个人事务的方式。得知消息时,她和其他人一样感到意外,但作为姐妹,无论遇到什么转折…

保卫处招硕士研究生 扬州大学回应 非保安岗位需专业背景

近日,有教育机构发布了一则信息,扬州大学计划在2025年招聘人事代理工作人员。其中,学校保卫处需要招聘一名从事校园消防安全与应急管理工作的人员,该岗位要求硕士研究生学历。在扬州大学信息公开网上可以找到这则招聘信息,由学校人力资源处于5月28日发布。该岗位的主要职责…

专家:美断供航发漏算中国国产实力 自主创新迎突破

在当今全球化时代,科技竞争成为国际竞争的核心领域。美国作为科技强国,常利用技术优势对其他国家进行技术封锁以维护自身领先地位。近期,美国突然宣布停止向中国商飞公司提供航空发动机关键技术,目标直指中国自主研发的C919大飞机。这一举措是对中国航空产业的挑战,也是国…

六一儿童节前50份心愿在病房里点亮 为血液病儿童送上温暖

六一儿童节前夕,5月30日,成都市妇女儿童中心医院血液科的护士站忙碌起来。护士和志愿者们将病房里孩子们的心愿礼物包装整齐,准备开启一场特殊的旅程——这是成都市点亮微心愿血液病儿童关爱中心与成都市妇女儿童中心医院连续第七年发起的“心愿计划”,旨在儿童节期间为住院…

一文详谈Linux中的时间管理和定时器编程

(目录) 先说一些在计算机中需要用到时间的地方:系统日志log、OS调度(时间片、定时器)等等~~ 时间的计量 计时的方式发展:日晷、沙漏 -> 机械钟 -> 石英振荡器、晶振 -> 铯原子钟 -> 氢原子钟 计算机中的计时方式&…

88岁谢贤现身公园游玩 风采依旧

5月27日,媒体拍摄到88岁的演艺圈“常青树”谢贤外出逛公园。他坐着轮椅出行,由两位菲佣保姆细心照料。镜头下的谢贤状态不佳,身体状况明显不如从前,即使拄着拐杖也只能缓慢行走一小段路,且需要搀扶。尽管如此,四哥的帅气依旧不减当年。他戴着一顶黑色棒球帽,这个习惯多年…

泰一幼儿园发生食物中毒事件 数百学生受影响

当地时间5月29日,泰国乌隆他尼府一所幼儿园发生集体食物中毒事件,数百名学生出现呕吐、腹部绞痛、腹泻等症状。截至目前,已有超过200名学生出现食物中毒症状,其中88人住院治疗,3人病情严重。责任编辑:zx0001

吴宣仪回应刘宇粉丝 舞台合作我做主

《浪姐6》的舞台从来不缺话题,这次吴宣仪邀请刘宇作为助阵嘉宾,却意外引发粉丝争议。部分粉丝在社交平台表达不满,认为两人的风格不搭,甚至担心会影响吴宣仪的表现。面对质疑,吴宣仪直接回应:“朋友来助阵应该热烈欢迎,别把个人情绪强加到我身上。”这句话瞬间点燃讨论,…

被保姆拐走33年的男婴结婚了 命运的重逢

2018年初,重庆的朱晓娟接到一个电话,询问她26年前是否丢过一个儿子。朱晓娟肯定地回答“是”,并告诉对方丢失的儿子已经被公安机关找回,现在早已长大成人。随后,记者给她发了一张照片,照片上的小孩与朱晓娟的小儿子特别像。这勾起了朱晓娟对1992年的回忆。当时,她和丈夫…

xQueueSendFromISR使用

建议: 在99%的应用中,应该始终使用标准模式: BaseType_t xHigherPriorityTaskWoken pdFALSE; xQueueSendFromISR(..., &xHigherPriorityTaskWoken); portYIELD_FROM_ISR(xHigherPriorityTaskWoken);

46岁卡车司机在高原缺氧去世 高原司机的宿命

常志荣,一个来自河南安阳的46岁卡车司机,在青藏线上不幸离世,成为热议话题。大家在微信群里转发新闻,感慨万千,仿佛在说:这就是高原司机的宿命。他成了人们口中的新故事,尽管结局悲惨。青藏线高海拔、缺氧,稍有不慎就可能送命。常志荣知道这一点,但为了养活六个孩子,…