
本文介绍一种安全、可靠且语义正确的方式,利用 beautifulsoup 的 `find_all(text=true)` 配合 `extract()` 方法,彻底移除 html 中所有纯文本节点(包括嵌套在标签内的文本),避免正则表达式处理 html 带来的解析风险。
在 HTML 文本处理中,有时需要清空所有可见文本内容(如用于生成结构模板、脱敏或构建骨架屏),但保留完整的标签结构和属性。虽然正则表达式(如 re.sub(">(.*?)\1 等边界情况而失效,不推荐用于真实 HTML 解析。
更专业、健壮的方案是使用 HTML 解析器——BeautifulSoup。其核心思路是:将所有纯文本节点(即 NavigableString 类型)识别出来,并调用 .extract() 方法从 DOM 树中完全移除它们,而非仅置空 .string(后者无法处理多文本片段或前后空白)。
以下为完整示例代码:
from bs4 import BeautifulSoup html = '''
Chips and molcajete salsa
立即学习“前端免费学习笔记(深入)”;
输出结果将保留全部标签结构与属性,但所有文本内容(含 $、4、空格、换行等)均被清除:
⚠️ 注意事项:
- find_all(text=True) 会匹配所有文本节点(包括 \n、\t、空格等不可见字符),确保真正“清零”;
- 不要使用 n.string = "",因为它仅适用于 element 有且仅有一个直接子文本节点的情况;若存在多个文本节点(如 $ 4 中 $ 和 4 之间有空格),.string 为 None,赋值无效;
- 若需保留部分文本(如仅清除数字或特定关键词),应改用条件判断 + replace_with("") 或 decompose();
- 处理完后可结合 htmlmin.minify(str(soup)) 进一步压缩输出,但注意 minify 不影响逻辑结构。
总结:永远优先选择 HTML 解析器而非正则来操作 HTML。find_all(text=True) + extract() 是清除文本最简洁、最鲁棒的标准做法,兼顾准确性、可读性与维护性。











