requests.get() 返回空或乱码主因是编码未正确设置,应优先用 r.apparent_encoding 或手动设 utf-8/gbk;beautifulsoup 找不到元素常因 js 渲染导致源码无目标标签;反爬需合理 headers、控制频率;中文 url 必须 quote 编码。

requests.get() 返回空内容或乱码
多数人卡在这一步:明明 URL 能在浏览器打开,requests.get() 却拿不到正文,或者返回一堆问号、方块。核心原因是没处理响应编码——requests 默认用 ISO-8859-1 解码,而网页实际是 UTF-8 或 GBK。
实操建议:
立即学习“Python免费学习笔记(深入)”;
- 永远手动设
r.encoding,优先试r.encoding = r.apparent_encoding(基于内容自动推测,比r.encoding更靠谱) - 如果
apparent_encoding错了(比如识别成Windows-1254),就查网页<meta charset="...>或响应头Content-Type,硬写死,例如r.encoding = 'utf-8' - 别依赖
r.text直接输出,先打印len(r.content)和r.status_code确认请求真成功了——403、406、被重定向到登录页都可能让r.text看似“有内容”实则无效
BeautifulSoup 解析失败:find() 返回 None
不是代码写错了,是 HTML 结构和你看到的不一致。浏览器里按 F12 看到的 DOM 是 JS 渲染后的,而 requests 拿到的是原始 HTML,里面往往没有目标标签。
实操建议:
立即学习“Python免费学习笔记(深入)”;
服务器一看 User-Agent 是 实操建议: 立即学习“Python免费学习笔记(深入)”; 拼接 URL 时直接写 实操建议: 立即学习“Python免费学习笔记(深入)”; 真正难的从来不是“怎么拿到 HTML”,而是判断“这个 HTML 是不是我要的那个”。每次请求后,先看
print(r.text[:500]) 截取开头几百字符,确认目标文本是否真在源码里;不在?说明是 JS 动态加载,requests + BeautifulSoup 无解,得换 selenium 或 playwright
<div class="item-list">,你写 <code>soup.find('div', class_='itemList') 就会失败——class 属性值必须完全匹配,且 class_ 参数不支持驼峰转换
soup.find('a').get('href'):前一步返回 None 就直接报 AttributeError,改成两步,加 if tag: 判断反爬拦截:requests 报 403 或返回验证码页面
python-requests/2.31.0,立刻拉黑。这不是“要加 headers”,而是要加对、加全、且模拟真实访问节奏。
User-Agent 和 Accept,示例:{'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36', 'Accept': 'text/html,application/xhtml+xml'}
Sec-Fetch-* 等现代字段,填错反而露馅;宁可少,不要假time.sleep(1) 控制频率,但别机械等固定秒数;连续请求间隔差异太小(比如全是 1.0s)也会被识别为脚本<img src="/captcha?..." alt="python爬虫抓取html实现方法_python爬虫怎么抓取html【详解】" >),说明已进入强反爬环节,requests 基本退场,别硬刚中文路径或参数导致 URL 编码错误
f"https://example.com/搜索?q={keyword}",结果发出去变成 %E6%90%9C%E7%B4%A2 乱码,服务端收不到预期参数。
urllib.parse.quote() 编码,例如 quote(keyword, safe='')
params 参数,让 requests 自动处理:requests.get(url, params={'q': keyword}) —— 它内部会调用 urlencode,比手拼安全得多/ 后面的段)不能靠 params,必须手动 quote,且注意 safe='/'(保留斜杠不编码)status_code,再看 content 长度和开头几十字,最后才进解析——跳过这三步,后面写的全是空中楼阁。











