#!usr/bin/env python
# -*- coding:UTF-8 -*-
import re
from lxml import etree
from bs4 import BeautifulSoup as sp
import requests
import urllib2
import StringIO
import sys
reload(sys)
sys.setdefaultencoding("utf-8")
headers={'User-Agent' : 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'}
def urlread(url):
try:
req=requests.get(url,headers=headers)
req.encoding="utf-8"
return req.text.encode("utf-8")
except:
req=urllib2.Request(url,headers=headers)
response=urllib2.urlopen(req)
return response.read().encode("utf-8")
class Item:
def __init__(self,title,link,date,description):
self.title=title.strip()
self.link=link.strip()
self.pubDate=date.strip()
self.decription=self.filter(description).strip()
def filter(self,description):
description=re.sub("<.*?>",'',description)
description=re.sub("\r",'',description)
description=re.sub("\n",'',description)
description=re.sub(" "," ",description)
if len(description)>240:
description=description[:240]+'...'
return description
def __str__(self):
return "%s\n%s\n%s\n<%s>\n" % (
self.title,
self.link,
self.decription,
self.pubDate
)
__repr__=__str__
class BSParser(object):
#url=''
def __init__(self,url):
xml=urlread(url)
self.reset(xml)
def reset(self,xml=None):
if xml==None:
self.soup=sp(" ")
else:
self.soup=sp(xml,"xml")
def callback(self,method,obj,tags):
rst=None
attr=method.lower()
for tag in tags:
try:
rst=getattr(obj,attr)(tag)
except:
continue
if rst:
break
return rst
def getfields(self,tags=["item",'entry']):
return self.callback(method="FIND_ALL",
obj=self.soup,
tags=tags)
def gettitle(self,obj,tags=["title"]):
return self.callback("FIND",obj,tags).text
def getlink(self,obj,tags=["link"]):
rst=self.callback("FIND",obj,tags).text
if not rst:
rst=self.callback("FIND",obj,tags).get("href")
return rst
def getdate(self,obj,tags=["pubDate","published"]):
return self.callback("FIND",obj,tags).text
def getdescription(self,obj,tags=["description","content"]):
return self.callback("FIND",obj,tags).text
def run(self):
for item in self.getfields():
title=self.gettitle(item)
link=self.getlink(item)
date=self.getdate(item)
description=self.getdescription(item)
newsitem=Item(title,link,date,description)
yield newsitem
def test():
parser=Parser()
for item in parser.run():
print item
if __name__=="__main__":
test() 0
0
相关文章
RSS订阅源XML文件怎么制作 RSS 2.0格式详解
PHP如何解析RSS或Atom feed的XML
RSS订阅源XML格式是什么 如何创建RSS XML文件
XML文件的MIME类型是什么 application/xml
谷歌商家中心XML Feed怎么创建 Product Feed规范
本站声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
热门AI工具
相关专题
2026年俄罗斯Yandex搜索引擎最新入口汇总,涵盖免登录、多语言支持、无广告视频播放及本地化服务等核心功能。阅读专题下面的文章了解更多详细内容。
75
2026.01.28
本合集汇总了包子漫画2026最新官方在线观看入口,涵盖备用域名、正版无广告链接及多端适配地址,助你畅享12700+高清漫画资源。阅读专题下面的文章了解更多详细内容。
17
2026.01.28
AO3最新中文版官网入口合集,汇总2026年主站及国内优化镜像链接,支持简体中文界面、无广告阅读与多设备同步。阅读专题下面的文章了解更多详细内容。
38
2026.01.28
本合集涵盖PHP接口开发基础、RESTful API设计、数据交互与安全处理等实用教程,助你快速掌握PHP接口编写技巧。阅读专题下面的文章了解更多详细内容。
1
2026.01.28
本专题系统讲解 Java 在消息队列与异步系统架构中的核心应用,涵盖消息队列基本原理、Kafka 与 RabbitMQ 的使用场景对比、生产者与消费者模型、消息可靠性与顺序性保障、重复消费与幂等处理,以及在高并发系统中的异步解耦设计。通过实战案例,帮助学习者掌握 使用 Java 构建高吞吐、高可靠异步消息系统的完整思路。
8
2026.01.28
本专题系统讲解 Python 在自然语言处理(NLP)领域的基础方法与实战应用,涵盖文本预处理(分词、去停用词)、词性标注、命名实体识别、关键词提取、情感分析,以及常用 NLP 库(NLTK、spaCy)的核心用法。通过真实文本案例,帮助学习者掌握 使用 Python 进行文本分析与语言数据处理的完整流程,适用于内容分析、舆情监测与智能文本应用场景。
23
2026.01.27
在拼多多上赚钱主要可以通过无货源模式一件代发、精细化运营特色店铺、参与官方高流量活动、利用拼团机制社交裂变,以及成为多多进宝推广员这5种方法实现。核心策略在于通过低成本、高效率的供应链管理与营销,利用平台社交电商红利实现盈利。
122
2026.01.26
在Edge浏览器中设置主页,请依次点击右上角“...”图标 > 设置 > 开始、主页和新建标签页。在“Microsoft Edge 启动时”选择“打开以下页面”,点击“添加新页面”并输入网址。若要使用主页按钮,需在“外观”设置中开启“显示主页按钮”并设定网址。
52
2026.01.26
热门下载
精品课程

