【问题标题】:Python - merging many url's and parsing themPython - 合并许多网址并解析它们
【发布时间】:2011-03-07 22:53:23
【问题描述】:

下面是我在论坛上找到的脚本,它几乎正是我所需要的,除了我需要阅读 30 个不同的 url 并将它们全部打印出来。我尝试了几个选项,但脚本只是中断了。如何合并所有 30 个 url,解析,然后打印出来。

如果你能帮助我,我会非常感激,你。

import sys
import string
from urllib2 import urlopen
import xml.dom.minidom

var_xml = urlopen("http://www.test.com/bla/bla.xml")
var_all = xml.dom.minidom.parse(var_xml)

def extract_content(var_all, var_tag, var_loop_count):
   return var_all.firstChild.getElementsByTagName(var_tag)[var_loop_count].firstChild.data

var_loop_count = 0
var_item = " "
while len(var_item) > 0:
   var_title = extract_content(var_all, "title", var_loop_count)
   var_date = extract_content(var_all, "pubDate", var_loop_count)
   print "Title:          ", var_title   
   print "Published Date: ", var_date
   print " "
   var_loop_count += 1

   try:
      var_item = var_all.firstChild.getElementsByTagName("item")[var_loop_count].firstChild.data
   except:      
      var_item = ""

【问题讨论】:

    标签: python xml rss urlopen


    【解决方案1】:

    如果这是标准 RSS,我鼓励使用 http://www.feedparser.org/ ;提取那里的所有项目很简单。

    【讨论】:

      【解决方案2】:

      您正在覆盖 var_item、var_title、var_date。每个循环。列出这些项目,并将每个 var_item、var_title、var_date 放入列表中。最后,只需打印出您的清单。

      http://docs.python.org/tutorial/datastructures.html

      【讨论】:

        猜你喜欢
        • 2012-10-15
        • 2011-07-18
        • 2018-07-16
        • 2020-10-21
        • 1970-01-01
        • 1970-01-01
        • 2019-02-26
        • 1970-01-01
        • 1970-01-01
        相关资源
        最近更新 更多