【发布时间】:2020-05-15 14:18:12
【问题描述】:
我编写了一个函数来解析来自archives 的NDTV News 的文章URL。它返回 None 输出而不是 URL 列表。为什么它返回 None?
def parse_ndtv_archive_links():
url_count=0
links = []
url = makeURL()
while (url_count < len(url)):
page=requests.get(url[url_count]).text
soup=BeautifulSoup(page,'lxml')
section=soup.find('div', id="main-content")
for a in section.findAll('li'):
href=a.get('href')
links.append(href)
url_count += 1
return list(links)
print(parse_ndtv_archive_links())
因此,解析函数会在 NDTV 的每一天档案中循环并获取 URL。因此makeURL() 函数会生成一段时间内的归档 URL 列表。
【问题讨论】:
标签: python html beautifulsoup web-crawler