【发布时间】:2015-07-15 00:48:40
【问题描述】:
我遇到了一点问题: 我想获取这些数据,
for item in g_data:
print item.contents[1].find_all("a", {"class":"a-link-normal s-access-detail-page a-text-normal"})[0]["href"]
print item.contents[1].find_all("a", {"class":"a-link-normal s-access-detail-page a-text-normal"})[1]["href"]
print item.contents[1].find_all("a", {"class":"a-link-normal s-access-detail-page a-text-normal"})[2]["href"]
print item.contents[1].find_all("a", {"class":"a-link-normal s-access-detail-page a-text-normal"})[3]["href"]
并在另一个进程中使用结果。
代码当前打印出亚马逊搜索词第一页的 url,我想获取这些 url,然后在页面上抓取数据。我将如何制作它,使其变成这样:
如果for item in g_data 返回url,则接受url[1:15] 并使用'x'
它。
如果for item in g_data 没有返回url,说"No urls to work with"。
您能提供的任何帮助或线索都会非常棒,再次感谢。
【问题讨论】:
标签: python web-scraping beautifulsoup screen-scraping