【发布时间】:2019-05-26 16:16:52
【问题描述】:
我花了大部分时间研究和测试在零售商网站上循环浏览一组产品的最佳方法。
虽然我成功地收集了第一页上的一组产品(和属性),但我一直难以找出循环浏览网站页面以继续我的抓取的最佳方法。
根据下面的代码,我尝试使用“while”循环和 Selenium 来单击网站的“下一页”按钮,然后继续收集产品。
问题是我的代码仍然没有超过第 1 页。
我在这里犯了一个愚蠢的错误吗?阅读此站点上的 4 或 5 个类似示例,但没有一个足够具体,无法在此处提供解决方案。
from selenium import webdriver
from bs4 import BeautifulSoup
driver = webdriver.Chrome()
driver.get('https://www.kohls.com/catalog/mens-button-down-shirts-tops-clothing.jsp?CN=Gender:Mens+Silhouette:Button-Down%20Shirts+Category:Tops+Department:Clothing&cc=mens-TN3.0-S-buttondownshirts&kls_sbp=43160314801019132980443403449632772558&PPP=120&WS=0')
products.clear()
hyperlinks.clear()
reviewCounts.clear()
starRatings.clear()
products = []
hyperlinks = []
reviewCounts = []
starRatings = []
pageCounter = 0
maxPageCount = int(html_soup.find('a', class_ = 'totalPageNum').text)+1
html_soup = BeautifulSoup(driver.page_source, 'html.parser')
prod_containers = html_soup.find_all('li', class_ = 'products_grid')
while (pageCounter < maxPageCount):
for product in prod_containers:
# If the product has review count, then extract:
if product.find('span', class_ = 'prod_ratingCount') is not None:
# The product name
name = product.find('div', class_ = 'prod_nameBlock')
name = re.sub(r"\s+", " ", name.text)
products.append(name)
# The product hyperlink
hyperlink = product.find('span', class_ = 'prod_ratingCount')
hyperlink = hyperlink.a
hyperlink = hyperlink.get('href')
hyperlinks.append(hyperlink)
# The product review count
reviewCount = product.find('span', class_ = 'prod_ratingCount').a.text
reviewCounts.append(reviewCount)
# The product overall star ratings
starRating = product.find('span', class_ = 'prod_ratingCount')
starRating = starRating.a
starRating = starRating.get('alt')
starRatings.append(starRating)
driver.find_element_by_xpath('//*[@id="page-navigation-top"]/a[2]').click()
counterProduct +=1
print(counterProduct)
【问题讨论】:
-
我稍后将不得不测试和玩这个因为不在电脑附近,但我注意到的第一件事是你的 html_souo 和 prod_containers 不在循环中。您解析,然后迭代第一页,但在第一页之后的任何时候都不要这样做。一旦你从一个页面遍历它,在你点击到下一页之后,你需要再次使用 products_grid 解析 html 和 find_all。所以我会把整个语句移到你的 html_soup 行之前。
-
我也认为你的意思是“pageCounter += 1”,而不是“counterProduct”?
-
抱歉有错别字。将 while 语句移到 html_soup 之前
标签: python selenium selenium-webdriver web-scraping beautifulsoup