【发布时间】:2026-01-25 20:00:01
【问题描述】:
请帮忙。 我想获取每个页面的所有公司名称,它们有 12 页。
http://www.saramin.co.kr/zf_user/jobs/company-labs/list/page/1 http://www.saramin.co.kr/zf_user/jobs/company-labs/list/page/2 -- 本网站只更改号码。
到目前为止,这是我的代码。 我可以只得到 12 页的标题(公司名称)吗? 提前谢谢你。
from bs4 import BeautifulSoup
import requests
maximum = 0
page = 1
URL = 'http://www.saramin.co.kr/zf_user/jobs/company-labs/list/page/1'
response = requests.get(URL)
source = response.text
soup = BeautifulSoup(source, 'html.parser')
whole_source = ""
for page_number in range(1, maximum+1):
URL = 'http://www.saramin.co.kr/zf_user/jobs/company-labs/list/page/' + str(page_number)
response = requests.get(URL)
whole_source = whole_source + response.text
soup = BeautifulSoup(whole_source, 'html.parser')
find_company = soup.select("#content > div.wrap_analysis_data > div.public_con_box.public_list_wrap > ul > li:nth-child(13) > div > strong")
for company in find_company:
print(company.text)
【问题讨论】:
-
您已经描述了您的期望,但是您的代码的当前输出是什么?您面临什么问题?而且我认为在发布时您错过了循环的缩进,请更正它以清楚地理解您的代码
-
在for循环中,获取响应后,您只需从每个页面中选择
标签。
标签: python beautifulsoup python-requests web-crawler