【发布时间】:2021-12-24 12:05:24
【问题描述】:
我正在尝试从以下位置提取 2 组数据: “https://www.kucoin.com/news/categories/listing” 使用 python 脚本并将其放入列表或字典中。我已经尝试过 Selenium 和 BeautifulSoup 以及请求。 它们都返回一个空值:[] 或 None。我整天都在这,没有成功。我也尝试使用完整的 xpath 来尝试索引文本的位置,结果相同。在这一点上的任何帮助将不胜感激。
##########################################################
from bs4 import BeautifulSoup
import requests
url = requests.get('https://www.kucoin.com/news/categories/listing')
soup = BeautifulSoup(url.text, features="lxml")
listing = soup.find(class_='mainTitle___mbpq1')
print(listing)
###########################################################
import requests
from lxml import html
def main():
url = "https://www.kucoin.com/news/categories/listing"
page = requests.get(url)
tree = html.fromstring(page.content)
text_val = tree.xpath('//div[@class="item___2ffLg"]')
print(text_val)
###########################################################
1st text between '(' ')', 2nd text is Date/Time after 'Trade: '
(我什至能够以文本格式获取实际包含我正在查找的页面部分的页面的唯一方法是手动将其保存为 *.mhtml 格式。)
【问题讨论】:
-
xpath 中有错字 -
//dev[@class="item___2ffLg"]。标签名称应为div。 -
谢谢,写的时候打错了,改正了。重新运行它仍然得到“[]”作为输出。
-
@SankoHunbucse 这可以很容易地用 selenium 和 python 完成。让我知道您是否同意该解决方案。我可以分享这个
标签: python html selenium beautifulsoup screen-scraping