【发布时间】:2020-04-19 10:43:45
【问题描述】:
我正在从事一个个人项目,我需要从不同页面执行多个请求以抓取关键字和抽象数据(约 800 个请求)。每次运行我的程序都需要 30 分钟来抓取所有数据。
我正在考虑两种加快运行时间的方法:
- 将数据读入 CSV 文件一次,然后使用 panada 从 CSV 文件中读取数据以备将来参考
- 创建一个 MySQL 数据库并在其中存储数据。
这两种方法可行吗?如果我能得到一些见解,那就太好了。 谢谢
【问题讨论】:
-
仅供参考,它是 scrape(和 scraping、scraper、scraped)不是废品。 “废弃”的意思是像垃圾一样扔掉。
标签: python web-scraping beautifulsoup request