当前位置: 首页> 财经> 金融 > 爬虫scrapy库精简使用大全

爬虫scrapy库精简使用大全

时间:2025/7/10 8:16:57来源:https://blog.csdn.net/weixin_51111267/article/details/140151214 浏览次数:0次

一、基本命令

创建项目

scrpay startproject myapp

创建爬虫文件

scrapy genspider spider_name "https://www.baidu.com"

运行爬虫文件

scrapy crawl spider_name

一、使用代理ip

打开中间件middlewares.py,增加以下代码

class ProxyMiddleware:def process_request(self, request, spider):# ip = random.choice(self.ip)request.meta['Proxy'] = "http://127.0.0.1:7890"

打开setting.py激活上面增加的类

DOWNLOADER_MIDDLEWARES = {'myproject.middlewares.ProxyMiddleware': 543,
}
关键字:爬虫scrapy库精简使用大全

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: