Scrapy报错 Connection was closed 解决方法

发现问题

今天覆原一个古老项目时,一直遇到了一个问题,Scrapy一直提示下载某链接时出错了,报错信息如下:

[<twisted.python.failure.Failure twisted.internet.error.ConnectionDone: Connection was closed cleanly.>]

这个错误以前也遇到过,但是并不知道如何去解决,去Google,有人说是加UA头,有人说是代理问题,专门用curl去测试代理,发现代理是OK的。

然后去检查UserAgent,试过各种发现均不行,

headers = {
    'User-Agent': "xxxxx",
    'Content-Type': "text/plain; charset=UTF-8",
    'Host': "xxxx",
    'Cache-Control': "no-cache",}

最后发现是Host不对,注释Host之后,发现就可以正常的采集数据了。然后重新抓包看了下该请求,发现Host已经更换,由于对Host不熟,所以专门写一篇来记录下,顺便复习下HTTP协议。

Host 字段

Host说明

服务器的域名(用于虚拟主机 ),以及服务器所监听的传输控制协议端口号。如果所请求的端口是对应的服务的标准端口,则端口号可被省略。自超文件传输协议版本1.1(HTTP/1.1)开始便是必需字段。

Host 示例

Host: en.wikipedia.org:80
Host: en.wikipedia.org

状态为:常设

来源:HTTP头字段

这篇文章讲的很清楚:网络---一篇文章详解请求头Host的概念

https://blog.csdn.net/netdxy/article/details/51195560

总结

  1. host字段可以是域名,也可以是ip地址。host字段域名/ip后可以跟端口号,如Host: www.6san.com:8080
  2. host可以由程序自定义,某些程序为了防止运营商或防火墙拦截会定义虚假host
  3. http1.1中host字段可以是空值,http1.0中可以缺失host字段
  4. http响应头中不包含host字段,所以wireshark中http.host过滤到的都是请求包
  5. 因为http头中的host字段可以由程序自定义,所以host字段的值就会有很多特殊情况,如包含多个’/'字符的HOST头信息,结尾含有”.”等

在http 1.1中不能缺失host字段,如果缺失,,服务器返回400 bad request,http1.1中不能缺失host字段,但host字段可以是空值。

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章