Go语言爬虫返回418怎么办,解决方案是什么
导读:这篇文章主要为大家详细介绍了Go语言爬虫返回418怎么办,解决方案是什么,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下,希望对大家学习或工作能有帮助。 背景 在使用Go语言做爬虫时,使用ht...
这篇文章主要为大家详细介绍了Go语言爬虫返回418怎么办,解决方案是什么,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下,希望对大家学习或工作能有帮助。
背景
在使用Go语言做爬虫时,使用http.Get(url)
去获取网页内容,状态码返回404,Body体为空。
原因分析
http.Get(url)
是不需要设置header属性的http请求,比较简单快捷,但状态码返回418,表明我们需要设置其header属性,那么我们可以使用http.NewRequest
,在设置其header属性即可~
代码部分
func main7() { client := & http.Client{ } url := "https://movie.douban.com/top250?start=0& filter=" reqest, err := http.NewRequest("GET", url, nil) //设置header属性 reqest.Header.Add("User-Agent", "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36 OPR/66.0.3515.115") if err!=nil { fmt.Println(err) return } response, _ := client.Do(reqest) defer response.Body.Close() buf := make([]byte,4096) var result string for { n,err:=response.Body.Read(buf) if n == 0 { fmt.Println("读取网页完成") break } if err!=nil & & err!=io.EOF { fmt.Println("resp body err",err) return } result += string(buf[:n]) //打印读取的网页 fmt.Println(result) } }
关于“Go语言爬虫返回418怎么办,解决方案是什么”的内容就介绍到这,感谢各位的阅读,相信大家对Go语言爬虫返回418怎么办,解决方案是什么已经有了进一步的了解。大家如果还想学习更多知识,欢迎关注网络,小编将为大家输出更多高质量的实用文章!
声明:本文内容由网友自发贡献,本站不承担相应法律责任。对本内容有异议或投诉,请联系2913721942#qq.com核实处理,我们将尽快回复您,谢谢合作!
若转载请注明出处: Go语言爬虫返回418怎么办,解决方案是什么
本文地址: https://pptw.com/jishu/653835.html