Go语言爬虫返回418怎么办,解决方案是什么
导读:这篇文章主要为大家详细介绍了Go语言爬虫返回418怎么办,解决方案是什么,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下,希望对大家学习或工作能有帮助。 背景 在使用Go语言做爬虫时,使用ht...
这篇文章主要为大家详细介绍了Go语言爬虫返回418怎么办,解决方案是什么,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们可以参考一下,希望对大家学习或工作能有帮助。
背景
在使用Go语言做爬虫时,使用http.Get(url)去获取网页内容,状态码返回404,Body体为空。
原因分析
http.Get(url)是不需要设置header属性的http请求,比较简单快捷,但状态码返回418,表明我们需要设置其header属性,那么我们可以使用http.NewRequest,在设置其header属性即可~
代码部分
func main7() {
client := &
http.Client{
}
url := "https://movie.douban.com/top250?start=0&
filter="
reqest, err := http.NewRequest("GET", url, nil)
//设置header属性
reqest.Header.Add("User-Agent", "Mozilla/5.0 (Windows NT 10.0;
Win64;
x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36 OPR/66.0.3515.115")
if err!=nil {
fmt.Println(err)
return
}
response, _ := client.Do(reqest)
defer response.Body.Close()
buf := make([]byte,4096)
var result string
for {
n,err:=response.Body.Read(buf)
if n == 0 {
fmt.Println("读取网页完成")
break
}
if err!=nil &
&
err!=io.EOF {
fmt.Println("resp body err",err)
return
}
result += string(buf[:n])
//打印读取的网页
fmt.Println(result)
}
}
关于“Go语言爬虫返回418怎么办,解决方案是什么”的内容就介绍到这,感谢各位的阅读,相信大家对Go语言爬虫返回418怎么办,解决方案是什么已经有了进一步的了解。大家如果还想学习更多知识,欢迎关注网络,小编将为大家输出更多高质量的实用文章!
声明:本文内容由网友自发贡献,本站不承担相应法律责任。对本内容有异议或投诉,请联系2913721942#qq.com核实处理,我们将尽快回复您,谢谢合作!
若转载请注明出处: Go语言爬虫返回418怎么办,解决方案是什么
本文地址: https://pptw.com/jishu/653835.html
