Google 爬虫真牛逼啊

  [复制链接]
查看: 834   回复: 6
发表于 2014-3-17 15:08:23 | 显示全部楼层 |阅读模式
本帖最后由 HONG 于 2014-3-17 15:19 编辑

我发现有的网页上面被人搞了好几万评论,我自己打开个网页都要好几分钟。。。。。过了10分钟后页面还在不断加载垃圾评论。。。。(这里要赞扬下服务器先)
我在想爬虫请求网页的时候是否也有个时间限制,如果时间太长了,google爬虫也就放弃这个页面。


换句话讲,我接着再弄软件spam无论多少条评论都是没有效果的吧? 因为爬虫没有能力抓取到页面的内容了。


不知道我的猜测对否?





回复

使用道具 举报

发表于 2014-3-17 15:44:14 | 显示全部楼层
这样搞,不是搞死自己的网站?!
回复 支持 反对

使用道具 举报

发表于 2014-3-17 15:53:13 | 显示全部楼层
蜘蛛爬取网页有超时限制,你的理解是正确的
回复 支持 反对

使用道具 举报

发表于 2014-3-17 15:54:42 | 显示全部楼层
会的. 蜘蛛会有一个限定的抓取时间, 如果超时的话, 会自动放弃抓取.
回复 支持 反对

使用道具 举报

发表于 2014-3-17 16:13:11 | 显示全部楼层
没明白你这么搞的目的是什么?googlebot是可以识别spam的,就算回复里面有spam也可以识别
回复 支持 反对

使用道具 举报

发表于 2014-3-17 16:25:07 | 显示全部楼层
有几个判断:第一,估计服务器带宽不行,或者你网络不好;第二,再多评论,也会分页啊,只能说程序没设计好?第三,服务器太慢,爬虫是会超时的,经常这样,爬虫就不喜欢了,估计权重会降低
回复 支持 反对

使用道具 举报

发表于 2014-3-18 00:16:54 | 显示全部楼层
這是要搞死搞殘的節奏啊
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则