如果黑客做搜索引擎,不遵守robots协议,那世界不是完了?
发布网友
发布时间:2022-05-07 15:21
我来回答
共6个回答
热心网友
时间:2022-04-23 21:50
robots协议就好比你到一个景点旅游,在这个景点有一部分写着此景点暂停开放,这样游客就不能进这样的景点了。类比过来,这个暂停开放的标志就是robots协议,这个游客就是指搜索引擎。
如果有小偷或者坏蛋,或者不遵守规则的人,无视暂停开放的警告,硬闯暂停开放的景点,这也是可以进去的。要是黑客做搜索引擎,不遵守robots协议是很正常的。,但世界不会完蛋。
Robots协议就是对搜索引擎的警告,不允许搜索引擎进去,但是普通的用户打开一个网站是可以看到不允许搜索引擎看的内容的,比如淘宝全站robots,但是普通用户都可以自由进入淘宝,还可以在淘宝买自己喜欢的东西,但是搜索引擎是一点也看不到的。
Robots协议是是对搜索引擎的禁止,有人说robots可以保护私人秘密,这完全扯淡,你既然把你的东西放在网站上,就是想要有人看,有人浏览,除非你如淘宝一样,不需要搜索引擎带来的流量,靠“淘宝”这个品牌效应就可以做到最大。如果说网站的用户信息怕泄露给搜索引擎,这也是扯淡,别把搜索引擎当作神,它只是个小孩而已。搜索引擎是以网页的形式抓取,除非你把用户信息做成网页放到网站上,否则不会的。
百度说360违反了robots协议,就是因为360抓取了百度的网页内容,百度robots掉了360,不允许360抓取百度的内容,但是360还是抓取了,我想这就是全部的内容,所谓的用户体验、安全之类的全都是废话和借口,是找不到话说时的什么话都敢说。
robots就是一个协议,可以遵守也可以不遵守,就像暂停开放一样,当来了个*大员想进去还能暂停开放吗?就像在公交车给老人让座一样,你可以让座,也可以不让座,让座是一种美德,你可以要,也可以不要,这跟你是好是坏没有关系。但是社会压力和*强迫你让座,那他们是违反你自己的意愿,他们都是无耻的,他们比道德败坏者还要道德败坏。
热心网友
时间:2022-04-23 23:08
Robots协议是什么?在百科网站里的定义,robot协议(也称为爬虫协议、爬虫规则、机器人协议等)也就是robots.txt,网站通过robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。
当搜索蜘蛛访问站点时,它会首先检查网站根目录下是否存在Robots.txt。如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
Robot协议对于小白用户并不重要,之前也并不广为人知。最近和Robots相关的新闻都发生在电子商务网站,之前有两个:一个是京东屏蔽一淘的蜘蛛,另一个是淘宝屏蔽百度的蜘蛛。现在,3B大战闹得很凶,很多人把Robot协议拿出来说事儿。
而在我看来,Robot充其量是互联网江湖规矩、“潜规则”而已。
Robot协议不是行业标准,只是“搜索引擎的家规”。
Google是互联网江湖的大佬,Robots的发展恰恰与Google的发展密不可分。
当年,谷歌凭借搜索引擎飞速发展,可很多大型网站原有的商业模式遭到了严重的破坏。为了维护自身的利益,一些欧美大网站联合起来与Google谈判,要求Google必须做到“有所为有所不为”,于是就有了“Robots协议”。
对于这份所谓的Robots协议,很多企业并不买账。毕竟,这只是谷歌自己制定的规范,并不是各大搜索厂商的共识或统一的协议,也从来没有任何一家国内搜索引擎服务商公开承诺遵守Robots协议或签署类似协议或声明。 所以,在很多人眼里,充其量是谷歌的“家规”。
而事实上,这个由搜索引擎制定的协议,只会规定如何与网址分享内容,绝对不会对于搜索引擎不利的条款。伴随搜索引擎的发展,Robots协议朝着相反的法相发展:
Robots协议目的是为了*谷歌,但最终却帮助Google和百度这样的垄断企业遏制了后起的竞争者。因为,Google当年在制定这个协议时,特意留下了后门,即:协议中不仅包括是否允许搜索引擎进行搜索的内容,还包括允许谁和不允许谁进行搜索内容。Google和百度在实现了垄断地位之后,就利用这些排斥性规则挡住了后来的进入者.
热心网友
时间:2022-04-24 00:43
用户的隐私并不是直接放在网页上的,都是存放在服务器对应的数据库里面,想要获取相应的数据除非是破了服务器,不过服务器不是这么容易就能破的,还有能获取用户隐私的一般都是在浏览器上的cookies、痕迹,360有没有把这些上传到它服务器就不知道了,两家利益的事,不过360你好好做你的防毒不就好了,硬要插只脚进搜索这块
热心网友
时间:2022-04-24 02:34
照你这么说社会道德也就没用了呗?干点什么事情都得签合同,用法律来*,买包方便面都得走程序。这样一来就不用所谓的协议了。
热心网友
时间:2022-04-24 04:42
没这么NB的!这些事本身就是在相互抵毁对方,当然什么事都可能出来,!!!
热心网友
时间:2022-04-24 07:07
没那么夸张,道高一尺,魔高一丈.到一定的时候一定会出现代替robots协议的东西的
如果黑客做搜索引擎,不遵守robots协议,那世界不是完了?
如果有小偷或者坏蛋,或者不遵守规则的人,无视暂停开放的警告,硬闯暂停开放的景点,这也是可以进去的。要是黑客做搜索引擎,不遵守robots协议是很正常的。,但世界不会完蛋。Robots协议就是对搜索引擎的警告,不允许搜索引擎进去,但是普通的用户打开一个网站是可以看到不允许搜索引擎看的内容的,比如淘宝...
代码静态分析服务哪方面能有些折扣?
代码静态分析服务可以帮助开发人员在代码编写过程中发现问题和错误,提高代码质量和安全性。以下是在某些方面可能会提供折扣的例子:1. 高频使用的服务:如果一个组织或个人频繁使用代码静态分析服务,那么他们可能会获得与使用频率相关的折扣。例如,每次使用100次或更多次的客户可能会获得更优惠的价格。2. 长期合同:如果一个组织决定签订一个长期的合同,例如一年或以上,他们可能会获得折扣。这是因为长期合同通常提供更稳定的收入流,并且客户不太可能在下一个合同周期转移到其他服务提供商。3. 定制化服务:如果一个组织需要定制化的代码静态…不同公司提供的服务不一样,价格也都不一样。更多详尽准确的信息可以找北京磐安公司。北京磐安公司是一家专业从事高新软件的技术公司,公司致力于向企业客户提供一站式企业级软件采购、企业信息化基础架构、信息安全、数字化设计和信息技术教育...
网站被黑应该怎么做 — 网站被黑操作指南
首先,当网站出现不寻常的征兆时,要立即启动响应机制:搜索检查与监控:使用site语法如`site:www.example.com`,结合关键词如"博彩",密切关注搜索结果中是否出现非法页面或违规标题。如果发现百度搜索结果中出现"安全中心提醒"的警示,那就可能存在被黑风险。流量追踪:通过搜索引擎资源平台,检查索引量和...
网站优化中robots文件重要吗
很多人纳闷了,robots怎么还和网站安全有关系了?其实关系还很大,不少低级黑客就是通过搜索默认后台登陆,以达到入侵网站的目标 User-agent:Disallow: /admin/ 《禁止蜘蛛抓取admin目录下所有文件》第三,防止盗链 一般盗链也就几个人,可是一旦被搜索引擎“盗链”那家伙你100M宽带也吃不消,如果你做的...
网站被屏蔽几种原因
二、网站源代码。不要经常修改网站标题与标签,搜索引擎抓取后,并不会马上就显示出来,而是以网页快照的形式存储于数据库中,这期间更换有可能造成网站排名下降,甚至搜索降级等等麻烦。 网站充斥着大量垃圾代码、重复代码,非常不利于蜘蛛的爬行,会对关键词最终在搜索引擎中的排名受到很大的影响,严重时会...
我的网站shadandan.com半月前收录的好好地,为什么现在突然被K了,连...
2、robots写法设置不当。现在大多数的搜索引擎都遵守robots协议,如果在robots写法设置不当,将直接影响搜索引擎的抓取收录工作。解决办法:检查下你的robots.txt文件设置是否正确。3、网站作弊。使用作弊手段推广网站,经常修改关键词,修改标题,修改Meta属性,关键词堆积,网站内容结构设置不合理,内容过多...
网站一直提示“该网站可能因黑客侵入而存在安全风险”服务器与源码都...
SQL的话应该使用特别点的帐号密码,不要在使用什么什么admin之类,否则很容易被入侵。2.创建一个robots.txt Robots能够有效的防范利用搜索引擎窃取信息的骇客。3.修改后台文件 第一步:修改后台里的验证文件的名称。第二步:修改conn.asp,防止非法下载,也可对数据库加密后在修改conn.asp。第三步:修改...
web服务器被黑客黑了,主页内容被篡改了.应该怎么维护
SQL的话应该使用特别点的帐号密码,不要在使用什么什么admin之类,否则很容易被入侵。2.创建一个robots.txt Robots能够有效的防范利用搜索引擎窃取信息的骇客。3.修改后台文件 第一步:修改后台里的验证文件的名称。第二步:修改conn.asp,防止非法下载,也可对数据库加密后在修改conn.asp。第三步:修改...
织梦网站后台登录网址被百度收录了为什么?怎么修改
如果你用robots.txt来禁止收录会有一个问题,虽然这样搜索引擎可能会遵守规则不收录,但黑客可以直接访问你的robots.txt文件来获知后台路径,所以同样解决不了问题。建议从两个方面出发,首先是尽快更改后台路径,使原来的失效,其次是通过程序或服务器的安全配置,对搜索引擎的爬虫甚至是除内部人员之外的设备...
如何利用sql注入攻击删除文件
• 为了防止网站的重要文件夹(如:后台管理)和文件(如:纯程序文件)不被搜索引擎所收录,首先在网站根目录下建一个“robots.txt”纯文本文件,来防止网站的重要文件或其它敏感信息被搜索引擎所收录;最大多搜索引擎平台都遵守robots协议;搜索引擎机器人访问网站时,首先找到网站根目录下robots文件,然后会读取robots文件的...
百度能申诉吗?我的网站被别人挂了黑链,受百度惩罚了。
v.大量采集内容,大量低质量伪原创内容(该清理的都清理掉,没有欺骗搜索引擎的能力就不要浪费这个感情了);vi.含有大量指向作弊网站的链接(对导出链接严格把控,避免被人钻空子,友链要记得定期检查);vii.含有大量垃圾内容;viii.网站被黑客利用,包括:被挂黑链、被插入页面或被利用进行泛解析作弊、...