可以搜索所有网页的引擎,不管在哪个网站上的?或者软件也行,Google有许多还是搜索不到。
发布网友
发布时间:2022-05-16 01:36
我来回答
共3个回答
热心网友
时间:2023-10-08 18:51
“…全世界每年产生1到2EB(1EB=1018B)信息,
相当于地球上每*概产生250MB信息。其中纸
质信息仅占所有信息的0.03%...”(Lyman & Hal 03)
• 静态网页有上百亿,动态及隐藏网页至少是静态
网页的500倍。
搜索引擎:从互联网等信息源中以一定的策略
采集所需信息,经加工处理(如对网页进行去
重处理、抽取信息、索引、生成主题词标引、
生成自动文摘、信息分类、对相似网页进行聚
类等),将用户感兴趣的内容按照一定的规则
排序后,以超链等形式提供给用户的系统。
搜索引擎主要包括信息采集、信息加工、信息
检索与检索结果提供这几个部分。 (而这些是在用户在使用搜索引擎之前,搜索引擎已经做好了除检索结果提供的所有工作,所以当你在百度或者谷歌的搜索栏中输入关键字之后,能在不到0.1秒的时间为你提供成千上万的结果)
如果把互联网比喻成一个蜘蛛网,那么执行Web
信息采集任务的程序就像是一只在网上爬来爬去
的蜘蛛Spider 。网络蜘蛛是从指定的一些种子集
开始读取网页内容,并通过这些链接地址寻找下
一批网页,一直循环下去,直到把设定的网站或
者指定深度的网页抓取完为止。(正是这种机制*了搜索引擎不可能把所有的网页都搜索到,但是如果不*搜索深度的话,就会有极大地可能陷入死循环,比如说遇见网页之间的相互引用)
• 对于搜索引擎来说,要抓取互联网上所有的网页
几乎是不可能的,这其中的原因一方面是因为有
许多网页无法从其它网页的链接中找到,另一个
原因是存储技术和处理技术的问题。因此,许多
搜索引擎的网络蜘蛛只是抓取那些重要的网页。
热心网友
时间:2023-10-08 18:52
所有?这是任何一家搜索引擎都是做不到的。
所有网页的话,包括不好的网页,质量差的网页
对于用户来讲,他们需要的是有用的东西。
搜索引擎为了做到为用户着想,就不会这要把所有的网页都收集起来的。自然也就搜索不到所有的网页。
热心网友
时间:2023-10-08 18:52
Google代表的是最先进的互联网技术,Google都做不到,结果可想而知。