首  页 调研公司 培训会议 行业情报 付费报告 免费报告 调研文库 求职招聘 数据中心 邮箱/论坛
                                          我的帐户  会员登陆  会员注册
热点话题 | 行业动态 | 项目招标 | 咨询黄页 | 涉外调查                                   注册成会员                  
定性研究 | 服务评估 | 定性研究 | 消费者研究 | 产品开发 | 品牌传播
汽车 | 通信 | 经济 | 房地产 | 互联网                                  我的帐户 会员登陆 会员注册
IT、液晶 | 电信增值 | 网络无线 | 饮食烟酒 | 家电、3C | 电子电工             我的帐户 | 购买帮助 | 购物车 | 忘记密码              
IT、液晶 | 电信增值 | 网络无线 | 饮食烟酒 | 家电、3C | 电子电工
求职招聘区 | 委托代理区 | 行业讨论区 | 调研学习区 | 系统服务区
出版组织要求限制搜索引擎抓取 有利于保护版权
发布时间:2007-11-30   来源网站:sina   来源媒体:新浪科技   点击次数:
【文章简介】
  一家由新闻机构和出版商组成的组织周四向各搜索引擎服务商提出建议,要求后者改变现有网络资源利用方式,以使各网站对其内容获得更多控制权。
  目前谷歌、雅虎及其他搜索服务商搜索引擎数据库中的所有网页,都是由Robot程序自动抓取收录。如果某家网站不希望特定数据被搜索引擎抓取,就需要建立一个robots.txt文档,以控制搜索引擎索引软件的抓取活动。利用现有技术,网站可阻止搜索引擎对单独网页、特定目录或整个网站的抓取。但上述新闻出版组织周四在一份名为“自动内容访问协议(ACAP)”的提议书中表示,各网站今后应获得更多控制权。
  ACAP提出了一系列建议,其中包括各网站可限制搜索引擎保留所抓取内容的时间、可要求搜索引擎不得抓取网页内的任何链接等。分析人士称,如果ACAP提议被各搜索商采纳,出版商将提供更多版权保护的内容;但网民们同时会发现,很多网站将以更快速度从搜索引擎中消失。世界报业协会(WAN)会长加文·奥莱利(Gavin O'Reilly)认为,Robots.txt技术出现于1994年,它一直适用于搜索引擎,但不利于内容创建者的版权保护。
阅读全文        网页快照
相关连接
广告服务 - 法律条款 - 注册指南 - 关于我们 - 企业客户
Copyright © 1999-2008 3see.com All Rights Reserved
北京信通四方企业顾问有限公司 版权所有 京ICP证080069号
TEL:86-10-85863259  客服:service@3see.com 
投稿:contribute@3see.com