加入收藏 | 设为首页 | 会员中心 | 我要投稿 站长网 (https://www.51jishu.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 移动互联 > 通讯 > 正文

网络爬虫无所不在,应当如何规制?

发布时间:2021-10-30 14:19:19 所属栏目:通讯 来源:互联网
导读:在华东政法大学法律学院教授、数据法律研究中心主任高富平看来,爬虫和数据产业是连一起的,现在所谓的数据公司谈及的数据智能、大数据分析基本上是抓取数据,再进行挖掘分析。现在普遍认为爬虫是项中立性的技术,但更多时候,使用者是为实现不劳而获的目的
在华东政法大学法律学院教授、数据法律研究中心主任高富平看来,爬虫和数据产业是连一起的,现在所谓的数据公司谈及的数据智能、大数据分析基本上是抓取数据,再进行挖掘分析。现在普遍认为爬虫是项中立性的技术,但更多时候,使用者是为实现‘不劳而获’的目的。
 
  高富平认为,不谈论数据合法生产者具有控制权,难以对爬虫合法性进行判断。国内外爬虫的合法性边界探讨,主要着眼从数据爬取的手段、目的两个方面。
 
  从手段上来看,爬虫无视网站的访问控制,或者假扮为合法访问者,会被认为是不合法的;从目的上来看,数据爬取一方是否对被爬取一方提供的部分产品或服务进行“实质性替代”,如果属“实质性替代”,则目的便是不合法。
 
  网站合法积累数据资源,那么网站生产端就可以对其进行控制使用,更重要的是承认数据控制者可以基于商业目的来开放数据,通过许可使用方式、交换、交易等方式让数据能够被更多人使用。”高富平对此补充道,“基于数据合法生产者具有控制权的前提,就可以对于那些无视Robots协议的爬取者进行打击。”
 
  上海浦东法院知识产权庭法官徐弘韬认为,Robots协议与数据流转有两个问题需要考虑:第一,“互联互通”与数据共享之间的度如何把握;第二,当下各互联网产业经营者采取的Robots协议策略是否可能导致数据孤岛。互联互通的实质在于确保数据有序流转,而不是强行要求互联网产业经营者对己方平台内的数据资源向竞争对手全面开放。在“互联互通”的语境下,“有序”和“流转”同等重要、缺一不可,需排除假借“互联互通”妨碍公平竞争、危害用户数据安全的行为。

(编辑:站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!