本文作者:admin

生成式AI跑得太快 各国监管机构迎头赶上

admin 04-15 1
生成式AI跑得太快 各国监管机构迎头赶上摘要:   来源:中国经营报  本报记者 曲忠芳 李正豪 北京报道  生成式AI持续火热发展的同时,在信息安全、数据合规、版权保护等方面也引发了社会的关注与热议。为促进生成式人工智能技...

  来源:中国经营报

  本报记者 曲忠芳 李正豪 北京报道

  生成式AI持续火热发展的同时,在信息安全、数据合规、版权保护等方面也引发了社会的关注与热议。为促进生成式人工智能技术健康发展和规范应用,4月11日,国家互联网信息办公室(以下简称“网信办”)起草了《生成式人工智能服务管理办法(征求意见稿)》(以下简称《办法》),并向社会公开征求意见,意见反馈的截止时间为5月10日。

  《中国经营报》记者注意到,《办法》共二十一条,明确了生成式AI应遵循的合规要求。简要概括来说:第一,《办法》划定了适用范围、对生成式AI给出了权威解释,鼓励行业开展基础技术自主创新、国际合作;第二是明确了权责划分和责任主体,重点强化了个人信息保护的相关要求,明确个人信息处理者的法定责任和义务;第三要求生成式AI产品或服务建立评估备案、实名制、投诉处理等机制,丰富了包括人工标注、防沉迷、内容标识等管理措施;第四则是规定了相应的整改及处罚措施。

  “《办法》内容非常简洁明了,对生成式AI的一些热点问题进行了规范,预示着我国对于生成式AI的第一份政府文件或将出炉,在监管规范方面,我国走在了全球的前列。”浙江大学国际联合商学院数字经济与金融创新研究中心联席主任、研究员盘和林如是评价。

  上海申伦律师事务所律师夏海龙指出,类似《办法》类监管文件的性质属于“部门规章”,根据相关规定,规章出台一般要经过立项、起草、审查、决定、公布等几个程序,在起草和审查阶段,往往需要向社会公开征求意见。

  与此同时,本报记者从多位企业内部人士了解到,生成式AI产品服务提供商已关注到《办法》的公布,尤其是着重研究提供者对于生成式AI承担的责任义务方面。业内人士普遍认为,监管层面对生成工AI进行规范,将进一步抬高企业安全合规的门槛,增加相关成本。

  监管风向:技术发展与安全合规同步推动

  记者注意到,近半个月以来,就ChatGPT引发的生成式AI热潮,全球多个国家的监管部门公开发声或表态,对其带来的数据安全等风险密切关注,并实施或者酝酿监管举措。就在3月31日,意大利数据保护局宣布暂时禁用ChatGPT并对该工具涉嫌违反隐私规则展开调查。不久,德国、西班牙等国的数据保护机构表态“不排除暂停ChatGPT使用的可能”。4月4日,加拿大隐私专员办公室宣布针对一项“未经同意收集、使用和披露个人信息”的投诉,开始对研发ChatGPT的OpenAI公司展开调查。4月11日,据《华尔街日报》报道,美国政府已经开始研究是否需要对ChatGPT等AI工具进行检查。

  夏海龙指出,从《办法》内容来看,目前网信办的监管路径相对比较清晰,即以《网络安全法》《数据安全法》和《个人信息保护法》三部网络监管“基本法”为核心依据,严格要求生成式AI技术提供者在网络安全、内容合规和个人信息保护方面的责任,反对技术滥用。

  《办法》中第三条表示,“国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。”在明确生成式AI产品服务提供者的责任和义务方面,值得注意的是,《办法》强化了对个人信息保护的要求,比如第四条提到,“禁止非法获取、披露、利用个人信息和隐私、商业秘密”;第七条指出,“用于生成式人工智能产品的预训练、优化训练数据”,应满足“数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形”;第十一条明确“提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。”第十三条指出,“提供者应当建立用户投诉接收处理机制,及时处置个人关于更正、删除、屏蔽其个人信息的请求。”

  上海人工智能研究院副总工程师沈灏认为,《办法》体现了监管部门对生成式AI的一个有限范围的小心求证过程,保障在还不清楚生成式AI的各种可能性之前,各方安全可控地进行研发。

  对企业影响:安全合规成本增加

  最近一个月,包括百度、360、阿里巴巴、商汤科技、华为、科大讯飞等一众科技企业纷纷展示或即将推出AI大模型及相关应用产品,围绕生成式AI的创业热潮汹涌,国产AI大模型混战开启。

  一位AI领域资深专家告诉记者,《办法》将主要从三个方面对相关企业产生影响,加大安全合规的成本。首先,其第七条要求“提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责”,那么企业预训练的数据来源要合规、不能侵犯知识产权等,保证数据真实性、准确性等,显然是增大了企业的数据获取筛选成本;第二,提供生成式AI产品或服务应遵守法律法规、尊重社会公德公序良俗,在训练时要解决“人机对齐”问题,安全评估如果不通过需要在三个月内整改,对企业来说合规的压力加大; 第三,企业还需要制定人工标注规则、对标注人员进行培训等,接受抽样检验、申报安全评估及备案等,以及第二十条规定的处罚措施,如“拒不改正或情节严重的,责令暂停或终止,并处以一万元以上十万元以下罚款”等,都会增大企业的安全合规压力及成本。

  夏海龙则指出,《办法》内容最值得企业关注、或许也最容易引起业界争议的是第五条,该条规定生成式人工智能产品提供者需要对其产品生成内容承担内容生产者责任,这一规定背后的逻辑似乎认为生成式人工智能产品生成的内容完全由其开发者、设计者决定,显然这一理解与目前业界普遍看法或期待存在一定的差异,目前关于生成式AI是否具有著作权以及著作权归属、生成式人工智能对人类职业的冲击等社会讨论逐渐活跃,尚无定论,还需要进一步探讨研究。所以,如何在规范保障网络信息安全的同时,鼓励推动相关产业发展、发挥新技术的商业及社会价值,还需要监管方面进一步探讨与平衡。

  在盘和林看来,《办法》目前还处在征求意见阶段,未来必然还会有相应的调整。其部分内容还需要进一步细分优化,如AI生成内容真实准确性如何界定、AI算法安全评估标准如何制定等。他认为“先规范、再发展是正确的思路”,在给AI发展戴上“紧箍”同时要尽可能地将红线划细,“红线越细,企业发展的空间才会越大”。当前,国内还没有生成式AI产品面向公众真正开放,因此在规范的同时,建议采用适当举措鼓励产业发展。从经济学角度,要警惕出现两种情况,一是正规的生成式AI厂商不敢投入研发——担忧研发后遇到风险,二是非正规产品或趁机占据市场需求的空白。因此,建议监管部门在未来持续完善相关的法律法规,丰富管理措施。

阅读
分享