2023年04月21日 星期五
划“红线” 生成式AI不再野蛮生长
□ 科普时报记者 陈 杰

    火爆的ChatGPT推动生成式人工智能(AIGC)应用落地提速,然而随之而来在全球范围内引发了广泛争议。AIGC何去何从?健康发展和规范应用成为摆在人们面前急需解决的一道难题。

    4月11日,国家网信办公布《生成式人工智能服务管理办法(征求意见稿)》(以下简称“征求意见稿”),对AIGC作了包括定义、准入资格、责任义务和处罚措施等较为详尽的规定。当前,国内的大模型研究及AIGC的商业应用仍处于发展初期,监管来得如此之快,足见政策层面对AIGC产业的重视,产业界也普遍认为规范性的政策将长期利好行业发展,AIGC即将迈入监管式发展阶段。

    应用广泛但面临潜在风险

    AIGC是一种基于人工智能技术的创新型内容生成技术,它可以将人类创造的内容转化为机器可理解的内容,并通过自然语言或其他交互方式呈现给用户。AIGC已经成为全球人工智能产业竞争的必争高地。

    业界专家认为,AIGC在图像、音频等内容的生成,以及智能客服、自动化生成等应用场景方面具有广泛应用前景。但在落地应用过程中,AIGC所面临的挑战也不小。文渊智库研究员王超告诉记者,AIGC生成的内容可能涉及版权、著作权等知识产权问题,还可能引发隐私权保护和个人信息安全问题。

    百度CTO王海峰表示,科技的发展可以造福社会,也可能带来一些潜在的问题,“这需要技术的防范,需要建立相应规范,更需要全产业链乃至全社会携手解决问题,让技术发挥价值的同时,避免对技术的滥用。”

    发展和监管需要平衡

    面对AIGC所面临的挑战,业界从技术、伦理、法律等方面进行了深入研究和探讨。

    针对征求意见稿第九条提出的“要求用户真实身份信息”,北京大学法学院教授薛军认为,AIGC在特定情况下更类似于搜索服务,应当允许用户以游客的身份使用。“就比如必应搜索引擎迁入了ChatGPT问答模型,游客都可以浏览使用。这样其实既可以保护用户的隐私,也方便网民使用。”

    针对征求意见稿第五条提出的“规定生成式人工智能产品提供者承担该产品生成内容生产者的责任”,中国人民大学教授、国家发展与战略研究院研究员刘永谋认为,AIGC应用户需求所提供的大多是生成文本、图像、声音等信息内容,用户在不同的场景使用可能会产生不同的影响。“一段由AI生成的正常的文字图片,平台方无法得知它是否被用于创作领域,还是用于一些灰黑产业,其产生的后果应当由内容的使用方负责。”

    在侵权问题上,征求意见稿第七条规定“生成式人工智能服务提供者用于生成式人工智能产品的预训练、优化训练数据,不得含有侵犯知识产权的内容”。北京外国语大学法学院副教授陈明涛认为,对知识产权的侵权性判断必须考虑到大模型训练数字的数量问题,面对海量的训练数据,生成式人工智能服务提供者很难作出有效判断。“现有立法对网络服务提供者会建立一种避风港机制,即要求权利人发通知主张权利,从而降低审核难度。对于生成式人工智能服务提供者,其实也可以考虑采用类似制度。”

    广东财经大学法学院教授姚志伟表示,当前我国人工智能产业还需要引导企业积极创新,责任过重有可能会抑制企业的创新热情和技术进步。“对于AIGC可以考虑采取二元化的策略,对危害到国家安全和重要公共安全的问题,列出清晰的规则,明确法律责任和后果,划定底线进行监管。而对于个人信息保护、知识产权侵权等问题,则可针对技术应用过程中出现的问题,再进一步完善立法监管。”

京ICP备06005116