2024年07月01日 星期一
发展负责任的生成式人工智能

    文章:《负责任的人工智能:技术伦理危机下AIGC的治理基点》

    期刊:西安交通大学学报(社会科学版),2024年第1期

    作者:陈建兵、王明

    评荐:张丛(学报常务副主编)

    随着ChatGPT的问世及应用,生成式人工智能(AIGC)展现出巨大发展潜力。与此同时,AIGC能在不经过人类监管的情况下自主生成大量文本和内容,可能会导致虚假信息传播、隐私泄露以及其他潜在的社会问题。如何给AIGC“立规矩”、推动其迈向“负责任”的人工智能?该文针对当前技术伦理问题新特点,对AIGC技术伦理危机的诱发机制进行了科学揭示和准确描述,并提出治理思路和政策路线图,对加强AIGC发展的相关立法、政策制定具有决策参考价值。

    该文提出,人类社会的重大科技进步都会引发新的科技伦理问题,AIGC技术伦理危机具有独特诱发机制,主要体现在算法运行透明度低导致的沟通“不理解”,缺乏主观善意导致的决策“不可控”,人工智能幻觉导致的安全性“不可靠”,人机伙伴关系尚未建立导致的合作前景“不可持续”等方面。推动AICG迈向负责任的人工智能必须对症下药,学界应推进人机协同中的可解释性研究,实现与其沟通的“可理解”;政府要加强监管,确保决策的“可控制”;企业行业要建立自治自律机制,实现安全方面的“可信赖”;用户要提升算法素养,实现人类与其合作的“可持续”。

京ICP备06005116