2020年02月21日 星期五
欧洲拟严格监管高风险AI技术

    科技日报北京2月20日电 (记者刘霞)据美国《科学》杂志网站19日报道,欧盟委员会发布新计划称,将制定法律严格监管高风险人工智能(AI)技术,更新欧盟2018年AI发展战略,未来在AI研发领域投资数十亿美元等,以进一步促进欧盟AI产业发展。

    该委员会将起草新法律,管理AI技术的高风险应用,例如在医疗设备、自动驾驶汽车内的应用等。尽管这些法律将比欧盟以往发布的任何法律都更广泛且更严格,但欧洲委员会主席乌尔苏拉·冯·德·莱恩表示,这些法律的目的是促进“信任,而非恐惧”。

    与美国相比,欧洲对AI采取的态度更为谨慎,欧盟官员希望通过监管赢得消费者的信任,从而推动AI技术的广泛采用,帮助欧洲在国际AI技术竞争中脱颖而出。

    欧盟委员会指出,确定某些应用是否是“高风险”应用有一套准则。例如,是否会导致人受伤、或者会导致人对机器人决定(如AI用于招聘或警务活动)没有任何发言权。欧盟委员会希望,高风险应用需要人工监督。

    法律还将确定谁为AI系统的行为负责:使用AI系统的公司还是设计AI系统的公司。高风险应用程序必须被证明遵守法规,才能在欧盟内广泛使用。

    此外,这些法律还将管理用于训练AI系统的大型数据集,以确保它们合法采购、来源合法。欧盟委员会反垄断专员玛格丽特·维斯塔格说:“AI系统可靠的基础是技术强大且准确。”

    欧盟委员会表示,将就“面部识别AI系统在欧洲范围内开展一场广泛的讨论”。尽管德国等欧盟国家已宣布部署这些系统的计划,但官员们表示,这些系统经常违反欧盟隐私法,包括有关警察工作的特别规定。

    新AI计划不仅涉及法规,欧盟委员会还将提出一项“行动计划”,将人工智能整合到交通和医疗等公共服务中,并将更新欧盟2018年人工智能发展战略,该战略拟投入15亿欧元用于AI研究。此外,欧盟委员会呼吁开展更多研发,包括创立AI“卓越和测试中心”,投资数十亿美元建立新型AI产业合作伙伴关系等。

    在接下来12周内,专家、游说团体和公众可对此发表意见,随后欧盟委员会开始草拟具体法律法规,最终法规需要得到欧洲议会和成员国政府批准,预计今年不太可能完成。

京ICP备06005116