2020年01月15日 星期三
美国麻省理工学院科学家马克思·泰格马克呼吁
科技向善 让AI助力构建人类命运共同体
本报记者 李 钊
马克思·泰格马克在演讲本报记者 李钊摄

    科技创新·全球治理⑥

    1月11日,在腾讯主办的第三届“千里之行”科技向善年度论坛中,麻省理工学院物理学终身教授、未来生命研究院创始人马克思·泰格马克畅谈AI技术,呼吁更加广泛的共同体,才能实现真正惠及人类生活的美好愿景。

    AI科技并非都“向善”

    泰格马克演讲的题目是《人类的下半场及与科技和平相处》。他说:“美国动画片中著名的小黄人辛普森说过:生活中所有问题的解决方案尽在酒中,如果我们把‘酒’替代为‘人工智能’的话,仍然是成立的。我们的生命确实得益于AI,向善的科技是否能够帮助我们去解决生活中的问题呢?”

    他说,人工智能AI正在变得越来越强大,可以走路的机器人出现不久,就出现了可以做前后空翻的机器人;10年前我们没有自动驾驶汽车,但现在有了自动驾驶、自动回收的火箭;还有人脸识别、语音分析、简单编程,这样的例子不胜枚举。

    除了象棋和围棋,AI实际上在其他领域取得了更大的进展,过去几十年的一些传统算法,都被机器学习进行了替代。由于技术进步,人工智能可以解决我们非常多的问题,甚至可以拯救人类的生命。

    每年道路交通都要发生上百万例死亡个案,这种境况可以通过AI来进行优化改善,AI可以大幅降低人为错误。医疗系统当中同样如此,现在有很多数据证明,在前列腺癌、肺癌以及眼疾当中,AI做的比人类更好,不光是软件层面,还有硬件层面,AI可以接入云端,达成更高质量的诊断效果。

    然而,泰格马克说,AI技术不仅能解决问题,也会带来问题。

    一个真实案例是,某金融机构在一分钟时间内,因为交易失误导致了4.4亿美元凭空消失。更准确地说,这是人们不够了解、不够懂AI导致的一个结果。

    AI“向善”如何保证?

    有的悲剧,因为不懂AI而发生,而另一些伤害,则是恶意应用AI而造成,比如说伪造与欺诈。这时,如何做才能保持AI的积极层面而杜绝它的负面效应呢?

    首先,必须要划清界限,把技术分成可接受和不可接受的AI应用。界限由何而定?文化、道德、法律、国际公约,这方面基因编辑技术的案例已经提供了很好的借鉴。

    其次,人类需要将AI调整到非常好的、积极的、正面的方向。AI的管理和管控是全球性挑战,因为技术没有边界,没有国界,各个国家也不可能自己关门作战。

    泰格马克认为,中国在这方面实际上就扮演了非常重要的角色。这不仅仅因为中国实力日益强大,更因为中国有着长期思维的战略部署,拥有着久远的历史和文化积淀。要知道,中国是一个有着5000年文明的古老国家,在国外讲长期规划,大家都会笑,可如果说中国去筹划高铁项目,大家就会关注长期的愿景和规划。

    “这是一种智慧,这是一种全世界应该向中国学习或从中受益的一种智慧。所以在发展AI人类命运共同体的时候,我们必须要划清界限、锚定方向”。

    向善愿景,需构建人类命运共同体

    我们呼吁共同的、共享的、共有的全人类积极愿景。1975年的阿西洛马大会出台了阿西洛马人工智能原则,随着技术的发展,这些原则得到了进一步的拓宽和演进,很多大企业都制定了自身向善的原则。所以一项技术启用前,必须划清界限,技术到底是向善的,还是向恶的,我们希望技术带来解药,而不是武器。

    随着技术和科学的日益强大,我们发现只从错误中学习,已经远远不够。在过于强大的技术面前,要主动出击,而非坐以待毙,有人说,这是危言耸听,其实在麻省理工的字眼当中,这叫安防工程。

    如果一项工作,机器比人类做的更好、更便宜,我们是应该自鸣得意,放任机器把人汰掉,还是谨慎乐观,留有后手?就算最后能够建立超级智能,这个超级智能也一定要普及、惠及所有人类,而不只是让一小部分人受惠。

    “当我看到习近平主席呼吁构建人类命运共同体时,感到非常高兴,我觉得这是一个非常重要的观点,非常好。”

    他呼吁,要真正实现人工智能的技术向善,与人类的和谐共存,不仅仅是技术应用层面的问题,应该建立更广、更远大的目标,划清界限,这需要的是全球、全人类共有的一个积极愿景。

京ICP备06005116