2016年11月17日 星期四
AI将非洲人标为大猩猩 机器学习“歪”了

    据外媒报道,随着人工智能(AI)与机器学习技术的日益成熟,它们被用于解决复杂问题的潜力也逐渐显现出来。我们甚至有点儿期待,希望机器人能在人类失败的领域取得突破,即在决策时抛开个人偏见。

    但是最近出现的许多案例显示,机器学习被引入的同时,也出现了许多意想不到的挑战,有时候甚至产生错误、令人讨厌的、冒犯性的后果。

    机器学习利用算法分析数据、提取模式以及学习和预测,并会基于收集到的见解做出决定。但这其中存在一个问题,因为同样被用于训练机器学习算法的数据,也可能会让它变得邪恶或存在偏见。 

    机器学习初创企业Beauty.ai今年举行了世界上首场AI驱动的选美大赛。超过6000人递交了自己的照片,AI通过对称性、皱纹等因素评估这些人的魅力。这项比赛的原意是减少人类裁判的社会偏见,但结果令人感到失望。44位获胜者中,绝大多数都是白人,只有少数亚洲人,深色皮肤人种的获胜者仅有1人。研究人员解释称,问题是用于训练算法的照片样本在种族方面存在不平衡性。

    有关这类机器学习算法存在偏见的例子不胜枚举,包括谷歌算法将非洲裔标注为大猩猩,广告投放引擎更少向女性展示高薪职位,新闻算法推广假新闻和粗俗故事等。

    机器学习最大的挑战之一就是难以确定责任。开发机器学习软件与传统编码完全不同,训练算法与编写代码同样重要。 

    当关键决定权被赋予AI时,事情将会变得更加敏感。举例来说,如果无人驾驶汽车撞倒1个行人,谁将被追究责任?司机(更精确地说车主)还是机器学习算法的开发者?

    一个解决方案就是创造可共享的、受到监管的数据库,它不归任何单一实体所有,从而可预防任何人单方面操作数据。在这方面的显著努力就是AI合作组织的成立,这个组织的目标包括,解决AI的伦理问题,确保AI被公开应用前接受多元化审视。

    将来有一天,或许机器人会变得足够聪明,可以解释自己的行为,并纠正它们的错误。到那时,人类的责任将是预防训练AI的人类负面倾向被无限扩大。

    网易科技报道2016.11.9文/小小

京ICP备06005116