2019年02月22日 星期五
警惕“通往极端的狭隘”
□ 尹传红
事实与信仰

    科学随想

    在前不久召开的美国科学促进会年会上,莱斯大学贝勒医学院副教授基尼维拉·艾伦发出警告称,数以千计的科学家用来分析数据的机器学习技术,正在产生具有误导性且常常是完全错误的结果。这种机器学习系统使用量的激增正在导致一场“科学危机”。

    机器学习已被用于研究科学和医学数据与某些现象之间的关系,如基因与疾病之间的关联性。一旦机器学习发现病人基因与疾病特征之间存在特定联系,研究人员可能就会对相应的发现提供合理的科学解释。但在艾伦看来,这并不意味着那些发现就是正确的。因为软件识别的是只存在于数据集中,而非真实世界中的模式。

    一项分析表明,在全世界开展的所有生物医学研究中,多达85%的研究都是白费工夫。这种危机愈演愈烈已有20年。之所以会出现这种情况,是因为实验的设计并不完善,无法确保科学家们不会自欺欺人——只想得到自己想要的结果。按照那位女博士的说法,机器学习系统和大数据集的使用加速了这场危机,因为机器学习算法是专门为在数据集当中寻找“有趣”的东西而开发的,因此当它们在大量的数据中搜索时,将不可避免地找到一种模式。可这并不能代表科学的真正发现。

    应用一种有缺陷的人工智能技术,居然会导致“科学危机”?!这也只能让人感叹:在几乎所有的编码知识都能够即刻获取,并且计算机可以解决极其复杂的问题、帮助寻找最合理答案的时候,与教授真理、技术和答案相比,传授创造力、判断力和解决问题的能力要困难得多。我觉得,很有可能,人们已然变成计算机控制的木偶、被机器的判断所束缚,乃至思维模式都已被重塑而不自知。近年来,已有多位学者就此发出了警示。

    《哈佛商业评论》原执行主编尼古拉斯·卡尔在《浅薄:互联网如何毒化了我们的大脑》一书中指出,所有的信息技术都会带来一种智能伦理。印刷图书让我们进入聚精会神的状态,从而促进深度思维和创造性思维的发展。相比之下,融多种不同类型信息于一屏的互联网多媒体技术,鼓励我们蜻蜓点水般地从多种信息来源中广泛采集碎片化的信息。我们已经开始失去其他的思维方式,特别是那些需要持续的注意力、需要集中精神的思维方式,以及那些需要沉思、反思和内省的思维方式。而这种精神层面的改变在教育、创新、文学、艺术,甚至是在精神健康方面已经产生了很多实际的后果。

    美国芝加哥大学教授詹姆斯·A·埃文斯曾在《科学》上发表文章,提醒学者们:在以往印刷刊物上的文章纷纷实现数字化并传到互联网上的过程中,学者们对发表日期更近的文章的引用频率呈现出不断上升的趋势,可用信息范围日益加宽。然而,这却导致了阅读和引用、科学和学问的日趋狭窄。为什么呢?

    按照埃文斯的分析,像搜索引擎这样的自动化信息过滤工具往往会成为文章声望的放大器。关于什么信息重要,什么信息不重要,这种过滤工具建立起一种舆论观点,然后又持续不断地强化这种观点。此外,跟随超链接一路前行轻松便捷,也导致在网上进行调查研究的那些人“会跳过很多相关程度不高的文章”。所以,学者们找到由搜索器为我们“规划”了排序的“主流观点”的速度越快,他们“遵从这种观点,从而导致在更少的篇幅当中引用更多内容”的可能性就越大。

    这又意味着什么呢?按照一位中国学者的解读,这不知不觉地就把读者引向了主流观点,加快了意见统一,使结论和想法变窄。“阅读内容的多样化遭遇阻碍,这对思想的独立、开放、创新是不可忽视的威胁。”

    韩国学者李焌桢也注意到:互联网上片面的信息推送系统会妨碍我们进行其他角度的思考,拦截了可能偶然遇到的多种信息,只是重复加深曾经相信的事实。逐渐地,在我们的生活里就只有那些自己期望的信息。当所有的人都只依赖搜索引擎探索信息,就会有越来越多的人对事物持相同的观点,而且这种观点会加速扩散。最终,其他观点迅速消亡,从而使人们的选择更狭隘,思维更封闭。

    如此下去,可以想见,我们的世界很有可能被数据左右,因为对数字技术的盲目依赖改变了社会变化的形态,人们的想法会越来越依赖于机器的判断,进而产生深层的社会影响,让人们滑入一个自我封闭的陷进,如英国学者彼得·斯科特-摩根所忧心的那样——“通往极端的狭隘”。如果这种现象“被用于追求极端主义的信仰和政治的话,那么这将会成为一个重大问题。”

京ICP备06005116