2019年05月21日 星期二
完善伦理标准,为科研通达向善设立路标

第二看台

本报记者 江 耘 实习生 洪恒飞

    “从源头避免基因编辑技术可能带来的重大伦理及社会问题,需要制定我国的《基因编辑技术医学应用指导原则》,明确该技术在医学的适用范围和应用禁用边界。”近日,在浙江湖州举办的中国科学院学部2019科技理论研讨会上,中科院院士许智宏如是说。

    基因编辑婴儿、头颅移植、大数据算法滥用等由新技术应用引发的争论,近年来时常出现,加之我国新兴技术发展迅速,面对随之而来的近忧、远虑,需要加快完善科研伦理的规范标准,为技术发展指明方向。

    缺乏共识,规范需要制度化

    某项技术的应用,若不止一次引发伦理问题,暴露的是科研人员“对此缺乏伦理共识”这一事实。在许智宏看来,用新兴技术开展研究,科研人员需要在道德和伦理意识上得到规范指导。许智宏建议,科学家应率先确定学界的伦理共识,为国家层面划出科技伦理的“红线”提供参考。

    这一看法,也得到了中国科学技术大学计算机科学与技术学院教授陈小平等专家的呼应。陈小平认为,除了生物技术领域,大数据技术对知情同意造成挑战、人工智能技术存在异化风险等问题,也在促使学界加快相关伦理规范的建设。

    数据孤岛被打通之后,给人们的生活、工作带来极大方便,但大数据同样可用于定位、追踪。在数据面前,用户的隐私得不到妥善保护,安全感也被削弱,便利与安全二者之间的矛盾难解难分,已引发了一系列公共讨论。

    “保护隐私,理论上可通过知情同意等方式来实现,但实践起来却并不容易。”复旦大学哲学学院教授王国豫说,比如用户同意了某些网络条款,却无法深入了解这些数据谁在使用、有什么目的,知情同意就无从谈起。“因此,科技伦理规范需要实现制度化。”王国豫说。

    “虽说人工智能短期内还不至于像科幻电影中刻画得那么危险,但也需要进行伦理规范建设。”陈小平说,目前,通过分行业做课题等形式,国内已经开始开展了人工智能伦理规范的建设。

    严格审查,培育高质量把关人

    针对潜在的科技伦理问题,从宏观层面构建科研伦理框架势在必行。中国社会科学院哲学研究所研究员邱仁宗对此表示,完善伦理审查机构的相关工作尤为重要。

    邱仁宗认为,不同于研发人员,参与伦理审查工作的科研人员作为把关人,对技术应用后续发展要有更全面的认识。

    2018年,因为对“基因编辑婴儿”的大胆试验,原南方科技大学教授贺建奎遭受各方质疑,其“学者型商人”的标签尤为显眼。

    通过对其学术生涯变化的研究,中国科学技术大学教授史玉民认为,贺建奎在研究上的一系列变化与商业活动关系密切。史玉民强调,科学伦理不是一个孤立的问题,需要将科技伦理与商业伦理结合起来看待。

    众所周知,技术成果被研制成功后,通常会转化、应用到相关产业。科技的应用需要时间来验证其安全性,验证过程中发现科技伦理问题,人们率先将矛头指向研发者后,也会对把关人进行追责。

    “这就要培养一批高级人才从事伦理审查工作,”邱仁宗表示,这支队伍应当具备高超的科研水平和道德观念,以及了解存在伦理隐患可能导致的连锁效应,让科技伦理审查机构更好地发挥效果。

    搭建平台,广泛开展科学普及

    当谈到科研诚信、科技伦理的时候,部分人最先想到的是该由政府出面,或这属于某个机构的职责。不过,如今这一认知正在慢慢发生改变。

    美国迈阿密大学米勒医学院的罗萨莉欧·伊萨斯博士表示,通过已经披露的相关事件,可以感受到公众的参与度越来越高。

    美国对科研不端行为举报制度已进行了长期探索,对举报人的保护制度也日益完善,这也促成更多人参与维护科研伦理。

    “通过对违背科技伦理的事件处理,我们从中感受到,每一次事件发生、发酵、解决,都会引导公众参与、了解这项工作。”罗萨莉欧·伊萨斯认为,这相当于一个平台,将科技伦理的问题放大到了公众面前。

    对此,许智宏也表示,科技最终是要服务公众生活的,科研人员和机构需要加强与公众的沟通对话,搭建新兴技术与公众对话的平台,广泛听取公众的意见,为技术发展和应用提供参考决策。

    “具体而言,科研人员有义务对某项技术特点、技术用途以及与公众切实相关的问题,开展广泛的科普,消除公众对新兴技术的误解和偏见。”许智宏说。

京ICP备06005116