微信截图_20240920153326.jpg
规范科学边界 防止技术滥用 科技创新应守好伦理“大门”
2019-08-14 07:15:00  来源:中国江苏网  作者:蔡姝雯  
1
听新闻

  人工智能、基因编辑、自动驾驶等新技术在释放技术红利、造福人类的同时,也催生了新的科技伦理风险和科技治理挑战。加强科技伦理制度化建设,推动科技伦理规范全球治理,已是全社会的共识。7月24日,中央全面深化改革委员会第九次会议审议通过了《国家科技伦理委员会组建方案》。科技界人士认为,这意味着中国将加快建立健全科技伦理审查和风险评估制度,并制定更为严格的法律法规。科学技术打开的究竟是阿里巴巴的大门还是潘多拉的魔盒,“科技伦理先行”将为其辨明方向。

  脑机接口等新技术引发伦理担忧

  前不久,特斯拉首席执行官埃隆马斯克公布了一款脑机接口系统,设想将电极植入人的大脑。随后,社交媒体巨头Facebook(脸书)表示正在资助高校科研团队研发“语音解码器”,科研人员在研究中将一种电极片直接放在志愿者的大脑上面读取大脑信号。

  “读脑术”似乎将成为现实,但这一系列脑机接口技术的进展,却引发了科学界以及公众在伦理方面的担忧。“我坚决反对马斯克这种芯片植入式的脑机接口研究。”在日前举行的2019中国计算机大会新闻发布会上,中科院院士梅宏说,“我们对人脑机理的探究是必要的,但这种技术路线是危险的,如果技术滥用后果将不堪设想。”业内人士认为,脑机接口技术不但对人的大脑有损伤或感染的安全隐患,还会侵犯个体的生理和隐私的边界。

  除了脑机接口,自动驾驶带来的伦理问题也引发关注,此前在南京举行的全球人工智能技术大会上,耶鲁大学技术与伦理研究中心主任温德尔瓦拉赫说:“技术进入驾驶座,成为人类命运的决定因素,如果系统失灵,谁将承担责任?”他认为,自动驾驶只是触及到技术伦理与道德的冰山一角。

  “人工智能可能会通过学习,专门攻击人脸识别。”中国工程院院士方滨兴8月3日在东南大学演讲时说,有一种攻击手段叫“face to face”,即“实时换脸”。“你拿Ipad给我摄影,用这种手段能把我的脸换成刘德华的脸,而且可以让我以刘德华的脸完成张嘴、摇头、眨眼等任务动作。”技术看着有趣,但是其背后同样有着伦理隐忧。

  当今世界,人工智能、基因编辑、合成生命、大数据等新技术高速发展,科技伦理有了大量新范畴。科学,不仅仅是实验室里的探索,更承载着人类未来发展的方向,科学技术的发展离不开伦理环境的建设,在一项技术发展到一定规模和程度时,必须要有相应的科技伦理来规范。

  比如瓦拉赫提出对人工智能的国际监督,“我们成立了国际AI治理大会,列出42个不同的原则清单。”他探讨建构一种人工道德智能体,让AI具有基本的道德敏感性,并逐步使AI具备道德决策能力。

  有边界的创新才是负责任的创新

  科技伦理不只是涉及科学研究中的伦理,也不只是科研人员要遵守科技伦理,还包括科技成果应用中的伦理。对基础科学的研究尽可以大胆假设,但对新技术的伦理评估以及成果应用则需要“小心求证”。爱因斯坦曾说:“科学是一种强有力的工具,怎样用它,究竟是给人带来幸福还是带来灾难,全取决于人自己,而不取决于工具。刀子在人类生活中是有用的,但它也能用来杀人。”

  世界科技史上,伦理问题不止一次引发巨大或持久的争议。1978年7月25日,世界上第一例试管婴儿在英国出生。但是直到2010年,“试管婴儿之父”剑桥大学教授罗伯特爱德华兹才获得诺贝尔生理学或医学奖。辅助生殖技术经过30多年的实践考验才通过了伦理,得到了公众的认可。

  科研伦理灰色区域特别宽。中国科学院院士杨卫在“知识分子”撰文称:“如我们把不同基因段融合,有多少种组合可组成病毒,这个算不算伦理问题?欧洲的科学家说有问题,美国科学家说没有问题,所以把这项研究登在《科学》杂志上。”

  “最大限度地发挥作为科学家的影响力,用最有益于人类的方法促进科学的发展,防止对科学的错误利用。”——1949年,国际科学协会联合理事会通过的《科学家宪章》中,对科学界的义务和责任作了明确规定。

  而在欧盟相关科技创新政策中,重要理念之一便是“负责任的创新”,这一理念主要用于评估科研和创新所具有的潜在意义及所承载的社会期望,旨在培育和设计具有可持续性、安全性的科研和创新。

  今年3月,世界卫生组织宣布,将在未来两年内制定一个强有力的人类基因编辑国际治理框架,该框架将具备可扩展、可持续的特点,并适用于国际、地区、国家及地方各个层面。世卫组织新成立的人类基因编辑全球治理和监督标准咨询委员会则强调,应创建人类基因编辑研究的“中央登记体系”。

  为防范技术滥用和其他风险挑战,西方科技强国建立了较为完善的科技伦理自律管理机制,比如主流科技企业内部建立伦理审查机制、行业组织制定行业标准等,其科研人员基本都要经过伦理培训,选修相关课程。

  在我国,中国人工智能学会伦理道德专业委员会也正在计划针对不同行业的人工智能设立和制定伦理规范,如智能驾驶规范、数据伦理规范、智慧医疗伦理规范、智能制造规范、助老机器人规范等。

  瓦拉赫认为,全世界人工智能伦理的发展尚属起步阶段,中国的人工智能产业发展迅速,有更大的责任参与到人工智能伦理国际机制的建构当中。

  将伦理基因植入对科学的探索

  将伦理基因植入对未知科学的探索,方有利于让科技更好地造福人类。

  我国对于科技伦理的重视程度在不断提高。2019年政府工作报告中即提出要“加强科研伦理和学风建设,惩戒学术不端,力戒浮躁之风”;5月,科技部监督司党支部组织开展了科技伦理专题学习活动,研究伦理学、人类基因编辑伦理学。7月24日,中央全面深化改革委员会召开第九次会议,审议通过了诸多重要文件,《国家科技伦理委员会组建方案》排在首位通过。

  组建国家科技伦理委员会,目的就是加强统筹规范和指导协调,推动构建覆盖全面、导向明确、规范有序、协调一致的科技伦理治理体系。

  中国社会科学院哲学研究所研究员、科学技术和社会研究中心主任段伟文在相关文章中指出,“新兴科技带来的高度不确定性及其复杂的价值抉择与伦理挑战,单靠科技人员价值判断和科研机构伦理认知已难以应对,亟待整个科技界乃至国家层面的统一认识、动态权衡和规范实践。”“科技伦理议案如此显著地列入国家最高决策议程,不仅开创了历史先例,更表明了国家对构建科技伦理治理体系前所未有的高度重视。”

  值得注意的是,我国的伦理基础研究目前还比较薄弱,杨卫称:“有一次,我访问了一个德国伦理研究所,他们收集了世界上200多种期刊,来自中国的伦理期刊只有2种,而且是地方大学的学刊。”此外,当前我国各级各类教育中也普遍欠缺科技伦理相关课程。目前在我国,除了医疗卫生机构,绝大多数单位也都没有伦理审查机构。

  杨卫建议:“应该广泛地开展研究,制定旨在保护人类社会稳定发展的伦理规则,成立科学伦理委员会,裁决重大伦理争端,同时联合中科院、工程院、基金委资助伦理方面的研究,发动有关学会制定领域伦理标准。”

  段伟文则指出,科技伦理治理面临的最大挑战是,如何既不束缚创新又能有效规避风险?瓦拉赫也提出,应在保障大众利益的前提下为科技发展留出空间。

  记者 蔡姝雯

  实习生 上官新宇

标签:伦理;脑机接口;科技伦理
责编:苗津伟 崔欣
下一篇