悟 道
人工智能的应用,可能是影响深远的社会伦理试验。应通过算法给智能机器嵌入人类的价值观和规范,让它们具有和人类一样的伦理道德。
前不久,包括特斯拉首席执行官马斯克在内的多位全球人工智能顶尖专家签署承诺书,呼吁不要开发“人工智能自主武器”。这已经不是业界第一次警告人工智能的潜在风险了。尽管当前处理单项任务、完成人类指令的“弱人工智能”自主性还很低,人们却不能因此忽视新技术应用的潜在隐患。
人工智能存在算法缺陷。这种缺陷往往源于机器学习过程的不可解释和不可理解,它的判断有时就像在一个黑箱中完成,缺少透明性。
不仅有近忧,更有远虑。放眼未来,人工智能的应用正在模糊虚拟世界和物理世界的界限,可能重塑人类的生存环境和认知形态,并由此衍生出一系列棘手的伦理、法律和安全难题。
针对人工智能应用的潜在风险,国际社会在标准设计、伦理道德等方面提出了一系列试图控制智能机器系统的方案,逐渐形成一个共识原则:通过算法给智能机器嵌入人类的价值观和规范,以此让它们具有和人类一样的同情心、责任心、羞耻感等伦理道德。人们希望,人工智能的算法遵循“善法”,在完成人类难以完成的任务同时,吸取人类道德规范“善”的一面,从而达到控制机器风险的目的。毕竟,任何算法都只是实现目的的工具或手段,“善”的结果才是人类的追求目标。
喻思南
来源:人民日报