微信截图_20240920153326.jpg
中国科学院院士何积丰:构建安全可信的人工智能
2019-12-11 07:36:00  来源:中国江苏网  作者:张宣  
1
听新闻

  日前,在宁召开的第二届江苏省人工智能大会上,中国科学院院士何积丰带来主旨报告《可信人工智能》。他表示,随着人类生活被人工智能广泛渗透,公众接受人工智能的程度也越来越高,随之而来的就是人工智能的可信问题。

  去年3月,美国优步的一辆自动驾驶车在路试时撞倒一名行人,当时行人正推着自行车在人行道之外横穿马路,关于责任认定,车辆使用者和自动驾驶系统设计者开始扯皮。

  “这些人工智能案例,是因为这些突发的场景并不在训练范围,机器也就无法从容应对。” 何积丰说,“可信”是计算机领域的一个概念,主要强调的是计算机系统和其处理过程的可预测性、可验证性。近年来,“可信”的概念也被引入到人工智能领域。

  可信人工智能由我国提出,并在G20会议上被各国所认可,这也是关注人工智能发展的核心所在。人、机、物融合是当前社会面临的一个很重要的系统状态。如果把人、机、物中间的物理运动以及众多事件进行组合,如何进行系统性的训练和测试尤为重要。

  在何积丰看来,人工智能的安全发展面临着“内忧外患”,对内要处理数据偏差、系统失误等情况,对外则要应对黑客攻击、场景受限等问题。他解释,人工智能系统与传统的软件系统有很大区别,这使得其安全发展面临一系列新挑战。例如,让程序学习检测皮肤癌,程序却发现恶性皮肤病变的照片里往往放着一把尺子,便以尺子来作为判断标准。

  如何保证人工智能安全可控?何积丰表示,人工智能能够与行业、社会治理结合,具备新的赋能功能。因此,对于其安全问题,应该从两个层面来讨论,一层是人工智能技术本身的安全问题,一层是人工智能与行业结合后的潜在风险。以网络安全为例,他认为,人工智能很多目前应用到一线的产品,其实效果远未达到理想状态,尤其是算法、算力、网络体系和数据体系的安全性等,比如,数据传输过程中会不会被篡改,很难去验证。

  人工智能的“可信”,也需要建立相应的法律、法规、标准和社会伦理准则。比如,对数据进行分类,规定这个数据哪些地方能用,哪些地方不能用。人类应该为人工智能技术的开发设定边界,不能做无限开发。

  此外,何积丰指出,现阶段人工智能的通用性较弱,行业应用场景差异较大,技术大规模的普及应用仍未真正实现。因此需要有更多的技术推动人工智能通用发展,此趋势不可阻挡,不仅是技术发展的需求,更是整个社会经济发展的需求。

  “很多人担心人工智能会不会带来失业潮,机器人会不会取代人的工作,其实这些消息都有些夸大。”何积丰表示,很多职业其实是被时代发展而淘汰的,机器人只是取代了一些简单、重复的劳动,还有部分高危、人类不愿意参与的工作等。与此同时,技术的发展也带来新的就业机会和新的职业。同时,我们也不必纠结于究竟何时能够实现真正的人工智能,去为它划定时间界限,当技术发展到一定阶段,人工智能足够安全,可以被人们信任、接受时,这样的可信人工智能时代自然会到来。 记者 张宣

标签:
责编:戴凌 崔欣
下一篇