webwxgetmsgimg_副本.jpg
持“人工智能”魔杖并非无所不能 ——伦理规范,研究者头顶的“达摩克利斯之剑”
2019-09-11 07:35:00  来源:中国江苏网  
1
听新闻

  论坛

  指纹识别、人脸识别、智能控制、智能机器人……近年来,人工智能犹如一柄魔杖,激活了一个个丰富生动的应用场景。9月5日举行的国际(南京)人工智能技术前沿论坛上,来自全球的人工智能大咖纵论人工智能时代的“无限可能”。

  未来最好的家庭护理可能是情感机器人

  机器人会跳舞、会聊天、还会做家务,但它会不会像人类一样有情感呢?日本工程院院士任福继认为,人工智能有三个层次,分别是计算智能、感知智能、认知智能。在计算智能中,机器人远超人类;在感知智能上,机器人和人类各有千秋;而在认知智能、也就是理解能力和情感上,机器人远远不及人类。

  “上世纪80年代,我在日本留学,负责工业机器人项目。那时,全世界2/3的工业机器人都在日本。不管是政府官员、公司老板还是大学教授,都希望把机器人引入家庭,但很遗憾,到现在都没能如愿。”任福继说,因为机器人没有情感,人类不需要一个冷冰冰的机器作伴,那时科学家们就开始在研究机器人的情感。

  “机器人虽然没有意识,没有自我价值观,但是可以从外界信息的模拟来感知,反而可以让人感觉它是有情感的,这个是我们的目标。”任福继说,目前,团队已经使用大数据分析赋予机器人的情感模块,通过脑科学认识人的脑活动、情感机制,然后把它覆盖到机器人上,制作出情感机器人,它有与人相似的表情、情绪、情感,代替人类在某些地方进行工作。未来,或许每个人生下来就可以有一个ID,这个ID由机器人给你管理,提供给你最完整的情感信息、最好的家庭护理,医生可能是情感机器人。

  主流研究不支持让机器拥有自主意识

  在人工智能飞速发展的当下,科学伦理问题依然受到关注。近期,一款换脸软件的诞生让社会再度广泛讨论人工智能技术的滥用问题——伦理规范、法律约束一片苍白,隐私能不能得到保护?

  国际人工智能联合会理事长杨强说,换脸软件是让人上传自己的图像,然后以假乱真把一个小视频换成上传的人脸,这对金融行业的安全提出了挑战。“我们如何来识别一个人是真人呢?我们怎么知道他是不是人工智能合成的人呢?如果不能突破这个技术壁垒就会有大量的安全事故发生。”

  造假的数据攻击是怎么形成的呢?杨强说,这其实也可以数学化,在输入的数据和模型两方面进行造假,所以反欺诈就要针对这两者进行保护。人工智能在应用方面有一个最新的研究领域——对抗学习和反欺诈。研究人员做各种数学演算,框架叫对抗学习,最后可以形成各种模型,针对不同的攻击方法可以形成不同的白盒模型,使得造假完全通不过网关。

  强人工智能“不能做、不该做”

  “关于人工智能有很多不同的观点,常见的有两种观点:强人工智能和弱人工智能。”江苏省人工智能学会理事长、南京大学人工智能学院院长周志华说,所谓强人工智能,就是希望研制出和人一样聪明,甚至比人更聪明的机器。科幻界、文学小说和电影中就有不少,它们有自主意识,全面达到甚至超过人类智能水平。而弱人工智能,就是想让机器做事的时候聪明一点就好了,持有这种观点的主要是人工智能的学术界,主要是在科学技术发展方面。

  此前,韩国科学技术院大学与军工企业合作研发自主武器,遭全球50多名人工智能学者联名抵制,周志华是唯一一名中国内地学者。周志华认为,强人工智能“不能做、不该做”。霍金、马斯克等担忧的“人工智能威胁人类”,即指强人工智能。迄今为止,主流研究都不支持让机器拥有自主意识。

  周志华说,人工智能是一把“双刃剑”,如何合理利用技术造福人类,又能更好地规避其可能造成的负面影响,这是政府和社会应该考虑的问题,但目前界定人工智能是否构成滥用还具有比较大的争议。 本报记者 王 拓

标签:
责编:孟涛 崔欣
下一篇