英国正式颁布机器人道德标准 科幻与现实交织 - 智能机器人 - 产品分类 -AGV产业联盟官方网站 -新战略机器人网-工业、服务、AGV机器人产业资讯传播者
您所在的位置:首页 >> 智能机器人 >>正文
分享34K

英国正式颁布机器人道德标准 科幻与现实交织

发布时间: 2016-09-20 09:09:05 来源:

核心提示: 国标准协会(British Standards Institute,简称BSI),是有着 100 多年历史的英国国家标准机构,在世界范围内具有很高的权威性。这个伦理指南的全称是《机器人和机器系统的伦理设计和应用指南》(以下简称《指南》),主要针对的人群就是机器人设计研究者和制造商,指导他们如何对一个机器人做出道德风险评估。最终的目的,是保证人类生产出来的智能机器人,能够融入人类社会现有的道德规范里。

英国标准协会(British Standards Institute,简称BSI),是有着 100 多年历史的英国国家标准机构,在世界范围内具有很高的权威性。这个伦理指南的全称是《机器人和机器系统的伦理设计和应用指南》(以下简称《指南》),主要针对的人群就是机器人设计研究者和制造商,指导他们如何对一个机器人做出道德风险评估。最终的目的,是保证人类生产出来的智能机器人,能够融入人类社会现有的道德规范里。这个标准的文件代号为 BS8611,发布于9月15日英国牛津郡的 “社会机器人和AI ”(Social Robotics and AI)大会上。西英格兰大学机器人教授Alan Winfield表示,这是业界第一个关于机器人伦理设计的文件内容虽然用词枯燥,但是里面所描绘的场景,简直跟从科幻小说里蹦出来的一样。机器人欺骗、令人成瘾、具有超越现有能力范围的自学能力,这些都被列为危害因素,是设计人员和制造商需要考虑的。

《指南》开头给出了一个广泛的原则:机器人的设计目的不应是专门或主要用来杀死或伤害人类;人类是负责任的主体,而不是机器人;要确保找出某个机器人的行为负责人的可能性。

《指南》也聚焦了一些有争议性的话题,例如,人类与机器人产生情感联系是可以的吗,尤其是当这个机器人本身设计目的就是为了与小孩和老人互动。

谢菲尔德大学教授Noel Sharkey认为,这就是机器人在无意的情况下欺骗人类的例子。机器人是没有感情的,但是人类有时候并不这么认为。他指出,最近有一项研究,把小机器人放到一所幼儿园里,孩子们很是喜爱,并且认为这些机器人比家里的宠物具有更高的感知能力。

《指南》建议设计者更应关注机器人的透明性,但是科学家们表示这个在现实里很难应用。这是因为人们无法确切了解AI系统(尤其是深度学习系统)是如何做出决定的。

一个人工智能体,并没有用固定的程序来指导它完成任务,它是通过数百万次的学习和尝试,才找出成功的解决方法。这种学习和做出决策的过程,有时候是其人类设计者都无法理解的。

《指南》里也提到了机器人的性别和种族歧视问题。这是因为深度学习系统很多都是使用互联网上的数据进行训练,而这些数据本身就带着偏见。

机器人的偏见是会直接影响技术应用的。它会对某些群体的学习更深入,而对另一些群体有所忽视,这在以后的应用中,意味着机器人会“看菜下饭,看人说话”。

现在已有的例子就是,声音识别系统对于女性的理解要弱一些,再比如机器识别白种人的脸更容易,识别黑人的脸更难。 长远来看,在未来的医疗应用中,机器人在诊断女性和少数族群的时候,其专业程度会降低。

Sharkey 教授说:“我们也需要一个机器人黑盒子,可以打开来仔细审查。如果一个机器人表现出种族主义的倾向,我们可以把它关掉,从街上拽回来。”

两周前,路透社有文章指出,有科学家表示性爱机器人会使人成瘾,因为机器人不会拒绝。

《指南》也提到了这种“过度依赖机器人"的现象,然而并没有给设计者一个确切的可遵循的准则。这也是在未来的工作中需要继续补充的。

机器人上战场 道德安全成问题

近日,在瑞士达沃斯举办的世界经济论坛上,与会人士讨论了智能机器应用于战场可能产生的后果。美国福克斯新闻网在报道中指出,尽管机器人能减轻士兵在战场上的负担,但自主机器人可以不受人类操控而自动选择目标,所以需要建设完善的道德程序才能保证安全,否则,遇到黑客袭击将会十分危险。

机器起来对抗它们的人类主人,这是科幻小说中常见的桥段,但在最近的世界经济论坛上,有专家警告称,它有可能成为一个真实的威胁。与现在无人机仍然由人类操控不同,自主武器有可能被编程从而能够自主选择并攻击目标,这些战争机器可能会有不符合道德的行为并且成为黑客的游乐场。

自主武器提出道德挑战

澳大利亚新南威尔士大学计算机科学和工程学院人工智能教授托比·沃尔什接受福克斯新闻网采访时说:“这是我们去年列出的应该关注的主要问题之一。”

他补充说:“令人担心的是,各国军队可能会在未来数年内将机器人派上战场,但我们中的大多数人相信,我们没有能力建造出有道德的机器人,而且,我们也不认为会有人打算建造有道德的机器人。”

科学小说作者艾萨克·阿西莫夫在他1942年的短篇小说《环舞》(Runaround)中提出了著名的“机器人三定律”:机器人不能危害人,或任人受伤而袖手旁观;除非违背第一定律,机器人必须服从人的命令;除非违背第一及第二定律,机器人必须保护自己。

研究人员认为,对于任何“有道德的机器人”来说,这样的守则必不可少,但将这些伦理规范编入机器人内是建造者的责任。不过,理想很美好,现实很骨感。

美国安全中心伦理自主性项目新主管保罗·谢尔说:“这样的武器目前还不存在。而且,即使先进的系统也被设计成不能选择目标,只可以在射击目标时做出纠正。”

尽管目前仍然没有国家研发出自主武器,但包括美国在内的几个国家已经在战区部署了无人机。美国不仅将无人机作为监控手段,而且,也作为一种远程攻击和杀死可疑恐怖分子的手段。

以色列飞机工业公司的“哈洛普”(Harop)巡飞无人机可能是通向真正的自主武器的第一步。“哈洛普”是基于以色列航空工业公司生产的上一代无人机“哈比”(Harpy)制造而成。《简氏防务周刊》此前报道,以色列航空工业公司2015年6月7日宣布成功对“哈洛普”无人机进行了试验,该无人机在没有探测到目标后,可以安全降落。

“哈洛普”这款自杀无人机可以在目标区域盘旋6个小时,发现目标后飞向并撞击目标,引爆其33磅(约15千克)重的弹头。据悉,“哈比”无人机主要用于探测并摧毁雷达站,但“哈洛普”也可以攻击汽车和地面其他目标。

谢尔说:“这类武器能通过遵守程序,自己选择目标,但它能变得非常狡猾。相比较而言,自动驾驶汽车自身并不能做决定。”

目前,这类机器仍然不能进行主动攻击。布雷德斯补充说:“主动攻击权仍然不能赋予机器,至少不能被任何文明世界的个人给机器。”

谢尔强调称,战争法本身并不禁止自主武器,这是一个事实。不过,他也警告称,让此类设备遵守目前共同接受的规则,是一个巨大的挑战,即便这一切成为现实,自主武器仍然提出了严重的伦理和道德挑战,也存在技术方面的隐忧。

谢尔说:“假定我们能建造出有道德的机器人,它们能遵守这些法则,但还是存在另一个隐忧,那就是,我们仍然无法建造任何不被攻击的系统。”

面临被攻击和劫持的威胁

即使现在的“当红炸子鸡”无人机本身也非完全安全。2011年,伊朗军队宣称“劫持”了一架美国尖端的RQ-170隐形无人机。尽管美国军方否认,但这也说明远程设备很有可能被攻击。

简氏信息集团下属的《国际防务评论》杂志的编辑胡武·威廉姆斯说:“科学家们一直在努力,希望通过加固数据链接的‘加密’程序来使其与操作员之间的连接变得更安全。但是,没有加密方法是完美无缺的,尽管现在的加密程序的安全性已经极高,但数据链接仍然可以被攻破;而且,也有人在不断想方设法破坏对远程系统的控制。”

正如一直有联网汽车会被攻击的报道那样,立法人士担心,某些人可能会对无人武器系统发动攻击。弗若斯特&沙利文咨询公司航空航天和国防领域资深分析师迈克尔·布雷德斯说:“我们打算对包括无人机在内的更多人工智能远程系统进行核查。这些系统配备的激光雷达、声学传感器等传感设备的先进性与日俱增,且与我们在目前的自动汽车内看到的大相径庭。”

布雷德斯说:“尽管我们现在正努力确保远程机器不被不怀好意的人接管,很多设备都拥有加密的数据连接,但威胁仍然存在。”威廉姆斯解释称:“今天的远程系统的安全性已经非常高,但仍会有人想办法来破坏它们,来窃夺控制权、窃夺GPS系统或通过其他手段来破坏对飞机的控制。”

【免责声明】所刊原创内容之本文仅代表作者本人观点,与新战略机器人网无关。新战略机器人网站对文中陈述、观点判断保持中立。本网转载自其它媒体的信息,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

【版权声明】凡本网注明“来源:xzl机器人”的所有作品,著作权属于新战略机器人网站所有,未经本站之同意或授权,任何人不得以任何形式重制、转载、散布、引用、变更、播送或出版该内容之全部或局部,亦不得有其他任何违反本站著作权之行为。违反上述声明者,本网将追究其相关法律责任。转载、散布、引用须注明原文来源。

分享到:

关闭对联广告
顶部微信二维码微博二维码
底部
扫描微信二维码关注我为好友
扫描微博二维码关注我为好友