英国标准协会(British Standards Institute,简称BSI),是有着 100 多年历史的英国国家标准机构,在世界范围内具有很高的权威性。这个伦理指南的全称是《机器人和机器系统的伦理设计和应用指南》(以下简称《指南》),主要针对的人群就是机器人设计研究者和制造商,指导他们如何对一个机器人做出道德风险评估。最终的目的,是保证人类生产出来的智能机器人,能够融入人类社会现有的道德规范里。这个标准的文件代号为 BS8611,发布于9月15日英国牛津郡的 “社会机器人和AI ”(Social Robotics and AI)大会上。西英格兰大学机器人教授Alan Winfield表示,这是业界第一个关于机器人伦理设计的文件内容虽然用词枯燥,但是里面所描绘的场景,简直跟从科幻小说里蹦出来的一样。机器人欺骗、令人成瘾、具有超越现有能力范围的自学能力,这些都被列为危害因素,是设计人员和制造商需要考虑的。
《指南》开头给出了一个广泛的原则:机器人的设计目的不应是专门或主要用来杀死或伤害人类;人类是负责任的主体,而不是机器人;要确保找出某个机器人的行为负责人的可能性。
《指南》也聚焦了一些有争议性的话题,例如,人类与机器人产生情感联系是可以的吗,尤其是当这个机器人本身设计目的就是为了与小孩和老人互动。
谢菲尔德大学教授Noel Sharkey认为,这就是机器人在无意的情况下欺骗人类的例子。机器人是没有感情的,但是人类有时候并不这么认为。他指出,最近有一项研究,把小机器人放到一所幼儿园里,孩子们很是喜爱,并且认为这些机器人比家里的宠物具有更高的感知能力。
《指南》建议设计者更应关注机器人的透明性,但是科学家们表示这个在现实里很难应用。这是因为人们无法确切了解AI系统(尤其是深度学习系统)是如何做出决定的。
一个人工智能体,并没有用固定的程序来指导它完成任务,它是通过数百万次的学习和尝试,才找出成功的解决方法。这种学习和做出决策的过程,有时候是其人类设计者都无法理解的。
《指南》里也提到了机器人的性别和种族歧视问题。这是因为深度学习系统很多都是使用互联网上的数据进行训练,而这些数据本身就带着偏见。
机器人的偏见是会直接影响技术应用的。它会对某些群体的学习更深入,而对另一些群体有所忽视,这在以后的应用中,意味着机器人会“看菜下饭,看人说话”。
现在已有的例子就是,声音识别系统对于女性的理解要弱一些,再比如机器识别白种人的脸更容易,识别黑人的脸更难。 长远来看,在未来的医疗应用中,机器人在诊断女性和少数族群的时候,其专业程度会降低。
Sharkey 教授说:“我们也需要一个机器人黑盒子,可以打开来仔细审查。如果一个机器人表现出种族主义的倾向,我们可以把它关掉,从街上拽回来。”
两周前,路透社有文章指出,有科学家表示性爱机器人会使人成瘾,因为机器人不会拒绝。
《指南》也提到了这种“过度依赖机器人"的现象,然而并没有给设计者一个确切的可遵循的准则。这也是在未来的工作中需要继续补充的。
机器人上战场 道德安全成问题
近日,在瑞士达沃斯举办的世界经济论坛上,与会人士讨论了智能机器应用于战场可能产生的后果。美国福克斯新闻网在报道中指出,尽管机器人能减轻士兵在战场上的负担,但自主机器人可以不受人类操控而自动选择目标,所以需要建设完善的道德程序才能保证安全,否则,遇到黑客袭击将会十分危险。
机器起来对抗它们的人类主人,这是科幻小说中常见的桥段,但在最近的世界经济论坛上,有专家警告称,它有可能成为一个真实的威胁。与现在无人机仍然由人类操控不同,自主武器有可能被编程从而能够自主选择并攻击目标,这些战争机器可能会有不符合道德的行为并且成为黑客的游乐场。
自主武器提出道德挑战
澳大利亚新南威尔士大学计算机科学和工程学院人工智能教授托比·沃尔什接受福克斯新闻网采访时说:“这是我们去年列出的应该关注的主要问题之一。”
他补充说:“令人担心的是,各国军队可能会在未来数年内将机器人派上战场,但我们中的大多数人相信,我们没有能力建造出有道德的机器人,而且,我们也不认为会有人打算建造有道德的机器人。”
科学小说作者艾萨克·阿西莫夫在他1942年的短篇小说《环舞》(Runaround)中提出了著名的“机器人三定律”:机器人不能危害人,或任人受伤而袖手旁观;除非违背第一定律,机器人必须服从人的命令;除非违背第一及第二定律,机器人必须保护自己。
研究人员认为,对于任何“有道德的机器人”来说,这样的守则必不可少,但将这些伦理规范编入机器人内是建造者的责任。不过,理想很美好,现实很骨感。
美国安全中心伦理自主性项目新主管保罗·谢尔说:“这样的武器目前还不存在。而且,即使先进的系统也被设计成不能选择目标,只可以在射击目标时做出纠正。”
尽管目前仍然没有国家研发出自主武器,但包括美国在内的几个国家已经在战区部署了无人机。美国不仅将无人机作为监控手段,而且,也作为一种远程攻击和杀死可疑恐怖分子的手段。
以色列飞机工业公司的“哈洛普”(Harop)巡飞无人机可能是通向真正的自主武器的第一步。“哈洛普”是基于以色列航空工业公司生产的上一代无人机“哈比”(Harpy)制造而成。《简氏防务周刊》此前报道,以色列航空工业公司2015年6月7日宣布成功对“哈洛普”无人机进行了试验,该无人机在没有探测到目标后,可以安全降落。
“哈洛普”这款自杀无人机可以在目标区域盘旋6个小时,发现目标后飞向并撞击目标,引爆其33磅(约15千克)重的弹头。据悉,“哈比”无人机主要用于探测并摧毁雷达站,但“哈洛普”也可以攻击汽车和地面其他目标。
谢尔说:“这类武器能通过遵守程序,自己选择目标,但它能变得非常狡猾。相比较而言,自动驾驶汽车自身并不能做决定。”
目前,这类机器仍然不能进行主动攻击。布雷德斯补充说:“主动攻击权仍然不能赋予机器,至少不能被任何文明世界的个人给机器。”
谢尔强调称,战争法本身并不禁止自主武器,这是一个事实。不过,他也警告称,让此类设备遵守目前共同接受的规则,是一个巨大的挑战,即便这一切成为现实,自主武器仍然提出了严重的伦理和道德挑战,也存在技术方面的隐忧。
谢尔说:“假定我们能建造出有道德的机器人,它们能遵守这些法则,但还是存在另一个隐忧,那就是,我们仍然无法建造任何不被攻击的系统。”
面临被攻击和劫持的威胁
即使现在的“当红炸子鸡”无人机本身也非完全安全。2011年,伊朗军队宣称“劫持”了一架美国尖端的RQ-170隐形无人机。尽管美国军方否认,但这也说明远程设备很有可能被攻击。
简氏信息集团下属的《国际防务评论》杂志的编辑胡武·威廉姆斯说:“科学家们一直在努力,希望通过加固数据链接的‘加密’程序来使其与操作员之间的连接变得更安全。但是,没有加密方法是完美无缺的,尽管现在的加密程序的安全性已经极高,但数据链接仍然可以被攻破;而且,也有人在不断想方设法破坏对远程系统的控制。”
正如一直有联网汽车会被攻击的报道那样,立法人士担心,某些人可能会对无人武器系统发动攻击。弗若斯特&沙利文咨询公司航空航天和国防领域资深分析师迈克尔·布雷德斯说:“我们打算对包括无人机在内的更多人工智能远程系统进行核查。这些系统配备的激光雷达、声学传感器等传感设备的先进性与日俱增,且与我们在目前的自动汽车内看到的大相径庭。”
布雷德斯说:“尽管我们现在正努力确保远程机器不被不怀好意的人接管,很多设备都拥有加密的数据连接,但威胁仍然存在。”威廉姆斯解释称:“今天的远程系统的安全性已经非常高,但仍会有人想办法来破坏它们,来窃夺控制权、窃夺GPS系统或通过其他手段来破坏对飞机的控制。”