今年2月,当一位韩国女士在地板上睡着时,家里的机器人吸尘器把她的头发吸了进去,导致她不得不拨打紧急求救电话。这或许并不是史蒂芬·霍金(Stephen Hawking)所谓的反乌托邦未来世界——他曾经警告称,智能设备“意味着人类的终结”——但这的确凸显出在家中使用机器人所蕴含的风险。
“我们很容易将自己内心最深处的秘密告诉人形机器人,它们可爱的面庞看起来是那么单纯。”
据英国广播公司网站8月21日报道,有关智能技术带来的危害还可以举出很多例子,但更常见的情况是欺骗用户,而不是直接对其构成身体伤害。在社交媒体和其他网络平台上,犯罪分子设计的恶意机器人如今已经随处可见。例如,移动约会应用Tinder上就经常有一些假扮成人类的机器人,其目的是骗取用户的摄像头权限或信用卡信息。
报道称,与此同时,越来越多的证据表明,我们很容易将自己内心最深处的秘密告诉人形机器人——儿童尤其如此——但它们可爱的面庞下却有可能隐藏着邪恶的目的。面对这样的现状,我们如何才能避免上当受骗呢?
一旦在家里使用机器人,就必须控制好自己的预期。电影和营销材料或许让我们误以为可以与机器人展开复杂的互动,但实际上,要让它们真正具备其所表现出来的社交能力,仍然需要攻克很多难关,这可能需要漫长的等待。由于理想与现实之间存在巨大差异,我们必须保持头脑清醒,不能被表面的假象迷惑——我们往往会误以为这些机器人都是全自动的,但实际上,它们的某些活动却是由人类远程控制的。
“你应该对自己的沟通对象和谈话内容格外警惕。”
报道称,有些人在与这些无情的设备交流时感觉很好,甚至会透露一些非常隐秘的信息——然而,倘若他们知道某些机器人背后其实有真人在控制,肯定不会吐露心声。
由此可见,当人们错误地判断了机器人的行为来源时,问题会变得尤为严重。“隐形男友”(Invisible Boyfriend)服务便是一个很好的例子。这是一款按月付费的服务,它可以通过一个人造恋人向用户发送浪漫的文本短信和语音邮件。
报道称,尽管该公司最初希望实现全面自动化,但由于技术水平不足,所以实际运作中还是需要借助人工来发送浪漫信息。但并非所有用户都明白这套系统的运作方式,而得益于媒体对人工智能的大肆炒作,加之很多证据确凿的案例表明自动化机器人的确可以让人们误以为它们是真人,因此很多人可能会错误地认为,与他们对话的都是机器人。
关键信息已经十分明确:随着机器人的联网程度越来越高,加之它们可以用自然语言与人类交流,你必须对自己的沟通对象和谈话内容格外警惕。
报道称,当机器人有能力记录你的一举一动时,我们还需要努力思考更多的问题:它们将会如何存储和分享这些信息?有些信息记录设备的初衷可能只是为了娱乐,但确很容易用作更加不堪的目的。例如可穿戴相机Nixie可以随时从手腕上起飞,拍摄你周围的鸟瞰照片。不难想象,这类技术很可能会被心怀不轨的人利用。
“随着机器人技术的进步,可能需要成立一个专门的主体来负责将这种技术充分融入社会。”
当有记录设备在场时,人们往往会保守自己的秘密。然而,一旦我们习惯了有机器人陪伴的生活状态,习惯了这些召之即来的亲密朋友,情况又会怎样?
报道称,如果我们周围的技术能够记录并处理语言、图像和动作——更不用说记录你内心最深处的秘密了——这些信息将会去向何方?它们会被存储在哪里?谁有权访问这些信息?
如果以我们的上网记录为参照,这些信息完全可以成为广告公司的金矿。如果我们逐渐习惯有机器人陪伴的生活,我们的一举一动、一言一行都有可能遭到过度曝光。
如何才能以最安全的方式将机器人引入我们的家庭、公共场所和社交生活?我们应当对这些智能机器保持谨慎乐观,不能一味地认为它们会成为我们的贴心伴侣,而是应该认清一个现实:我们必须与那些有能力欺骗和操纵我们的机器人划清界限。
报道称,我们或许应该考虑扩大消费者保护机构的触角,或者创办以监管机器人为核心目标的政策体制。正如广播的诞生催生了美国联邦广播委员会(Federal Radio Commission)一样,随着机器人技术的进步,我们可能也需要设立一个专门的主体来负责将这项技术融入社会。这样一来,当机器人试图窃取我们的信用卡,或者吸住了我们的头发时,我们都可以向主管机构投诉。
埃文·塞林格是罗彻斯特理工学院哲学系副教授。伍德罗·哈佐格是坎伯兰法学院的隐私、媒体和机器人法律专家。