据西班牙《万象》月刊6月号报道,说起杀人机器人总是能令人想起科幻电影,但实际上它却具有十分真实的可能性。美军已经在阿富汗战场大量使用无人机,并宣布未来20年要裁军12万,目的就是用机器人战士取而代之。为此,美国国防部高级研究项目局已经开始了这方面的工作。 报 道称,多数专家一致认为,或许说20年太短,但如果没有人阻止的话,第一代机器人战士迟早会出现在战场上。今年4月,《非常规武器公约》缔约国在日内瓦召 开会议,一些机器人和人工智能设备领域的专家获邀出席了会议。召开此次会议是为未来就禁止研发专家们称为“致命自主武器系统”签订协议奠定必要的基础。大 赦国际负责武器控制、安全和人权事务的专家拉莎·阿卜杜勒-拉希姆表示,“我们所说的是除无人机以外的东西”。她表示,“我们现在担心的是完全有自主性的 机器人武器系统,它可以有选择性地攻击目标,在没有人类的有效控制之下杀死或致人受伤”。目前,这样的武器系统尚未在任何国家使用过,但是开始出现的首批 模型已经足以让我们预见等待我们的将会是怎样一个未来。 最轰动的机器人武器系统来自于日本,被称为kurata。这是一个重达4吨的巨型机器人,身高约4米,配有可以远程操控的带轮子的4只脚。 报道称,kurata机器人最特别之处是,配备了两架机关枪,能够在1分钟内发射6000发子弹,此外还有一套追踪移动目标的系统。其售价超过100万美元,虽然从其发布以来至今尚未售出过一台,但它的出现已经足以证明,机器人战士的时代已经开始。这到底是好事还是坏事? 这要看怎么说。机器人应用领域最具权威的专家之一、美国密歇根大学教授罗纳德·阿金就认为,机器人战士的出现不仅是一个已经停不下来的事实,而且也是非常积 极的一件事。“每一场战争制造的暴行都是说也说不完的,而制造者永远都是人。”阿金说,“战场上人类的行为很多时候从道德和法律上说都是令人怀疑的。历史 上出现过无数的战争犯,他们制造战争的原因也是各种各样。面对这一切的混乱,机器人将可以大大地解决问题,至少可以让问题减少到最少。” 报道称,他认为,用机器人替代真的士兵几乎可以称得上是一种道德责任。“首先,使用机器人的军队可以大幅度减少在战场上必须牺牲掉的士兵人数;其次还可以避免给平民造成伤亡,他们都是战争的‘附带牺牲品’”。 阿 金支持研发“致命自主武器系统”的理由是,“为了在战场上让士兵的判断不至于受到情绪的影响。潜在的恐惧感和情绪狂躁是战场上士兵们面临的最大敌人,往往 他们无法承受这种压力,最终做出了可怕的决定。相反,如果是机器人战士,如果给它们设定适当的程序,在产生疑虑时它们就不会采取行动。与人类不同,机器人 不会是先射击再产生问题”。因此,在阿金看来问题的关键并不在于机器本身,而是设定程序的标准。“机器人战士和烤面包机一样,它们没有灵魂,也没有区分好 坏的意识。如果给它设定大开杀戒的程序,它就会大开杀戒。关键在于设计是否能让它们有效,在尽可能避免流血的前提下完成任务”。 报道称,英国设菲尔德大学人工智能和机器人项目荣誉退休教授诺埃尔·夏基则持完全相反的观点。他是“停止杀人机器人”运动的创立者,也是国际机器人武器控制委员会成员,该委员会由科学家和人权方面的律师组成。 夏基表示,“从道德的角度讲,很多人认为将生杀大权交给一台机器是十分可怕的想法。而且,虽然完全自主的武器系统不会被恐惧或愤怒牵着鼻子走,但它们也缺乏怜悯之心,而怜悯却是避免平民遭屠杀的最关键的一种保护伞”。 报道称,目前,美军已经将大量作战任务交给了无人机来执行,韩国军队也已经开始使用远程操控的装甲车在边境巡逻,但是这些机器没有一样是完全自主性的,开火 的决策权依然掌握在人类手中。因此,在日内瓦开会的各国专家所寻求的是在成为现实之前就禁止使用“致命自主武器系统”达成一项国际性协议。虽然专家们知道 这不是件简单的事,就像大赦国际的米格尔·安赫尔·卡尔德龙所言,在下定决心研发这样的武器系统时,企业的利益往往超越了一切。 事实上,决 定已经有了。如前所述,在美国国防部高级研究项目局的资助下,一个被命名为“atlas”的机器人已经于2013年正式亮相。这是一个看上去和“终结者” 颇为相似的双足人形机器人。它的身体靠液压启动的28个关节组成,这使其能够在各种路面环境中灵活的移动。当然,它还可以携带武器。 报道称,俄罗斯也加入到这场竞赛当中。总参谋长瓦列里·格拉西莫夫已经表示过想在车臣战场上装备机器人战士的想法。现在,俄罗斯军方已经实现了他强大的技术武 器库,其中最引人注目的就是“mrk-27bt”战斗机器人。这是一种履带式移动机器人,配备了1挺机关枪、两个发射筒、两个喷火器和6个烟雾弹。此外, 俄罗斯还在今年1月发布了第一款自主战斗机器人,这也是一个可以在平地移动的具人形状的的机器人。但是,这次表演并无特别之处,摄像机甚至还记录下了俄罗 斯总统普京在现场打哈欠的镜头,这也从一个侧面证明,他对俄军队的第一个战斗机器人的印象并不深刻。 除了道德因素,经济问题也是研发此类武 器系统时要考虑的问题。美国国防部联合部队司令部机器人项目负责人、智能战“教父”戈登·约翰逊表示,“一名士兵一生平均将花费国防部400万美元,而且 这个数字还在逐年上升。而据我们的估算,一名机器人战士的花销却只有这个数额的1/10”。为了能让人们对任何军队使用机器人战士都能省钱形成概念,只要 看看美国政府今年对退役士兵欠下的钱就可以了——6530亿美元。如果使用机器人战士,这笔钱将可以节省下来。此外,机器人的服役时间也能比人更久。当 然,军方也不能逃避因使用越来越具有自主性的机器人战士所带来的法律和道德后果。约翰逊表示,“我常常想,如果这样的机器人摧毁的是一部校车,而不是坦克 该怎么办?因此,在我们确定机器人可以准确无误地瞄准一个目标之前,我们不能让机器拥有射击的能力”。 报道称,这虽然是一个理智的立场,但 事情却没那么简单。西班牙萨拉戈萨大学信息与系统工程学教授曼努埃尔·冈萨雷斯·贝迪亚认为,“任何机器都有可能出错,根本不存在百分之百的有效性。这是 适用于个人电脑或造价超过千万美元的机器人超级战士的有效规律。最大的区别在于,机器人在战场上制造的错误更加严重,与人类生命息息相关”。 诺埃尔·夏基认为,最有可能产生的极端结果是,“在出现错误的情况下,我们原本用来攻击敌军的这些机器会反过来攻击我们自己。各种风险都是可能存在的”。此 外,该如何执行法律也是争论的焦点之一。大赦国际的卡尔德龙表示,“谁该为不受控制的致命自主武器系统可能犯的战争罪行负责?国际法制定的问责制规定谁是 行动的负责者,谁就该为赔偿负责。但是应用到机器人身上,事情没有这么简单,因为机器本身并不是杀人行为的责任者”。 但是以军用目的开发机 器人技术的支持者之一阿金却认为,“的确如此,一旦发生这样的情况,我们不会看到有哪个具体的士兵受到审判,并因这样的罪行而被判有罪。然而,最高指挥应 该为这样的机器负责,相应的政府也应该为牺牲者支付赔偿。另一方面,我坚信有一天会制定这方面的法律,弥补现在的漏洞”。 报道称,此外,阿 金还认为完全禁止研发这样的武器是没有任何实际效果的做法。“如果机器人战士真的能被运用在战场,就一定会有人加以利用”。他回顾了在1899年,尽管欧 洲国家都签订了《禁止使用散布窒息性或有毒气质为唯一目的之投射物的海牙宣言》,德国人还是在二战中使用了这种气体。阿金表示,“必须要做的是通过可信的 研究证实,这样的机器能够依照国际法的规定行动”。 像电影《终结者》讲述的那种由杀人机器人统治世界的未来情景离实现还很遥远。阿金表示, “把机器人当成无所不能的奇迹是荒唐的想法。机器就是机器,它们不可能有是非观念”。因此,面对斯蒂芬·霍金等一些科学家对失控的人工智能设备的质疑,工 程师兼程序员默里·沙纳汉表示,“如果说存在一种能够自己拿主意的机器人,那这还纯属臆想当中的完美事情。我们还不知道怎样造这样一台机器。我们能够造出 的军用人工设备完全是不具备任何自主行动的工具,因此要认清长期内这种设备到底意味着怎样的风险是最重要的。所以,有人认为我们是在伤害发生之前绑绷带, 但是这个问题的重要性是值得我们具备这样的前瞻性的”。 报道称,日内瓦峰会的召开是想让联合国各成员国就不使用“非人类军队”签署一项备忘录,尽管似乎正在开展这项工作的国家并不多。2015年初美国军方宣布,希望首批机器人战士能在2030年运用于实战,到2040年美军中每4名战士中就有1个是机器人。 不远的将来会发生什么?禁止使用杀人机器人的支持者们十分乐观,认为他们的愿望一定能实现。诺埃尔·夏基表示,“既然我们已经在禁用化学武器和激光致盲武器 方面取得了成功,我们也有理由认为在杀人机器人问题上获得我们想要的结果”。而以阿金为代表的支持使用机器人战士的一方也在坚持着自己的观点。双方至少在 一点上是能达成共识的:机器人造成的世界末日离我们还很遥远。(编译/王萌) |