登录×
电子邮件/用户名
密码
记住我
机器人

FT社评:为科技业试图防范“终结者”点赞

“杀手机器人”可能仍然只存在于科幻小说中,但自主操作的武器即将成为现实。科技业呼吁制定更明确的规则是正确的。

“机器人不得伤害人类,或目睹人类个体将遭受危险而袖手不管,”艾萨克?阿西莫夫(Isaac Asimov)的戒律奠定了其未来主义小说的道德基础;但在他首次明确表述“机器人三定律”的75年后,这条至关重要的第一原则正在被现实压倒。

没错,迄今为止还没有“杀手机器人”驰骋在战场上。但现在已经出现了可用来探查威胁并向目标——无论是飞来的导弹还是靠近的人类——开火的防御系统。五角大楼(Pentagon)测试了一批迷你无人机——它们带来了一种可能性,即未来指挥官可派出一群群的skybot(空中机器人)进入敌人领土,收集情报、阻断雷达、或在人脸识别技术的辅助下完成刺杀任务。从中国到以色列、从俄罗斯到英国,很多政府都急于把人工智能方面取得的快速进展应用于军事用途。

对于研究人员和科技业高管来说,这种情况值得担忧。他们已经因颠覆性技术将对社会产生的影响而饱受抨击,他们不希望看到自己的商业创新被改造后用于制造毁灭。因此,百余家机器人和人工智能企业的创始人日前联合呼吁联合国采取行动,阻止各国在致命性自主武器系统方面展开军备竞赛。他们在公开信中强调了他们的担忧,称此类技术可能使冲突达到“前所未有的规模”、可能帮助专制政权压制异见者,这些武器还可能因受到黑客攻击而做出有害的行为。

他们的顾虑是有根据的,但试图控制这类武器在伦理和实践方面都存在困难。那些支持在战争中更多使用人工智能的人认为,此类技术有可能减少伤害,不只因为所需部署的前线部队减少,也因为智能武器系统可以更好地减少平民伤亡。如果可以针对作战人员展开目标明确的打击行动,也就不必进行无差别的狂轰滥炸,从而可以避免费卢杰(Falluja)或最近摩苏尔(Mosul)发生的那种惨剧。人工智能还将开发出很多没那么具有争议的用途——比如说,在易受埋伏路段使用无人驾驶车队。

目前,各国政府在反对部署全自主武器——这类武器可在没有实际人为控制的情况下选择目标并向其进攻——方面存在广泛共识。对于美国军方而言,有一条道德红线:杀人的决定必须由人类操作者做出。对于争论中的其他各方而言,存在一个现实的考量,即自主系统可能做出难以预测的举动、或容易受到黑客攻击。

如今在“人在决策圈内”的系统(例如完全控制一架无人机)和“人在决策圈之上”的系统(人类监督完全自主的系统并为之设定参数)之间更难划分界限了。后一种技术可能适用于如今的防空系统或未来的无人机群,但一个疑问是,当战斗进入白热化阶段,人类监督是否会形成有效的控制。

现有的人道主义法则有一定的作用。人们有责任区分作战人员和平民、避免无差别攻击以及会造成不必要伤害的武器;当指挥官像派遣士兵一样部署机器人去执行任务时,他们必须承担相应的责任。

但是人工智能行业呼吁制定更明确规则的做法是正确的,无论这类规则多难制定和执行。“杀手机器人”可能仍然只存在于科幻小说中,但自主操作的武器即将成为现实。

译者/何黎

FT中文网客户端
点击或扫描下载
FT中文网微信
扫描关注
FT中文网全球财经精粹,中英对照
设置字号×
最小
较小
默认
较大
最大
分享×