南李家庄村 首页
“机器人武器”威胁堪比核武器?面对人工智能,我们最该担心啥

日前,116名世界领先的机器人和人工智能公司的领导人联名发布了一封公开信,敦促联合国对可致命自动武器(通常称“机器人杀手”)施以禁令。

该联名信因签署者包括埃隆·马斯克(特斯拉、SpaceX和OpenAI创始人)和穆斯塔法·苏莱曼(谷歌DeepMind联合创始人)而备受瞩目,也为甚嚣尘上的“人工智能威胁论”添上浓重一笔。

军用人工智能系统,真的是人类打开的又一个“潘多拉魔盒”吗?面对人工智能介入军事行动,人类该如何展开思辨?

复旦大学哲学学院教授徐英瑾对人工智能科学有长期关注,他将自己的思考向记者一一道来。

马斯克是否危言耸听

解放日报·上观:这不是马斯克第一次公开宣扬“人工智能威胁论”了。您认为他的观点和立场立得住吗?您会从哪些角度,去审视他这一连串表态?

徐英瑾:我个人认为,他目前的这番呼吁肯定是危言耸听了,因为他自己就花了很多钱投资人工智能。

要判断一个“商人”的话的可信度,看一下他所说的和他的资金流向是否一致即可。他的资金流向,才体现他的真实意图。

去年,马斯克曾宣布过以火星为目的地的载人飞行计划。试想一下,如果没有人工智能的帮助,无法先把机器人送上火星适应环境,这个计划无论如何是不可能实现的。

由此,我个人推测,很可能存在这样一种逻辑链条:即马斯克本人希望在人工智能方面领先,于是故意制造目前这番言论,使其他竞争对手在脑子一糊涂的情况下,不再做相关领域的研究和探索。

解放日报·上观:不过,相比马斯克过去数番发起的“人工智能威胁论”,他这一次呼吁禁止的对象更具体:不是宽泛的人工智能,而是军用的无人智能武器。于是,人们的争论被进一步聚焦:“机器人武器”应当被禁止吗?

徐英瑾:军用机器人、性爱机器人及工业机器人,曾被认为是人工智能技术三个最有前途的应用领域。

虽然人工智能技术在这三个领域的运用,都会导致相关的伦理问题,但在不少人看来,军用人工智能系统所构成的伦理学问题最为尖锐。因为此类系统的任务,就是直接杀戮生命,或为杀戮提供间接帮助。这自然也就牵涉到了特定军事暴力行为的合法性问题。

但值得思考的是:关于军事行动正当性和可辩护性的争鸣,古已有之、经久不绝,而军用人工智能系统的介入,又会在多大程度上改变此类问题的性质呢?实际上,战争本身的政治属性依然是一个与战争所使用的技术手段相对分离的话题。而在目前的情况下,具有自动开火能力的智能机器人的运用,只可能造成未来战争在战术层面上的变化,而不会像大规模杀伤性武器的运用那样,对国际安全局势产生全局性影响。

“机器人武器”会是一种威胁吗

解放日报·上观:关于人工智能介入军事行动后可能带来的问题,有一个案例经常会被提及。美国海军早年曾就“自动开火武器的伦理规则,该怎么进行代码制定”展开激烈辩论。军方内部最集中的分歧点在于,能否赋予自动武器独立开火权。

徐英瑾:当时,大部分人给出的意见是“不能”,认为一定要为自动武器设置人工干预的回路。即自动武器执行的任何动作,都需要人类指挥员来下命令。就像今天的无人机那样,遥控武器是不能自己开火的。而马斯克要反对的,显然就是那种在未来能够自动开火的东西。

但这里面有一个非常棘手的问题:从某种意义上说,能够自己决定开火的武器,人类早就制造出来了,而且已经用了很多年,那就是地雷、水雷,因为二者皆可在没有人类指挥员命令的情况下自动引爆。

换言之,假如未来能够自动开火的武器主要发挥的是类似“国境线上的保卫者”那样的作用,在扫描到入侵者时主动发起射击,那么,其与地雷、水雷并无本质不同。所以,为什么要造自动开火的武器?它的正当性到底在哪里?简单来说, 就是技术条件发展下的战术发展需要。

我个人预测,未来能被人类伦理框架允许的自动开火武器,将主要被用于漫长国境线上的防御性威慑。这一类应用可以节约人力成本、减轻补给负担,以更少的军用开支,更好地达到防御威慑目的。但假设这类人工智能应用本身无法自主开火,不仅其反应速度将受限,威慑力也会大幅下降。

我个人认为,这种有严格约束的警告性武力威慑,对人类和平是有好处的。由于其武备水平有限,也不大可能带来科幻电影《终结者》里那种灾难性影响。

我不否认,依据目前的技术,要造出可以自动分辨敌我的武装机器人,相关的准备还不足。但这并不构成阻碍军用人工智能系统制造的充分理由。

就好比,假设我们“穿越”回了达·芬奇的时代,并由此目睹了这位艺术大师兼工程学大师正在设计飞行器。请问,文艺复兴时代的欧洲法律体系,已经为飞行器的安全使用做好相关准备了吗?当时的物理学发展,已经为飞行器的设计提供了扎实的学术基础了吗?恐怕都没有。但是,我们却难以由此得出“达·芬奇在胡闹”的结论。

因为,如果没有他那些勇敢的技术尝试,欧洲的科学技术就难以在日后发展到足以使飞行器的设计与建造成为现实的地步。而相关的飞行器交通法规的出现与完善,也只有在这些交通工具的确已经成熟的前提下才有可能。

解放日报·上观:问题是,要避免“机器人武器”成为一种威胁,这背后的“边界”可以被清晰地辨识出来吗?

徐英瑾:人工智能技术对于现有武器的改造,往往是针对战术兵器而言的,并以使之“无人化”为短期目标,一般并不特别针对洲际导弹等战略兵器的改造(因为后者本来已经“无人化”了)。在这样的情况下,人工智能技术的军事化所导致的战争样态的变化,也只具有战术层次上的意义,并不会在更宏观的尺度上,改变战争决策本身,改变得以做出战争决策的整个政治经济环境。

所以,我个人认为,即使在无人智能武器被广泛运用的明日战场,对于世界和平最大的威胁,依然还将是核、生、化等既有的大规模杀伤性武器。而将武备控制的焦点转向人工智能的军事化运用,或许反而会诱使我们错过了国际军备控制问题的真正关节点。

最值得警惕的“威胁”

解放日报·上观:马斯克的言论和观点受到高度关注,一定程度上也反映出“人工智能威胁论”颇有市场。有没有什么“思考工具”能帮助我们甄别:哪些“威胁”是确确实实的,而哪些并不立得住?

徐英瑾:“人工智能威胁论”之所以很有市场,符合传播学中的一个基本原理:越是耸人听闻的说法,越是传得快、跑得远。而我个人觉得,就连“威胁”这个词都用得很有问题。它不够中性,本身就带有危言耸听的色彩。对这个问题更准确的表述可以是:人工智能对社会的公正、和谐发展是否有副作用。

人工智能对人类社会发展有副作用是一定的。就好比,我们都知道吃药会有副作用,哪个药没有副作用?但如果因为有一点副作用,就说出“全人类会就此毁灭”这种不托底的话,就有点过了。

解放日报·上观:很多人其实也是担心,自己不能及时把人工智能的副作用甄别出来。

徐英瑾:现在人们对人工智能的理解往往是基于大数据的。大数据和人工智能不是一个概念,但既然大家现在都这么说,就暂且将错就错吧。

但如果人工智能是基于大数据这套东西来发展,很大程度上,就对那些拥有数据源的大公司最有利。而随着这一进程的不断深化,各种资源、资本不断向大公司集中,会导致整个社会财富结构愈发金字塔化。

这不利于我们理想中的橄榄型社会的形成。

解放日报·上观:您觉得这才是最值得警惕的副作用?

徐英瑾:对。举例来说,就像超市这个行业,在大数据技术的助力下,很可能变成只有大超市才活得下来,中小超市的生存则愈发艰难。因为后者不可能像前者那样拥有完备的市场信息收集-反馈系统,从而可以对市场趋势有准确的洞察、快速的反应。而且,这一趋势在很大程度上将对人文传统的传承产生负作用。

比如,很多百年老店虽规模不大,但它们有自己的传统。可一旦它们被行业同化,很多和特定的店家传统捆绑在一起的文化习俗,就会消逝。这对文化多样性是有损伤的。

在美国已经出现这样一种现象:靠全球商业网络、信息高速公路活得不错的人和那些跟不上这些步伐的人之间,出现了利益上的巨大冲突;这种冲突进而转变成一种意识形态上的互相仇恨。毕竟,即便在发达国家,也并非所有人都可以快速跟上社会新趋势的步伐。

但上述种种问题的出现,并不意味着我们就该“关掉”人工智能这个“未知之盒”,而是要动脑筋,通过分配机制的改变或者通过别的补偿性技术,避免资本和新技术力量在形成新的叠加效应后,成为一种横扫人类生活多样性的力量。

站在国家层面去看,就是国家一定要使得这种人工智能技术的供应方多元化,鼓励竞争,鼓励百花齐放,不能一家独大。如果一家独大,国家就很可能被某些单一的技术发展路径绑架。

师资储备是瓶颈

解放日报·上观:日前,国务院出台了《新一代人工智能发展规划》。该《规划》明确指出,人工智能已成为国际竞争的新焦点,应逐步开展全民人工智能教育项目,在中小学阶段设置人工智能相关课程、逐步推广编程教育。您长期关注人工智能领域发展,如何解读这一文件的信号意义?

徐英瑾:这一文件的出台,表明国家层面已经意识到了向全民普及人工智能知识的重要性。但事实上,在这一系列举措背后,有一个非常重要的技术问题。那就是,人工智能目前在我国还不是一级学科。

由于研究人工智能的人总是来自各个“山头”,有研究计算机的,有研究数学的,有研究自动化系统的,有研究通讯的,于是,在讨论该领域的问题时,他们往往会站在各自所在学科的立场上喊两嗓子。

这会有什么问题呢?就拿中小学阶段人工智能课程教材的编写来说,由于既有知识结构尚未成熟,可以提供逻辑起点的学科又不唯一,究竟用怎样一种方式和逻辑去教育中小学生,都会成为一个很现实的难题。

解放日报·上观:在您看来,推进全民人工智能教育项目的发展,还有什么问题特别需要注意?

徐英瑾:我国在推进全民信息化教育方面已经积累了很多经验,可以为推进全民人工智能教育提供参考。但回顾全民信息化教育的发展历程,一个“老问题”依然值得重视。那就是,如何克服各地区在教育资源积累和调用能力上的巨大差异。

举个最简单的例子。在上海的复旦附中,要上人工智能课程相对比较容易实现。因为他们甚至可以直接请复旦大学相关领域的学者来授课。但即便在上海这样的发达城市,能有条件做到复旦附中这样的,也不会很多。

展望未来,师资储备会成为全民人工智能教育的一个瓶颈问题。而按照目前我们的条件,线上教学很可能是合理利用既有师资力量的最佳方案。

题图来源:视觉中国责任编辑:龚丹韵图片编辑:苏唯