谷歌前首席执行官埃里克·施密特(Eric Sc​​hmidt)声称他可以将技术与国防联系起来,但他只是平民百姓,没有战争
谷歌前首席执行官埃里克·施密特(Eric Sc​​hmidt)声称他可以将技术与国防联系起来,但他只是平民百姓,没有战争的现实。





谷歌的前首席执行官声称,他可以改善美国军方将人工智能(AI)整合到其业务中的能力。但是人工智能是施密特所说的灵丹妙药吗?如果是这样,他是最适合带头的人吗?
在以复杂的问题和固有的低效率而著称的文化中,美军似乎非常适合计算机驱动的人工智能(AI)的出现所提供的最先进的解决方案。 

在过去的十年中,美军与中国,俄罗斯,印度和其他地区的美军一样,已经在研发项目上投入了大量资金,旨在将AI带入战场,以支持情报收集和分析,后勤支持,自主作战能力,医疗保健和网络安全。的确,在这个计算机驱动的时代,没有任何军事行动可以将AI作为潜在的增强手段进行研究。 
尽管美军并未忽略AI及其实用程序,但Google前首席执行官埃里克·施密特(Eric Sc​​hmidt)认为这样做的效率很低。他坚信自己是最能帮助美军解决AI挑战的人。

施密特(Schmidt)曾表现出的傲慢和傲慢自大-从未在军队中服役过,因此不熟悉组织,训练和领导数百万男女参战的精神,文化和作战现实-挫败了一些美国高级军官错误的方法。但是,他以解决问题的方式热情洋溢,再加上以技术为导向的解决方案的内在吸引力,已经在美国国防机构的民用部门中找到了一位听众,他们邀请施密特参加了参与该会议的多个咨询委员会。追求AI驱动的军事问题解决方案。 

过去尝试将Schmidt的以数字为中心的哲学纳入人类条件驱动的领域已被证明是早期的。2013年,施密特与贾里德·科恩(Jared Cohen)合着了《新数字时代》。科恩曾率先开展基于“数字民主”的软实力哲学的努力,美国在此寻求利用公认的数字共性(即社交媒体平台的集成,电子和计算机驱动的通信的使用,以及大多数这表明,这些数字接口使外国社会的年轻人暴露于美国文化,并因此深深地偏向于美国价值观,这些价值观取代了其本国文化和社会的价值观),目的是改变诸如中东。 

“数字民主”驱使美国在2009年支持伊朗反对派,在2010年推动阿拉伯之春运动,在2011年发起所谓的叙利亚革命。“数字民主”的失败未能带来预期的变化,这凸显了相关的风险试图以数​​字方式操纵人类的情感和价值观。 
从“数字民主”的彻底失败中学到的最大教训是,没有一种算法可以复制人类情感的不连贯的复杂性。施密特在Google的经验就是编写和应用算法以更好地理解复杂的数据驱动问题的一种经验。随着数据的累积和合并,AI可用于自动更新和升级这些算法,从而提高效率。 

这种方法在相对静态的环境中工作,在该环境中可以将共享目标的假设纳入所使用的算法中。这是“数字民主”的根本缺陷:政治不是静态的,而是动态的,更多地是由于人类情感的不可预测的变化而不是可量化的数据所驱动。 

普鲁士军事哲学家卡尔·冯·克劳塞维茨(Carl von Clausewitz)在永恒的军事领域中指出,战争不过是“政治的其他手段的延续”。考虑到政治与战争之间的内在联系,可以推断出,对“数字民主”具有致命性的人类复杂性同样会破坏在人类冲突时期使用人工智能来指导和指导决策的任何努力。

埃里克·施密特(Eric Sc​​hmidt)在使用算法识别消费者的意图和欲望以更好地指导产品放置方面的成功,彻底改变了在线和传统实体店中的广告和销售。这一成功促使Schmidt和其他创新者信服了AI驱动的军事应用解决方案的承诺。 

这种方法有一个根本性的缺陷-当Google试图了解在线消费者体验产生的“大数据”时,没有反对力量试图破坏,误导或以其他方式挫败其努力。战争是与生俱来的对抗过程,就像法国拥抱马其诺防线以阻止德国军队入侵法国一样,任何由AI驱动的算法都可以通过简单地重新定义冲突条件来击败。 

仅从技术角度来看,通过更改道路涂漆线以迫使特斯拉的AI驱动的汽车进入迎面而来的交通,或者说服 AI控制的软件以乌龟为形象,就已经证明了AI驱动的应用很容易被欺骗。实际上是一支步枪。
除了战争时期的敌人会不断寻求击败任何AI驱动的行动这一事实之外,数据驱动的AI的逻辑与人类情感的不合逻辑之间固有的不兼容使得战争期间对AI的依赖度过高一个自欺欺人的主张。只需检查一下美国在阿富汗的经验,在那里,一支技术精湛的美军将AI的各个方面都纳入了其作战能力的几乎所有方面,却未能击败塔利班相对简单的部队。没有任何大数据操纵可以克服美国文化规范永远不会与普什图部落部族现实相吻合的事实。美国在阿富汗的失败是“数字民主” 本书指出,计算机驱动的人工制品与实际启动之间的差异。 
美国空军上校约翰·博伊德(John Boyd)被认为是近代伟大的军事思想家之一,将军事决策的复杂性压缩为一种残酷的简化公式,他称之为“ OODA循环”。OODA循环的四个组成部分–东方,观察,决定和行动–首先似乎非常适合AI引发的增强。但是,仔细观察博伊德在他的模型中所捕获的内容,就只能说明一个事实,即归根结底,在冲突中夺取人类生命时,人为因素是主导力量。 

博伊德谈到了指导“实际运用决策的”的“感觉”和“精神观点” 。从来没有一种算法能够写出能够反映战争时期内脏驱动的现实情况的算法。根据博伊德(Boyd)的OODA循环的宗旨,取得军事胜利的关键是进入对手的决策周期,抓住他们对因已采取行动而已经改变的局势做出反应的能力。对付由AI驱动的对手,人们总是能够使汽车驶入迎面而来的交通,或者使计算机将乌龟当作步枪。到算法适应时,将为时已晚。收集AI所需数据的传感器将被破坏或被欺骗,计算机的电源将被切断,而刺刀则被对手驱使进入操作员的心脏,而对手更多地是由人类的感知力,心理视野和肢体动作驱动的。 

这是战争的现实,埃里克·施密特(Eric Sc​​hmidt)和像他一样的平民平民永远无法理解,因为他们身处一个数据驱动的世界,而这个世界远离现代战场,就像地球远离火星一样。


本文来源:http://www.sdhuafu.com
本文作者:Subaru
返回列表