人工智能热战正当时

送交者: 炫笔伏逼 [♂☆★★★不闻风知★★★☆♂] 于 2025-05-16 22:37 已读266次 大字阅读 繁体
                


美陆战队第11远征支队海上突袭部队(Maritime Raid Force, MRF)偕同侦察队员,共同执行实战化城镇训练(Realistic Urban Training)。(Source: USMC/Matthew Teutsch)

然而,加速发展是说来容易、做来难。美国可能在人工智能研究发展方面引领群雄,但美国政府在人工智能等创新科技发展速度与推广规模进展有限。美国政府并未聘用足够专业人员,遂行人工智能相关产品测试、评估、采购及管理作业。目前仍在建构大型人工智慧模块所需的数据与计算机基础设施。官方预算无法弹性运用,导致所需人工智能原型采购进展有限,快速推广运用至所有机关。同时,尚未建立适切测试平台与评估流程,确保任何与军用系统整合的人工智能都安全无虞且性能可靠。当人工智慧涉及武力运用时,必须提高安全性与可靠度的标准。

政治人物与国防官员对上述议题了然不惑。美国国会两党领袖密切关注人工智能动态,同时研讨如何规范相关产业又不扼杀全球竞争力。美国国防部长办公室已公布一项人工智慧政策框架,使国防部合理、安全及加速普及人工智能。同步推动人工智能与保障使用安全的基本作为—两者目的似乎彼此对立—也如火如荼进行。

但美国国会至今仍未采取行动,而五角大厦人工智能框架至今仍在持续推展。虽然在国防部编设首席数字人工智能办公室(Chief Digital and Artificial Intelligence Office)是一个重要里程碑,但国会至今仍未提供该办公室所需资源,以推动整个国防体系合理合法运用工智能。

就在当下

虽然各种政策与规范仍在草创阶段,但人工智能早已改变美国国家安全。例如,美空军已经开始运用人工智能协助分配资源,并预判任何单一决定如何改变建案计划与预算。举例来说,如果美空军领导人增购一个中队的F-35,则人工智能辅助资源分配平台不仅可以立刻显示这项决策的直接成本,还有对于人员、基地、战机妥善率及其他重要领域的影响。

同样地,美军也开始在军舰与战斗喷射机等复杂武器系统维修作业上运用人工智能。现在,人工智能程序可以从载台感测器搜集参数,预判最佳保修作业执行时机,最大化战备水准与使用寿期,并降低成本。

这些保修的独到见解大有助益,而这只是预测型人工智能的初步运用方式。美国情报界与多个联合作战司令部(C ombatant Command,肩负特定地区或职掌的联合军事司令部)已开始使用人工智能过滤机密与非机密资料,以查明症候与预判未来国际事件。在情报界,人工智慧帮助分析师在几个月前预判俄罗斯将侵略乌克兰,使美国得以警告全世界并使俄国总统蒲亭无法达到奇袭效果。


美国国防部设立首席数字人工智能办公室,俟国会核准相关预算后始可推动各项工作。2023年5月11日,部长奥斯汀与参谋首长联席会议时任主席密利(Mark Milley)上将共同出席参议院拨款委员会听证会。(Source: DoD/Chad McNeeley)

在美国战略司令部,菱形力量(Rhombus Power)公司(笔者为公司顾问)开发的人工智能早已协助警示官员,发掘过往无法目视侦获的核弹头飞弹移动情况。

预测型人工智能也可让华府更了解潜在对手的思维逻辑,尤其是东大领导人。不同于冷战高峰期,美国当时坐拥大批苏联决策行为专家,反观今日,美国仍苦思东大领导阶层如何将政策转化为特定行动。

情报官员早已经常使用人工智能,过滤数以千计的照片与影片。过去,分析师必须耗费数千小时检视动态录像画面,找到关键目标,诸如集结的战车部队或分散部署的机动飞弹发射装置。但有了人工智能之后,开发人员可使该训练模块检视所有素材,标定分析师所需目标—通常只须耗时数秒或数分钟。分析师也可设定人工智能模块在特定地区发现重要目标时发出警讯。这些「电脑视野」工具让分析师腾出时间,专注只有人类能做的相关事物:运用其专业知识,评估人工智慧所发现的事物,判断背后意义与未来影响。随着这些模块日渐精确可靠,将有助于美军指挥官捷足先登,下达重要作战决定,让敌人措手不及,提供美军部队绝佳—甚至是决定性—优势。

人工智能也可以在其他方面支持军事作战。例如,若敌人欲干扰或攻击美军指挥、管制及通信网路,人工智能可以灵活转换备援机制,重新调整传感器、决策及射击武器间之信息流向,确定相关单位保持互通与维持状况觉知。这些能力是确保华府与盟国可比对手更快下达决策的关键,即便在战况激烈时亦复如此。

人工智能可以扩大单一军种作战效益,进一步帮助美军与盟军部队。目前,某些开发中人工智能应用程序让单一操作人员就可以控制多套无人系统,诸如空中、水面或水下无人机(艇)蜂群。例如,战斗机飞行员可以善用蜂群无人机,混淆或瘫痪敌雷达与防空系统。潜舰舰长可以使用水下无人载具,深入固若金汤的区域执行侦察,或反制威胁美国与盟国船舶的水雷。近期,五角大厦宣布复制者(Replicator)无人机系统项目,可望在未来两年内,部署成千上万小型、智能、低廉及抛弃型的自主无人系统。


美国长春藤联盟的菁英大学吸引世界各地人才,加上境内创投资本充足,成为美国人工智能发展的活水。

假如美军可以利用大量相对低廉的无人系统,辅助战斗机、轰炸机、军舰及潜舰等有人载台遂行作战,则可让东大军事行动变得极为复杂。

采取正确做法

美国也有独特优势。美国属于市场导向经济体,政治体制也较为开放,开发人员有更大空间可以发挥创意。另外,无可比拟的创新系统遍布于硅谷、奥斯汀大都会区及麻省128号公路走廊等地。美国创投资本与私人资金蓬勃,可吸引国内与国外金流。美国也有世界许多顶尖大学,吸引世界一流科技人才驻足。事实上,硅谷有半数创投公司,至少有一位创办人是外来移民。

为达此目的,美国国防部与情报界必须挹注更多预算加速发展人工智能相关运用。首先,从建立相同标准的通用数字基础设施着手,以确保共通作业能力。这个基础设施要包含云端运用科技与服务、共通数据标准、验证数据集、共享安全软件堆栈、精密工具(用于测试、评估及验证人工智能模块),以及人员存取权限管理接口(区分不同机密等级控制人员的信息访问权限)。目的在于提供开发人员创造、测试、验证及使用全新人工智能工具时,所需之数据、运算法、工具及运算能力(或高速运算能力)。


美国国防部应多方延揽科技人才,拟订多元招募政策,鼓励人民为国效力。美国空军博物馆(National Museum of the U.S. Air Force)科学探索系列家庭活动期间,安排互动展场空间,激发民众对科学的兴趣。(Source: USAF/Scott Ash)

当然,这些工具所能发挥的效益取决于操作人员,而现在美国国防部并无熟稔数字科技的人才。目前仅有极少数幕僚充分了解人工智能如何适切运用、人工智能工具的测试与评估,以确保其能达到五角大厦「负责任人工智能」标准,或评估哪种人工智能模块最符合美军或国防部(全世界规模最大的营运机构)的需求。

为了吸引更多人工智能人才、有效运用既有科技人力,美国国防部必须精进专业技术人员招募与管理作为。五角大厦可以先从采纳国家人工智安全委员会(National Security Commission onAI)建议开始,并建立数字团队(比照美陆军军医团),编组与训练科技人员,以及提供必要装备。此外,所有美军军种院校应开始教授人工智能基本知识,而五角大厦也应成立美国数字专门学院,负责教育训练有抱负的民间技术人员,并提供免费大学教育,但毕业后须在政府单位至少服务五年。最后,美国国防部应成立数位预备团(Digital ReserveC o r p s),招揽全美各地科技人员,以兼职或志工形式为国家效力。

然而,五角大厦绝无可能吸引像民间产业那么多的人工智慧专家。因此,国防体系必须改善外界人才运用方式。初期,美国国防部应携手科技公司与顶尖大学计算机科学系,进行深度对话交流。同时,降低某些与政府往来科技公司的过时门槛。为此,国防官员应重新思考采购软件相关产品与服务的方式(包含人工智能产品与服务)。

也就是说,应快速确认当前问题与软件采购流程通用标准,让企业在竞标过程提出解决方案,而非耗费数年发展量身订的针对性需求—如同现行武获流程。与此同时,确保人工智慧工具用户能在模块发展与测试过程提供回馈意见。


2020年2月24日,美国国防部首席信息官迪席(Dana Deasy,右)与联合人工智能中心主任夏纳翰(Jack Shanahan)中将,公开说明人工智能运用伦理原则。(Source: DoD/Lisa Ferdinando)

事实上,五角大厦应针对想要专门从事人工智能与其他商用科技相关武获专业人员,建立专属人员经管发展做法。多数美国国防部现有武获人员训练,都是针对采购复杂武器系统(诸如潜舰、飞弹及喷射机等)量身订做,此类采购须紧盯合约商是否符合规格、成本及时程规范。因此,多数专业武获人员都(可想而知)抱持高度规避风险心态—这些人都不擅长采购快速开发的商用科技,或打破既有武获流程,因而无法有效管理尖端科技购案。因此,五角大厦应招募全新武获专家,接受专门训练,专责采购此类系统。这批干部可视为武获领域的绿扁帽部队,而成员应具备快速采购迫切需要的商用科技(诸如人工智能)之能力,并据此办理人员奖励与晋任。

虽然内部改革有助于五角大厦加速进步,但美国国防官员也需要国会长期支持,以赶上东大步调。为达此目的,国会应松绑美国国防部预算支用规范,使其能够灵活调整预算支用项目,有效管理人工智能专案。五角大厦多数预算都有固定支用目的:当国会核拨某项项目预算时,国防部不能直接将预算转用其他项目。但由于人工智能演进速度快、牵涉层面广泛,国防官员需要更大的项目预算转用权限,方可快速调配预算,将绩效不佳项目的经费转用于成效斐然的项目,并同时告知国会。如此一来,五角大厦即可灵活、迅速发展人工智慧。

美国国会应同步提供首席数位人工智能办公室过渡时期预算,以资助前景可期的人工智能先导专案跨越「死亡之谷」—亦即国防部认可合约商原型性能与双方完成签约、决定量产的困难时期。某些2023年问世的重要人工智能工具,若延迟至2025年预算动支后再行推广运用,美军将无法承担相关严重后果。

美国也应继续吸引全世界技术人才,包含改革美国移民制度的某些环节。国外科研与技术领域学生与工作人员可能想到美国居住,但僵化移民规范却将许多人拒于美国边境之外。例如,教育签证不准外国学生在毕业后滞留美国超过三年。

除此之外,国会针对H-1B签证(美国最常提供专业工作人员的签证)所设下的总额限制,意谓着美国仅能雇用一小部分的申请者。例如,在2023年H -1B签证抽签时,在所收到的75万8, 994份合格电子申请书中,仅有11万791人获选(还不到5%)。简言之,美国拒绝非常迫切需要的外国人才,这些人都是志愿贡献个人专长,可提升美国人工智能与其他关键科技竞争力。

高风险、高报酬

人工智能对于美国未来国家安全不可或缺,但亦构成重大风险。人工智能加速网络假讯息散播,无意间造成职场歧视。计算机专家主张,人工智慧亦能协助发起「机器速度般」的自动化网络攻击。化学家已经证明,人工智能可合成化学武器,而生物学家则对人工智能可能用于培养全新病菌开发生物武器感到忧心。此类风险如此严峻,连人工智能产业领袖都提出警告。2023年5月,几乎所有美国大型人工智能实验室主管共同签署一份信函,告诫全球人工智能发明可能对人类构成生存威胁。

事实上,国家安全是人类活动范畴,而人工智能风险对人的影响尤为深远。例如,人工智慧模块可能误认人员或物体为对目标,导致冲突过程意外死亡与破坏。黑箱人工智能模式—亦即那些运算方式让人无法了解或合理解释的项目—可能导致军事规划人员做出危险决策。特定人工智能尚未经过充分测试与监督却径行转为他用,此种风险就会更加严重。即便某些情况下,人工智能全然合理可用,但却可能在其他情况下失控、造成危险。

此类风险并非仅源自于不当设计或滥用的系统。美国对于开发与运用人工智能过于吹毛求疵,徒让敌对国家见缝插针,设法破坏美国数据,快速导致系统失控。举例来说,假如敌人欺骗人工智能辅助计算机视觉工具,将平民车辆误认为军用车辆,导致美国在冲突区意外伤害平民,因而破坏美国公信力与道德权威。敌人亦可破坏关键数据,削弱或瘫痪人工智能辅助武器系统性能。

五角大厦十分清楚这些风险,因此在2020年2月,公布一套人工智能运用伦理原则,而其中一项就是要求所属运用个人判断,秉持审慎态度,面对人工智慧战力开发、部署及运用。此外,另一项原则指出,美国国防部将设法「将人工智能战力意外状况降至最低」。第三项原则要求所有人工智能制造与运用过程,必须合情合理—相关数据与使用方式必须公开透明、经得起考验。同时,国防领袖须要求所属,确保人工智能系统经过严格测试,使用上安全无虞且符合实需,而人工智慧系统也必须用于特定用途,发现意外时可以紧急停止或关闭。

美国国防领袖咸认,这些「负责任人工智能」标准已获得广泛共识,但要落实过程仍面临不小挑战—尤其美国国防体制规模庞大。五角大厦已初步设立高层治理机关,开始建立数据与数字基础设施,满足各类型人工智能应用程序需求。另外,建立符合美国国防部人工智慧运用标准所需之测试、评估及验证能力,同时提升国防部人工智能整体涵养。此一执行程序仍然处于初始阶段,但这项政策架构是未来发展的坚实基础。

然而,五角大厦若真明智,应进一步强化这些指导方针。例如,国防官员应要求人工智能企业,全盘提供美国国防部人工智能模块训练数据来源。此外,国防部应在不阻碍创新前提下,确认所有人工智能模块运作模式符合常理(用户与开发人员完全了解前因后果),亦可透过强化测试、评估及验证系统之方式达此目的。国防部也应律定与扩大国防先进研究计划局(Defense Advanced Research ProjectAgency, DARPA,负责开发新兴军用科技)工作范畴,以确保人工智能工具设计流程符合常理且可归责。换言之,国防部伦理规范必定是国防人工智能模块设计在初期就应考虑的要点。

除非民众相信美国国防部门能有效、合理及合法使用人工智能,否则国防团队就无法加速推展人工智能运用。当然,若人工智能应用程序粉墨登场就决策失误或导致严重战损,那作战部队根本不太可能相信它,而决策高层与立法部门也可能会暂停或禁止后续运用。国防部必须增加预算,戮力研发人工智能安全与保密作为,并公开说明未来人工智能运用范畴。五角大厦应思考让厂商在开发人工智能时提供防护措施。例如,某家公司想要将人工智能兜售美军,国防部应要求厂商满足严格的数据保护与网络安全标准。藉此,五角大厦可促使人工智能更为安全,不仅造福军队,也造福所有人。

当然,美国无法单靠自身力量确保人工智能合理开发与运用,其他国家(包含美国竞争对手)也必须订定政策与标准。2021年11月,全世界踏出关键第一步,193个国家通过全球人工智能伦理协议—世界首例,内容包含各国必须确保人工智慧都由人类与相关机关监督。

虽然此协议是重要基础,但美国应寻求各种管道,与潜在对手(尤其是东大)探讨人工智能相关议题,如同冷战时期,美苏想方设法探讨核子武器与其他形式军备管制。为成功达此目的,华府亦须与盟邦与伙伴国密切合作,确保彼此步调一致、立场相同。凡是接受配套人工智能标准的国家,应该都会愿意声言厉色斥责违反标准的国家,包含多边经济制裁、逐出国际论坛及采取法律行动等。

实时承担责任

在微电子领域,专家经常谈到摩尔定律:芯片晶体管数量平均每两年成倍数成长,衍生装置性能则以指数增加。这个定律有助于解释众多科技创新的快速崛起,包含智能型手机与搜索引擎。

在国家安全领域,人工智能风起云涌发展出另一种摩尔定律。国家军队若能在未来几年率先调整组织编装、系统性运用数据与人工智能、结合军事行动及建立相关制度,战力即可增加,掌握庞大优势。率先大规模运用人工智能者,可能取得较佳信息、加速决策流程。在面对敌方攻击,亦可提升网络韧性、持续掌握当前状况、保护部队、有效接战目标,以及确保指挥、管制与通信畅通无阻。同时,控制空中、水面及水下无人系统蜂群,以混淆与压制敌人。美国无法承受落居人后的代价。

但国家安全机关也无法轻忽大意。缺乏适切安全防险措施,人工智能模块会造成各式意外伤害。失控的系统甚至会于战场与周边区域,失控杀害美军部队或手无寸铁的平民。因此,美国面临一大难题:延宕人工智能发展必须付出高额代价,但争先恐后却缺乏必要预防措施也会鼻青脸肿。

美国决策高层似乎了解这种矛盾现象。国会领袖知道,若过度规范人工智能,一流人工智能创新人才可能会离开美国,前往限制较少的地方工,如此一来,美国可能会落于人后。但民主党与共和党决策者亦了解,适度规范与监督作为是确保合法合理运用人工智能的基本要件。众议院与参议院召开多场会议教育国会议员,并安排听证会听取专家建议,而这些立法前凝聚两党共识的作为应该得到肯定。

然而,了解问题只是第一步。要解决问题,必须在加速开发与安全防险间取得平衡,决策高层必须研拟更好做法。否则,美国人民将深陷人工智慧危险螺旋式升高与美国影响力衰退的世界。

喜欢炫笔伏逼朋友的这个帖子的话,👍 请点这里投票,"赞" 助支持!

[举报反馈] [ 炫笔伏逼的个人频道 ] [-->>参与评论回复] [用户前期主贴] [手机扫描浏览分享] [返回网际谈兵首页]

帖子内容是网友自行贴上分享,如果您认为其中内容违规或者侵犯了您的权益,请与我们联系,我们核实后会第一时间删除。

所有跟帖: (主帖帖主有权删除不文明回复,拉黑不受欢迎的用户)

打开微信,扫一扫[Scan QR Code]

进入内容页点击屏幕右上分享按钮

楼主本月热帖推荐:

    >>>查看更多帖主社区动态...