■苏乐伟 吴熠辰
在最新局部战争实践中,人机协同已从技术验证迈向实战应用。然而,人机协同中智能系统的“黑箱”效应、指挥员对算法的过度依赖、战争伦理的模糊化等问题,已成为制约人机深度融合的瓶颈。人与机器的协同关系,从简单的“控制—执行”模式,演变为复杂的“共生—博弈”形态。面对这种深刻变革,如何破解人与机器之间的“信任危机”,成为智能化战争面临的一个挑战。
以透明化设计破解“黑箱”效应,打牢人机互信基础。智能化战争中的自主武器系统,其决策逻辑以深度学习模型为基础,内部运算过程则呈现“黑箱化”特征,人类无法解释其工作原理,所以一旦发生误击事故,无法判定责任归属是开发者、操作者还是算法本身。破解“黑箱”效应,关键在于加强指控链路的透明性设计,可采用开放性编程技术,为自主决策系统嵌入“审计模块”,实时记录其推理过程,使人类操作员能够追溯攻击指令的生成依据。同时,应根据任务类型严格限制机器自主权,可在低风险任务中赋予机器较高自主权,而在涉及平民保护或战略决策时,强制要求人类介入。此外,还可在智能决策的链路中设置“警示模块”,当攻击可能波及平民时,自动触发警示和风险评估,从而将伦理约束内化为作战程序的刚性组成部分。
以“对齐训练”消除技术依赖,提高人机互信水平。人机协同面临的另一个挑战是人类指挥员过度信任AI算法,形成“技术依赖症”。机器思维的本质是数据驱动,所以训练数据的“偏见”很可能会导致决策失误。更危险的是,当人类指挥员过度依赖AI提供的“客观分析”时,其独立判断能力可能会被逐步削弱,进而加重算法偏见可能带来的负面后果。为避免出现过度依赖,要加强人类对AI的理解和控制。外军相关研究表明:士兵对AI系统的信任度与其对技术原理的理解度呈正相关。为此,一方面需通过“认知对齐训练”,让指挥员深入理解机器思维的逻辑边界。比如,可在模拟演习中设置“算法欺骗”场景,帮助指挥员识别智能系统的脆弱性;另一方面,可借助“人机博弈训练”,让指挥员与AI系统在虚拟战场中反复对抗,从而正确认识和把握机器能力。
以“框架约束”强化理性认知,筑牢人机互信防线。“兵者,国之大事,死生之地,存亡之道,不可不察也。”战争不应是冷冰冰的“算力碾压”,未来智能系统,需在追求作战效率的同时,内化“慎战”“义战”的价值导向。为此,亟需构建“技术—法律—文化”三位一体的约束框架。在技术层面,可结合区块链技术,将传统战争伦理原则“编码”嵌入机器,强制智能系统在目标识别时,优先排除平民和民用设施;在法律层面,应将“人类实质性控制”原则细化为可核查的技术标准,同时加强对自主作战系统算法偏见、数据歧视等风险的动态评估和监管;在文化层面,则应倡导“技术谦逊”理念,正视技术的局限性,承认机器能力边界的同时,更珍视人类独有的道德判断力。
来源:中国军网-解放军报
相关文章:
孙简,已任省领导04-26
吉林油田一季度生产用电用气“双结余”04-25
2025上海国际车展 与一汽奥迪共见豪华出行新未来04-20
在线诉讼如何守护“数字防线”04-19