就像古代剑客与名剑,不是剑选择人,也不是人驯服剑,而是彼此成就新的剑道。”
吴浩轻轻滑动手中的透明平板,背后大屏幕上随即出现了新的画面。
他抬眼望向台下的专家们一眼,露出自信的笑容,缓缓讲道:“关于人机决策权的边界,我们在研发初期就构建了三层防护体系。”
他调出三维架构图,红色警示线在各个节点闪烁,说:“最底层是‘人类否决权’,任何涉及战略级目标的决策,系统都会强制中断ai运算,将决策权交回指挥官手中。
中间层是‘后果模拟模块’,当ai与人类判断出现分歧时,系统会在0.5秒内生成三个维度的推演报告:战术成功率、伦理风险指数、政治外交影响。
上个月的联合军演中,某型驱逐舰指挥官正是通过这个模块,发现ai推荐的突袭方案会触发邻国防空识别区,及时调整了作战路线。”
前排海军军官们纷纷翻开笔记本,后排记者的录音笔红光不停闪烁。
吴浩轻点平板,画面切换成某位指挥官戴着神经接驳头盔的训练画面,然后继续说道:“但我们更关注的,是如何让技术真正成为‘有温度的参谋’。
传统ai输出的是冰冷的胜率数据,而我们的系统会学习指挥官的决策习惯,建立专属的‘指挥风格图谱’。
就像这位上校,系统通过分析他过往32次实战演习的作战记录,发现其在复杂海况下更依赖水文数据,于是在推荐方案时会优先呈现相关参数。”
孙教授抬手打断道:“这种个性化定制是否会导致决策偏见?”
“问得好。”