智库集锦 #全球防务动态 #美军动态 #俄军动态 #台湾要情 #微店在售 

#韩国 #雷神 #日本 #电子战 #东北亚军事动态 #无人

以下文章来源于兵推天下,转载自中国指挥与控制学会

游戏AI的最新发展表明,只要有充足的人类游戏数据,或通过模拟获得的经验,机器就能够在一些最复杂且竞争最激烈的游戏中对抗甚至超越最优秀的人类玩家。那么这类AI是否做好了应用于兵棋中准备?
兵棋中可应用哪些人工智能技术?
伦敦玛丽女王大学的詹姆斯·古德曼和西蒙·卢卡斯以及哥本哈信息技术大学的塞巴斯蒂安-瑞斯受英国国防部国防科技实验室委托开展了相关研究工作,研究报告为该问题提供了详细的答案,总结如下。
为了回答该问题,作者首先说明了本研究主要考虑的兵棋类型。兵棋具有多种形式,国防和军事机构主要将兵棋用于以下目的:规划兵力检验、方案验证检验、概念/兵力开发、采购等。
本研究的重点是AI技术在计算机兵棋中的潜在应用。这类兵棋往往比较复杂,具有较大的状态空间和行动空间,而这只是复杂性的两个方面。本报告总结了所有这些方面(即兵棋的核心特征),并将其与AI和机器研究中常用的游戏环境进行对比。
报告中使用了以下兵棋:1)指挥:现代空海行动;2)闪点战役;ODIN、CAEn。前两款为空海和陆地领域的商业兵棋,ODIN和CAEn是面向国防界的计算机兵棋环境。CAEn由英国国防科技实验室内部开发。ODIN 是 Atlas Elektronik 公司提供的商业防御软件包。
同时为进行对比,报告还分析了围棋/国际象棋、星际争霸 II、微型RTS、Dota2、MuJoCo(一种物理模拟环境)等常用AI研究环境。
从上表可以看出,Dota 2、星际争霸和 RTS 游戏与兵棋的相似度高于其他选项。MuJoCo 是一种机器人控制环境,因此与兵棋的相似度最低不足为奇。
在过去几年,Deep RL(和蒙特卡洛树搜索)在围棋、星际争霸、Dota2等游戏中的应用取得了惊人的结果。本报告综述了这些游戏主要使用的架构和训练算法,涉及的工作量(工程和计算量),并重点强调了最有可能转化到兵棋中的算法。
报告指出,所有最令人印象深刻的成果都需要AI从大量的游戏模拟中学习。快速、可复制的游戏引擎/模拟器,也能使蒙特卡罗树搜索和滚动层进化算法等统计前向规划算法得到应用。兵棋中应考虑使用这些算法,因为它们能提供 '开箱即用'即无需训练的智能行为,而且可与Deep RL 等学习方法相结合,实现更加智能的推演。
可解释的决策,在一定程度上可通过模拟可视化实现,并通过分析神经网络激活模式来帮助解释深度 RL系统的运行。可解释性最好被视为一种应有但非必要的功能。
此外,本报告还介绍了作者认为与兵棋AI相关的所有平台,包括Open AI Gym、OpenSpiel、Polygames、ELF、GVGAI、Codingame等。在上述平台中,就兵棋AI而言,最让人感兴趣的是OpenSpiel和GVGAI。
OpenSpiel 设计精良、可扩展,专为 SFP 算法创建。它包含大量经典游戏和一系列近期表现出色的游戏人工智能代理。不过,它不支持结构化行动,因为每个行动都通过一个(通常很小的)有限集合编码为整数。这听起来可能只是软件工程上的一个小问题,但实际上造成了一个更深层次的问题--影响了为某一平台开发的大多数(也许是全部)代理的运行。
GVGAI使用 VGDL展示了一个相关实例,说明DSL如何能够快速编写新游戏。但与OpenSpiel一样,GVGAI将行动编码为整数。因此,由于这个原因以及其他原因,它不支持兵棋推演。
因此亟需开发一个专门针对兵棋AI的全新平台。该平台应该支持想定设计和分析,并能与一系列AI代理轻松互动。报告最后给出了几条具体建议:
建议1:开发全新的兵棋AI框架。本报告的核心建议是开发一个既支持为兵棋开发AI又支持创建适合人工智能的兵棋的全新框架。下图显示了该高级框架,其包含三个概念要素:界面、兵棋和人工智能算法。
建议2:可应对的挑战。本部分结合上文中提到的兵棋类型,分析了将当前的AI技术应用到兵棋中面临的一些挑战。
建议3a:使用学习单位嵌入的可扩展兵棋推演深度学习方法
建议3b:使用图神经网络进行单位信息整合
建议3c:高性能统计前向规划代理

转载声明