其实数据库数据是推演中基本不需要关注的事情 ——致CMO玩家们以及关注CMO的朋友们的一封信

这种只有靠打仗拿脑袋挂裤腰的活才能满足军迷“改善歧视”的期望,有这样的硬气话,自己开发一款CMO不是更好。既不用仰人鼻息,也不用死人死老百姓死韭菜,不是皆大欢喜 :smile:

4 个赞

如果能玩到国内自己开发成熟的电子兵棋作战系统就好了 :crying_cat_face:

3 个赞

兵棋推演的基础是数据,关系到推演是否可行,推演分析的结果是否可信。你这个意见写得很好——尽管我的意见跟你完全相反,这说明一个问题,即国内对待推演分析的主观认识仍然停留在定性分析上,缺乏行之有效并且得到普遍认可的定量分析方法,进行决策分析和数据挖掘。定量分析是什么样子?首先必须要有合适的数学工具,然后才能有所谓的战报和报表供以讨论。在兵棋的决策分析和数据挖掘方面,国内十年前就有论文了,但是到现在一样缺少兵棋人的关注,这种现象不应该,也不正常,不是良序。我这里给出两篇,知网都有,大家可以找来看看,一篇是《面向作战推演的博弈与决策模型及应用研究》,一篇是《基于数据挖掘的兵棋推演数据分析方法研究》。数据问题反映的是理论问题,要首先有完全适用于兵棋的理论总结,目前我在公司数据建模与决策分析部的工作计划包括撰写《兵棋推演的决策分析101》,审校之后会公开发布,希望能为解决这个问题抛砖引玉。

以上是在知乎回复的,下面再多说几句。

兵棋推演的理论工作,大家可能普遍以为就是已经出版的一些兵棋书籍,比如杨南征老师的《虚拟演兵》、何昌其老师的《桌面战争》、彭希文老师的《从实验室走向战场》以及国外重要论著,这些论著的大部分篇章是对兵棋设计经验的总结,一部分是对兵棋推广经验的总结,而对兵棋推演的经验,特别是分析方法与技术的总结是非常少的。

所以,以上研究只是理论研究工作的第一个阶段,如果我们只停留在这里,那么只会不停仿制兵棋,只会不停在定性分析上费一番周折,但对于国内兵棋发展来说,设计就不再有发展空间了,新的棋不过就是把旧的技术拿来拼贴。这是因为我们不去挖掘推演数据到底能对决策者有何种辅助作用所致。

兵棋推演的目的是要通过兵棋设计和推演过程,发挥出决策者的主观能动性,通过兵棋推演体现出决策者的军事素养、谋略水平和指挥能力,体现人的主导作用。兵棋之所以能够达成这个目的,本质上说,兵棋推演的运行是在给定数据的基础上,通过决策者各种作战指令的下达和模型的运算而不断对相关实体的状态进行改写的过程。我想,美国联合战区级仿真系统JTLS之所以有效,与它具备事后分析客户端工具AARC有着密不可分的联系,因为复盘评估要比推演过程重要得多。

传统方法上,我们会使用数理统计进行分析,但要知道这种方法是初级的、单一的,不能撑起全部决策分析和数据挖掘工作,几乎快见不到有人用决策树,见不到有人用数据挖掘。20个月前,我提出一种“作战框架分析法”,是对分析和挖掘的初次尝试,然后用了10个月的时间为之找到数学工具,但直到最近我才有了突破性的认识。从当初的尝试和后来的《论兵棋推演的人才培养》,到现在的101计划,其实一以贯之,国内的兵棋推演必须向前一步走,不要停留在定性分析上。

4 个赞

首先我对于你的想法是赞同的。
我所提出的“数据库数据是推演中基本不需要关注的事情”并不代表着我个人不希望数据库的数据能够更加贴近现实。正相反,我也非常希望能够有一款拟真度比较高的软件来作为我个人的分析或者是演示软件。而关于这个定性分析的问题,我也有过自己的思考。在我综合了一些原因之后我认为是没有办法进行超越定性分析的分析的。
第一个原因,我个人的学识暂时没有办法支持我去做超越这类定性分析的分析。
第二个原因,我认为目前也很难通过CMO以及类似的软件没有办法做超越定性分析的分析。
其中第二个原因,展开来说就是CMO在民用版本方面的局限性,尽管目前的beta版本已经十分接近PE版本,但仍旧不能欧股通过实时联机来实现更高层级的推演。或者说,没有办法通过联机来实现复杂想定下的推演,来能够为推演指挥从现实层面精进自己的决策判断能力。
就是尽管目前CMO是只能通过人-机对抗来实现相对较高效率的推演,我作为一个经常只做推演解析不做想定制作的人来说,每一次推演过后我都会拿着我的推演录像去复盘,然后在复盘的同时去写战报,也把一些想法给记下来,我认为即使是目前的这个情况,我也能够获得非常多的启发。但是其实不用想的太远,就是想一下CMO的PE版本,PE版本所能够实现的多人协同操作,就是一个非常好的发展方向,通过相互协作来制定决策,在推演之后复盘也会变得更有价值,但是目前国内的软件似乎是连这个高度都达不到。话说回来,我也十分期盼能够实现体验更加复杂决策的的推演软件以及想定出现。
但是我还是想和老哥你聊一聊关于国内对待推演分析的这个问题,我写这一篇文章就是为了来了聊这类问题,我也非常不愿意在知乎的评论区来聊这个话题。
就是在我的观察当中,无论是B站还是知乎,其实比我做的流量更大的推演博主是有的,而且似乎还不少,他们当中有一些人所采用的是国内的推演软件,然后在一个漏洞非常大的想定当中,所采用的数据甚至比我平时用的想定的数据更加离谱,但是却能够得到数百倍甚至千倍于我的播放量/阅读量。而我们的一些小伙伴在评论区或者是其他地方在推荐CMO这款软件的时候,就基本都会有人对“歧视的数据库”一类的问题抓住不放。我个人认为国内的推演软件的开发是一个比较好的开始,但是不应该出现类似于这种“捧一踩一”的情况。这其实才是我自己的对于这篇讨论的文章的灵感来源。我的意思就是,老哥你想把我们国内的兵棋推演的高度再往上推1到2个等级我认为是非常好的,是必须要得到支持的,但是从我个人的眼里,我的角度来说,我认为国内的兵棋推演的分析的等级,以及普罗大众(甚至是某一些兵棋人)对于兵棋推演的认识的水平或许比你想的更低,而我认为这一点是比较致命的,也是比较麻烦的。
当然我并不是电子兵棋行业内的相关人士,如果老哥你想做的这一套分析方法或者是推演软件的受众人群就是肩膀上带星星的人,那么我想如何去解决他们这一群人能不能够接受你的分析方法或者是推演软件,那是我这样水平不能够说得上话的。但是如果说老哥你的分析方法的受众人群是普罗大众的话,我想这条路会非常长非常难走,当然如果我能够帮的上忙并且老哥需要的话,我也愿意帮忙。
最后我非常期待并且衷心期盼,在未来的某一天,能够真正通过能够进行更复杂推演、能够进行定量分析的软件来获得更好的数据,来充实我未来的文章。

感谢你中肯的讨论!

其实你的第一个原因是一个普遍的原因,第二个原因和第一个原因也是相关的,CMO民用版没有开放或者加入定量分析工具,墨子加了,但是大环境还没有解决第一个原因,所以墨子就算加了也是曲高和寡。

我在《论兵棋推演的人才培养》里展开做了研究(这篇文章是在论坛暂时关闭期间写的,所以没发在这里,放一个链接),其实从目前的中小学课程标准来说,数理统计的内容已经贯穿了整个六年小学,也就是说,当下从小学高年级到大学,人们是可以用定量分析的方法来学习兵棋的,但是缺少这样的教材。我曾经为女儿编写过初级教材,当然她九月才小二,眼下我只让她用我的兵棋自己编故事,这项试验也没有正式开始。

现在大家可以做的事,是专门写一份提纲,把概率论和数理统计、运筹学、博弈论、数据挖掘循序渐进改编成兵棋的版本,削足适履,所有的例题都是以兵棋推演为中心,所有的计算和证明不超过推演规则。

我能够接触到专业领域的需求,但这个环境里也只有很少一部分人能够掌握决策分析方法,大部分参加集团式/分组式推演的组训人员,其实程度上并没有比民间人士高出1到2个等级,甚至并不是每一个人都能做到像你一样了解部分武器装备的战技术性能。所以无论专业环境还是民间环境,都需要想办法向定量迈进一步。

为什么一定要迈进一步?这是由于复盘评估比推演过程重要而决定的。我国专业领域对兵棋的需求量很大,每一项业务都想要一套兵棋系统,而有大约十年的时间,兵棋系统的数量疯狂地增长,其实都是在拿已有技术复用。这样的系统大多只给出了复盘评估的基本功能,统计战损、消耗这种基本计算量。数值和数值计算仅仅是定量分析的一种表现形式,只是小学数学甚至算术的主要任务。难道我们要用小学数学去击败敌人?如果军队停留在这个程度,那就等于是停留在解放战争年代的军事教育水平。如果民间玩家停留在这个程度,那么兵棋也就不能真正成为一种方法论而只停留在游戏水平。

过去十年间,涌现了太多宝贵的研究,对兵棋人来说,第一阶段的研究已经很充实了。如果想学习我军的军事理论,有军事科学出版社的硕士研究生系列教材第二版,2013年出版;在兵棋设计上,有2012年的《陆军武器装备体系作战运用兵棋推演技术与方法》,2013年的《兵棋从实验室走向战场》,刘源的两本黑皮书都是2013年的,其他的还有很多,我之前举的两篇论文也是这十年间。因为早于前十年,正是中国兵棋著作破土而出的时间,才有了前十年的雨后春笋。特别是2013年李璟的《战斗力解析》,以前在论坛里讨论过,我是14年在国图看到的,但当时我忽视了这本书,直到我开始从事兵棋设计和开发的专业工作以后,在认真分析各种兵棋的底层核心之后,我才真正意识到这本书的价值——所有的研究不还原到理论上,就是空中楼阁、水中望月、雾里看花。而今天的兵棋人,应该跨过入门阅读,迈向深层学习。与一般的游戏玩家不同,像你一样的玩家是有这个内驱力的。

2 个赞

非常赞同,我也将继续为之努力。

数据库的问题是游戏里的很小的问题。真正的大问题是游戏运行过程中内存大量占用堆积导致系统崩溃,bug一大堆的问题。这游戏真的是我玩过bug最多的游戏。老是出现的话很搞人心态

2 个赞

数据库的问题大家都各执一词,老外说俄罗斯数据库中的远程防空导弹的拦截率 中国的空射反舰导弹的命中率/突防率也高得出奇 把这个当一个游戏玩而已就好

兵棋推演还有一个很重要的方向就是与人工智能决策相结合,不知道楼主有没有关注过这方面?

数据不重要,那新武器也没发展的必要了。

导弹射程远点近点有什么关系吗 :upside_down_face:

我的专业方向是兵棋设计,研究领域是兵棋推演的作战结构理论,所以并不试图直接进入人工智能领域.深度学习技术偏黑盒,可解释性不高,目前只适合战斗场景.在大规模战斗乃至战役层面,无论是军事教育训练还是指挥,人类都不可能接受不可解释的分析.我并非不看好兵棋推演的人工智能,有的人致力于技术进展,也需要有的人另辟蹊径.所以我更多关注可解释性更高的技术,同时聚焦于中国军事思想的可计算性研究.

其实兵棋推演的目的还是对真实战争的模拟,兵棋推演的发展方向应该是更真实的反映真实战争环境,同样能够在瞬息万变的战场中准确感知战场态势并作出正确的决策是克敌制胜的关键。人工智能在这方面展现出了自己的潜力。美军也开展过相关的研究探索。兵棋推演实际上也是OODA循环。
关于数据库不真实的问题,我是比较认同楼主的观点。数据库的真实性没有大家想象中的那么重要,可以通过各种技术手段来“修正”这种“不真实”。话又说回来,美军公布的武器性能参数我们又怎样去证实它的真实性呢?CMO这个游戏本身就是民版的游戏而已。
另外,我们能不能自己修改数据库呢?

AI对这种有大量黑箱数据又只发生一次的情景,基本用处不大。

助智“战颅”起惊霆(强军路上)这个是国防科技大学开发的用于指挥控制的IA系统,AI的优势在于绝对理性,以及远高于人脑的解算、记忆能力。如果我没记错,alphago在与人类的比赛中出现了一些之前我们没有见过的落子策略,这些策略也被证明是有效的。难道就因为AI是我们开发的,我们就不能反过来学习AI的策略与方法了么?

你有没有想过,数据库"不真实",又怎么保证对真实战争进行模拟呢?这里面此消彼长的关系,是不是根本在于我们要如何理解战争,换句话说要辩证地看待战争,那么是不是又进一步可以问我们要怎样才能在兵棋中体现军事辩证法?这个问题再向前一步,是不是又变成了我们怎么通过兵棋去学习和理解军事辩证法,以及包含军事辩证法的战略学、战役学和战术学?那么我们究竟凭借什么来复盘评估我们是否达到目的了呢?归根结底,推演经验要通过推演数据来总结,兵棋理论要通过推演经验来建立.我写过一篇文章来论述其中的缘由,发在论坛叫作《 B4M人机对战机器蓝方先手首轮推演分析》.

同样,在我上一次回答中说了,依靠战场感知进行单兵/单装/集群的战术决策是有成效的,甚至可能接触到小规模战斗,但大规模战斗以上还是不够成功.就像AlphaGo,虽然可以穷举突破人类棋手,但由于深度学习是低可解释性的,这就决定了依靠深度学习的大规模战斗以上的兵棋人工智能要“牵着人类的鼻子”走,这在军队高层是不可能被接受的事情,否则美军各部队和院校也不会年年花钱培养军人手推兵棋.

总结来说,推演数据重要,因为它蕴含着推演者主观能动性的行动结构,而武器装备数据只是推演数据中的一部分,行动的数据比装备数据重要,当装备数据在进行抽象时会根据推演及行动的需要而服务于推演,服务于推演的意思就是可以修正数据,这种修正也会朝着装备论证的方向演进.

1 个赞

反过来学习的前提是AI首先理解得了人类的指挥,目前做不到.

AI推演策略的低可解释性或者说黑盒性,并不影响我们对有效推演策略的使用啊。就像意识在人脑中的运行机制也是黑盒,但是它妨碍我们思考了么?或者说两条腿走路,一方面使用推演策略,另一方面继续研究AI策略的形成原理,或者说研究如何去解释AI的策略。如果说人工智能推演的低可解释性限制了人工智能推演的运用,那么人工智能推演研究的意义在哪呢?
另外,我们需要注意的是我们现在使用的这个软件是以游戏的面目出现在Steam平台的,而不是专业软件。并且它是面向民用市场,而不是美军、德军招标的那个版本,那么就注定了它的数据只能来自于公开的报道,甚至是臆造。
还记得那个在游戏论坛上发豹二坦克操作手册的家伙么?真实数据的代价就是刑事责任的追究。。。。。。如果不想被查水表就不要再追求啥真实数据了。
数据真实性在这个版本的游戏框架下根本就是一个伪命题。当然如果你真的知道真实数据,发帖之前记得回忆一下保密守则。别被网特忽悠了!!!!

人的因素在战争中起主导作用,如果不能统一认识如何指挥打仗?既然要统一认识,就要"提供关于数据或模型的可以理解的信息,有助于我们更充分地发现知识、理解问题和解决问题的方法,都可以归类为可解释性方法".这句话出自《现代决策树模型及其编程实践》一书,是对决策方法的基本认识.

民间兵棋往往因为无法有效组织多人分组对抗,所以很多人容易忽视统一认识的问题.在商业领域,企业一直要求其组织做到数据建模与决策分析,从来没有一家大型企业真正做到不要活生生的人构成的董事会,而只用人工智能进行决策.因此,如果人工智能决策不够可解释性,就不能作为决策者统一认识的一方面依据,这是毋庸置疑的.你可以坚持它是有效推演策略,但不能服众,也不能御众,那么它就不能在指挥中发挥作用.

人工智能推演现在仍然处在提出技术的阶段,没有发展到总结推演经验的阶段,也就没有建立起兵棋推演理论.打个比方说,过去我们对战争的认识和对兵棋的认识,恰似数万年来人类积累出天象与农业的关系,现在要开始摸索天文学,发明了角度,提出了测算技术,正在等待总结出行星运动经验定律,然后再用万有引力定律和牛二定律证明这个经验定律,至此才能完成经典天文学理论的建立.人工智能推演的意义在于它首先提高了人类的效率,可以更加精确地计算推演中反映行动关系的数量变化过程,为人们总结推演经验提供报表式结论.并且在这一个意义未能达成的情况下,人工智能推演就不能够在兵棋推演的技术中占据主要的地位,发挥重要的作用.

能不能详细说说这个,水平有限看得不是很明白。我接触的人工智能多是机器学习,通过人工智能算法近似举穷的办法演绎归纳出人类之前没有想到的一些策略,这个是我对人工智能推演的理解。

《系统仿真学报》2021年8月刊载了胡晓峰与齐大伟的论文《智能化兵棋系统:下一代需要改变的是什么》,当中有几个意见是这样的:

下一代兵棋系统应该是智能化兵棋系统,这一点毋庸置疑.但智能化兵棋系统应该具有什么样的改变,现在还很难说清楚.这不是简单地引入诸如深度学习、知识图谱等智能技术后,就可以成为"智能化兵棋系统"的.

计算机兵棋系统的本质特征……是"数学模型+程序计算"……是基于牛顿科学体系下的确定性系统仿真方法,即所谓"机器"系统仿真方法.……一个核心问题始终没有解决好,即"智能行为难题":"人"既然是兵棋推演的核心,但人的智能行为却不能被真实反映.而智能行为的核心是认知,但我们却找不到对认知进行建模的合适方法.该领域多年来虽然一直都是研究的重点,但研究的结果却总是不尽人意.……我们试图建立的各种智能作战决策行为模型,表现出来的却总是带有"机器味",显示不出自主决策智能行为的特点.

产生这些问题的原因,还是因为难以处理复杂性问题,缺乏"自主认知"能力,靠的是系统外的"人"所给与的预先有限指定,方法都还是局限在"规律不变"或"规律可描述"的框架内.

以上意见实际上已经触碰到了一个哲学领域,但局限于技术本位,未能向前跨出一步作出阐述.我们所期望的自主决策行为,本质上是要求计算机复现人的主观能动性.主观能动性并不等同于主观意识,它实际上是一系列行动的集合,即在思想观念、目的计划等主观意识的支配下去开展行动.这样的行动在兵棋推演的过程中,将通过推演数据得到表达.

军事行动的本质是客体之间的对抗关系,比如部队前出到接敌距离是一种空间对抗关系,我方侦察到敌方是一种信息对抗关系,我方打击敌方是一种火力对抗关系,战场补给和救援是一种保障对抗关系.这四大关系构成了兵棋规则的四大章节(机动、侦察、战斗和补给).这些对抗关系依据人所筹划的作战程序(在时间和空间上的先后次序)表现为一种作战结构,即一系列行动及其联系的总和.于是,我们必然在整个推演过程中,以数据变化的方式存留下这些总和的运动,这就是"精确地计算推演中反映行动关系的数量变化过程"之意.这些总和的运动,如果单凭人力来整理,效率非常低下.

最后说说"通过人工智能算法近似举穷的办法演绎归纳出人类之前没有想到的一些策略",这就是我认为的"通过推演数据总结推演经验".然而这样做有一个前提,就是兵棋推演首先要解决可解释性问题.2017年ICML Tutorial将可解释性定义为向人类给出解释的过程,从数据中发现知识或解决问题的过程中,只要是能够提供关于数据或模型的可以理解的信息,有助于我们更充分地发现知识、理解问题和解决问题的方法,都可以归类为可解释性方法.

也就是说,我们手中现有的技术与方法,首先要满足一个条件,就是能用历史的军事理论向我们作出评估和解释."只要研究一般战争的规律就得了"和"只要研究俄国革命战争的经验就得了"这两种意见,早在革命战争时期就已经被抛弃了.如果我们今天的兵棋推演理论是用一般战争的规律或者某一国的经验来指导我们中国人,那就是舍本逐末,放弃拾级而上要一跃到空中楼阁.

一旦中国军事战略思维实现了可推演化,亦即实现了推演的可解释性,又即能够实现解释一系列行动及其联系的推演数据的变化过程,那么我们可以认为初步解决了主观能动性的复现.有了这个基础,人工智能推演不但有了"人"的味道,也有"中国"的味道.

基于这一层认识,关键举措就在于如何总结推演当中的一系列行动及其联系,这是数据挖掘的任务.这个过程其实还是通过推演数据总结推演经验,即在大量占有推演资料的情况下对能够说明胜负条件转化的一系列作战行动及其联系进行理性分析,并通过实践、再认识和再实践,确立其正确性和普遍性.

P.S. 附上国外一篇最新的论文,DeepNash基于博弈论的、无模型的深度强化学习方法 R-NaD,以无需搜索的从头开始的自我博弈方式来学习如何掌握西洋陆军棋的游戏策略. Mastering the game of Stratego with model-free multiagent reinforcement learning