摘要:OpenAI发布ChatGPT以来,引发了人类社会的巨大震荡,产学研各界纷纷关注其技术实现,思考其技术局限性与应用前景。首先,追溯了GPT家族模型发展历程,分析了GPT家族模型网络结构设计与训练过程改进中的技术思想;然后,对ChatGPT的优劣势进行分析,ChatGPT呈现出自然流畅、多轮交互、泛化能力强3大优势,但依然存在一定的技术局限性;最后,评估了ChatGPT给军事安全带来的挑战,并提出应对策略,涵盖反生成式AI技术研究、网络信息安全防御体系构建、军事智能辅助决策系统建设、军事数据资源建设4个方面。
1、问题的提出
从20世纪40年代开始,人工智能(AI)引起学术界的广泛关注。1997年,IBM的深蓝系统击败了国际象棋冠军Gary Kasparov。进入21世纪以来,计算机技术快速发展,人工智能已经开始走进人们生活,服务机器人、手机语音助手和云计算均在不同程度上使用了人工智能算法,在很多方面改善了人们生活品质。2011年,IBM的沃森系统参加热门问答节目Jeopardy,击败人类选手Brad Rutter和Ken Jennings拿下第1名。2016年,ImageNet自动标注任务的错误率从2010年的28%下降到低于3%,而人类水平约5%,谷歌DeepMind开发的AlphaGo先后击败李世石、柯洁等人类围棋冠军,且后续的新版程序Zero对战初代程序Go的战绩是100∶0。
同期,人工智能技术引起了各国领导人的重视,世界主要国家纷纷开始谋划在人工智能领域的战略布局。2015年5月,中国政府推出《中国制造2025》,提出以推进智能制造为主攻方向的指导思想,智能概念开始进入国家战略。2016年8月,中国国务院发布《“十三五”国家科技创新规划》,明确人工智能作为发展新一代信息技术的主要方向。2016年10月,白宫科技政策办公室(OSTP)国家科学技术委员会(NSTC)发布《为人工智能的未来做准备》以及《国家人工智能研究与发展战略计划》2份重要报告,正式将人工智能上升到国家战略层面。2017年7月,中国国务院颁布《新一代人工智能发展规划》,该计划是所有国家人工智能战略中最为全面的,包含了研发、工业化、人才发展、教育与职业培训、标准制定与法规以及道德规范与安全等各个方面的战略。2017年10月,党的十九大报告中提出坚持走中国特色强军之路,加快军事智能武器发展,正式开始了军事领域人工智能技术的布局。近几年,美、中、俄、法等国均持续发布人工智能、军事智能的相关战略规划。2022年10月,党的二十大报告中提出推动战略性新兴产业融合集群发展,构建新一代信息技术、人工智能和高端装备等新的增长引擎。2023年,两会政府工作报告中提出要加快建设现代化产业体系,着力提升高端化、智能化和绿色化水平。人工智能技术的发展与应用始终处于国家科技发展的排头兵地位。 自然语言处理(NLP)是人工智能的一个重要分支,其目的是利用计算机对自然语言进行智能化处理,让机器能够理解人类语言,用自然语言方式与人类交流,最终拥有智能。自然语言处理属于认知智能任务,且自然语言具有歧义性、抽象性、语义组合性、进化性、非规范性、主观性、知识性和难移植性等特点,因此自然语言处理需要更强的抽象和推理能力,相对于其他人工智能任务难度更高,被誉为“人工智能皇冠上的明珠”。 自然语言处理简要发展历程如图1所示,经历了依赖小规模专家知识的基于规则的数据处理、基于大规模语料库统计模型的统计机器学习以及基于大规模语料库神经网络的漫长摸索后,Google于2017年发布论文,首次提出转换器(Transformer)模型,完全抛弃了循环神经网络(RNN)和卷积神经网络(CNN)等传统神经网络结构,而采用Attention机制来完成机器翻译任务,不仅取得了很好效果,还大大缩短了训练时间,成为自然语言处理技术发展的重要里程碑,由此演化出3个技术分支。
图1 自然语言处理简要发展历程
谷歌基于自编码语言模型和生成式语言模型2种技术思想,发展了其中2个技术分支。BERT为代表的自编码语言模型展示了预训练语言模型对于自然语言理解任务的巨大潜力,在诸多任务中取得了突破性进展,成为自然语言理解任务中的基准模型。以T5为代表的生成式语言模型,将所有NLP任务都转化成文本到文本(Text-to-Text)任务,适合给定上文然后生成相对固定的下文,更适用于翻译、对联生成等相对固定的任务。 Open AI采用生成式语言模型的技术思想,发展了GPT这一分支。GPT在生成新文字时,更重视附近单词的影响,相对更有灵活性,2022年底,推出的ChatGPT能够通过学习和理解人类语言进行对话,还能根据聊天的上下文进行互动,真正像人类一样聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译和代码等任务,展示了预训练语言模型在语言生成任务中的潜力,NLP工具终于走出实验室,试水应用,震惊了世界。 经过上述技术革新的历程,形成了图2所示自然语言处理4范式。
图2 自然语言处理4范式
1) 特征工程——非神经网络时代的完全监督学习:由专家结合语言学知识和个人经验提取出自然语言语料库中一些特征,采用规则或统计学模型进行特征匹配,进而实现特定的NLP能力; 2) 架构工程——基于神经网络的完全监督学习:面向具体的自然语言处理任务,针对性构建训练数据和算法以训练模型,由于训练数据是和任务严格绑定的,难以在不同任务间共享,因此训练数据的规模往往较小,算法性能严重受限,在面向产业界推广时,需重新构建训练数据,推广难度较大; 3) 目标工程——预训练模型+微调:以BERT为代表的大规模预训练模型引领的范式,以在大规模未标记数据上通过自监督学习完成预训练的模型为基础,在下游任务上使用少量人工标记数据进行微调,研发效率高、效果好,但在下游任务与预训练任务的语义差异过大时,效果较差,且微调样本数量有限的情况下容易过拟合; 4) Prompt工程——预训练模型+提示+预测:GPT-3引领的新范式,建立在大规模预训练模型已经学习到足够的知识、无需改造的假设上,对下游任务进行改造,采用提示学习的方法,将下游任务的输入输出形式改造成适合预训练模型的样子,从而使预训练模型能够在不同任务上取得很好的效果,形成零样本、少样本泛化能力,并且随着模型规模的增大,性能提升的数量级基本呈现线性增长,打破了原有范式下模型规模增大、性能饱和的瓶颈。 近年来,目标工程范式在自然语言处理的学术研究与产业落地中发挥了巨大作用,Prompt工程范式以学术研究为主,但随着ChatGPT的横空出世,Prompt工程范式俨然成为人工智能领域关注的焦点。目标工程范式、Prompt范式均采用了大规模预训练语言模型,能够有效利用自监督任务从大量语料学习得到语言中蕴含的大量隐性、多层次的知识,基于Transformer的模型结构使其可以支撑各种NLP任务,统一范式下形成了即插即用的效果,呈现出显著的基础设施效应,通过微调、提示适配下游任务,从而有效迁移至产业化应用中。 ChatGPT引起各行各业空前的热度,数亿用户纷纷惊叹于其强大功能,思考其背后关键技术革新,也关注当前 ChatGPT仍存在哪些缺陷。本文以此为出发点,对ChatGPT的关键技术原理进行阐述,分析其优劣势,研究其应用于军事领域的可能性,评估给我国军事安全带来的风险与挑战,并提出应对思路。
2、ChatGPT技术原理
2.1 GPT家族模型发展历程
GPT家族模型发展历程如图3所示。
图3 GPT家族模型发展历程
2018年6月,OpenAI发布论文,首次提出GPT模型,并推出了具有1.17亿个参数的GPT-1模型。GPT采用2阶段过程:第1阶段是利用语言模型进行预训练;第2阶段通过微调的模式解决下游任务。第1阶段的预训练过程:特征提取(Embedding)→转换(Transformer)→文本生成。第2阶段是微调过程,具体为:1) 对于不同的下游任务,把任务的网络结构改造成与GPT-1网络结构一致;2) 做下游任务时,利用第1阶段预训练好的参数初始化GPT-1的网络结构,从而引入预训练学到的语言学知识;3) 使用任务去训练这个网络,对网络参数进行微调,使该网络更适合解决下游任务。GPT微调阶段示意图如图4所示。
图4 GPT微调阶段示意图
2019年2月,OpenAI发布论文,提出GPT-2模型,该模型具有15亿个参数。2020年5月,OpenAI发布论文,提出GPT-3模型,该模型具有1 750亿个参数。GPT-3与GPT-1、GPT-2相比,模型架构没有本质区别,主要是模型参数、训练数据规模有了大幅提升。GPT-3.5是基于GPT-3演变的模型集合,最大区别是训练过程不一样,GPT-3.5的训练始自“纯代码完成任务”,再加入文本训练,可理解为先对模型进行严格的形式逻辑训练,再对大规模文本进行训练,就如同先教会学生形式逻辑,再教会这些逻辑在现实中各种应用。 从GPT-1到GPT-3.5可以发现,更大的语言模型虽然有了更强的语言理解和生成能力,但不能从本质上使它们更好地遵循或理解用户的指令意图。例如,大型语言模型可能会生成不真实、有害或对用户没有帮助的输出,原因在于这些语言模型预测下一个单词的训练目标与用户目标意图是不一致的。2022年2月底,OpenAI发布论文,推出了基于GPT-3模型进一步微调的InstructGPT模型。2022年底发布的ChatGPT与InstructGPT仅数据采集方式存在差异,模型结构、训练方式一致,都引入了人工标注和反馈,使用强化学习算法对语言模型进行微调。2023年3月,OpenAI发布了GPT-4,支持的任务与ChatGPT类似,但准确性大幅提升,并具备识图能力,目前尚未公开技术细节。
2.2 ChatGPT训练过程
ChatGPT训练中,使用了人类反馈进行强化学习训练,其目的是:1) 让语言模型学会理解人类指令的含义,如文本生成类问题、知识回答类问题等不同类型命令;2) 让语言模型学会判断对于给定的指令,什么样的答案输出是优质的,如富含信息、内容丰富、对用户有帮助、无害、不包含歧视信息等多种标准,从而在各种任务上使语言模型与用户的意图保持一致,输出人类想要的内容。结合InstructGPT论文以及Hugging Face对基于人类反馈的强化学习(RLHF)算法的解读,来推断ChatGPT的训练过程,图5 为训练过程原理图,模型训练分为3步。
图5 ChatGPT训练过程原理图
3) 使用PPO强化学习算法,根据奖励模型微调语言模型,使模型具备生成更加精确、丰富和无害内容的能力。 采用PPO强化学习算法来不断增强预训练模型的能力,利用SFT模型初始化PPO中策略,并微调优化SFT模型。该阶段无需人工标注数据,从prompt数据集中随机采样一批新的prompts,使用PPO模型生成回答answers,并用RM模型给出的奖励分数,这个奖励分数就是RM赋予给整个回答(token序列)的整体reward。将每个token视作一个时间步,将reward由后往前依次传递,由此产生的policy梯度可更新PPO模型参数。该强化学习过程可以训练policy产生高reward的答案,即产生符合RM标准的高质量回答。 上述训练方法使得ChatGPT强大的原因在于以下3点: 1) 大规模预训练语言模型提供知识基础。ChatGPT是在GPT-3.5模型基础上进一步微调获得的,GPT-3.5通过大规模文本语料学习到丰富的知识并拥有强大的语言理解和生成能力。 2) 多样化且高质量的人工标注数据集。OpenAI设置了诸多标准和测试筛选合适的数据标注人员,让这些标注人员撰写或标注训练模型的数据,这些精标的数据涉及问答、生成和头脑风暴等多种类型任务,标注的数据多样化、内容丰富且质量高,使得ChatGPT能够实现有效高质量的学习。 3) 人类反馈的强化学习算法的使用。使用强化学习的方法直接优化带有人类反馈的语言模型,强化学习使得语言模型在已有的知识和信息基础上不断理解用户的意图、学习用户的偏好,同时合理调整自身的输出。
3、ChatGPT优劣势分析
ChatGPT是基于大规模预训练语言模型构建的聊天机器人,能够通过对话形式提供文本生成、代码生成和翻译等能力,因此,本章将其与现有的其他聊天机器人、大规模预训练语言模型、任务定制微调模型进行对比。ChatGPT呈现出自然流畅、多轮交互和泛化能力强3大优势,但从AI研发的算力、算法和算据3要素的角度出发,ChatGPT依然存在一定的技术局限性,导致其存在知识难以更新、专业领域能力欠缺等问题。
3.1 优势分析
1) 打破了聊天机器人“人工智障”的固有印象,沟通自然流畅。微软小冰和天猫精灵等人们经常接触的聊天机器人,以面向搜索、播放音乐和调控智能设备等任务为主,在使用中可以发现对任务的描述比较刻板,背后采用了基于规则模板的API进行辅助,基于语言模型的开放式交谈娱乐的效果普遍较差,导致人们形成了聊天机器人是“人工智障”的印象。与这些常见的聊天机器人相比,ChatGPT得益于大模型+指令微调的技术优势,回答更准确,答案更流畅,与人类的交互更加自然。 2) 打破了大规模预训练语言模型作为底层工具的思维定势,支持持续交互。BERT和PLUG等大规模预训练语言模型,均基于“预训练模型+微调”的研发范式进行应用,AI头部企业基于大规模数据训练生成大规模预训练模型后,NLP产学研人员在任务中使用这些模型,结合任务进行微调,预训练模型只作为语义嵌入的工具进行使用,不存在交互的过程。而ChatGPT在指令微调阶段中使用了大量的多轮对话数据,从而具备了建模对话历史的能力,能持续和用户交互,基于人类反馈的强化学习机制,使其输出的结果更符合人类预期,从而形成了拒绝不当问题、承认无知等独有能力。 3) 打破了面向特定任务微调的研发范式,泛化能力强。在ChatGPT之前,普遍采用的目标工程研发范式,导致微调得到的小模型只能针对特定任务输出能力,例如可以写诗的模型不能支持翻译。ChatGPT引领的Prompt工程范式,通过提示学习激发出模型的泛化能力,使得模型在零样本、少样本场景下具有显著优势。
3.2 劣势分析
尽管ChatGPT在实际使用中表现惊艳,然而从算力、算法和算据角度出发,分析其技术局限性,依然能够发现其存在的诸多劣势。 1) 大规模模型训练对算力要求极高,构建和使用成本高。ChatGPT的算力基础设施由28.5万个CPU和上万颗英伟达A100构成,业内测算基础硬件至少需花费10亿元,一次模型训练花费超过8 000万元,重训练一次需2 700万元。在应用时仍然需要大算力的服务器支持,而这些服务器的成本是普通用户无法承受的,即便数十亿个参数的模型也需要惊人数量的计算资源才能运行和训练。如果面向真实搜索引擎的数以亿计的用户请求,如采取目前通行的免费策略,任何企业均难以承受这一成本。因此对于普通大众来说,还需等待更轻量型的模型或更高性价比的算力平台。 2) 大规模模型的通用局限性依然存在,稳定性、准确性、专业性和时效性难以保证。 a) 无法掌握分解内在算法逻辑。ChatGPT仍然是黑盒模型,目前还未能对ChatGPT的内在算法逻辑进行分解,因此并不能保证ChatGPT不会产生攻击甚至伤害用户的表述,每次的生成结果均会有细微的不同。ChatGPT对输入敏感,对于某个指令可能回答不正确,但换个表述方式重新提问,又可以回答正确,目前还不够稳定。 b) 在未经大量语料训练的领域能力欠缺。ChatGPT在其未经大量语料训练的领域缺乏“人类常识”和引申能力,甚至会一本正经的“胡说八道”。ChatGPT在很多领域可以“创造答案”,但当用户寻求正确答案时,又可能给出有误导的回答。例如,让ChatGPT做一道小学应用题,尽管它可以写出一长串计算过程,但最后答案却是错误的。 c) 无法处理复杂冗长或者特别专业的语言结构。对于来自金融、自然科学或医学等非常专业领域的问题,如果没有进行足够的语料“喂食”,ChatGPT可能无法生成适当的回答。 d) 作为通用模型,在特定任务下与专业化模型相比并不具备优势。例如,翻译能力不如专业的翻译工具,腾讯AI实验室发布的评测结果说明,ChatGPT相比于Google Translate,BLEU值低5个点。 e) 无法实时吸纳学习新知识。ChatGPT还无法在线纳入新知识,而出现一些新知识就去重新预训练GPT模型也是不现实的,无论是训练时间还是训练成本,都是普通训练者难以接受的。如果对于新知识采取在线训练模式,看上去可行且语料成本相对较低,但很容易出现因引入新数据而对原有知识灾难性遗忘的问题。 3) 训练数据规模大,无法彻底清洗,偏见性难以避免。ChatGPT是基于约45 TB现实世界的语言数据进行预训练,再使用12.2万余条标注人员提供的标注数据进行RLHF,现实世界的语言数据中必然存在种族歧视和政治倾向等偏见性,标注人员必然有其偏好,例如倾向于更长的答案等,导致ChatGPT可能生成有害内容,或者生成啰嗦冗长的结果等。
4、ChatGPT对军事安全的挑战与应对策略
ChatGPT采用的生成式方法以及在人机对话中展现的惊人效果,引发了AIGC(利用人工智能技术来生成内容)产业链的重点关注,例如,Bing借助ChatGPT提升搜索效果,对常年在搜索领域遥遥领先的Google带来了巨大冲击,数字媒体公司BuzzFeed将依靠ChatGPT来加强部分内容创作,微软宣布将ChatGPT整合进Office。同时,ChatGPT也引起了军事智能领域的重视,本章重点评估其给军事安全带来的挑战,并分析可采取的应对策略。
4.1 ChatGPT给军事安全带来的挑战
目前ChatGPT的核心技术完全掌握在美国的OpenAI手中,尚没有其他公司能够复现,根据ChatGPT展现的技术能力,其在军事方面的助力可能覆盖信息搜索、情报侦察、认知域作战、网络攻防和产业基础等多个维度,从这些维度出发,分析外军应用ChatGPT可能达成的能力以及对我国军事安全带来的挑战。ChatGPT应用示例如图6所示。
图6 ChatGPT应用示例
1) 信息搜索:ChatGPT军事应用提高了关键信息获取能力、态势认知效率与我军形成落差。通过ChatGPT模型与搜索引擎的结合,使用传统搜索引擎的技术方案,弥补了ChatGPT知识难以更新的劣势;采用ChatGPT的交互形式,颠覆了现有的基于“文本框+网页链接”的交互方式和内容获取方式,用户可直接获取模型归纳好的答案。如图6(a)所示,对模型提问各国高超声速武器发展情况,模型直接提供了归纳好的结果,节约了信息阅读理解和整理的时间,并且能够通过追问、引导式对话方式,让搜索引擎更充分理解用户意图,逐步聚焦用户关注,从而使搜索结果更满足用户快速获取关键信息的需求。 2) 情报侦察:ChatGPT军事应用模型提供者掌握交互信息,加大了我军高价值情报泄露的风险。ChatGPT中隐含大量开源情报,通过对ChatGPT进行诱导式提问,有望从模型中萃取出高价值信息。相应地,因为用户在使用ChatGPT应用时需要与之进行对话,对话过程也是不断向ChatGPT输入信息的过程,用户输入的对话信息越多,收集到用户的各种特征越多,就越容易被人工智能进行画像,如性别、年龄和地域等自然特征,兴趣爱好、品牌偏好和产品偏好等兴趣特征,以及婚姻情况和社交情况等社会特征等。ChatGPT模型的提供者可以从用户交互记录中提取用户的自然属性、社会属性、兴趣偏好和意识形态等各种特征,生成用户画像,当用户是军事领域人员时,通过对话诱导和黑客技术等方式获取用户保存在自己设备上的涉密信息,可实现情报收集。 3) 认知域作战:ChatGPT军事应用辅助生成言论对我民众发起倾向性认知塑造。美国休斯敦大学法律中心助理教授尼古拉斯•古根伯格等指出,类似ChatGPT这样的人工智能能够针对任何事产生无限的、近乎免费的“观点”。这些观点将影响网络上的各类活动,网络用户无法知晓在网络上与之交流的是否为真实人类。清华大学计算机科学与技术系黄民烈教授表示“ChatGPT已经超出了80%甚至90%人的对话能力”。所以,ChatGPT及类似的人工智能与之前的网络水军机器人不同之处在于,它们无需发送那种几乎相同的复制、粘贴的观点,但可以模仿人类,针对各种主题产生无限的具有连贯性和细微差别的个性化内容,而且它们不仅会主动发帖,还会对其他用户的帖子做出回应,并展开长期对话。因此,基于ChatGPT的社交机器人在被灌输了人设、立场和倾向后,能够隐身互联网中,成为认知塑造工具,比传统网络水军更具影响力、隐蔽性,掌握此项能力的一方将占据认知域作战的优势地位。下面以美国击落中国民用气球、新冠起源为例说明。如图6(c)所示,当询问ChatGPT“中国的民用气球飘到美国时,美国可不可以将其击落?”,其回答“可以”;当询问“美国的民用气球飘到中国时,中国能否将其击落?”,其回答变成了“不可以”。如图6(d)所示,当询问新冠病毒是否起源于日本或美国,其回答“不是”;但将询问对象换成中国后,ChatGPT却给出了肯定的答复。GPT-4.0实现了图文多模态能力,甚至结合OpenAI在图像和音频生成方面的成果,在认知域作战上的影响力会进一步提升。 4) 网络攻防:ChatGPT军事应用丰富了新样式、新手段,我军将面临高强度、高密度的网络攻击。清华大学新闻学院教授、新媒体研究中心主任沈阳认为,ChatGPT是2022年一项重大技术突破,这种突破是渗透性、普适性的技术,它实现了文理交叉,不仅能说话,而且会编码。安全公司Check Point Research警告称,ChatGPT生成代码提高工作效率的能力也给黑客打开了新世界的大门,让他们能够更为便捷地设计、编写和执行恶意代码。黑莓公司发布的一份报告调查了英国500名IT行业从业者对ChatGPT的看法,发现76%的人认为,外国已经在针对其他国家的网络战争中使用ChatGPT,48%的人认为,2023年将会出现有人恶意使用ChatGPT进行“成功”的网络攻击。黑客能够借助ChatGPT的自然语言和代码生成能力,快速设计和开发恶意代码,制作网络钓鱼电子邮件,其工作效率提升将改变网络攻防的强度和密度。 5) 辅助决策:ChatGPT军事应用可构造指挥控制(指控)领域一体化大模型,外军作战决策效率将大幅提升。基于Transformer的基础大模型不仅可以生成内容,还可以扩展到态势预测和行动控制等领域应用。2022年DeepMind推出的“通才(Gato)”就是基于统一Transformer架构的智能体,可执行600多种任务,包括操作真实机器人手臂叠块、玩游戏机等复杂任务。可以预见,构建指控领域一体化大模型,有望赋能态势认知、决策制定和行动控制等指挥任务。 6) 产业基础:ChatGPT军事应用可实现代码自动生成、修正与解答,使得外军智能化研发提速。在代码生成方面,能够根据自然语言描述自动生成具有指定功能的Java、Python、C和C++等多语种代码,如图6(b)所示,ChatGPT能够按照指定编程语言和功能要求生成代码,开发者可以直接使用或基于生成的代码修改,避免简单重复工作;在代码修正方面,可对常见语法和逻辑错误提出修改建议,提升了调试效率;在问题解答方面,可对遇到的问题提供解决思路,可应用于方案设计或技术研发。 在人类的军事史上,经历过强调能量的焦耳战和信息赋能的比特战,目前看来,未来极有可能进入以人工智能为战斗力衡量标准的智能战。ChatGPT引发人们对于人工智能已经出现奇点的讨论,一旦出现以ChatGPT或类似程序广泛应用为标志的网络战向智能化升级,人类战争维度也将进入新阶段。
4.2 军事安全领域应对策略
目前国内百度、字节跳动和网易等公司已有相关技术积累和布局,但从技术能力上,国内专家判断落后ChatGPT约2~3年。军工领域方面,虽然相关企业在自然语言处理技术方面有所积累,但相关模型和功能与业界相比差距较大。目前我国面临着多个方向的外部威胁,东海问题、台海问题、南海问题和中印边境问题都有可能引来美国的介入和捣乱。在和平时期,美国很有可能通过对华认知战、网络攻防战,影响我国的正常决策和行动。在战时,除了对我国合理、合法的军事行动进行抹黑外,还有可能通过制造大量的假信息,试图对我国的正常军事行动产生破坏和干扰。在存在技术代差的情况下,如何应对上述挑战是守卫国家军事安全的关键。 1) 加强反生成式AI技术研究,破除、营造“战场迷雾”。针对ChatGPT及类似模型生成的文本、图像和音视频等数据,研究机器生成内容检测方法,形成类似于DetectGPT(用于检测AI生成文本的GPT)的内容检测能力,用AI来反AI以破除敌方对我方的“战场迷雾”。同时,研究伪数据生成方法,通过与敌方AI交流,对其灌输大量干扰性、欺骗性信息,营造的“战场迷雾”达到一定数据规模时,能够实现为敌方AI“降智”的效果。 2) 加强网络信息安全防御体系,提高网络防御响应能力。针对ChatGPT及类似模型可能带来的高强度、高密度网络攻击,研究基于人工智能大数据分析的网络防御技术,提高网络攻击监测、处置等响应能力。一方面,可以使用硬件虚化、主成分分析和间隔采样,提高安全信息防御体系中数据采集、存储、传输和交互的速度以及数据有效性,提高系统的灵活性和反应速度,提升网络入侵者有所行动后防御体系的响应速度。另一方面,对网络入侵行为进行分类统计,筛选出不同类型及其典型案例,提取具有较高普适性的特征来识别网络入侵行为,在具备很好响应速度的同时,确保监控到入侵行为。结合监测模块和响应模块,在监测到网络入侵的同时,快速定位病毒,根据病毒的危害程度给予用户更多的信息,进而能够根据现实情况适当地采取进一步措施,降低损失。 3) 加强军事智能辅助决策系统建设,提升战场决策效率。军事决策不仅考虑要素多,还需进行充分评估和大量计算,涉及复杂的专业知识以及严密的逻辑推理。目前ChatGPT及类似模型在专业性及推理方面还有明显不足,在辅助决策方面尚难以快速形成显著优势,我军应以军事需求为牵引,通过“先进技术+军事思维”联合打造专业、严谨、准确且高效的军事智能辅助决策系统,收集各级各类人员反馈意见,持续完善系统功能,提升系统先进性、实用性和稳定性。 4) 加强军事数据资源建设,夯实军事智能基础。海量训练数据是ChatGPT强大能力的底座之一,为了更好地加快军事智能化进程,应加快构建和完善军事专业数据资源,包括武器装备、战场环境、战法规则、编制体制、作战力量和情报信息等作战业务数据,以及标注数据、算法代码和智能模型等研发数据,对各类数据进行标准化管理,便于军事智能研发以及各类业务调用,为指挥员和AI辅助决策提供信息支撑,为军事智能研发提供相关成果支撑。
5、结束语
随着人工智能技术的不断突破,逐步引起了各国的重视,并进入国家战略规划。自然语言处理技术作为其中的重要分支,受限于其抽象性、歧义性等特征,研究难度极高;但ChatGPT问世以后,让大众看到了真正实现自然语言处理最终目标的希望,也就是让机器能够理解人类语言,用自然语言的方式与人类交流。本文简要总结了自然语言处理技术发展历程,追溯GPT家族模型发展历程,了解其网络结构设计特点,并重点解析了ChatGPT训练过程,这是其取得闪耀能力的关键。与传统大规模预训练语言模型、聊天机器人和任务定制模型等典型技术成果对比,评估了ChatGPT的优势,从算力、算法和算据3方面总结其劣势。根据ChatGPT具备的智能化能力,结合其自然流畅、多轮交互和泛化能力强的优势以及知识难以更新、专业领域能力欠缺等劣势,从军事应用场景出发,评估其对军事安全带来的挑战。最后,本文提出加强反生成式AI技术研究、加强网络信息安全防御体系、加强军事智能辅助决策系统建设以及加强军事数据资源建设的应对策略。ChatGPT和GPT-4.0的下一阶段甚至可能会朝向虚拟人的方向继续发展,目前我们面对的是新一轮的军事革命,军事安全面临严峻挑战,唯有加快军事智能发展步伐,才能在未来战争中制衡对手、战胜对手。
-
人工智能
+关注
关注
1791文章
46738浏览量
237315 -
语言模型
+关注
关注
0文章
502浏览量
10241 -
ChatGPT
+关注
关注
29文章
1547浏览量
7422
原文标题:ChatGPT技术及其对军事安全影响
文章出处:【微信号:AI智胜未来,微信公众号:AI智胜未来】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论