多智能体协同决策
核心技术
NashZero
面向决策智能的智能体分布式学习框架,集成多种SOTA多智能体算法(DQN、D4PG、DDPG、R2D3、QMIX等)的基础上,统一了深度强化学习算法开发范式和评估体系,并提供高效的分布式并行训练能力。
NashArena
面向博弈对抗的仿真内核,包括对抗引擎、地图引擎、对抗算子体系、态势体系、计算模型等,提供二次开发SDK,可以快速搭建不同场景的博弈对抗仿真环境。
NashStudio
提供仿真环境接入、智能体建模开发、训练发布、模拟对抗、复盘分析等全面的智能体研发、评估和服务能力。
产品优势
易用的智能体开发工具集
提供了一整套完整的智能体开发与应用管理工具体系,旨在降低智能体开发的门槛。Utenet-Nash框架内置不同场景下丰富的智能体开发算法模板。借助平台模板,可以实现低代码甚至零代码开发。用户在新建项目时选择该模板,模板已提供好智能体代码和各配置信息,直接进行训练即可
易用的智能体开发工具集
提供了一整套完整的智能体开发与应用管理工具体系,旨在降低智能体开发的门槛。Utenet-Nash框架内置不同场景下丰富的智能体开发算法模板。借助平台模板,可以实现低代码甚至零代码开发。用户在新建项目时选择该模板,模板已提供好智能体代码和各配置信息,直接进行训练即可
丰富的自定义演算训练环境集成
通过仿真环境管理的适配模块,能够快速接入到不同的仿真环境,满足不同环境下智能体训练的需求,减少用户搭建部署复杂环境的成本。此外,用户也可以在系统提供的基础仿真环境上进行细致的配置,可支持仿真场景和规模自定义,智能体数量和种类自定义,智能体特征和属性自定义,智能体行为回报规则和回报值自定义等,满足不同场景下的开发需求
丰富的自定义演算训练环境集成
通过仿真环境管理的适配模块,能够快速接入到不同的仿真环境,满足不同环境下智能体训练的需求,减少用户搭建部署复杂环境的成本。此外,用户也可以在系统提供的基础仿真环境上进行细致的配置,可支持仿真场景和规模自定义,智能体数量和种类自定义,智能体特征和属性自定义,智能体行为回报规则和回报值自定义等,满足不同场景下的开发需求
完备的智能体模型算法库
提供了丰富的多智能体模型算法库,包括算法库以及网络模型组件库。算法库包含了传统强化学习、深度强化学习及多智能体等算法。网络模型组件库包含多个粒度的网络结构组件,定义了丰富的网络组件结构和对应的通用连接。用户可调用模型算法库中的算法及网络模型,智能体通过算法库中的核心算法推算出对应的动作并执行,从而与仿真场景产生交互,得到环境观测值并计算出回报,并不断进行迭代训练
完备的智能体模型算法库
提供了丰富的多智能体模型算法库,包括算法库以及网络模型组件库。算法库包含了传统强化学习、深度强化学习及多智能体等算法。网络模型组件库包含多个粒度的网络结构组件,定义了丰富的网络组件结构和对应的通用连接。用户可调用模型算法库中的算法及网络模型,智能体通过算法库中的核心算法推算出对应的动作并执行,从而与仿真场景产生交互,得到环境观测值并计算出回报,并不断进行迭代训练
方便的先验策略嵌入设计
框架环境模块集成自定义先验策略(知识图谱等)嵌入接口,通过该方式让智能体拥有对应操作环境的先验知识,可以极大缩短训练时间,提高多智能体的策略学习效率,提供高质量的辅助决策方案
方便的先验策略嵌入设计
框架环境模块集成自定义先验策略(知识图谱等)嵌入接口,通过该方式让智能体拥有对应操作环境的先验知识,可以极大缩短训练时间,提高多智能体的策略学习效率,提供高质量的辅助决策方案