PettingLLMs框架在多任务场景下提升工具调用效率的示意图

2025年11月8日

47

523

LLM强化学习新框架!UCSD多智能体训练框架让LLM工具调用能力暴增5.8倍

UCSD团队发布了名为PettingLLMs的新框架,提出通过多智能体协同的“群体强化”训练,来强化大语言模型(LLM)在复杂任务中的工具调用与协作能力。这一方法借鉴多智能体强化学习的思想,让多个LLM智能体在同一环境中交互、协作与竞争,从而提升整体策略与决策质量。

PettingLLMs 框架简介

PettingLLMs将多个具备不同技能或视角的LLM智能体作为训练主体,通过设计任务场景、奖励机制和通信协议,让智能体在多步任务中相互配合或分工。框架关注不仅是单个模型的策略优化,还强调群体行为的 emergent 性与协同效率。

多智能体群体强化训练优势

研究结果表明,在多任务和动态环境下,群体强化训练能够显著提升模型的工具调用成功率与鲁棒性。UCSD的实验显示,经过PettingLLMs训练的智能体在工具调用任务上的效率相比单一训练方法提升了约5.8倍,这既来源于集体探索的多样性,也来自协作中信息共享的累积效应。

该框架支持多智能体协同,极大提升了LLM在多任务场景下的工具调用能力,效率提升至原有的5.8倍。

“小墨”

性能与应用场景

该框架不仅优化了推理阶段的策略选择,还能帮助LLM更好地适应复杂、跨系统的实际应用场景,如企业级自动化流程、复杂任务编排和多步骤决策支持。通过群体训练,系统在面对任务变化或外部干扰时展现出更高的稳定性与适应性。

企业落地前景与挑战

PettingLLMs为AI智能体在企业级自动化和复杂任务处理方向提供了技术基础,但在实际落地时仍面临算力成本、训练稳定性、奖励设计与安全控制等挑战。未来需要在MaaS、私有化部署与跨模型协同标准上进一步探索,以将研究成果转化为可运营的企业级解决方案。

如有侵权,请联系删除。

体验企业级AI服务

联系产品经理,扫描下方企业微信二维码

image
image

Related Articles

联系我们 预约演示
小墨 AI