Pelican-VL 模型在机器人场景中的应用示意图

2025年11月14日

64

742

北京人形开源最新VLM模型,推进具身智能再迈关键一步!

2025年11月,北京人形机器人创新中心发布了开源的Pelican-VL 1.0,覆盖从7B到72B参数规模,被称为目前最大规模的开源具身多模态大模型,旨在推动机器人在复杂环境中的感知与推理能力。

Pelican-VL 1.0 概述

Pelican-VL 1.0针对具身智能场景设计,融合视觉与语言信息,能够在多模态输入下进行理解与生成,支持机器人在感知、导航与任务推理中的端到端应用,为具身智能研究提供了开源基础模型。

模型规模与基准表现

模型覆盖7B至72B参数规模,开发者团队在多项公开基准上测试,宣称在若干任务上超越同类GPT-5模型约15.79%,相较Google Gemini系列提升约19%,体现了其在多模态理解与推理任务中的竞争力。

Pelican-VL 1.0致力于推动机器人具身智能发展,支持复杂场景理解与推理,为产业、学术及开源社区提供强大工具。

“小墨”

开放策略与社区价值

Pelican-VL以开源方式发布,提供训练权重与接口文档,便于学术、产业与开源社区复现与二次开发。开源策略有助于加速机器人具身智能算法迭代与下游任务适配。

产业与研究影响

该模型为机器人开发者提供了从感知到决策更完整的工具链基础,推动具身智能研究向更大规模、多模态与实际场景落地,同时可能促进产业在机器人自主感知、协作与智能化解决方案的快速发展。

如有侵权,请联系删除。

体验企业级AI服务

联系产品经理,扫描下方企业微信二维码

image
image

Related Articles

联系我们 预约演示
小墨 AI