test2_商汤开源NEO多模态模型架构,实现视觉、语言深层统一_足球场围栏网

新浪科技讯 12月2日下午消息,商汤实现视觉深层商汤科技发布并开源了与南洋理工大学 S-Lab合作研发的开源全新多模态模型架构——NEO,宣布从底层原理出发打破传统“模块化”范式的模态模型足球场围栏网桎梏,通过核心架构层面的架构多模态深层融合,实现视觉和语言的商汤实现视觉深层深层统一,并在性能、开源效率和通用性上带来整体突破。模态模型
据悉,架构在架构创新的商汤实现视觉深层驱动下,NEO展现了极高的开源数据效率——仅需业界同等性能模型1/10的数据量(3.9亿图像文本示例),便能开发出顶尖的模态模型足球场围栏网视觉感知能力。无需依赖海量数据及额外视觉编码器,架构其简洁的商汤实现视觉深层架构便能在多项视觉理解任务中追平Qwen2-VL、InternVL3 等顶级模块化旗舰模型。开源
此外,模态模型NEO还具备性能卓越且均衡的优势,在MMMU、MMB、MMStar、SEED-I、POPE等多项公开权威评测中,NEO架构均斩获高分,优于其他原生VLM综合性能,真正实现了原生架构“精度无损”。
当前,业内主流的多模态模型大多遵循“视觉编码器+投影器+语言模型”的模块化范式。这种基于大语言模型(LLM)的扩展方式,虽然实现了图像输入的兼容,但本质上仍以语言为中心,图像与语言的融合仅停留在数据层面。这种“拼凑”式的设计不仅学习效率低下,更限制了模型在复杂多模态场景下(比如涉及图像细节捕捉或复杂空间结构理解)的处理能力。
而NEO架构则通过在注意力机制、位置编码和语义映射三个关键维度的底层创新,让模型天生具备了统一处理视觉与语言的能力。
具体而言,在原生图块嵌入(Native Patch Embedding)方面,这一架构摒弃了离散的图像tokenizer,通过独创的Patch Embedding Layer (PEL)自底向上构建从像素到词元的连续映射。这种设计能更精细地捕捉图像细节,从根本上突破了主流模型的图像建模瓶颈。
在原生多头注意力 (Native Multi-Head Attention)方面,针对不同模态特点,NEO在统一框架下实现了文本token的自回归注意力和视觉token的双向注意力并存。这种设计极大地提升了模型对空间结构关联的利用率,从而更好地支撑复杂的图文混合理解与推理。(文猛)
海量资讯、精准解读,尽在新浪财经APP 责任编辑:何俊熹
相关文章:
相关推荐:
- 华为聂奕:乾崑智驾累计辅助驾驶里程达95.6亿公里,活跃用户占比94.8%
- 滴滴自动驾驶宣布出海,首站落户中东阿布扎比
- 摩根大通:AI和半导体上升周期将延长至2027年,亚洲科技股在明年还有上涨空间
- 腾讯洪丹毅:跨境需求持续增长,腾讯保持开放做“连接器”
- 首部AIGC国宝文物科普少儿动画开播 芒果TV AIGC创新内容中心制作出品
- 苏宁易购双11:零售云销售同比增长48%
- 腾讯Q3财报:To B营收582亿元,同比增长10%
- 腾讯Q3财报:营收1928.7亿元,同比增长15%
- 博通确认将向Anthropic供应谷歌TPU芯片 提供英伟达技术的替代方案
- 腾讯Q3财报:To B营收582亿元,同比增长10%
