首页 行业信息库 前沿技术 详情

智谱开源发布新一代通用视觉语言模型GLM-4.1V-Thinking

发布日期:2025-07-03 10:00:31 浏览次数:29 关键字:智谱 视觉语言模型

  7月2日,智谱开放平台产业生态大会在上海浦东张江科学会堂举办,开源发布新一代通用视觉语言模型GLM-4.1V-Thinking。
  在智谱开放平台产业生态大会上,智谱宣布浦东创投集团和张江集团对智谱总额10亿元的战略投资,并于近期完成首笔交割。同时,三方还启动了一项合作,共同建设人工智能新型基础设施。
  智谱正式发布并开源视觉语言大模型?GLM-4.1V-Thinking,这是一款支持图像、视频、文档等多模态输入的通用推理型大模型,专为复杂认知任务设计。
  它在GLM-4V架构基础上引入“思维链推理机制(Chain-of-Thought Reasoning)”,采用“课程采样强化学习策略(RLCS)”,系统性提升模型跨模态因果推理能力与稳定性。
  其轻量版GLM-4.1V-9B-Thinking模型参数控制在?10B?级别,在兼顾部署效率的同时实现性能突破。该模型在MMStar、MMMU-Pro、ChartQAPro、OSWorld?等?28?项权威评测中,有23项达成10B级模型的最佳成绩,其中18项更是持平或超越参数量高达72B的Qwen-2.5-VL,充分展现了小体积模型的极限性能潜力。
  据官方介绍,该模型特别在以下任务中表现卓越,展示出高度的通用性与稳健性:
  图文理解(Image General):精准识别并综合分析图像与文本信息;
  数学与科学推理(Math & Science):支持持复杂题解、多步演绎与公式理解;
  视频理解(Video):具备时序分析与事件逻辑建模能力;
  GUI与网页智能体任务(UI2Code、Agent):理解界面结构,辅助自动化操作;
  视觉锚定与实体定位(Grounding):语言与图像区域精准对齐,提升人机交互可控性。
  目前,GLM-4.1V-9B-Thinking已在Hugging Face与魔搭社区同步开源。包含两个模型,分别是?GLM-4.1V-9B-Base?基座模型,希望能够帮助更多研究者探索视觉语言模型的能力边界作;GLM-4.1V-9B-Thinking,具备深度思考和推理能力的模型,正常使用和体验,均为这一模型。

服务号
小程序
在线咨询
返回顶部