就在 DeepSeek-V3 更新的同一夜,阿里通义千问 Qwen 又双叒叕一次梦幻联动了 —— 发布了 Qwen2.5-VL-32B-Instruct。此前,开源家族视觉语言模型 Qwen2.5-VL 包括 3B、7B 和 72B 三种尺寸。这一次的 32B 版本进一步兼顾尺寸和性能,可在本地运行,同时经过强化学习优化,在多个方面表现出色。
Qwen2.5-VL-32B-Instruct 在三个方面改进显著:
- 回答更符合人类偏好:通过强化学习,模型的回答更加贴合人类的需求和偏好。
- 更强的数学推理能力:在数学推理任务中表现出更高的准确性和效率。
- 图像解析与视觉逻辑推导:在图像解析、内容识别以及视觉逻辑推导等任务中,表现出更强的准确性和细粒度分析能力。
对比近期开源的 Mistral-Small-3.1-24B、Gemma-3-27B-IT 等,Qwen2.5-VL-32B 在纯文本能力上也达到了同规模的 SOTA(最先进)表现。在多个基准上,Qwen2.5-VL-32B 甚至超过了 72B,展示了其强大的性能和潜力。
阿里通义千问的 Qwen2.5-VL-32B-Instruct 通过梦幻联动,再次展示了其在视觉语言模型领域的领先地位。强化学习优化后的模型不仅在回答人类偏好、数学推理和图像解析等方面表现出色,还在纯文本能力上达到了顶尖水平。随着技术的不断发展,Qwen2.5-VL-32B 有望在更多应用场景中发挥重要作用。