当前位置: 网站首页 >AI教程资讯 >正文

Qwen2.5-VL – 阿里通义千问开源的视觉语言模型

来源:爱论文 时间:2025-03-25 14:49:24

Qwen2.5-VL是什么

Qwen2.5-VL是阿里通义千问团队开源的旗舰视觉语言模型,具有3B、7B和72B三种不同规模。模型在视觉理解方面表现出色,能识别常见物体,分析图像中的文本、图表等元素。Qwen2.5-VL具备作为视觉Agent的能力,可以推理并动态使用工具,能初步操作电脑和手机。在视频处理上,能理解超过1小时的长视频,精准定位相关片段捕捉事件。模型支持发票、表单等数据的结构化输出。在性能测试中,Qwen2.5-VL-72B-Instruct在多个领域和任务中表现优异,在文档和图表理解方面优势明显。7B模型在多项任务中超越了GPT-4o-mini。

Qwen2.5-VL

Qwen2.5-VL的主要功能

视觉理解:能识别常见物体,如花、鸟、鱼和昆虫,能分析图像中的文本、图表、图标、图形和布局。视觉Agent能力:可以直接作为一个视觉Agent,推理并动态地使用工具,初步具备使用电脑和使用手机的能力。理解长视频和捕捉事件:能理解超过1小时的视频,精准定位相关视频片段来捕捉事件。视觉定位:可以通过生成bounding boxes或者points来准确定位图像中的物体,能为坐标和属性提供稳定的JSON输出。结构化输出:对于发票、表单、表格等数据,支持其内容的结构化输出。

Qwen2.5-VL的技术原理

模型结构:Qwen2.5-VL 延续了上一代 Qwen-VL 中 ViT 加 Qwen2 的串联结构,三个不同规模的模型都采用了 600M 规模大小的 ViT,支持图像和视频统一输入。使模型能更好地融合视觉和语言信息,提高对多模态数据的理解能力。多模态旋转位置编码(M-ROPE): Qwen2.5-VL 采用的 M-ROPE 将旋转位置编码分解成时间、空间(高度和宽度)三部分,使大规模语言模型能同时捕捉和整合一维文本、二维视觉和三维视频的位置信息,赋予了模型强大的多模态处理和推理能力。任意分辨率图像识别:Qwen2.5-VL 可以读懂不同分辨率和不同长宽比的图片,对图像的清晰度或大小能轻松识别。基于 naive dynamic resolution 支持,能将任意分辨率的图像映射成动态数量的视觉 token,保证了模型输入和图像信息的一致性。网络结构简化:与 Qwen2-VL 相比,Qwen2.5-VL 增强了模型对时间和空间尺度的感知能力,进一步简化了网络结构以提高模型效率。模型推理能力提升:Qwen2.5-VL 在多个权威测评中创造了同等规模开源模型的最佳成绩,在文档理解方面优势尤其明显。与 GPT-4O 和 Claude3.5-Sonnet 等闭源模型相比,Qwen2.5-VL 在大部分指标上都达到了最优。

Qwen2.5-VL的项目地址

项目官网:https://qwenlm.github.io/blog/qwen2.5-vlGitHub仓库:https://github.com/QwenLM/Qwen2.5-VLHuggingFace模型库:https://huggingface.co/collections/Qwen/qwen25-vl

Qwen2.5-VL的应用场景

文档理解:Qwen2.5-VL 在理解文档和图表方面具有优势,能作为视觉Agent进行操作,无需特定任务的微调。智能助手:模型可以作为智能助手,帮助用户完成各种任务,如预订机票、查询天气等。数据处理:Qwen2.5-VL 支持对发票、表单、表格等数据的结构化输出。设备操作:模型能操作手机、网络平台和电脑,为创建真正的视觉代理提供了有价值的参考点。物体定位:Qwen2.5-VL 可以通过生成 bounding boxes 或者 points 来准确定位图像中的物体,能为坐标和属性提供稳定的 JSON 输出。
上一篇:QVQ-72B-Preview – 阿里通义开源的多模态推理模型
相关资讯 更多+
  • Qwen2.5-VL – 阿里通义千问开源的视觉语言模型
    Qwen2.5-VL – 阿里通义千问开源的视觉语言模型

    Qwen2 5-VL是阿里通义千问团队开源的旗舰视觉语言模型,具有3B、7B和72B三种不同规模。模型在视觉理解方面表现出色,能识别常见物体,分析图像中的文本、图表等元素。Qwen2 5-VL具备作为视觉Agent的能力,可以推理并动态使用工具,能初步操作电脑和手机。

    AI教程资讯 2023-04-14

  • QVQ-72B-Preview – 阿里通义开源的多模态推理模型
    QVQ-72B-Preview – 阿里通义开源的多模态推理模型

    QVQ-72B-Preview 是阿里云通义千问团队开源的多模态推理模型,专注于提升视觉推理能力。模型在多个基准测试中表现出色,在多模态理解和推理任务上展现了强大的能力。

    AI教程资讯 2023-04-14

  • Qwen2.5-Max – 阿里通义千问推出的MoE模型
    Qwen2.5-Max – 阿里通义千问推出的MoE模型

    Qwen2 5-Max是阿里云推出的超大规模MoE(Mixture of Experts)模型,使用超过20万亿tokens的预训练数据。模型在多个基准测试中表现卓越,超越了DeepSeek V3、Llama-3 1-405B等领先模型。

    AI教程资讯 2023-04-14

  • MobileVD – 首个针对移动设备优化的视频扩散模型
    MobileVD – 首个针对移动设备优化的视频扩散模型

    MobileVD(Mobile Video Diffusion)是首个针对移动设备优化的视频扩散模型,Qualcomm AI Research团队开发。模型基于Stable Video Diffusion(SVD)的时空UNet架构,通过降低帧分辨率、引入多尺度时间表示以及采用两种新颖的剪枝方案来减少通道数和时间块数量,显著降低了内存和计算成本。

    AI教程资讯 2023-04-14

最新录入 更多+
确定