当前位置: 网站首页 >AI教程资讯 >正文

InternVideo2.5 – 上海 AI Lab 联合南大、中科院开源的视频多模态大模型

来源:爱论文 时间:2025-03-20 14:00:26

InternVideo2.5是什么

InternVideo2.5是上海人工智能实验室联合南京大学、中科院深圳先进技术研究院共同开源的视频多模态大模型。在视频理解领域取得了显著进展,特别是在长视频处理和细粒度时空感知方面表现出色。模型能处理长达万帧的视频,视频处理长度较前代提升了6倍,可在长视频中精准定位目标帧,实现“大海捞针”式的检索。支持通用视频问答,完成目标跟踪、分割等专业视觉任务。

InternVideo2.5

InternVideo2.5的主要功能

超长视频处理:InternVideo2.5能处理长达万帧的视频,视频处理能力较前代提升了6倍(从3000帧提升到10000帧)。能在长视频中精准定位目标帧,实现“大海捞针”式的检索,显著提升了视频分析的效率。细粒度时空感知:模型能准确识别和定位视频中的物体、场景和动作,理解细微的时空关系。支持通用视频问答,完成目标跟踪、分割等专业视觉任务。可以在复杂场景下识别物体的运动轨迹和状态变化,为自动驾驶和监控安防等领域提供精准的视觉支持。多模态融合:InternVideo2.5将视觉感知和语言理解深度融合,能根据视频内容生成详细的描述和回答用户的问题。专业视觉任务支持:通过任务偏好优化(TPO),InternVideo2.5能处理多种专业视觉任务,如目标跟踪、分割、时间定位等。能根据任务需求动态调整模型的处理策略,在不同场景下提供最优的视觉分析能力。高效预训练与优化:InternVideo2.5采用渐进式多阶段训练方案,使用超过30万小时的视频语料进行预训练。提升模型的性能,降低了训练成本。

InternVideo2.5的技术原理

长时丰富上下文建模(LRC):LRC通过扩展模型的上下文长度和细节感知能力,使InternVideo2.5能处理长达万帧的视频。核心在于:视频长度自适应令牌表示:根据视频的长度和内容特征动态调整帧采样策略。例如,短序列(如秒级视频)采用密集采样(每秒15帧),长序列(如分钟或小时级视频)则采用稀疏采样(每秒1帧),确保在不同时间尺度上能有效捕捉运动信息。分层上下文压缩(HiCo):通过分层压缩机制,减少视频信号中的时空冗余,同时保留关键信息。具体包括:时空令牌合并:基于语义相似性进行令牌合并,非基于位置的简单池化操作。在保留细节的同时,显著减少了冗余信息。多模态上下文整合:在语言模型处理阶段,进一步整合压缩后的视觉令牌,确保视觉和语言信息的深度融合。任务偏好优化(TPO):TPO通过将细粒度视觉任务的标注信息转化为可微分的任务偏好,指导模型学习。使InternVideo2.5能处理多种专业视觉任务,如目标跟踪、分割、时间定位等。具体实现方式包括:任务特定组件集成:在模型中加入任务特定的组件(如时间头、掩码适配器等),并通过任务特定数据集进行训练。视觉概念预训练:使用大量图像和视频文本对进行预训练,进一步提升模型的视觉理解能力。渐进式多阶段训练方案:InternVideo2.5采用渐进式多阶段训练方案,逐步提升模型的性能:基础学习阶段:进行任务识别指令调整和视频语言对齐训练。细粒度感知训练阶段:通过集成任务特定组件和视觉概念预训练,增强视觉理解能力。综合优化阶段:在混合语料库上进行多任务训练和指令调整,优化所有模型组件。高效分布式系统:为了支持大规模视频数据的训练和测试,InternVideo2.5开发了基于多模态序列并行的分布式系统。系统结合了序列和张量分布式处理,以及动态数据打包技术,显著提高了训练效率。

InternVideo2.5的项目地址

Github仓库:https://github.com/OpenGVLab/InternVideo/tree/main/InternVideo2.5HuggingFace模型库:https://huggingface.co/OpenGVLab/InternVideo2_5arXiv技术论文:https://arxiv.org/pdf/2501.12386

InternVideo2.5的应用场景

视频内容理解和检索:InternVideo2.5能根据用户的文本查询快速找到相关的视频内容,支持复杂的视频检索任务。视频编辑和创作:InternVideo2.5能为视频编辑提供智能支持,例如自动生成视频的精彩片段、生成视频的字幕或解说词。可以根据用户的指令对视频进行剪辑和调整,提高视频创作的效率。监控安防:在监控安防领域,InternVideo2.5能实时分析监控视频,快速定位异常事件并发出警报。自动驾驶:InternVideo2.5能实时处理自动驾驶车辆的摄像头数据,准确识别道路标志、交通信号和障碍物。
上一篇:HumanDiT – 浙大联合字节推出的姿态引导人体视频生成框架
相关资讯 更多+
  • InternVideo2.5 – 上海 AI Lab 联合南大、中科院开源的视频多模态大模型
    InternVideo2.5 – 上海 AI Lab 联合南大、中科院开源的视频多模态大模型

    InternVideo2 5是上海人工智能实验室联合南京大学、中科院深圳先进技术研究院共同开源的视频多模态大模型。在视频理解领域取得了显著进展,特别是在长视频处理和细粒度时空感知方面表现出色。模型能处理长达万帧的视频,视频处理长度较前代提升了6倍,可在长视频中精准定位目标帧,实现“大海捞针”式的检索。

    AI教程资讯 2023-04-14

  • HumanDiT – 浙大联合字节推出的姿态引导人体视频生成框架
    HumanDiT – 浙大联合字节推出的姿态引导人体视频生成框架

    HumanDiT 是浙江大学和字节跳动联合提出的姿态引导的高保真人体视频生成框架。基于扩散变换器(Diffusion Transformer,DiT),能在大规模数据集上训练,生成具有精细身体渲染的长序列人体运动视频。

    AI教程资讯 2023-04-14

  • ProtGPS – 麻省理工学院等机构推出的蛋白质语言模型
    ProtGPS – 麻省理工学院等机构推出的蛋白质语言模型

    ProtGPS(Protein Localization Prediction Model)是麻省理工学院(MIT)和怀特黑德生物医学研究所推出的,基于深度学习的蛋白质语言模型,用在预测蛋白质在细胞内的亚细胞定位。ProtGPS基于分析蛋白质的氨基酸序列,用进化尺度的蛋白质变换器(Transformer)架构学习序列中的复杂模式和相互关系。

    AI教程资讯 2023-04-14

  • potpie.ai – AI代码库Agent构建平台,自动化代码分析、测试和开发任务
    potpie.ai – AI代码库Agent构建平台,自动化代码分析、测试和开发任务

    potpie ai 是开源平台,基于AI技术为代码库创建定制化的工程代理(Agents)。potpie ai基于构建代码库的知识图谱,深度理解代码组件之间的关系,实现自动化代码分析、测试和开发任务。potpie ai提供多种预构建的代理,例如调试代理、代码库问答代理、代码变更代理、集成测试代理、单元测试代理、低层次设计代理和代码生成代理等。

    AI教程资讯 2023-04-14

最新录入 更多+
确定