当前位置: 网站首页 >AI教程资讯 >正文

SmolDocling – 轻量级的多模态文档处理模型

来源:爱论文 时间:2025-04-21 11:31:48

SmolDocling是什么

SmolDocling(SmolDocling-256M-preview )是高效轻量级的多模态文档处理模型。能将文档图像端到端地转换为结构化文本,支持文本、公式、图表等多种元素识别,适用于学术论文、技术报告等多类型文档。模型参数量仅 256M,推理速度快,A100 GPU 上每页处理仅需 0.35 秒,与 Docling 完全兼容,可导出多种格式。

SmolDocling

SmolDocling的主要功能

多模态文档转换:能将图像文档高效转换为结构化文本,支持科学和非科学文档。快速推理:在 A100 GPU 上处理一页文档仅需 0.35 秒,使用不到 500MB 的显存。OCR 与布局识别:支持光学字符识别(OCR),保留文档结构和元素的边界框。复杂元素识别:能识别代码块、数学公式、图表、表格等复杂文档元素。与 Docling 无缝集成:支持将结果转换为多种格式(如 Markdown、HTML 等),兼容 Docling。指令支持:支持多种指令,如将页面转换为 Docling 格式、将图表转换为表格、将公式转换为 LaTeX 等。

SmolDocling的技术原理

轻量级设计:SmolDocling-256M-preview 是仅包含 256M 参数的视觉语言模型,专为文档光学字符识别(OCR)和转换而设计。能在消费级 GPU 上快速处理文档,使用不到 500MB 的显存,每页文档的处理时间仅需 0.35 秒。视觉骨干网络:模型采用了 SigLIP base patch-16/512 作为视觉骨干网络,网络参数量为 93M,能高效地处理图像输入。通过像素压缩技术,每个 512×512 的图像块被压缩为 64 个视觉标记,显著降低了计算资源需求。文本编码器:SmolDocling-256M-preview 使用 SmolLM-2 作为文本编码器,编码器参数量为 135M,能处理文本输入并与视觉信息进行融合。多模态融合与输出:模型能接收图像和文本的多模态输入,生成结构化的文本输出。支持多种文档处理功能,包括将文档图像转换为结构化文本、提取图表和表格信息、将数学公式转换为 LaTeX 格式等。优化的数据集与训练策略:SmolDocling-256M-preview 的训练数据集包括科学和非科学文档,文档理解占比达到 41%。训练过程中采用了更高的像素标记率(4096 像素/标记),相比之前的 1820 像素/标记,显著提升了效率。

SmolDocling的项目地址

HuggingFace模型库:https://huggingface.co/ds4sd/SmolDocling-256M-previewarXiv技术论文:https://arxiv.org/pdf/2503.11576

SmolDocling的应用场景

文档转换与数字化:SmolDocling-256M-preview 能高效地将图像形式的文档转换为结构化的文本格式,同时保留文档的原始布局和复杂元素(如代码块、数学公式、图表等)。支持多种输出格式,包括 Markdown、HTML 等,适用于文档的数字化处理。科学与非科学文档处理:能处理非科学内容(如商业文档、专利文件等)。识别和提取文档中的关键信息,如公式、图表和表格。快速 OCR 与布局识别:SmolDocling-256M-preview 提供高效的光学字符识别(OCR)功能,能从图像中准确提取文本,保留文档的结构和元素边界框。移动与低资源设备支持:SmolDocling-256M-preview 可以在移动设备或资源受限的环境中运行,例如智能手机或便携式计算机。
上一篇:GR00T N1 – 英伟达开源的人形机器人基础模型
相关资讯 更多+
  • SmolDocling – 轻量级的多模态文档处理模型
    SmolDocling – 轻量级的多模态文档处理模型

    SmolDocling(SmolDocling-256M-preview )是高效轻量级的多模态文档处理模型。能将文档图像端到端地转换为结构化文本,支持文本、公式、图表等多种元素识别,适用于学术论文、技术报告等多类型文档。

    AI教程资讯 2023-04-14

  • GR00T N1 – 英伟达开源的人形机器人基础模型
    GR00T N1 – 英伟达开源的人形机器人基础模型

    GR00T N1 是英伟达推出的全球首个开源基础模型,专为通用人形机器人设计。基于多模态输入(如语言和图像)实现多样化环境中的操作任务。GR00T N1 基于大规模人形机器人数据集训练,结合真实数据、合成数据和互联网视频数据,用后训练适应特定机器人形态、任务和环境。GR00T N1 基于双系统架构,视觉-语言模型负责推理和规划,扩散变换器则生成精确动作。

    AI教程资讯 2023-04-14

  • UniFluid – 谷歌联合麻省理工推出的多模态图像生成与理解框架
    UniFluid – 谷歌联合麻省理工推出的多模态图像生成与理解框架

    UniFluid 是谷歌 DeepMind 和麻省理工学院联合推出的,统一的自回归框架,用在联合视觉生成和理解任务。基于连续视觉标记处理多模态图像和文本输入,生成离散文本标记和连续图像标记。框架基于预训练的 Gemma 模型,用配对的图像-文本数据训练,让生成和理解任务相互促进。UniFluid 基于标准的 SentencePiece 作为文本标记器,用连续变分自编码器(VAE)作为图像生成的标记器,结合 SigLIP 图像编码器用在理解任务。

    AI教程资讯 2023-04-14

  • Multi-Speaker – AudioShake 推出的多说话人声分离模型
    Multi-Speaker – AudioShake 推出的多说话人声分离模型

    Multi-Speaker是AudioShake推出的全球首个高分辨率多说话人分离模型。支持将音频中的多个说话人精准分离到不同轨道,解决传统音频工具在处理重叠语音时的难题。Multi-Speaker适用于多种场景,先进神经架构支持高采样率,适合广播级音频,支持处理长达数小时的录音,在高重叠和低重叠场景,保持一致的分离效果,为音频编辑和创作带来革命性变革。

    AI教程资讯 2023-04-14

最新录入 更多+
确定