DeepCoder-14B-Preview – Agentica 联合 Together AI 开源的代码生成模型
来源:爱论文
时间:2025-04-14 15:25:31
DeepCoder-14B-Preview是什么
DeepCoder-14B-Preview 是 Agentica 和 Together AI 联合开源的大型代码生成模型,基于 Deepseek-R1-Distilled-Qwen-14B 微调而成。DeepCoder-14B-Preview基于分布式强化学习(RL)训练,在代码生成任务上表现出色,特别是在 LiveCodeBench 上达到 60.6% 的准确率,与 OpenAI 的 o3-mini 相当。模型开源了训练数据集、代码、训练日志和系统优化,推动强化学习(RL)在大型语言模型(LLM)中的应用,降低 RL 训练的门槛,促进社区发展。

DeepCoder-14B-Preview的主要功能
高质量代码生成:生成高质量、可运行的代码,适用于多种编程语言和场景。代码问题解决:解决复杂的编程问题,包括算法设计、数据结构优化等。代码补全与优化:提供代码补全功能,帮助开发者快速完成代码编写,优化现有代码提高效率。单元测试生成:自动生成单元测试代码,确保生成代码的准确性和可靠性。代码调试辅助:帮助开发者定位和修复代码中的错误,提高开发效率。跨平台适用性:支持多种编程环境和平台,具有广泛的适用性。
DeepCoder-14B-Preview的技术原理
基础模型:基于 Deepseek-R1-Distilled-Qwen-14B,一个经过蒸馏优化的 140 亿参数的预训练模型,具备强大的语言理解和生成能力。强化学习微调:基于分布式强化学习(RL)对基础模型进行微调。强化学习基于奖励机制引导模型生成更高质量的代码,确保代码的准确性和效率。高质量数据集:用经过严格筛选的 24K 个可验证编程问题进行训练,数据来源包括 TACO Verified、PrimeIntellect 的 SYNTHETIC-1 数据集及 LiveCodeBench 提交的问题。奖励函数设计:基于稀疏结果奖励模型(ORM),只有当生成的代码用所有采样单元测试时才给予奖励,避免模型用记忆测试用例获取奖励。上下文扩展技术:迭代上下文扩展技术,模型从较短的上下文长度开始学习,逐步泛化到更长的上下文,最终在 64K 上下文中达到 60.6% 的准确率。系统优化:引入 verl-pipeline,基于流水线技术加速训练过程,减少训练时间,提高训练效率。
DeepCoder-14B-Preview的项目地址
项目官网:https://pretty-radio-b75.notion.site/DeepCoder-A-Fully-Open-Source-14B-CoderHuggingFace模型库:https://huggingface.co/agentica-org/DeepCoder-14B-Preview
DeepCoder-14B-Preview的应用场景
代码生成与自动化编程:快速生成高质量代码,减少手动编写代码的时间和工作量,提高开发效率。适用于各种编程语言和框架,帮助开发者快速启动项目。算法竞赛与问题解决:在算法竞赛(如 Codeforces)中,帮助参赛者快速理解问题并生成高效的解决方案,提升竞赛表现。代码优化与重构:对现有代码进行优化和重构,提高代码的可读性、性能和可维护性。帮助开发者识别和修复潜在的代码问题。教育与学习辅助:作为编程教育工具,帮助学生理解和实践编程概念,提供代码示例和解决方案,辅助学习编程语言和算法。软件开发与测试:生成单元测试代码,确保软件质量;辅助开发过程中的代码调试,帮助开发者快速定位和解决问题,提升软件开发的整体效率。