DeepSeek-Coder-V2 是由DeepSeek推出的开源代码语言模型,在代码特定任务中的表现与 GPT4-Turbo 相媲美。模型在 DeepSeek-V2 的基础上,额外预训练了 6 万亿个 tokens 来增强其编码和数学推理能力,保持了在一般语言任务上的性能。DeepSeek-Coder-V2 支持的编程语言从 86 种扩展到 338 种,上下文长度也从 16K 扩展到 128K。DeepSeek-Coder-V2 在 Aider LLM 排行榜上排名第二,击败了DeepSeek V2.5,显示出在编码和数学任务上的卓越性能。


全部评论
留言在赶来的路上...
发表评论