OpenThinker-32B 是斯坦福、UC 伯克利、华盛顿大学等机构联合开发的开源推理模型,拥有 328 亿参数,支持 16,000 token 的上下文长度。模型仅使用 114k 数据样本进行训练,在多个基准测试中表现出色,优于 DeepSeek-R1-32B。关键在于数据规模化、严格验证和模型扩展。OpenThinker-32B 完全开源,包括模型权重、数据集、数据生成代码和训练代码,为 AI 社区提供了宝贵的资源。

(图片来源网络,侵删)

(图片来源网络,侵删)
OpenThinker-32B 是斯坦福、UC 伯克利、华盛顿大学等机构联合开发的开源推理模型,拥有 328 亿参数,支持 16,000 token 的上下文长度。模型仅使用 114k 数据样本进行训练,在多个基准测试中表现出色,优于 DeepSeek-R1-32B。关键在于数据规模化、严格验证和模型扩展。OpenThinker-32B 完全开源,包括模型权重、数据集、数据生成代码和训练代码,为 AI 社区提供了宝贵的资源。
全部评论
留言在赶来的路上...
发表评论