OLMo(Open Language Model)是由Allen AI(AI2,艾伦人工智能研究所)开发的一个完全开源开放的大型语言模型(LLM)框架,设计初衷是为了通过开放研究,促进学术界和研究人员共同研究语言模型的科学。OLMo框架提供了一系列的资源,包括数据、训练代码、模型权重以及评估工具,以便研究人员能够更深入地理解和改进语言模型。

据OLMo的论文报告,OLMo-7B模型在零样本(zero-shot)评估中的表现与其他几个模型进行了对比,这些模型包括Falcon-7B、LLaMA-7B、MPT-7B、Pythia-6.9B、RPJ-INCITE-7B和LLaMA-7B。

以下是OLMo-7B在一些核心任务上的比较结果:

OLMo – 艾伦AI研究所开源的完全开放的大语言模型框架  第1张
(图片来源网络,侵删)
OLMo – 艾伦AI研究所开源的完全开放的大语言模型框架  第2张
(图片来源网络,侵删)