Micro LLAMA是精简的教学版LLAMA 3模型实现,能帮助学习者理解大型语言模型架构。整个项目仅约180行代码,便于理解和学习。Micro LLAMA用的是LLAMA 3中最小的8B参数模型,模型本身需15GB存储空间,运行时约需30GB内存。代码默认在CPU上运行,需注意内存消耗。Micro LLAMA基于micro_llama.py文件提供模型代码,基于micro_llama.ipynb笔记本引导用户探索。Micro LLAMA适合对深度学习和模型架构感兴趣的研究者和学生。

Micro LLAMA – 教学版 3模型实现,用于学习大模型的核心原理  第1张
(图片来源网络,侵删)
Micro LLAMA – 教学版 3模型实现,用于学习大模型的核心原理  第2张
(图片来源网络,侵删)