苹果今天发布了几个开源的大型语言模型(LLM),它们被设计为在设备上运行,而不是通过云服务器运行。名为OpenELM(开源高效语言模型)的LLMS可以在Hugging Face Hub获得,这是一个分享人工智能代码的社区。
正如一份白皮书中所概述的,总共有八个OpenELM模型,其中四个使用CoreNet库进行了预培训,以及四个经过指令调整的模型。苹果采用分层缩放策略,旨在提高精确度和效率。
苹果提供了代码、训练日志和多个版本,而不仅仅是最终训练的模型,该项目背后的研究人员希望它能在自然语言AI领域带来更快的进展和更值得信赖的结果。
苹果公司表示,它将发布OpenELM模型,以用最先进的语言模型“增强和丰富开放研究社区”。共享开源模型为研究人员提供了一种调查风险、数据和模型偏差的方法。开发人员和公司能够按原样使用模型或进行修改。