苹果将大语言模型部署到设备本地

2023年 12月 24日 25.1k 0

苹果研究团队在预印本平台 arxiv 发表论文《LLM in a flash》,介绍了一项全新的闪存技术,让苹果可以在其内存有限的设备上部署大语言模型。

论文地址:https://arxiv.org/pdf/2312.11514.pdf

研究团队表示,他们通过将模型参数存储在闪存 (Flash Memory) 中——也就是储存应用和照片的地方,解决了有效运行大语言模型容量的挑战。与传统用于运行大语言模型的 RAM 相比,闪存在移动设备中容量要大得多。

论文指出,这项技术可以让 AI 模型的运行规模达到 iPhone 可用内存的两倍。在这项技术的加持之下,LLM 的推理速度在 Apple M1 Max CPU 上提高了 4-5 倍,在 GPU 上提高了 20-25 倍。

延伸阅读

  • 苹果正在利用 LLM 彻底改造 Siri,将成为杀手级 AI 应用
  • 苹果将在 Xcode 中原生集成 AI 编码助手 —— 类似 GitHub Copilot

相关文章

塑造我成为 CTO 之路的“秘诀”
“人工智能教母”的公司估值达 10 亿美金
教授吐槽:985 高校成高级蓝翔!研究生基本废了,只为房子、票子……
Windows 蓝屏中断提醒开发者:Rust 比 C/C++ 更好
Claude 3.5 Sonnet 在伽利略幻觉指数中名列前茅
上海新增 11 款已完成登记生成式 AI 服务

发布评论