在 Mac(M1、M2 或 M3)上运行最新大语言模型 Llama 3 的分步指南

2024年 5月 6日 110.7k 0

Apple Silicon Mac 上的 Meta Llama 3

您是否正在寻找一种在基于 Apple Silicon 的 Mac 上运行最新 Meta Llama 3 的最简单方法?那么,来对地方了!

在 Mac(M1、M2 或 M3)上运行最新大语言模型 Llama 3 的分步指南-1

在本指南中,我将向您展示如何在本地运行此功能强大的语言模型,从而允许您利用自己计算机的资源来保护隐私和离线可用性。本教程将包括设置一个类似于 ChatGPT 的用户友好界面,所有这些都在您自己的计算机上完成。

我将保持行文简洁,并为您提供在本地运行它的步骤,包括使用 ChatGPT 等漂亮的 UI。

您需要什么:OllamaOllama 是一个专门设计的设置工具,用于在 macOS 上直接运行大型语言模型,如 Llama 3、Mistral 和 Gemma。您可以从下载 Ollama 开始。有关 Ollama 提供的更多详细信息,请查看 GitHub 存储库:https://github.com/ollama/ollama

在macOS上下载Ollama

设置完成后,可以在新的终端会话中运行以下命令,以查看它是否已设置并准备就绪

ollama -v

选择您的型号现在,根据您的 Mac 资源,您可以运行基本的 Meta Llama 3 8B 或 Meta Llama 3 70B,但请记住,您需要足够的内存才能在本地运行这些 LLM 模型。我用 M1 Max 64 GB RAM 测试了 Meta Llama 3 70B,性能相当不错。要运行Meta Llama 3 8B,基本上运行以下命令:(4.7 GB)

ollama run llama3:8b

或者对于 Meta Llama 3 70B,运行以下命令:(40 GB)

ollama run llama3:70b

下载需要一些时间才能完成,具体取决于您的联网速度。

设置用户界面完成上述步骤后,本地模型即可与 UI 交互。让我们设置 UI 并开始交互。要设置 UI,我们将使用 OpenWebUI (https://openwebui.com/)此设置需要 docker 才能轻松运行 OpenWebUI。

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

现在,您可以转到Web浏览器并打开 http://localhost:3000/

我们将看到以下屏幕:

在 Mac(M1、M2 或 M3)上运行最新大语言模型 Llama 3 的分步指南-2

您可以单击“注册”并创建一个帐户。不用担心,这将仅存储在您的本地,而不会访问互联网。

在 Mac(M1、M2 或 M3)上运行最新大语言模型 Llama 3 的分步指南-3

登录后,您会在下面看到一个熟悉的屏幕(如 ChatGPT)。

在 Mac(M1、M2 或 M3)上运行最新大语言模型 Llama 3 的分步指南-4

您现在可以从上面选择一个模型并开始测试 LLM 模型。

在我们目前的设置中,您不仅限于 Meta Llama 3,您几乎可以轻松使用任何其他开源 LLM 模型。

结论

完成设置后,您的 Apple Silicon Mac 现在是一个强大的中心,不仅可以运行 Meta Llama 3,还可以运行几乎所有可用的开源大型语言模型。

希望本指南对您有所帮助!请随时在下面的评论中分享您的经验或提出问题。请继续关注有关直接从本地计算机利用大数据和 AI 工具的更多提示~

作者:万能的大雄

参考:

https://itnext.io/step-by-step-guide-to-running-latest-llm-model-meta-llama-3-on-apple-silicon-macs-m1-m2-or-m3-b9424ada6840

相关文章

塑造我成为 CTO 之路的“秘诀”
“人工智能教母”的公司估值达 10 亿美金
教授吐槽:985 高校成高级蓝翔!研究生基本废了,只为房子、票子……
Windows 蓝屏中断提醒开发者:Rust 比 C/C++ 更好
Claude 3.5 Sonnet 在伽利略幻觉指数中名列前茅
上海新增 11 款已完成登记生成式 AI 服务

发布评论