mac arm64 使用 gpu 构建 llama

2023年 8月 13日 76.1k 0

本地 pc 跑大模型

git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp


# 如果要使用 gpu 计算 (gpu 硬件卸载(cpu)计算开销)
LLAMA_METAL=1 make


# -ngl 1 表示使用 gpu
./main -m ./models/7B/ggml-model-q4_0.bin -n 128 -ngl 1

当然 你也可以在没有 GPU 的 linux上跑,或者 windows, 甚至可以分布式的在多个机器上跑

参考: github.com/ggerganov/l…

相关文章

服务器端口转发,带你了解服务器端口转发
服务器开放端口,服务器开放端口的步骤
产品推荐:7月受欢迎AI容器镜像来了,有Qwen系列大模型镜像
如何使用 WinGet 下载 Microsoft Store 应用
百度搜索:蓝易云 – 熟悉ubuntu apt-get命令详解
百度搜索:蓝易云 – 域名解析成功但ping不通解决方案

发布评论