使用 Ollama AI 在本地 Raspberry Pi 运行大语言模型

2024年 2月 16日 107.4k 0

在浏览 Reddit 网站时,我遇到了有关在 Raspberry Pi 上运行 LLM 的讨论。

于是我很想验证这个“说法”,所以我决定在我的 Raspberry Pi 4 上使用 Ollama 本地运行大语言模型。

现在让我在这篇简短的文章中与各位分享自己的实践。

本文假设您对人工智能、大语言模型和其他相关工具和术语有基本的了解。

在 Raspberry Pi 操作系统(和其他 Linux)上安装 Ollama

Ollama 的安装过程可谓非常轻松。

如果我们要在 Linux 上安装,必须获得它的官方安装脚本并运行它。以下是其官方网站上描述的安装方法。

可以手动下载它并阅读它的作用。如果您像我一样懒惰,请将它们组合在一个命令中,如下所示:

curl https://ollama.ai/install.sh | sh

探索不同的大语言模型

安装完成后,现在就可以在 Pi 上运行 LLM ,然后立即开始与 AI 聊天。

在我的实验中,我使用了tinyllama和phiLLM llava,您还可以尝试Ollama 库中提供的不同大型语言模型。

📋 您应该至少有 8 GB 可用于运行 7B 模型,16 GB 可以运行 13B 模型,32 GB 可以运行 33B 模型。

TinyLlama

让我们从TinyLlama开始,它基于 11 亿个参数,是第一次尝试本地语言模型的完美候选者。

要下载并运行 TinyLlama,需要输入以下命令:

ollama run tinyllama

下载语言模型需要几分钟的时间,下载完成后,您就可以开始与它聊天。

我向 AI 提出的问题是:

“div 标签在 html 中的用例是什么?”

下面是完整的答案以及完成它所需的时间:

真棒!谁会想到人工智能会在 Raspberry Pi 上运行得这么快?

phi

我们继续讨论一些更大的模型,例如phi,它是一个基于 2.7B 参数的语言模型。我认为 Raspberry Pi 也可以处理这个问题。

接下来安装并运行此模型,请键入以下命令:

ollama run phi

尝试问它一些问题。我提问道:“网络交换机和集线器有什么区别?”

下面是 phi 的完整答案以及其他详细信息:

llava

这是我测试过的最大的大语言模型,因为它自带有 7B 参数。我要求它描述图像而不是问简单的问题。

我使用的是 Raspberry Pi 4 的 4 GB 模型,我个人认为它不会像上面的语言模型那样工作得那么好。

不过,我们还是测试一下。要安装 llava请使用以下命令:

ollama run llava

下载这个模型需要一些时间,因为它的尺寸很大,接近 3.9 GB。

我将要求该模型描述存储在目录中的猫的图片:/media/hdd/shared/test.jpg。

但是我不得不中途终止该过程,因为回复时间太长(超过 30 分钟)。

但是,我们可以看到,响应非常准确,如果你有最新的 Raspberry Pi 5 和 8 GB RAM,你可以轻松运行 7B 参数语言模型。

结论

本文将 Raspberry Pi 5 的功能与 Ollama 相结合,为热衷于在本地运行开源语言模型的人奠定更坚实的基础。

无论您是努力突破紧凑计算界限的开发者,还是渴望探索语言处理领域的机关报爱好者,这种设置都提供了无限的机会。

欢迎在评论部分,发表您对 Ollama 的想法和实践经历。

相关文章

塑造我成为 CTO 之路的“秘诀”
“人工智能教母”的公司估值达 10 亿美金
教授吐槽:985 高校成高级蓝翔!研究生基本废了,只为房子、票子……
Windows 蓝屏中断提醒开发者:Rust 比 C/C++ 更好
Claude 3.5 Sonnet 在伽利略幻觉指数中名列前茅
上海新增 11 款已完成登记生成式 AI 服务

发布评论