Skip to content

Ollama

简介

Ollama 可以在电脑本地运行大模型。安装和运行这些模型会占用电脑资源,运行速度取决于所选模型和电脑硬件配置。通过 Ollama 进行翻译是离线且免费的。

运行 7B 模型至少需要 8GB 内存,运行 13B 模型至少需要 16GB 内存,运行 33B 模型至少需要 32GB 内存。

详情参考 这个链接

安装

前往 Ollama 官网下载:https://ollama.com

下载模型

前往 模型列表 选择需要的模型。

打开终端下载模型,例如下载 llama3.2

sh
ollama pull llama3.2

使用 Ollama 进行翻译

在 Bob 的 偏好设置 > 服务 中,选中「文本翻译」,点击 + 号,选中「Ollama」添加服务。详细添加方法可查看 服务 页面。

然后在 Ollama 的设置中选中刚才下载的模型,例如 llama3.2

Bob 的 Ollama 「模型」选项只内置了部分模型,如果其中没有你使用的模型,就将「模型」选项选中「自定义模型」,然后在下方的「自定义模型」输入框输入对应的模型名称。