外观
Ollama
简介
Ollama 可以在电脑本地运行大模型。安装和运行这些模型会占用电脑资源,运行速度取决于所选模型和电脑硬件配置。通过 Ollama 进行翻译是离线且免费的。
运行 7B 模型至少需要 8GB 内存,运行 13B 模型至少需要 16GB 内存,运行 33B 模型至少需要 32GB 内存。
详情参考 这个链接。
安装
前往 Ollama 官网下载:https://ollama.com
下载模型
前往 模型列表 选择需要的模型。
打开终端下载模型,例如下载 llama3.2
sh
ollama pull llama3.2
使用 Ollama 进行翻译
在 Bob 的 偏好设置 > 服务 中,选中「文本翻译」,点击 +
号,选中「Ollama」添加服务。详细添加方法可查看 服务 页面。
然后在 Ollama 的设置中选中刚才下载的模型,例如 llama3.2
。
Bob 的 Ollama 「模型」选项只内置了部分模型,如果其中没有你使用的模型,就将「模型」选项选中「自定义模型」,然后在下方的「自定义模型」输入框输入对应的模型名称。