type
status
date
Feb 4, 2025 11:22 AM
slug
summary
tags
category
icon
password
在UserLAnd上部署Ollama并使用它来运行大语言模型,可以按照以下步骤进行。以下步骤假定您已经安装了UserLAnd并设置了一个Linux发行版(如Ubuntu)。如果您还没有安装UserLAnd,请从Google Play商店下载并安装。
一:环境准备
步骤 1:安装UserLAnd
1. 从Google Play商店下载UserLAnd。
2. 打开UserLAnd,选择您想要使用的Linux发行版(如Ubuntu)。
3. 设置用户凭据(用户名、密码等),并选择文件系统大小。具体根据实际情况来!


4. 一旦安装完成,连接到您的Linux环境,可以选择SSH或VNC进行连接。
步骤 2:更新软件包
在连接到您的Linux环境后,首先更新系统的软件包:
步骤 3:安装必要的依赖
Ollama通常需要一些依赖软件,您可以使用以下命令安装它们:
步骤 4:安装Ollama
1.使用curl下载并安装Ollama:
使用以下命令下载Ollama的安装脚本并运行:
注意:如果脚本显示需要超级用户权限,请使用
sudo
: 2.验证安装:
安装完成后,您可以运行以下命令来验证Ollama是否安装成功:
二:启动和运行
步骤 1:启动Ollama服务
在UserLAnd的Ubuntu环境中,您需要手动启动Ollama服务。请按照以下步骤操作:
- 打开一个终端会话,并确保您在UserLAnd的Ubuntu环境中。
- 运行Ollama服务,使用以下命令:
运行该命令后,您应该能够看到类似的信息,表示Ollama API已经启动并可以访问:
步骤 2:确认Ollama服务状态
- 确保Ollama服务正在运行:
在运行
ollama serve
后,保持这个终端窗口打开,以确保服务持续运行。
- 使用另一个终端检查服务: 打开一个新的终端窗口(在UserLAnd的SSH会话中),并使用以下命令确认Ollama API是否正在运行:
如果服务正常,您应该会看到Ollama的响应信息。
步骤 3:运行模型
- 确保Ollama服务运行后,运行LLama模型: 在第一个终端窗口(Ollama服务窗口)仍然运行的情况下,切换到您之前打开的新终端窗口,然后运行:
2.与模型进行交互:
一旦模型启动,您可以根据Ollama的文档进行交互,输入文本并获取模型的响应。
- 运行模型
- 列出计算机上的模型
- 列出当前加载的模型
- 停止当前正在运行的模型
- 删除模型
更多模型看这里➡️➡️➡️https://ollama.com/search
请注意模型对应的型号
您应该至少有 8 GB 的 RAM 来运行 7B 型号,16 GB 的 RAM 来运行 13B 的型号,32 GB 的 RAM 来运行 33B 型号。
排查其他问题
- 检查端口: 确保没有其他服务占用11434端口。您可以使用以下命令检查端口使用情况:
- 重新安装Ollama(可选): 如果上述步骤都没有解决问题,您可以尝试重新安装Ollama。确保使用最新的安装脚本:
总结
确保Ollama服务正在运行,并且在尝试运行模型之前,您已经在一个窗口中启动了该服务。
注意事项
- 性能:在Android设备上运行Ollama可能会受到性能限制,特别是对于大型模型。请确保您的设备有足够的资源。
- 您应该至少有 8 GB 的 RAM 来运行 7B 型号,16 GB 的 RAM 来运行 13B 的型号,32 GB 的 RAM 来运行 33B 型号。
- 网络连接:确保您的设备连接到网络,以便下载模型和更新软件。
- 支持:如果在使用Ollama时遇到任何问题,可以查阅Ollama的官方文档或社区支持。
这样,您就可以在UserLAnd上成功部署和使用Ollama!
- 作者:摄影人的世界
- 链接:https://www.longshao617.top/article/UserLAnd%EF%BC%8Dollama
- 声明:本文采用 CC BY-NC-SA 4.0 许可协议,转载请注明出处。