当前位置: 首页> 健康> 养生 > android手机上使用ollama快速验证大模型

android手机上使用ollama快速验证大模型

时间:2025/8/27 17:10:48来源:https://blog.csdn.net/yao_zhuang/article/details/140194073 浏览次数:0次

Android 手机上方便的测试各种模型的一个方法那就是配置ollama服务,借助ollama的能力下载不同的模型进行测试。
方法如下:

安装 Termux

可以直接从

https://github.com/termux

上面直接下载

更新和升级包

打开 Termux 并更新其包存储库,以确保您可以访问最新的软件版本:

pkg update
pkg upgrade
安装 Proot-Distro

Proot-Distro 允许您在 Termux 中运行不同的 Linux 发行版。使用以下方法进行安装:

pkg install proot-distro
pd install debian

有关更多详细信息,请访问 Proot-Distro GitHub 页面。

登录到 Linux 发行版

在本教程中,我们将使用 Debian。使用以下命令登录到您的 Debian 环境:

pd login debian
安装 Tmux

Tmux 是一个终端多路复用器,允许您同时运行多个终端会话:

apt update
apt upgrade
apt install tmux 
安装 Ollama

在 Debian 环境中,下载并安装 Ollama:

curl -fsSL https://ollama.com/install.sh |SH

此脚本安装 Ollama 及其依赖项。

创建新的 Tmux 会话

启动一个专门用于运行 Ollama 的新 tmux 会话:

tmux new -s llm
运行 Ollama 服务器

在 tmux 会话中,启动 Ollama 服务器:

ollama serve
在 Tmux 中创建新窗格

按 Ctrl+b+" 将当前窗口拆分为两个窗格。

Ctrl+b+" 
运行 Ollama 模型

在新窗格中,运行特定的 Ollama 模型。例如,要运行 Gemma 2B 模型:

ollama run qwen2:0.5b

根据您的设备,您还可以运行 phi3:

ollama run phi3
测试模型

模型运行后,您可以直接从终端与其交互。输入提示并观察模型的响应,有效地将您的 Android 设备用作强大的 AI 工具。
你也可以自己编写程序来访问localhost:11434 来调用这个ollama的服务。
相关视频可以参照:

android 手机上使用 ollama 运行小模型

关键字:android手机上使用ollama快速验证大模型

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

责任编辑: