畅言的个人网站 分享生活与技术

小手机服务器部署大语言模型(小模型)

termux环境下部署大语言模型测试了一下基本属于可用状态 在termux环境下 安装ollama服务 sudo snap install ollama 开启ollama服务 ollama serve 开启新的窗口拉模型,由于是小手机直接拉1.5b模型cpu硬算 ollama pull deepse

yanchang 发布于 2025-04-05