対話型ローカル生成AIのOllamaをAndroidのTermux上で直接ビルドして高速省メモリ起動してみた。コピペでOK。簡単でモデルPhi3などなら日本語も使える。FreeBSDでも使える様になったらしい

TermuxのProotでDebianやUbuntu起動しない分だけ省メモリで高速です。最近のPhi3ならスマホでも結構使いやすいです。
5
Kapper@Linuxガジェヲタ&異世界小説家&生成AI&電子工作大好き @kapper1224

ollamaをTermux上でスマホにてGoでビルドすればUbuntuやDebianをprootしなくても動いた。簡単である。オススメ pic.twitter.com/jAQAmjjKai

2024-06-09 19:39:06
拡大
Kapper@Linuxガジェヲタ&異世界小説家&生成AI&電子工作大好き @kapper1224

Termuxを起動したら pkg upgrade pkg install git cmake golang git clone --depth 1 github.com/ollama/ollama.… cd ollama go generate ./... go build . ./ollama serve & ./ollama run phi3 なおTermux0.120では動かない様子

2024-06-09 20:32:34