1ファイルマルチOS対応のローカルLLMのllamafileが0.5にバージョンUP。サーバ版とコマンドライン版が合体。Phi-2対応、FreeBSD ARM対応、AMD ROCm対応などなど。Windowsでも動く凄いやつ
llamafile-0.5にアップデートして色々と使いやすくなりました。Windowsユーザーの方は実行ファイル1ファイル4GB制限がありますので、本体とGGUFファイルは別にダウンロードして実行すると良いです。
- kapper1224
- 1017
- 5
- 0
- 6
Kapper@Linuxガジェヲタ&異世界小説家&電子工作大好き
@kapper1224
いつの間にかllamafileが0.5にアップデート FreeBSD ARM対応 Phi-2対応 AMD GPU in Windows対応 llamafile-serverがllamafileの中へ合体 などなど 本家llama.cppに追いつていないけど正直メンテ出来るんかいな??? github.com/Mozilla-Ocho/l… pic.twitter.com/OCHNsrrzrK
2024-01-06 18:27:23
拡大
Kapper@Linuxガジェヲタ&異世界小説家&電子工作大好き
@kapper1224
llamafile-0.5はオプション無しだと自動的にサーバ版がブラウザ起動します -pオプションを付けて、質問文を追加するとコマンドラインモードになりました 他にも--serverオプションでサーバ版を指定したり--cliオプションでコマンド版を指定 他にはGPUや--loraでLoRa学習ファイルを使用 詳しくは-hで
2024-01-06 19:33:38
Kapper@Linuxガジェヲタ&異世界小説家&電子工作大好き
@kapper1224
ちなみにWindowsには1実行ファイル最大4GB制限があるのでご注意を。なので本体ファイルだけダウンロードして、モデルは別ファイルにする方が良い
2024-01-06 19:39:11
Kapper@Linuxガジェヲタ&異世界小説家&電子工作大好き
@kapper1224
llamafileのGitのreleasesに本体ファイルがある。 モデルは好きなのをhuggingface.coからggufファイルをダウンロード Linuxはchmod +x Windowsはファイル名を変更で.exeを追加 huggingface.co/TheBloke github.com/Mozilla-Ocho/l…
2024-01-06 19:35:48