最近、AIのことは一応触ってはいますが、ちっともわからない状況です🫠
先日までOllama
を使用していたのでローカルLLM
についてはなんとなく分かってきた様でもありという状況ですが、Ollama
はGGUF形式
のモデルが使えるとはいえ、すべてのモデルがGUFF形式
で公開されているというわけはありません。
リポジトリ内には拡張子が無いモデルのファイルがあって…これ何?
って感じです。なんとなく分かってきたのはHuggingFaceにで公開されているモデルはHF
って呼ばれるモデルのようですが…。どこかに名言されてるんでしょうか🙇
ということで、HuggingFaceに公開されているHFモデル
をなんとかしてOllama
でも使用可能なGGUF形式
に変換できないかという内容でチャレンジしてみたいと思います。
(2024.09.11)Ollamaに作成したGGUF形式のモデルをpullする方法のリンクを追記
- 動作の前提
- GGUF形式のモデルへの変換方法の調査
- llama.cppを使用するための準備
- llama.cppの取得とビルド
- llama.cppに含まれるPythonの実行ファイルのための準備
- llama.cppのビルド
- GGUFモデルへの変換
- (その1)GitのコマンドでのLLMモデルの取得(一般的な方法)
- (その2)LLMモデルの取得(専用スクリプトを使用する方法)
- ライブラリのインストール
- LLM取得アプリのソースコード
- GGUF形式のモデルへの変換
- 1. BFloat16のGGUF形式モデルに変換
- 2. Q4_K_Mに量子化
- 生成したGGUF形式のモデルをOllamaで使用してみる
- おわりに
- 追記
【参考】
tech.takuyakobayashi.jp
qiita.com
続きを読む