GPUなしで動く!1GB小型LLM「LFM 2.5」の導入方法と実力検証

2026/01/21追記あり:LM Studioから直接モデルのダウンロードができる様になりました。 2026/01/21追記あり:N100CPUでの動作スピードを追記(約8tokens/s)。

最近、ローカルLLMを動かすためのGPUやメモリの価格が高騰していて、「新しくPC環境を揃えるのはちょっと厳しいな…」と感じることが増えました。「大きいモデルを動かすには、それなりのスペックが必要」という前提でやってきましたが、そろそろ別の戦略を考える必要がありそうです🤔

そんな中、最近よく耳にするようになったのが SLM(Small Language Model) という言葉です。小型だけど実用的なモデルが少しずつ増えてきていますね。今どんな感じなのか気になって情報を探していたところ、面白いモデルを見つけました。

Liquid AI が公開した 「LFM 2.5(Liquid Foundation Model 2.5)」 です。

www.liquid.ai

このモデル、何がすごいかというとファイルサイズが 約1GB 程度なんです。それでいて、GPT-3.5の初期状態に近い性能があるというのです。「これは試したい!🤩」と思いました。

最終的に個人的な興味としては、Raspberry Piなどのエッジデバイスで実用的に動くのか? という点です。今回はそこまでいけないのですが、今後は動作検証もしてみたいと思っています。

GPU非搭載のPCでの実際の使用感、「日本語モデル vs 汎用モデル」の比較まで試してみます。


LFM 2.5ってどんなモデル?

Transformerじゃない独自アーキテクチャ

現在主流のLLMはほとんどTransformerアーキテクチャを採用していますが、Liquid AIは LFMs(Liquid Foundation Models) と呼ばれる、力学系理論に基づいた独自のアーキテクチャを採用しているそうです。 正直、理解できているわけではないんですが、結果としてメモリ消費を劇的に抑えつつ、推論速度を向上させることに成功しているとのこと。

モデルサイズ小ささ

項目
パラメータ数 1.2B(12億)
通常ファイルサイズ 約1.25GB
量子化(4bit)サイズ 約731MB

7Bパラメータのモデルを動かすのに苦労していたのが嘘のような軽さです。4bit量子化モデルなら、8GBメモリ搭載の普通のノートPCで余裕でも動作します。


思ったより簡単な導入方法

LM Studioで試しました。高価なGPUは不要で、Intel N100搭載のミニPCでも実用的に動作するそうです。 私の環境では12世代のCorei7-1260P、32GBメモリで試しています。このスペックでも従来のモデルではかなり重たいのですが、LFM 2.5は軽快に動きました。

導入方法 Hugging Face → LM Studio(おすすめ)

LM Studioで検索すると leap-bundle というPythonツール経由のダウンロードを案内されますが、Hugging Faceから直接GGUFファイルをダウンロードする方が手軽です。

⚠️ Ollamaでの利用も試しましたが、コミュニティ版のsam860/lfm2.5:1.2b-Q8_0、公式GGUFをModelfile経由でインポートしても missing tensor 'output_norm' エラーが発生しました。Ollama(llama.cpp)がLFM2.5の独自アーキテクチャ(lfm2)にまだ対応していないようです。 ⚠️ llama.cppのllama-serverでは動作するようですが、LM Studioの方が手軽なので今回はそちらを紹介します🙇

1. GGUFファイルをダウンロード

⚠️2026/01/21追記ありLM Studioから直接モデルのダウンロードができる様になりました🤩ウインドウ左にある🔍️アイコンからモデルを検索してダウンロードを行ってください。

Hugging FaceLiquidAI/LFM2.5-1.2B-Instruct-GGUFにアクセス 【Files】タブに遷移し、 LFM2.5-1.2B-Instruct-Q4_K_M.gguf(約731MB) をダウンロード

huggingface.co

👉️量子化の種類がいくつかありますが、Q4_K_M がサイズと品質のバランスが良いです。

2. LM Studioのmodelsフォルダに配置

Windowsであれば、C:\Users\<ユーザー名>\.lmstudio\models\ LM Studioの【My Models】からもディレクトリを開くことができます。 フォルダを作成して配置(例: LFM2.5-1.2B-Instruct-GGUF

3. LM Studioで読み込み

LM Studioを起動し、チャット画面でモデルを選択すれば会話開始

動作速度

私の環境では 秒間40トーク程度が出ています。N100のような低電力CPUでも 秒間7〜22トークン程度 出るそうなので、チャットボットとしてストレスなく使えますね。

👉️2026/01/21追記 CPU N100、12GBメモリのWindowsPCで動作させたところ、LM Studioでは8 tokens/sというスピードでした。


日本語モデル(JP)vs 汎用モデル(Instruct):どっちがいい?

LFM 2.5には日本語特化版(JP)汎用版(Instruct)の2つがありますがどちらを使えばいいのでしょうか?

結論:まずは「Instruct(汎用版)」がおすすめのようです。

LFM2.5-1.2B-Instruct(汎用版) LiquidAI/LFM2.5-1.2B-Instruct-GGUF

  • 日本語能力は驚くほど高い(文法的な破綻がなく、敬語も自然)
  • 論理的な破綻が少なく、指示に従う能力が高い

huggingface.co

LFM2.5-1.2B-JP(日本語特化版) LiquidAI/LFM2.5-1.2B-JP-GGUF

  • ベンチマーク上は汎用版より6%〜39%高いスコア
  • 特化させすぎた影響か「世界知識」や「論理的推論」が弱まっているという報告もあるそうです。

huggingface.co

実際に試した感覚でも、Instruct版の方で概ね問題ないように感じました。 まずはInstruct版で使ってみて、特定の日本語表現に違和感がある場合のみJP版を試すのが良さそうです。


エンジニア目線で検証してみた結果

エンジニアが実務で使いそうなシーンを想定してテストしてみました。

テスト1:技術ドキュメントの要約

質問: READMEやAPI仕様書を渡して「要点を箇条書きでまとめて」

今回は以前作成したhttps://github.com/ueponx/KaraageCatcher/blob/main/README.mdを渡して要約を依頼しました。

こんにちは!お問い合わせいただいた内容をもとに、ポイントを以下の通りまとめました。

---

### 🍗 **ゲーム概要**
- 唐揚げをキャッチしてハイスコアを目指す2Dアクションゲーム  
- 60秒以内にできるだけ多くの唐揚げをキャッチする  
- コンボシステムで得点が倍率アップ  

---

### 🎮 **操作方法**
- 左右キーやスペースで移動・ジャンプ  
- 特定のカラム(例:`column_name`)をフィルタリングしてプレイ  

---

### ✅ **特徴**
- レトロ風BGMと効果音  
- HTML5 Canvas描画  
- コンボシステムでのコンポーネント強化  

---

### 📄 **ファイル構成**
- `game/`ディレクトリ:ゲーム本体のHTMLファイル(例:`karaage-catch-game.html`)  
- `README.md`: ゲームの説明と操作方法を記載  

---

### ⚙️ **システム要件**
- ブラウザ:Chrome 90+
- 画面サイズ:最小800x600px  
- Python/サーバー:ローカルサーバー(推奨)  

---

ご希望の情報を整理しましたので、必要に応じてさらに詳しくお手伝いします!😊

結果は良好のようです。比較的短い公式ドキュメントを流し読みする前の「概要把握」には十分使えるレベルのようです。

テスト2:コーディング

質問: 「PythonCSVを読み込んで、特定のカラムでフィルタリングするスクリプトを書いて」

こんにちは!Pythonを使ってCSVファイルを読み込み、特定のカラムでフィルタリングするプログラムを作成します。以下が簡単な例です。

まず、必要なライブラリをインポートします:`pandas`と`csv`。これらを使うことで、CSVファイルの読み込みやデータ処理が簡単にできます。

python
---
import pandas as pd

# CSVファイルのパスを指定
file_path = 'your_file.csv'  # 実際のファイルパスに置き換えてください

# CSVファイルを読み込む
df = pd.read_csv(file_path)

# 特定のカラムをフィルタリングする(例:`column_name`)
filtered_df = df[df['column_name'] == 'desired_value']  # ここで具体的なカラム名と値を指定してください

# フィルタされたデータを表示
print(filtered_df)

---

### 必要な手順:
1. **pandasライブラリのインストール**: まだインストールされていない場合は、以下のコマンドでインストールします。
   bash
   ---
   pip install pandas
   ---

2. **ファイルパスの設定**: CSVファイルのパスを`file_path`に正しく入力してください。

### 例:
もしCSVファイルにカラム名が「Age」があり、特定の値(例えば25)でフィルタリングしたい場合は:

python
---
filtered_df = df[df['Age'] == 25]
print(filtered_df)
---

このコードは指定されたカラムの値に基づいてデータをフィルタリングします。具体的なカラム名や値に合わせて調整してください!

何か特定のCSVファイルやカラム名が決まっている場合、教えていただければより詳細な対応策を提供できます!😊

pandasを使った基本的なコードを生成。構文エラーもなく、そのまま動くコードが出てきました。複雑なシステム構築は厳しいですが、ちょっとしたスクリプトスニペット生成なら「オフラインで使えるコード補助ツール」として実用的です。

テスト3:自然言語からの意図解釈

質問: 「今から集中して作業したいから、いい感じにして」

ものすごく抽象度の高い質問もしてみましたがわりといい感じの回答が返ってきました。

了解しました!今すぐ集中して取り組みたいなら、心の準備をしましょう。

🎯 **今、集中すべきこと:**
- 目的を明確にする(何を達成したいか)
- 邪魔や気晴らしを取り除く(スマホの通知やSNSなど)
- 静かな環境に落ち着いて作業できる空間を作る
- どうしても気が散らない方法で準備する(例:水分補給、軽い運動)

👉 **集中力を高めるヒント**
- 一口の音を聞きながら作業(カーペットや音楽など)
- タイマーを使って作業と休憩を切り替える(ポモドーロテクニックもおすすめ)
- 目標が明確なら、一つのタスクに集中する

何か具体的な作業内容がある場合は、お知らせください。もっと個別にアドバイスできますよ!

エッジAI・IoTへの可能性

このモデルに一番期待しているのは、Raspberry Piで実用的な日本語AIが動く」 という可能性です。

これまで、ラズパイで動くLLMといえば、非常に低精度なものか応答に数分かかるものばかりでした。しかし、LFM 2.5の軽量さを考えると、Raspberry Pi 5(8GBモデル) で十分に実用的な速度で動作する可能性があります。

考えられる活用例

  • 完全オフラインの議事録要約機 - Whisperで文字起こし → LFM 2.5で要約。クラウドに出せない情報も安心
  • 賢いホームアシスタント - 曖昧な指示を解釈し、スマートホームバイスに指示をして家電を操作
  • 教育用ロボット - ネット環境のない場所でも子供の質問に答えるAIロボット

LFM 2.5には、Vision(画像認識)やAudio(音声)モデルもあり、同等のサイズ感です。 組み合わせれば「目と耳と口を持つ超小型AIエージェント」が、数千円〜数万円のハードウェアで作れる時代も近いのではないでしょうか🤩


おわりに

LFM 2.5のメリットはいかのような感じでしょうか。

  • 圧倒的な軽さ: 1GB以下で導入ハードルが極めて低い
  • 実用的な日本語能力: Instructモデルならビジネスメールや要約もこなせる
  • 環境を選ばない: ノートPC、ミニPC、将来的にはスマホやラズパイでも
  • 完全ローカル: プライバシー保護、通信費ゼロ

欠点としては、やはり 大規模モデルと比べると精度が劣る 点です。複雑な推論や高度な知識を要する質問には弱く、専門的な分野では誤情報を生成するリスクもあります。ただ、「ちょっとした相談相手」「文章の校正」「オフラインでのツール利用」といった用途であれば、LFM 2.5はかなりいい選択肢になると思います。

LFM 2.5を触ってみて感じたのは、2026年は LLM(大規模言語モデル)からSLM(小規模言語モデル)への流れ が加速しそうだな、ということです。

SLMが実用レベルになれば、スマートフォンやエッジデバイスでもAIが動く時代が本格的に来ます。AppleがGeminiの採用に舵を切ったのも、GoogleのSLM技術に需要があると見込んだからなのかな🤔とも思えますし、各社がこの領域に力を入れてくるのは間違いなさそうです。

クラウド前提の「大きいモデルが正義」という時代から、「手元で動く、プライバシーを守れる、通信費もかからない」という価値観へのシフト。個人的にはこの流れ、けっこうワクワクしています🤩

Ollamaに正式対応されれば、Raspberry Pi 5での動作検証あたりを試してみたいですね。


参考