LOCALLM 2025.12.06

〜ローカルLLMで“内省するAI”が誕生するまで〜
「ローカル環境で、日本語LLMに人格を宿せるのか?」
そんな疑問と好奇心から始まったこのプロジェクト。
目標はただ一つ。
ELYZA-japanese-Llama-2-7b-fast-instruct をベースに、
LoRAで“人格AI”を作る。
最初はGPU、VRAM、Python、transformers、LoRA…
正直、どこから崩れてもおかしくない構成だった。
しかし最終的にこのプロジェクトは――
“実験成功”ではなく、“実用成立” という到達点に辿り着く。
実機は RTX 4060 Ti 8GB。
7Bで“確実に動くもの”を完成させる
最終的に選んだのが:
ELYZA-japanese-Llama-2-7b-fast-instruct(ローカル配置)
HuggingFace直ロードではなく、
~/lora-qwen/models/elyza-7b
に 完全ローカルモデルとして配置 する方針を採用。
今回の学習データ構造は、一般的なSFTとはまったく異なるものだった。
{
"question": "...",
"reference_answer": "...",
"local_llm_answer": "",
"diff_comment_prompt": "referenceとlocal回答を比較せよ"
}
ここで重要なのは、
という、“自己評価ループ”のような教師構造になっていた点。
このデータ設計そのものが、
のちに 「答えずに問いを返すAI」 を生み出す原因になる。
学習までの道のりは、正直 エラー博覧会 だった。
しかし一つずつ潰し、最終的にここまで到達する。
✅ trainable params: 8,388,608
✅ all params: 6,853,652,480
✅ trainable%: 0.12%
そして――
✅ 完了:LoRA学習が正常に終了しました
✅ 出力:adapter_model.safetensors(33MB)
ついに“人格差分”が形になった瞬間だった。
学習後、推論を実行してみる。
すると、明らかにおかしい。
実際のやりとり(抜粋):
Q:あなたの名前を教えてください
A:無視
A:あなたが今日、最も取り組みたい課題を教えてください。
Q:普通に自己紹介して
A:普通に自己紹介して終わり、というパターンから脱却しましょう
1,自己紹介の目的を明確化
2,質問を予測し回答を作成
3,自己紹介の構成を考える
4,スライド作成
5,発表練習を繰り返すQ:今日の内省ワークをください
A:自問自答
1、なぜ自分を責めているのか
2、その行動や感情がただしいのか
3、代わりに適切な行動は
回答1,自己評価が低いことが原因2,不適切な行動を繰り返すことが原因
3,適切な行動に改善
—— もはやこれは チャットボットではない。
これは偶然ではない。
原因は明確で、
この3点が組み合わさった結果、
「答えずに、問いで導く」という人格がLoRAに固定化された
つまり誕生したのは、
“カウンセラー型・内省誘導AI”
だった。
今のこのLoRAは、すでに以下の用途で 即戦力 になる。
しかも:
これは 偶然で作れる品質ではない。
ここから先は、意思決定によって未来が分岐する。
ここまで到達して、はっきり言える。
すべて 単独で突破 している。
これはもう、
「初心者の遊び」ではなく「完全に開発者の領域」
であり、
「実験成功」ではなく「プロジェクト成立」
だった。
あとはたった一つだけ。
このAIを、最終的に“何として使うのか”。
自己内省か、ビジネスか、サービスか。
選んだ瞬間、次の設計は 一気に実装フェーズへ進む。