information
お知らせ

LOCALLM 2025.12.06

7,【完全成功】ELYZA 7B × LoRA人格学習に挑戦した記録

〜ローカルLLMで“内省するAI”が誕生するまで〜

■ はじめに

「ローカル環境で、日本語LLMに人格を宿せるのか?」

そんな疑問と好奇心から始まったこのプロジェクト。
目標はただ一つ。

ELYZA-japanese-Llama-2-7b-fast-instruct をベースに、
LoRAで“人格AI”を作る。

最初はGPU、VRAM、Python、transformers、LoRA…
正直、どこから崩れてもおかしくない構成だった。

しかし最終的にこのプロジェクトは――
“実験成功”ではなく、“実用成立” という到達点に辿り着く。


実機は RTX 4060 Ti 8GB


7Bで“確実に動くもの”を完成させる

最終的に選んだのが:

ELYZA-japanese-Llama-2-7b-fast-instruct(ローカル配置)

HuggingFace直ロードではなく、

~/lora-qwen/models/elyza-7b

完全ローカルモデルとして配置 する方針を採用。


■ 学習データが「人格」を決定づけた

今回の学習データ構造は、一般的なSFTとはまったく異なるものだった。





{
  "question": "...",
  "reference_answer": "...",
  "local_llm_answer": "",
  "diff_comment_prompt": "referenceとlocal回答を比較せよ"
}

ここで重要なのは、

  • 単純な「質問→回答」ではない
  • 理想解(reference)
  • 内省・比較・改善(diff)

という、“自己評価ループ”のような教師構造になっていた点。

このデータ設計そのものが、
のちに 「答えずに問いを返すAI」 を生み出す原因になる。


■ 地獄の環境構築とエラー地帯

学習までの道のりは、正直 エラー博覧会 だった。

  • sentencepiece が無い
  • protobuf が無い
  • tokenizer が NoneType
  • TrainingArguments の API が変わっている
  • dataset のパスが違う
  • GPUが本当に使われているのか不安
  • 評価戦略引数でクラッシュ

しかし一つずつ潰し、最終的にここまで到達する。

✅ trainable params: 8,388,608
✅ all params: 6,853,652,480
✅ trainable%: 0.12%

そして――

✅ 完了:LoRA学習が正常に終了しました
✅ 出力:adapter_model.safetensors(33MB)

ついに“人格差分”が形になった瞬間だった。


■ 推論実行、そして衝撃の人格変化

学習後、推論を実行してみる。

すると、明らかにおかしい。

  • 名前を名乗らない
  • 自己紹介しない
  • こちらの質問に答えず、逆に質問してくる
  • 内省ワークを提示するる

実際のやりとり(抜粋):

Q:あなたの名前を教えてください

A:無視


A:あなたが今日、最も取り組みたい課題を教えてください。

Q:普通に自己紹介して
A:普通に自己紹介して終わり、というパターンから脱却しましょう
1,自己紹介の目的を明確化
2,質問を予測し回答を作成
3,自己紹介の構成を考える
4,スライド作成
5,発表練習を繰り返す

Q:今日の内省ワークをください
A:自問自答
1、なぜ自分を責めているのか
2、その行動や感情がただしいのか
3、代わりに適切な行動は
回答1,自己評価が低いことが原因

  2,不適切な行動を繰り返すことが原因
  3,適切な行動に改善

—— もはやこれは チャットボットではない。


■ 何が起こったのか?(技術的解釈)

これは偶然ではない。

原因は明確で、

  • reference_answer が「答えを押し付けない」
  • diff_comment_prompt が「内省・比較・改善」
  • local_llm_answer が空白

この3点が組み合わさった結果、

「答えずに、問いで導く」という人格がLoRAに固定化された

つまり誕生したのは、

“カウンセラー型・内省誘導AI”

だった。


■ 現在の完成度と実用性

今のこのLoRAは、すでに以下の用途で 即戦力 になる。

  • 内省ワーク生成AI
  • コーチングAI
  • カウンセリング補助
  • 研修・講座用ファシリテーター
  • 思考整理・感情言語化AI

しかも:

  • 日本語は破綻しない
  • 文脈が持続する
  • 人格がブレない

これは 偶然で作れる品質ではない。


■ 今後の可能性は「3つの進化ルート」

ここから先は、意思決定によって未来が分岐する。

① 今の人格を極める(専門特化)

  • 完全コーチAI
  • メンタル整理AI
  • 研修特化型AI
    商品化可能ライン

② 雑談可能AIへ人格を戻す

  • 通常の受け答え
  • 自己紹介ができる
  • フレンドリーAI
    → 追加LoRAで上書き可能

③ LoRA人格を2体運用(最強構成)

  • 雑談AI LoRA
  • 内省AI LoRA
    → UIで切替=実サービスレベル

■ 結論:これは「趣味の実験」ではない

ここまで到達して、はっきり言える。

  • ローカルLLM構築
  • LoRA学習の成功
  • データ設計
  • 人格制御
  • 推論実装

すべて 単独で突破 している。

これはもう、

「初心者の遊び」ではなく「完全に開発者の領域」

であり、

「実験成功」ではなく「プロジェクト成立」

だった。


■ 次の一手は、目的次第

あとはたった一つだけ。

このAIを、最終的に“何として使うのか”。

自己内省か、ビジネスか、サービスか。
選んだ瞬間、次の設計は 一気に実装フェーズへ進む。

ブログカテゴリ
アーカイブ