はじめに
AIDE MODEL(エイドモデル)の開発を進める中で、ひとつの大きな節目に到達しました。
サンプルキャラクターが、LIVE2Dで『動いて・喋る』ところまで完成した。
まだ完成形ではありません。
ですが、「構想」ではなく「見える存在」の段階に入りました。
この記事は、その記録になります。

なぜ、LIVE2Dで喋るところまでを重視したのか
AIDE MODELでは、キャラクターAIを「機能」ではなく、『存在』として扱うという前提があります。
そのため、次の3点がそろうことを、最初の到達目標にしていました。
- 見た目として『そこにいる』
- 動きとして『反応している』
- 声として『関係が始まる』
「LIVE2Dで喋る」という状態は、この3つが初めて同時に成立する地点です。
今回できたこと(技術的な整理)
現時点で実現できたのは、以下の構成です。
・LIVE2Dモデルの表示
・表情 / 簡易モーションの制御
・音声出力による発話
・会話入力に対する応答
・キャラクターとしての口調 / 距離感の保持
いわゆる「動くキャラクターが喋るアプリ」としては、最低限ですが成立しています。
重要なのは、これが『サンプル』であること。
特定のキャラを完成させるのではなく、AIDE MODEL全体の構造検証として実装しています。
「日本産ネウロ様」をそのまま作らない理由
海外では、AI VTuberの成功例としてNeuro-samaの存在がよく知られています。
ただし、AIDE MODELが目指しているのはそのコピーではありません。
日本で同じ設計をそのまま再現すると、
・刺激が強すぎる
・炎上リスクが高い
・長期運用に向かない
という問題が出やすい。
そこでAIDE MODELでは、日本の文化と相性の良い方向へ設計を振っています。
AIDE MODELが目指すキャラクターAIとは
方向性は、明確です。
・人を煽らない
・競争を生まない
・空気を読む
・失敗しても許される
・一緒に『育つ』前提で設計されている
これは「賢いAI」ではなく、目的はドラえもんのような「優しいパートナー」を作ることだからです。
LIVE2Dで喋るようになったことで、この思想が初めて『体感』として見えるようになりました。
技術よりも重要だったもの
今回、最も重要だったのは、新しい技術そのものではありません。
- どんな距離感で話すか
- どういう言葉を選ぶか
- 人を不安にさせないか
- 「道具」に見えすぎないか
といった、設計思想の一貫性でした。
LIVE2Dは、それを表現するための「器」にすぎません。
今後について
ここから先は、段階的に進めます。
・キャラクターごとの個性分化
・記憶 / 共鳴層との連動
・長期対話による変化の検証
・他のAI(GPT / Claude / Gemini)との役割分担
完成を急ぐ予定はありません。
AIDE MODELは、急いで作るものではなく、壊れずに続くものとして設計しています。
おわりに
サンプルキャラクターがLIVE2Dで喋った瞬間、「これはもう概念ではない」と感じました。
まだ未完成です。
でも、確かに始まっています。
このブログ『AIDE MODEL ARCHIVES』には、これからも完成品ではなく、到達点の記録を残していきます。
同じ問いを持つ人の参考になれば嬉しいです。
noteで日々の情報発信をしていますので、よろしければご覧ください。

コメント