生成AIをもっとかしこく使う——プロンプト・RAG・エージェントの世界【機械学習入門⑨】

前回(機械学習入門⑧)は、生成AIの仕組み——言語モデルが「次の単語を予測する」という原理から、ChatGPTの誕生(RLHF)、拡散モデルによる画像生成まで——を整理した。

今回は「どう使うか」の話だ。MBA講座では、生成AIをパワーアップする方法として①プロンプトエンジニアリング、②RAG、③外部ツール連携(MCP)、④エージェントという4つの軸が整理されていた。そして最後に「生成AIで競合に対してどう優位性を作るか」という思考実験が行われた。

プロンプトには「バタフライ効果」がある

まず衝撃的だったのが「プロンプトのバタフライ効果」という研究の紹介だ。

プロンプトのわずかな変化——「チップをあげると書く」「出力フォーマットを変える」「ちょっとした言い回しを変える」——が、モデルの回答精度に大きく影響することが実験で示されている。蝶の羽ばたきが嵐を引き起こすように、小さな入力の差がアウトプットを変えてしまう。

つまり、同じLLMを使っていても、プロンプトの質がアウトプットの質を決める。ツールの差より使い手の差の方が大きいかもしれない、ということだ。

RICEフレームワーク:プロンプトの構造を整える

では、良いプロンプトをどう書くか。講座で紹介されたのがRICEフレームワークだ。

  • R(Role):AIに担ってほしい役割を指定する。「あなたは世界クラスのポッドキャストプロデューサーです」
  • I(Instruction):実行してほしい内容を明確に記述する。「魅力的なポッドキャスト討論のために最も興味深い内容を抽出してください」
  • C(Context):関連する背景や状況を提供する。「入力テキストは構造化されていない場合もあり、PDFやウェブページから取得されることもあります」
  • E(Examples):サンプルや希望フォーマットを示す。「各対話行は100文字以内」

これに加えて、フューショット(具体的な入出力例を2〜5個提示する)と、ゼロショット(例なしで指示のみ)の使い分けも重要だ。

CoT(思考の連鎖):「ステップバイステップで」が効く理由

特に印象的だったのがCoT(Chain-of-Thought:思考の連鎖)の話だ。

プロンプトに「段階的に考えましょう」という一文を加えるだけで、LLMの回答精度が上がることが研究で示されている(ゼロショットCoT)。理由は前回書いた仕組みと直結している——LLMは次の単語を予測するモデルなので、「途中の思考ステップ」をプロンプトで促すと、その推論の流れに乗ってより正確な答えに辿り着きやすくなる。

さらに、推論の過程を含む例を提示する「フューショットCoT」を使うと、複雑な問題での精度がさらに上がる。「答えだけ教えて」より「考え方ごと見せる」方が、モデルが問題のパターンを掴みやすいのだ。

RAG:LLMに「知識を追加する」仕組み

どれだけ良いLLMでも、学習データに含まれていない情報は答えられない。自社の社内規程、最新の製品情報、クローズドな業界データ——これらはLLMには存在しない。

これを解決するのがRAG(Retrieval Augmented Generation:検索拡張生成)だ。ユーザーの質問に対して、まず外部の知識ベースから関連情報を検索・取得し、それをプロンプトに追加してLLMに渡す。「プロンプト+知識」で、よりピンポイントな回答が得られる。

講座では、授業のシラバスをナレッジとして登録したRAGシステムに「次回の事前課題は?」と質問するデモが示された。ナレッジがないときは「情報がありません」と答えていたAIが、RAGを使うと正確に事前課題の内容を回答した。

マッキンゼーの調査(2024年)でも「LLMから得られる真の価値は、非構造化データを扱う能力から生まれる」と指摘されている。社内に眠っている非構造化データ(議事録、マニュアル、メール)をRAGで活用することが、企業における生成AI活用の大きな可能性だ。

MCP:外部ツール連携の「USB-C」

生成AIをさらに強化するのが外部ツールとの連携だ。従来はAPIで個別に実装が必要で、その都度カスタム実装や認証処理が発生していた。

これを標準化しようとしているのがMCP(Model Context Protocol)だ。「USB-Cのように、様々なAIシステムやツール・データソースと統一した方法で接続できる仕組み」と説明されていた。一つの接続で多様なツール・サービスに対応でき、動的な接続先の発見や双方向リアルタイム通信も可能になる。

Claudeをはじめとする主要LLMがMCPに対応しはじめており、Google検索、コード実行、カレンダー操作などを一つのインターフェースで組み合わせて使える環境が広がっている。私自身もこの記事を書くツールにMCPを活用しており、「そういうことか」と腑に落ちた瞬間だった。

エージェントの世界:「答える」から「やる」へ

そしてプロンプト・RAG・外部ツール連携の先にあるのがエージェントだ。

これまでのAIは「質問に答える」存在だった。エージェントは「目標を与えると、自ら計画を立ててタスクを自律的に遂行する」存在だ。チャットでの受け答えから、実際に作業をこなす(Doing Work)段階への進化と表現されていた。

孫正義の言葉として「年内に10億個のAIエージェント」という発言が引用された。単一のエージェントが動くだけでなく、専門性を持つ複数のエージェントが協業するマルチエージェントの世界も現実になりつつある。

Andrew Ngはこう言っている。「これはエージェントか、そうでないかを議論するより、自律性の度合いが異なるエージェントシステムと呼べばいい」——境界線を引くことより、自律性の度合いをどう設計するかが本質だということだ。

思考実験:生成AIで競合優位性をどう作るか

セッションの終盤、こんな問いが出た。「生成AIは誰でも使える。競合他社も使える。それでどう差をつけるか?」

裏返すと「競合に生成AIでどう攻略されたら窮地に立たされるか?」という問いでもある。

ツール自体は差別化にならない。差が生まれるのは、独自データ(RAGの素材)、ユースケースの設計力、そして素早い実装と改善のサイクルあたりではないか、というのが私なりの整理だ。「どのデータを持っているか」「どのプロセスに組み込むか」——ここが企業ごとに違い、そこに差が生まれる。

生成AIを使いこなすために必要なもの

講座の最後に、生成AIを活用するために「人に必要な能力」として講師の私見がまとめられていた。

「結局、何を入力するかの勝負。一発回答ではなく、判断と対話が必要。」

LLMは巨大な確率計算機だ。何を入れるか、どう問うか、どう対話を重ねるか——その質を決めるのは知識 × 思考力 × コミュニケーション能力だと整理されていた。AIが賢くなればなるほど、「何を聞くか」「何を判断するか」という人間側の能力が問われてくる。

エリック・シュミット(元Google CEO)はTEDでこう言っている。「これは短距離走ではなくマラソンだ。毎日波に乗れ。このテクノロジーを使っていなければ、使っている人と比較してあなたの存在価値がなくなる。」

IT業界に1997年からいる身として、この言葉は他人事ではない。生成AIは「使うかどうか」の時代はもう終わっている。「どう使うか」「どう判断するか」——その差が、じわじわと積み重なっていく時代が来たと感じている。

機械学習入門⑩ MBAでAI&データサイエンスを6回学んで分かったこと

学びを深めるのにおすすめの本

①プロンプトエンジニアリングを体系的に学ぶなら

②生成AIのビジネス戦略・競合優位性を考えるなら

広告