JPMorgan Chaseが社内開発のLLMエージェント基盤「LLM Suite」を活用し、投資銀行向けプレゼン資料の作成時間を数時間から30秒以内に圧縮。450超のAIユースケースを本番環境で日次稼働させています。
優秀なアナリストの時間が「資料の下書き」に消えていた
投資銀行の現場では、ジュニアアナリストの稼働の大きな部分が定型的な作業に割かれています。クライアント向けプレゼン資料1本を仕上げるために、市場データの収集・整理、スライドの構成、数値の検証と更新が必要です。1本に数時間かかることは珍しくなく、その間シニアバンカーは差し戻しと修正待ちを繰り返していました。
もう一つの制約が「使えるAIの選択肢が限られる」という問題です。規制の厳しい金融業界では機密情報を外部サービスに送れません。汎用のAIツールをそのまま導入する選択肢は最初からなく、社内に専用基盤を作るしかありませんでした。
外部APIゼロ——社内LLM基盤「LLM Suite」に450本の業務アプリを展開
JPMorgan Chaseは外部APIに依存しない独自のLLMエージェント基盤「LLM Suite」を内製し、業務ごとに特化したアプリケーションを展開しています。2026年時点で450超のユースケースが本番環境で日次稼働中です。
投資銀行部門では資料の自動生成、法務・コンプライアンス部門では契約書の分析と要約、リサーチ部門では市場データの自動集約——それぞれ入力データと期待するアウトプットに合わせて設計されています。データが社内に留まる構造のため、外部規制とのバッティングなく、アジャイルに新しいユースケースを追加できます。
30秒・10万人——「PoC」を超えて全社インフラになった
最も端的な成果が「プレゼン資料30秒」です。ジュニアアナリストが数時間かけていたクライアント向け資料が、AIエージェントによって30秒以内に生成されます。シニアバンカーが修正指示にかける時間も減り、判断と顧客折衝に集中できる時間が増えています。
社員10万人以上がLLM Suiteを日常的に利用しており、2024年比でユースケース数は大幅に増加しています。「一部部署が試験的に使っている」段階はとうに終わり、全社インフラとして定着しています。AIエージェントを本番で安定稼働させるための考え方は別記事でも解説しています。
450本まで増やせた理由——内製基盤がPoC止まりを防ぐ
内製基盤を持つことの最大のメリットは、外部ベンダーへの依頼なしに業務部門のニーズを素早く形にできることです。「提案→設計→本番展開」のサイクルが速く回り続けたことが、450という数字の背景にあります。
金融機関のAI導入でよく聞く「データ送信リスクとのトレードオフ」「本番でのガバナンス不足」という課題を、設計段階でクリアしていたことが、スケールアップの前提条件になっています。
「規制が厳しいから無理」は言い訳にならなくなった
JPMorgan Chaseの事例は、規制産業での大規模AI展開が現実に可能であることを示すベンチマークです。参考になるのは展開の順序です——まず1業務で本番稼働させ、そこで得たガバナンス知見をもとに隣接業務へ横展開する。この積み上げが450という数字につながっています。
同じ金融業界での別アプローチとして、Hargreaves LansdownがCopilotで顧客対応文書を4時間から1時間に短縮した事例も参考になります。規制環境でのAI活用は、「できない理由」より「どう設計するか」の問いに変わっています。
FREE DOWNLOAD
実務で使えるお役立ちコンテンツを無料で見る
無料会員登録で、実務で使えるAIテンプレート・プロンプト・PDFを受け取れます。
全PDFにアクセスする(無料)
無料会員登録して受け取る
「規制があるから、AIはPoC止まりになる」——そう感じている金融・医療・公共系の担当者の方に、この事例は直接届くと思います。
JPMorganが示したのは「外部に送れないなら社内に作る」というシンプルな発想の徹底です。10万人が使う基盤を内製で作り上げたことが、450本という厚みにつながっています。
まず1業務だけ本番に持っていく——その最初の一歩の参考として、これ以上わかりやすい事例はないかもしれません。