MattelがGoogle BigQueryとGeminiを活用し、顧客フィードバック分析にかかる時間を1か月から1分に短縮した。年間の運用コスト削減額は約100万ドル(約1億4,000万円)にのぼる。

数千万件のレビューが1か月間「眠っていた」

バービーやホットウィールで知られるMattelは、Amazon・自社EC・SNSを通じて毎年数千万件規模の顧客フィードバックを受け取っている。玩具業界は季節性が高く、クリスマス商戦前後の数か月でトレンドが大きく動く。ところが分析には専任チームが1か月以上かかり、インサイトが出る頃には製品ラインの意思決定がすでに終わっていた。

データは豊富にある。なのに活かせていない。その矛盾をMattelは長年抱えてきた。

Google CloudのBigQueryにGeminiを接続する

2024年、MattelはGoogle CloudのBigQueryとVertex AI上でGeminiを統合した分析基盤を構築した。新しいインフラをゼロから作るのではなく、BigQueryにすでに蓄積されていたフィードバックデータをGeminiが解釈できる形に接続する設計を選んだ。

現場のマーケターや製品開発者はSQLの知識が不要だ。「この製品で最も多い不満は何か」「先月と比べてどう変化したか」を自然な言葉で入力するだけで、Geminiが感情分析・テーマ抽出・トレンド検出を即座に返す。データサイエンティストを介さず、意思決定者が直接データに触れられる。

1か月→1分、年間1.4億円削減

導入後の成果は明快だ。分析時間が約100倍に短縮され、製品改善サイクルが月単位から時間単位に変わった。年間運用コストは約100万ドル(約1億4,000万円)の削減を達成した。

速度の変化は意思決定の質にも波及した。シーズンをまたがずに消費者の声を製品改善に反映できるようになり、「トレンドに気づいてから対応策を打つまで」のタイムラグが根本的に縮まった。

うまくいった理由——現場が使える形にした

AI導入後に活用率が上がらず成果につながらないケースは多い。Mattelの場合、分析基盤を「専門家向けダッシュボード」ではなく「マーケターや製品チームが日常業務の中で使えるインターフェース」として設計したことが成功の核心だった。

既存のBigQueryインフラの上にGeminiを乗せるアプローチで導入コストも最小化した。データはすでにある。あとは「解釈する層」を追加するだけ——その発想が投資対効果を高めた。General MillsがGoogle Vertex AIでサプライチェーンを刷新した事例でも、既存データ資産を活かすアプローチで年間30億円規模の削減を達成しており、Vertex AIの活用パターンとして共通する部分が多い。

自社で試すとしたら

顧客フィードバックをどこかに貯めているなら、それは今すぐ活用できる資産だ。Mattelほどの規模でなくても、Google SheetsやBigQueryに蓄積したデータにGemini APIを組み合わせれば、同じ発想を小規模から試せる。

重要なのは、AIを「集計ツール」としてではなく「解釈エンジン」として使うこと。数を数えるのではなく、「なぜそう感じているか」「何が変化しているか」を読み取ることに特化させる。消費財に限らず、製品フィードバック・社内アンケート・サポートログなど、テキストデータがあれば同様のアプローチが有効だ。北欧のホテルチェーンがGoogle Cloud Vertex AIで社内エージェントを構築した事例のように、業種を超えて「現場が使えるAIの配備」という設計思想が成果を左右している。

ドリップドリップ(執筆)

「データは貯まっているのに活用できていない」——この課題を持っている企業は、思ったよりずっと多いと思います。

Mattelがすごいのは、新しいデータを集めようとしたのではなく、すでにあるデータを読み解く仕組みを先に作ったこと。それだけで1か月かかっていた分析が1分になった。

難しいことをする必要はないのかもしれない。持っているものをもう一度、AI越しに見直してみてください。

FREE DOWNLOAD

実務で使えるお役立ちコンテンツを無料で見る

無料会員登録で、実務で使えるAIテンプレート・プロンプト・PDFを受け取れます。

全PDFにアクセスする(無料)

無料会員登録して受け取る