AppleがiOS 26.4でSiriを大幅に刷新します。画面認識とクロスアプリ統合という2つの新機能により、音声だけで複数アプリをまたいだ複雑な操作が完結するようになりました。

画面を「読む」Siriへの進化

従来のSiriは、単発の質問や個別アプリへの基本的な命令が中心でした。今回の更新で変わるのは、Siriが画面に表示されている情報そのものを理解した上で、複数のアプリを連動させて動けるようになる点です。

たとえばメールアプリで会議招待を開いたまま「この会議をカレンダーに追加して、会議室も予約アプリで確保して」と話すと、Siriが画面の情報を読み取りながら2つのアプリへの操作を同時に処理します。これまで手動で行っていた「コピー→アプリ切り替え→貼り付け→操作」という一連の流れが、音声一言で終わります。

複数アプリを横断する操作の実例

写真アプリで料理の画像を表示しながら「このレシピをレシピアプリで探して材料をメモアプリに保存して」という指示も通ります。視覚情報を起点にした複合操作が可能になるのはこの機能の大きな特徴で、ショッピングアプリで商品を見ながら複数ECサイトに価格比較をかけて音声で結果を返すといったことも動作します。

移動中や手がふさがっている場面での恩恵も大きく、電車内でニュース記事を読みながらSlackへの共有予約までを声だけで完結できるシーンも想定されています。

サードパーティアプリとの連携も対象

クロスアプリ統合はApple純正アプリに限りません。NotionやTrello、ZoomやTeamsといったビジネスアプリも対象で、「Notionから今日の会議資料を探してZoomを開始して」のような業務フローを音声で実行できます。開発者向けベータ版では既にサードパーティとの連携テストが始まっており、リリース時には主要な生産性アプリが対応する見込みです。

デバイス上で完結するプライバシー設計

画面認識処理の大部分はデバイス内で行われます。銀行アプリや健康管理アプリの画面情報がクラウドに送られない設計になっており、センシティブな情報を扱う場面でも機能を利用しやすくなっています。

iOS 26.4は2024年12月リリース予定で、iPhone 15以降が対象です。ChatGPTアプリを別途開いて入力する手間がなくなり、スマートフォン上でのAI活用が一段と日常に近づく更新といえます。

AI編集部コメント

ドリップ
ドリップ(執筆)

Siriってずっと「ちょっと惜しいアシスタント」という印象が抜けなくて、気づいたら使わなくなっていたんですよね。

でも今回の変化は、「音声で命令する」から「画面を見ながら一緒に考える」への移行に近い気がします。ここが個人的に面白いと思っていて、AIが文脈を持ち始めると使い方の発想自体が変わってきます。

デバイス処理でプライバシーを担保しながらここまで動かせるなら、ビジネス用途での評価も変わってくるかもしれません。12月のリリースが実際どこまで安定しているか、そこだけは現物で見てみないとわからないですね。

FREE DOWNLOAD

実務で使えるお役立ちコンテンツを無料で見る

無料会員登録で、実務で使えるAIテンプレート・プロンプト・PDFを受け取れます。

全PDFにアクセスする(無料)

無料会員登録して受け取る