Google 今週、iOS App Store に無料のオフライン AI 講演/書き起こしアプリ「AI Edge Eloquent」をこっそりと上架しました。端末側で Gemma ASR モデルを採用し、音声は完全にデバイス外へ出ず、そして珍しく Android より先に iOS プラットフォームに登場しています。
(前情提要:Google が最も賢いオープンモデル Gemma 4 を発表!全面的に Apache 2.0 のライセンスに切り替え、性能は大規模なクローズド AI に迫る)
(背景補足:NVIDIA 独占を打ち破る?Google の地表最強 AI モデル「Gemma 3」は H100 を1基で、DeepSeek、OpenAI を撃破)
この記事の目次
Toggle
発表会もなく、公式の告知も一切ありません。それでも Google は今週、もう少し早い段階で「AI Edge Eloquent」を iOS App Store にこっそりと投入しました。完全無料のこの AI 書き起こしアプリは、主にオフラインの音声認識を売りにしており、背後で動いているのは Google 自社の端末側 ASR(自動音声認識)モデルです。すべての音声処理は端末内のローカルで行われ、ネット接続は不要です。
「AI Edge Eloquent」の操作ロジックは直感的です。アプリを開いてマイクに向かって話すと、画面に文字と音声波形がリアルタイムに表示されます。録音を停止すると、アプリは「ええ」「ああ」などの口癖のような間投句を自動でフィルタし、区切り(句切り)を修正して、話した内容をそのまま使えるきれいな文章に整理し、さらに自動的にクリップボードへコピーします。
プライバシー設計も、このアプリの主要なセールスポイントの1つです。完全オフラインのモードでは、音声データはユーザーの iPhone から外に出ず、いかなるサーバーにも送信されません。Google も「クラウドモード」のオプションを用意しています。音声認識は端末側で完了し、その後は元の音声データではなく、認識された文字(テキスト)だけを Gemini のクラウドモデルに送って、さらにクリーニングして精度を高めます。
一連のサービスはすべて完全無料で、サブスクリプション料も利用量の上限もありません。
同時にテクノロジーメディアは、珍しい現象に注目しています。Google の製品はほとんどが Android で先にリリースされており、特に端末側 AI の機能に関しては、通常 Pixel デバイスと Gemini Nano モデルを優先して展開します。今回の「AI Edge Eloquent」は逆を行っており、App Store の説明文には、Android 版がまもなく提供される旨が直接書かれているほどです。
アナリストの解釈には2つの説があります。1つ目は市場テスト説です。Google はあえて「非主戦場」の iOS を選び、Android エコシステムを邪魔せずに、消費者が端末側 AI の書き起こしにどれだけ受け入れ、どう使うかを評価するための実験を意図している可能性があります。
2つ目は技術的に準備が整った説です。iOS 版の Gemma ASR モデルは、最適化の進捗で Android 版より先に、利用可能な基準に到達している可能性があり、Google は2つのプラットフォームを同期するのを待たずに、直接配信する選択をしたのかもしれません。
技術的な観点から見ると、「AI Edge Eloquent」の意義は単なる書き起こしツールではありません。Gemma は Google のオープンな軽量級 AI モデル群で、行動用デバイスなどリソースに制約がある環境で効率的に動作することを設計の主目的にしています。AI Edge は、開発者が端末側で機械学習モデルを実行できるようにする Google のフレームワークです。
このアプリは、Gemma の端末側推論能力を、消費者の日常の利用シーンに持ち込んだものに等しいと言えます。
開発者にとっても、AI Edge Eloquent は参考となる見本です。Gemma モデルを消費者向け製品でどのように実装するか、またオフラインとクラウドの混合アーキテクチャが、プライバシーと品質のバランスをどう取るのかを示しています。