AIの真価は、世界を説明するだけではなく、実際に作用させるときに発揮されます。その重要な作用機構の一つが「関数呼び出し(Function Calling)」です。ユーザーの自然言語による指示を解析し、カレンダーへの予定追加やフラッシュライトの点灯など、特定のアプリやOS機能を実行させる技術です。従来は大規模なモデルとサーバー接続が必須でしたが、Google AI Edge Galleryの最新アップデートにより、これら全てがオフラインでも超高速に実行可能な時代が到来しました。この変化の核心を詳しく見ていきましょう。関連資料

Smartphone displaying AI interface with function icons Coding Session Visual

モバイルアクション:オフラインアシスタントの再定義

新たに導入された「モバイルアクション(Mobile Actions)」デモは、FunctionGemmaという軽量モデルを基盤としています。このモデルはスマートフォン内で自然言語コマンドをリアルタイムに解析し、そのコマンドを実行する正確なシステムツールやアプリのインテントを特定します。

コマンド例:

  • 「地図でサンフランシスコ空港を表示して」
  • 「明日の14時30分に料理教室の予定を作成して」
  • 「懐中電灯を点けて」

このようなコマンド処理がサーバーとの往復通信なしに、純粋にデバイス内で行われる点が革新的です。応答速度が最大化され、個人情報が端末外に出ないためプライバシーも強化されます。

Abstract AI and neural network visualization IT Technology Image

機能比較とクロスプラットフォーム化

デモ / 機能使用モデル中核機能適用例
モバイルアクションFunctionGemma自然言語 → システム関数呼び出し (オフライン)予定追加、ナビゲーション、設定調整
タイニーガーデンFunctionGemma (270M)自然言語 → カスタムゲームロジック呼び出し「一番上の列にひまわりを植えて水をやって」
AIチャット / Ask Image各種オンデバイスモデルマルチターンチャット、画像質問サーバーなしでのローカル対話と分析

iOSへの対応開始

今回のアップデートの大きなマイルストーンは、Google AI Edge GalleryアプリがiOS App Storeで提供開始されたことです。iPhoneユーザーや開発者も、Androidと同等のオンデバイスAI機能(マルチターンAIチャット、Ask Image、Audio Scribeなど)を体験できるようになりました。特にモバイルアクションタイニーガーデンのデモを通じて、Appleハードウェア上でもシームレスな関数呼び出しが可能であることを確認できます。

Mobile app development and UI design process Algorithm Concept Visual

開発を始めるには

この技術を自身のアプリに適用したい場合は、Google AI Edgeスタックを活用してFunctionGemmaモデルをファインチューニングし、統合することが可能です。アプリ内のベンチマークツールを使用すれば、自身の端末でのモデル性能(秒間トークン処理数など)を直接測定することもできます。例えば、Pixel 7 ProのCPUでは、モバイルアクションは秒間1916トークン(prefill)という高速な処理速度を示しています。

核心的なポイント:

  1. 即応性: ネットワーク遅延なし。
  2. プライバシー強化: データは端末内に留まる。
  3. プラットフォーム独立性: AndroidとiOSの両方をサポート。

オンデバイスAIと関数呼び出しは、単なる技術デモを超え、より直感的で安全、かつ応答性の高いモバイル体験の未来を示しています。今こそ、皆さんの創造的なエージェント機能を実装してみる時です。