Gemma 4とは?スマホで動く無料エージェントAIの使い方と4モデルの選び方

Gemma 4とは?スマホ完結の無料エージェントAIをGoogleが公開|特徴・使い方・4モデルの違いを徹底解説 アイキャッチ AIエージェント

Gemma 4は、Googleが提供する完全オンデバイス動作の無料エージェントAIである。

クラウドにデータを送らずにテキスト・画像・音声を処理できるオープンソースモデルで、スマートフォン向けの軽量版E2B/E4Bと、サーバー向けの26B/31Bという合計4種類で構成されている。Apache 2.0ライセンスのもと商用利用も認められており、GitHubを通じて独自のエージェントスキルを配布するエコシステムも形成されている。本記事では、Gemma 4の特徴、4つのモデルの使い分け、そしてオンデバイスAIという思想が持つ意味まで踏み込んで整理する。

この記事の要点

  • Gemma 4はGoogleのオープンソースのオンデバイスAIで、テキスト・画像・音声を端末内だけで処理できる
  • E2B/E4B(スマホ向け)と26B/31B(サーバー向け)の4モデル構成。Android版Gemini Nano 4の基盤にもなっている
  • Apache 2.0ライセンスで商用利用可、無料アプリ「Google AI Edge Gallery」で試せる

Gemma 4の概要|スマホ内で完結するオープンソースAI

Gemma 4は、Google DeepMindの研究基盤を用いて開発されたオープンソースの軽量AIモデルファミリーである。Googleによれば、Gemmaシリーズは累計4億回を超えるダウンロードを記録しており、第4世代では「スマホの中だけでエージェントが動く」という方向へ一段踏み込んだ設計になっている。GeminiシリーズのフラッグシップAIと同じ研究基盤から派生したとされ、性能の系譜としてはクラウドで動くフラッグシップモデルの知見が軽量モデルへ還元されていると読み取れる。

ライセンスはApache 2.0。改変や商用利用が広く認められており、企業の業務ツールに組み込むことも、個人開発者が自分のアプリに載せることも可能である。テキストだけでなく画像や音声も扱え、対応言語は140以上。配布を支える無料アプリ「Google AI Edge Gallery」がAndroidとiOSの両方で提供されている。

他のオンデバイスAIと決定的に違う点

これまでも「スマホで動くAI」は存在していた。ただ、その多くは要約や翻訳といった単発の処理にとどまり、外部ツールを呼び出して自律的に作業を進める「エージェント」としては機能していない。Gemma 4はここを塗り替える設計である。Wikipedia検索、地図操作、QRコード生成といった組み込みスキルを最初から備えており、クラウドに問い合わせることなく自分で道具を選んで動く。

もうひとつの差分はマルチモーダル対応である。テキストだけでなく、カメラで撮った画像や録音した音声をその場で解析し、必要ならエージェントスキルと組み合わせて回答を作る。この一連の処理が端末内で完結するため、通信遅延やAPIコストの心配がない。「重い処理はクラウドへ」という前提そのものを崩す設計と言える。

なぜ「スマホで完結するAI」が成立するのか

理由は大きく三つある。ひとつはプライバシー規制の強化。EUのAI法をはじめ、個人データをクラウドへ送ることへの制約が各国で厳しくなっている。ふたつめは通信コストの問題で、AIチャットを毎日何百回も叩く使い方が一般化すれば、API料金も通信帯域も無視できない。三つめはデバイス側の進化で、ミドルレンジ以上のスマホでも6〜8GB程度のRAMが当たり前になり、数十億規模のパラメータを持つモデルが現実的に動く環境が整っている。

この三つの条件が揃ったタイミングで、Googleが商用利用可能なライセンスでモデルを配っている。Gemma 4はオンデバイスAIを「使える選択肢」へ押し上げる象徴的な存在として捉えるのが妥当である。

4つのモデルと用途の違い

Gemma 4には、目的に応じて4種類のモデルが用意されている。スマートフォン向けのE2B/E4Bと、ワークステーションやサーバー向けの26B/31B。後者二つはGoogle DeepMindのモデルページで提供されている上位版である。名前に付く「E」は”effective parameters”、つまり推論時に実際に活性化するパラメータ数を指すとされる。量子化した状態のE2Bはおよそ1.3GB程度のサイズで、ストレージへの負担も比較的小さい。用途で分けて考えると選びやすくなる。

スマホ向けモデル(E2B/E4B)の特徴

E2BとE4Bは、それぞれ6GBおよび8GB程度のRAMを搭載した端末で動作する想定で設計されている。前世代と比べて最大4倍の速度を謳っているとのこと(Google公称値)。ミドルレンジ以上のAndroid端末や近年のiPhoneであれば、実機でエージェント機能を試せる射程に入る。用途としては、オフラインで動くパーソナルアシスタント、紙の書類をカメラで読み取って要約する業務用途、移動中の多言語翻訳などが想定できる。

特筆すべきは、このE2B/E4BがAndroid標準搭載のGemini Nano 4の基盤となる点である。個別にアプリを入れなくても、将来的にはAndroid OSレベルでGemma 4系の技術が機能として降りてくる流れが見えている。

サーバー向けモデル(26B/31B)の特徴

一方、26Bと31Bはスマホで動かすサイズではない。Google DeepMindが提供しているこれらのモデルは、ローカルのデスクトップ環境やクラウドの推論サーバー向けの選択肢である。公開情報では26BがMoE(Mixture of Experts)アーキテクチャを採用しているとされ、推論時に全パラメータが一斉に動くわけではない構造。MoEによって実効計算量を抑えつつ規模を確保する設計と理解するのが妥当である。

使いどころとしては、社内で動かす業務アシスタント、オンプレミスでのドキュメント処理、研究用途でのファインチューニングなど。ライセンスがApache 2.0であるため、企業が独自データで追加学習してプロダクトに組み込むことも可能である。クラウドAPI依存を減らしたい組織にとって、自前で運用できるハイエンド版として位置づけられる。

Android版Gemini Nano 4との関係

Gemma 4とGemini Nano 4の関係は少しややこしい部分である。公式の説明によると、E2B/E4Bは「AndroidのGemini Nano 4の土台」として位置づけられている。つまり、Gemma 4はオープンソース版、Gemini Nano 4はそれをAndroidに組み込んだ公式実装、という棲み分けである。

開発者側から見ると、Gemma 4はGitHubから自由に改変・配布ができる素材であり、Gemini Nano 4は端末API経由で呼び出す完成品という違いになる。自分で細部をいじりたいならGemma 4、Androidアプリに素直に統合したいならGemini Nano 4、という選び方が自然である。140以上の言語に対応している点は両者で共通しており、日本語ユーザーも実用圏に入る。

モデルを選ぶときの目安は「端末のRAM」「商用利用の有無」「対応言語」の三つである。スマホで試すならE2B、少し性能が欲しければE4B、本格的に業務サーバーに載せるなら26Bまたは31Bという順で検討すると迷いにくい。

エージェント機能でスマホが「考えるデバイス」になる

Gemma 4が単なる軽量LLMと一線を画すのは、エージェントスキルという仕組みを標準で持っている点である。エージェントスキルとは、AIが必要に応じて外部のツールや情報源を呼び出して作業を進める機能のこと。従来のオンデバイスAIは「与えられたテキストに返事をする」だけの存在だったが、Gemma 4は自分で動いて情報を取りに行く。クラウドに問い合わせずに、端末内の処理だけで完結するところが特徴的である。

組み込みスキルで何ができるか

組み込みスキルとして具体的に挙げられているのは、Wikipedia検索、インタラクティブな地図操作、QRコード生成などである。「近くのおすすめカフェを地図で示して」と頼めば、AIがオフライン地図データに対してクエリを組み立て、結果を視覚的に返す。「この商品のURLをQRコードにして」と言えば、端末内でコードを生成して画面に表示する。いずれもクラウドに問い合わせる必要がない。

この仕組みが意味するのは、ネット接続が不安定な場所や、機密情報を扱う現場でもエージェント機能が止まらない点である。出張先の地下施設、海外のローミング環境、病院や法律事務所のような外部通信が制限される現場──こうした「クラウドAIが使いにくい場所」でこそ、Gemma 4のエージェント機能が真価を発揮すると考えられる。

GitHubで共有される独自スキルのエコシステム

さらに重要なのは、開発者が独自のエージェントスキルを作って配布できる点である。GoogleはGemma 4のスキル開発方法を開発者向けに提供しており、GitHub上でスキルを共有するカルチャーが形成されている。公式が用意した機能だけでなく、サードパーティが作った「業務固有のスキル」が増えていく構造である。

たとえば、医療現場向けの問診サポートスキル、物流向けの伝票読み取りスキル、教育向けの問題採点スキルなど、業種ごとに特化した機能が拡張機能として配られる可能性がある。アプリストアのようにロックインされた仕組みではなく、Apache 2.0ライセンスで自由に派生・改変できる点が大きい。この「公式×コミュニティ」の二階建て構造が、オンデバイスエージェントのエコシステムを広げる原動力になると見ていい。

スキルの追加はアプリの買い直しや再インストールを伴わず、設定から読み込むだけで有効になる設計である。スマホが「買った時点の能力で固定される道具」から「後から賢くなり続けるデバイス」へ変わる感覚に近い。

プライバシー設計|データがデバイスから出ない意味

Gemma 4の設計方針で最も強調されているのが、処理が完全に端末内で完結する点である。入力したテキスト、撮影した画像、録音した音声。これらがクラウドのAPIを経由せずに、手元のスマホやPCだけで解析され、結果も端末内に保存される。通信ログとしてインターネット側に残らないため、情報漏えいリスクが構造的に抑えられる。

クラウドAIとの比較で見える強み

クラウドAIは便利だが、利用するたびに入力内容がサーバーに送られる前提である。ChatGPTやGemini、Claudeといった主要サービスは、ポリシーで学習利用をオプトアウトできる仕組みを持つが、「サーバーに送ってから学習対象外にする」のと「そもそも送らない」のとでは、セキュリティ上の意味合いがまったく違う。特に医療情報・法律相談・未公開の財務情報・顧客の個人情報などを扱う業務では、後者のほうが圧倒的に扱いやすい。

Gemma 4は設計段階でこの違いを解決している。デバイスから出ないため、ネットワーク経由の盗聴や外部サーバーへの誤送信といったリスクがそもそも発生しない。企業のセキュリティポリシー上「生成AIは禁止」となっている現場でも、オンデバイスで動くGemma 4ならば導入のハードルが大きく下がる。通信コストが発生しないのも付随的なメリットである。

業務利用で想定される活用シーン

具体的な活用シーンをいくつか挙げる。医療現場では、患者の問診内容を端末内だけで構造化してカルテに整理する使い方が考えられる。法律事務所では、依頼者との面談記録を録音して要約する際に、録音データがクラウドへ渡らない点が決定的に効く。金融機関では、顧客との通話内容を即座に要約してメモ化する業務でも、情報漏えいリスクを抑えられる。

製造業の現場でも意味がある。工場内は機密情報の宝庫で、社外ネットへの接続自体が制限されているケースも多い。現場の技術者がスマホで写真を撮って「この部品の不良箇所を特定して」と聞いたときに、端末内のGemma 4が答えを返す──こうしたクラウド前提のAIでは成立しにくいユースケースが、オンデバイス化によって現実的になる。

一般ユーザーにとっても恩恵は大きい。日記、家族の写真、健康記録、金融取引履歴。こうした個人的で繊細なデータをAIに整理してもらいたいとき、「どこにも送らない」という保証はそれだけで価値がある。Apple Intelligence陣営が打ち出す「オンデバイス処理」の方向性と、Gemma 4が切り開くAndroid・マルチプラットフォーム側の動きは、それぞれ別のアプローチで同じゴールを目指している構図と捉えるとわかりやすい。

Gemma 4を実際に触るなら、入り口はGoogle公式の「Google AI Edge Gallery」アプリが最短ルートになる。このアプリはAndroidとiOSの両方で無料配布されており、端末にモデルをダウンロードしてからは完全オフラインで動作する。iOSの生産性カテゴリで上位に食い込み、Claude・Gemini・ChatGPTに並ぶダウンロード数を記録したとも報じられている。

特徴的なのは、アプリ自体がモデルの切り替えと実行環境の役割を兼ねている点である。ユーザーはE2BとE4Bの両方を切り替えて試せるため、自分の端末スペックに合うサイズを体感で選べる。動作に必要なリソースは端末のRAM容量によって変わるため、ミドルレンジ機では軽量版、ハイエンド機では高性能版という使い分けが現実的である。

インストールと初期起動

手順自体はシンプルである。App StoreまたはGoogle Playで「Google AI Edge Gallery」と検索し、公式提供のアプリをインストールするだけ。起動後はモデルカタログが表示され、使いたいサイズを選んでダウンロードする流れになる。モデルのダウンロードには1GB前後の容量が必要になるため、Wi-Fi環境で実行したほうが安全である。

初回ダウンロード完了後は、基本的にネットワークを切った状態でも動作する。飛行機の中でも、地下鉄の圏外エリアでも、山奥の電波が入らない場所でも、AIとの対話は止まらない。これは従来のクラウド型AIにはできなかった芸当である。

初心者向けTips: アプリを最初に起動したらE2B(軽量版)から試すのがおすすめである。E4Bのほうが賢いが、端末の発熱とバッテリー消費が大きくなる。用途に合わせて使い分けると快適に運用できる。

最初に試したい機能

起動直後に試す価値があるのが、テキスト入力から画像入力への切り替えである。Gemma 4はマルチモーダル対応のため、カメラで撮った写真を直接投げ込んで質問できる。レシートを撮影して「これを家計簿用にCSV形式で書き出して」と頼めば、端末内だけで完結する処理として結果が返ってくる仕組みになる。

音声入力にも対応しているため、会議中の発言を録音してそのまま要約させる使い方も検討できる。ただし日本語の音声認識精度がどこまで実用に耐えるかは、端末や環境によって差が出る可能性がある。最初は英語や短文で試してから、徐々に運用範囲を広げていくのが安全である。

開発者視点|Apache 2.0ライセンスとスキル開発の自由度

Gemma 4の真価は、開発者向けの扉が大きく開いているところにある。Apache 2.0ライセンスで提供されているため、商用利用・改変・再配布・独自アプリへの組み込みが自由である。これは閉じたモデル(ChatGPTやClaudeのようにAPI経由でしか触れないもの)と比べたときの決定的な違いである。

Google AI Edge Galleryには独自スキルをアップロードして共有する仕組みが用意されており、GitHub経由でコミュニティが作ったスキルを取り込める構造になっている。既存のエコシステムをそのまま拡張できる点は、企業が社内ツールを内製するときの障壁を大きく下げる。

Apache 2.0が開ける商用利用の可能性

Apache 2.0は、OSSライセンスの中でも特に商用に優しい部類である。このライセンスで提供されたモデルは、派生物を作って自社サービスに組み込んでも、ソースコードの公開義務は発生しない。SaaS企業が自社製品にGemma 4をバンドルして販売することも、受託開発会社が顧客向けのアプリに組み込むことも可能という位置づけである。

この設計は、スタートアップにとって大きなチャンスを生む。クラウドAPI課金が重荷だった領域——たとえば医療IoT、組み込みデバイス、オフライン前提の産業機器など——で、AI機能を搭載した製品を現実的なコストで出せるようになる。従量課金ではなく「モデルを同梱して一度で売り切る」ビジネスモデルが、実装の選択肢に入ってくる。

カスタムスキル開発で何が生まれるか

GitHubで配布されるスキル群は、AIエージェント経済の民主化という大きな文脈の一部と読み取れる。開発の裾野が着実に広がるなかで、Gemma 4のスキル共有カルチャーもこの流れの延長線上にある仕組みである。

想定されるカスタムスキルの例は多岐にわたる。社内専用の検索スキル、自社APIを呼び出す業務スキル、特定業界の用語辞書を参照するスキル、カメラで撮影した帳票を仕訳するスキルなど。一人のエンジニアが週末に作ったスキルが、GitHubを経由して世界中のGemma 4ユーザーに届く構造──これはOSSの強みがAI時代にも持ち込まれた形と言える。

オンデバイスAIが変える「AI設計の美学」

ここからは少し視点を上げた考察である。Gemma 4のようなオンデバイスAIは、単なる「軽量化されたAI」ではなく、AI設計そのものの哲学に一石を投じる存在だと捉えている。

ソフトウェア業界では長らく「スケールすれば解決する」という信念が支配してきた。モデルを大きくし、データを増やし、計算資源を積み増せば性能が上がる──クラウドAIの世界観はこの前提のうえに成り立っている。しかしこの方向性が無限に持続可能かと言えば、電力消費・インフラ投資・環境負荷のすべてに疑問符がつくのが現状である。

有限リソースが生む設計の洗練

あるソフトウェア研究者は、LLMには「怠惰さ」という美徳が欠けており、作業のコストがゼロであるために、システムを大きくすることはできても良くすることはできない、と指摘している。人間の有限な時間こそが洗練された抽象化を強制する原動力になっている、という考察である。

この視点は、スマホという有限リソース環境でAIを動かすGemma 4の設計方針にぴったり重なる。RAMもストレージもバッテリーも限られているからこそ、不要な肥大化は許されない。モデル自体を徹底的に削ぎ落とし、本当に必要な能力だけを残す──この制約が、逆説的により洗練されたAIを生む可能性がある。

クラウドAIでは「巨大であることが善」だったが、オンデバイスAIでは「小さくて賢いことが善」になる。この価値観の反転が、AI業界全体の設計美学を塗り替えていく兆しが見える。

クラウド依存時代の終わりの兆し

もちろん、クラウドAIが消えるわけではない。大規模な研究、高度な推論、最新情報の検索など、クラウド側でしか成立しないタスクは残り続ける。ただし、これまで「とりあえず全部クラウドに送る」というデフォルト設計が当たり前だったものが、「処理できるものは端末で、必要なものだけクラウドに」という設計へ変わっていく可能性がある。

この変化は、ユーザー体験にも影響する。レスポンスが速い、通信が切れても動く、データが漏れない──こうした体験は、一度慣れてしまうと戻れない性質のもの。Gemma 4が開いた扉は、AIとの関わり方そのものの転換点と呼べる規模の動きかもしれない。

よくある質問

Q. Gemma 4は無料で使えますか?

モデル本体の利用料金は無料である。Apache 2.0ライセンスで提供されているため、個人利用・商用利用ともに追加費用は発生しない。Google AI Edge GalleryアプリもAndroid・iOSで無料提供されている。ただし端末のストレージ・RAM・バッテリーを消費する点には注意が必要である。

Q. 商用利用はできますか?

できる。Apache 2.0ライセンスのため、自社サービスへの組み込み、改変、再配布、派生モデルの作成がすべて許可されている。商用利用時にソースコードの公開義務もない。受託開発や自社プロダクトへの統合を検討している場合、ライセンス的なハードルはほぼないと言える。

Q. 日本語には対応していますか?

対応している。Gemmaファミリーは140以上の言語をサポートしており、日本語もその対象に含まれる。ただし英語に比べて学習データ量の差がある可能性は否定できず、専門分野や長文処理での精度は実際に試してから判断するのが安全である。

Q. オフラインでも動きますか?

動く。モデルを一度ダウンロードしてしまえば、通信を切った状態でも推論可能である。飛行機の中、地下、圏外エリアでも問題なく使えるのが特徴である。ただし初回のモデルダウンロード時にはWi-Fi環境が推奨される。

Q. iPhoneとAndroidで違いはありますか?

Google AI Edge Galleryアプリ自体は両OSで提供されているが、Android側ではGemini Nano 4として深く統合される可能性がある。現時点ではどちらのOSでも基本機能に差はないと見られる。端末のRAMやチップ性能によるパフォーマンス差のほうが、OS差よりも大きく影響するのが実情である。

まとめ|スマホ完結AI時代の到来

Gemma 4が示すのは、AIが必ずしもクラウドに依存する必要はないという現実である。スマホのRAMだけで動く軽量モデルから、サーバー規模の高性能モデルまで、4つの構成で幅広い用途をカバーする。Apache 2.0ライセンスによる自由度の高さ、エージェントスキルによる実用性、そしてGitHub経由のエコシステム拡張──この三拍子が揃ったオープンソースAIは、これまで存在しなかった。

項目 内容
料金 無料(Apache 2.0ライセンス)
ライセンス Apache 2.0(商用利用可)
対応OS Android / iOS(Google AI Edge Gallery経由)
モデル構成 E2B / E4B / 26B / 31B(4種)
対応言語数 140以上
対応モダリティ テキスト・画像・音声
提供元 Google

個人ユーザーはまず「Google AI Edge Gallery」アプリをインストールして、E2B版を試してみるところから始めるのが現実的である。開発者はHugging Faceからモデルをダウンロードし、自社プロダクトへの組み込み可能性を検証するフェーズに入れる。「プライバシーを守りながらAIを使いたい」と感じていた業務層には、ようやく実用解が出てきたという受け止め方が妥当である。スマホ完結AI時代の扉は、もう開いている。

本記事の情報は記載時点のもの。製品アップデートや第三者ベンチマーク・価格・対応ランタイム等の変動で評価が変わる可能性がある。一定期間経過した内容は再検証を推奨する。

コメント

タイトルとURLをコピーしました