Gemma 4とは?スマホ完結の無料エージェントAIをGoogleが公開|特徴・使い方・4モデルの違いを徹底解説

Gemma 4とは?スマホ完結の無料エージェントAIをGoogleが公開|特徴・使い方・4モデルの違いを徹底解説 アイキャッチ AIエージェント

Gemma 4とは、Googleが公開した完全オンデバイス動作の無料エージェントAIである。

結論から言えば、クラウドに一切データを送らずにテキスト・画像・音声を処理できる無料AIが、2026年春に一般ユーザーの手元まで降りてきました。Googleが公開したオープンソースモデル「Gemma 4」のことで、スマートフォン向けの軽量版E2B/E4Bと、サーバー向けの26B/31Bという合計4種類のバリエーションで構成されています。Apache 2.0ライセンスのもと商用利用も認められ、GitHubを通じて独自のエージェントスキルを配布するエコシステムも動き始めました。本記事では、Gemma 4の何が新しいのか、4つのモデルをどう使い分けるのか、そしてオンデバイスAIという思想が持つ意味まで踏み込んで整理します。

この記事の要点
・Gemma 4はGoogleが公開したオープンソースのオンデバイスAIで、テキスト・画像・音声を端末内だけで処理できる
・E2B/E4B(スマホ向け)と26B/31B(サーバー向け)の4モデル構成。Android版Gemini Nano 4の基盤にもなる
・Apache 2.0ライセンスで商用利用可、無料アプリ「Google AI Edge Gallery」ですぐ試せる(2026年4月時点の情報)

Gemma 4とは|スマホ内で完結する無料オープンソースAI

Gemma 4は、Google DeepMindの研究基盤を用いて開発されたオープンソースの軽量AIモデルファミリーです。Googleによると、Gemmaシリーズは初代リリース以来で累計4億回を超えるダウンロードを記録しており、今回の第4世代では「スマホの中だけでエージェントが動く」という方向へ一段踏み込みました。参照したベース記事(The Decoder、2026年4月11日報)ではGemma 4がGemini 3と同じ研究ラインから生まれた点が明記されており、性能の系譜としてはクラウドで動くフラッグシップモデルの知見がそのまま軽量モデルへ還元されていると読み取れます。

ライセンスはApache 2.0。つまり改変や商用利用が広く認められており、企業の業務ツールに組み込むことも、個人開発者が自分のアプリに載せることも可能です。テキストだけでなく画像や音声も扱え、対応言語は140以上。ベース記事の情報では、配布を後押しする無料アプリ「Google AI Edge Gallery」がAndroidとiOSの両方で提供され、AppleのApp Store内の無料生産性カテゴリでは上位に入っているとされています。

Gemma 4が他のオンデバイスAIと決定的に違う点

これまでも「スマホで動くAI」は存在していました。ただ、その多くは要約や翻訳といった単発の処理にとどまり、外部ツールを呼び出して自律的に作業を進める「エージェント」としては機能していなかったのが実情。Gemma 4はここを塗り替える設計です。Wikipedia検索、地図操作、QRコード生成といった組み込みスキルを最初から備えており、クラウドに問い合わせることなく自分で道具を選んで動きます。

もうひとつの差分はマルチモーダル対応です。テキストだけでなく、カメラで撮った画像や録音した音声をその場で解析し、必要ならエージェントスキルと組み合わせて回答を作る。この一連の処理が端末内で完結するため、通信遅延やAPIコストの心配がありません。「重い処理はクラウドへ」という前提そのものを崩す設計と言えるでしょう。

なぜ今「スマホで完結するAI」なのか

理由は大きく三つあります。ひとつはプライバシー規制の強化。EUのAI法をはじめ、個人データをクラウドへ送ることに対する制約が各国で厳しくなってきました。ふたつめは通信コストの問題。AIチャットを毎日何百回も叩く使い方が一般化すれば、API料金も通信帯域も無視できません。三つめはデバイス側の進化で、ミドルレンジ以上のスマホでも6〜8GB程度のRAMが当たり前になり、数十億パラメータクラスのモデルが現実的に動く環境が整ってきました。

この三つの条件が揃ったタイミングで、Googleが商用利用可能なライセンスでモデルを丸ごと配った。Gemma 4の公開は、単なる新モデルの追加ではなく、オンデバイスAIを「使える選択肢」へ押し上げる象徴的な出来事として捉えるのが妥当です。

4つのモデルバリエーションと用途の違い

Gemma 4は、目的に応じて4種類のモデルが用意されています。スマートフォン向けのE2B/E4Bと、ワークステーションやサーバー向けの26B/31B。後者二つはGoogle DeepMindのモデルページで公開されている上位版です。名前に付く「E」は”effective parameters”、つまり推論時に実際に活性化するパラメータ数を指すとベース記事では説明されています。量子化した状態のE2Bはおよそ1.3GB程度のサイズとされ、ストレージへの負担も比較的小さい設計。用途で分けて考えると選びやすくなります。

スマホ向けモデル(E2B/E4B)の特徴

E2BとE4Bは、それぞれ6GBおよび8GB程度のRAMを搭載した端末で動作する想定で設計されています。ベース記事によると、前世代と比べて最大4倍の速度を謳っているとのこと(Google公称値)。ミドルレンジ以上のAndroid端末や近年のiPhoneであれば、実機でエージェント機能を試せる射程に入っています。用途としては、オフラインで動くパーソナルアシスタント、紙の書類をカメラで読み取って要約する業務用途、移動中の多言語翻訳などが想定できます。

特筆すべきは、このE2B/E4BがAndroid標準搭載のGemini Nano 4の基盤となる点。つまり個別にアプリを入れなくても、将来的にはAndroid OSレベルでGemma 4系の技術が機能として降りてくる流れが見えています。

サーバー向けモデル(26B/31B)の特徴

一方、26Bと31Bはスマホで動かすサイズではありません。Google DeepMindが公開しているこれらのモデルは、ローカルのデスクトップ環境やクラウドの推論サーバー向けの選択肢です。公開情報では26BがMoE(Mixture of Experts)アーキテクチャを採用しているとされ、推論時に全パラメータが一斉に動くわけではない構造。この点は前回の速報記事で誤って「フルサイズ」と表現されがちな部分ですが、正確にはMoEによって実効計算量を抑えつつ規模を確保する設計と理解するのが妥当です。

使いどころとしては、社内で動かす業務アシスタント、オンプレミスでのドキュメント処理、研究用途でのファインチューニングなど。ライセンスがApache 2.0であることから、企業が独自データで追加学習してプロダクトに組み込むことも可能です。クラウドAPI依存を減らしたい組織にとって、自前で運用できるハイエンド版として位置づけられています。

Android版Gemini Nano 4との関係

Gemma 4とGemini Nano 4の関係は少しややこしい部分。ベース記事の説明をそのまま受け取ると、E2B/E4Bは「今後登場するAndroidのGemini Nano 4の土台」として位置づけられています。つまり、Gemma 4はオープンソース版、Gemini Nano 4はそれをAndroidに組み込んだ公式実装、という棲み分け。

開発者側から見ると、Gemma 4はGitHubから自由に改変・配布ができる素材であり、Gemini Nano 4は端末API経由で呼び出す完成品という違い。自分で細部をいじりたいならGemma 4、Androidアプリに素直に統合したいならGemini Nano 4、という選び方が自然です。140以上の言語に対応している点は両者で共通しており、日本語ユーザーも実用圏に入ります。

モデルを選ぶときの目安は「端末のRAM」「商用利用の有無」「対応言語」の三つ。スマホで試すならE2B、少し性能が欲しければE4B、本格的に業務サーバーに載せるなら26Bまたは31Bという順で検討すると迷いにくいです。

エージェント機能でスマホが「考えるデバイス」になる

Gemma 4が単なる軽量LLMと一線を画すのは、エージェントスキルという仕組みを標準で持っている点です。エージェントスキルとは、AIが必要に応じて外部のツールや情報源を呼び出して作業を進める機能のこと。従来のオンデバイスAIは「与えられたテキストに返事をする」だけの存在でしたが、Gemma 4は自分で動いて情報を取りに行きます。クラウドに問い合わせずに、端末内の処理だけで完結するところが新しい。

組み込みスキルで何ができるか

ベース記事で具体的に挙げられている組み込みスキルは、Wikipedia検索、インタラクティブな地図操作、QRコード生成などです。たとえば「近くのおすすめカフェを地図で示して」と頼めば、AIがオフライン地図データに対してクエリを組み立て、結果を視覚的に返す。「この商品のURLをQRコードにして」と言えば、端末内でコードを生成して画面に表示する。いずれもクラウドに問い合わせる必要がありません。

この仕組みが意味するのは、ネット接続が不安定な場所や、機密情報を扱う現場でもエージェント機能が止まらないという点。出張先の地下施設、海外のローミング環境、病院や法律事務所のような外部通信が制限される現場──こうした「クラウドAIが使いにくい場所」でこそ、Gemma 4のエージェント機能が真価を発揮すると考えられます。

GitHubで共有される独自スキルのエコシステム

さらに重要なのは、開発者が独自のエージェントスキルを作って配布できる点です。Googleは開発者向けブログ記事(2026年4月)でGemma 4のスキル開発方法を公開し、GitHub上でスキルを共有するカルチャーを後押ししています。つまり、公式が用意した機能だけでなく、サードパーティが作った「業務固有のスキル」が増えていく構造。

たとえば、医療現場向けの問診サポートスキル、物流向けの伝票読み取りスキル、教育向けの問題採点スキルなど、業種ごとに特化した機能が拡張機能として配られる可能性があります。アプリストアのようにロックインされた仕組みではなく、Apache 2.0ライセンスで自由に派生・改変できる点が大きい。この「公式×コミュニティ」の二階建て構造が、オンデバイスエージェントのエコシステムを急速に広げる原動力になると見ていいでしょう。

スキルの追加はアプリの買い直しや再インストールを伴わず、設定から読み込むだけで有効になる設計。スマホが「買った時点の能力で固定される道具」から「後から賢くなり続けるデバイス」へ変わる感覚に近いです。

プライバシー設計|データがデバイスから出ない意味

Gemma 4の設計思想で最も強調されているのが、処理が完全に端末内で完結する点です。入力したテキスト、撮影した画像、録音した音声。これらがクラウドのAPIを経由せずに、手元のスマホやPCだけで解析され、結果も端末内に保存される。通信ログとしてインターネット側に残らないため、情報漏えいリスクが構造的に抑えられます。

クラウドAIとの比較で見える強み

クラウドAIは便利ですが、利用するたびに入力内容がサーバーに送られる前提です。ChatGPTやGemini、Claudeといった主要サービスは、ポリシーで学習利用をオプトアウトできる仕組みを持ちますが、「サーバーに送ってから学習対象外にする」のと「そもそも送らない」のとでは、セキュリティ上の意味合いがまったく違います。特に医療情報・法律相談・未公開の財務情報・顧客の個人情報などを扱う業務では、後者のほうが圧倒的に扱いやすい。

Gemma 4は設計段階でこの違いを解決しています。デバイスから出ないため、ネットワーク経由の盗聴や外部サーバーへの誤送信といったリスクがそもそも発生しない。企業のセキュリティポリシー上「生成AIは禁止」となっている現場でも、オンデバイスで動くGemma 4ならば導入のハードルが大きく下がります。通信コストが発生しないのも付随的なメリット。

業務利用で想定される活用シーン

具体的な活用シーンをいくつか挙げます。医療現場では、患者の問診内容を端末内だけで構造化してカルテに整理する使い方が考えられます。法律事務所では、依頼者との面談記録を録音して要約する際に、録音データがクラウドへ渡らない点が決定的に効く。金融機関では、顧客との通話内容をリアルタイムに要約してメモ化する業務でも、情報漏えいリスクを抑えられます。

製造業の現場でも意味があります。工場内は機密情報の宝庫で、社外ネットへの接続自体が制限されているケースも多い。現場の技術者がスマホで写真を撮って「この部品の不良箇所を特定して」と聞いたときに、端末内のGemma 4が答えを返す──こうしたクラウド前提のAIでは成立しにくいユースケースが、オンデバイス化によって初めて現実的になります。

一般ユーザーにとっても恩恵は大きいです。日記、家族の写真、健康記録、金融取引履歴。こうした個人的で繊細なデータをAIに整理してもらいたいとき、「どこにも送らない」という保証はそれだけで価値があります。Apple Intelligence陣営が打ち出す「オンデバイス処理」の方向性と、Gemma 4が切り開くAndroid・マルチプラットフォーム側の動きは、それぞれ別のアプローチで同じゴールを目指している構図と捉えるとわかりやすい。

Gemma 4を実際に触るなら、入り口はGoogle公式の「Google AI Edge Gallery」アプリが最短ルート。このアプリはAndroidとiOSの両方で無料配布されており、端末にモデルをダウンロードしてからは完全オフラインで動作します。ベース記事によると、リリース後にiOSの生産性カテゴリで上位に食い込み、Claude・Gemini・ChatGPTに並ぶダウンロード数を記録したと報じられました。

特徴的なのは、アプリ自体が「モデルビューワー+実行環境」の役割を兼ねている点。ユーザーはE2BとE4Bの両方を切り替えて試せるため、自分の端末スペックに合うサイズを体感で選べます。動作に必要なリソースは端末のRAM容量によって変わるため、ミドルレンジ機では軽量版、ハイエンド機では高性能版という使い分けが現実的。

インストールと初期起動

手順自体はシンプルです。App StoreまたはGoogle Playで「Google AI Edge Gallery」と検索し、公式提供のアプリをインストールするだけ。起動後はモデルカタログが表示され、使いたいサイズを選んでダウンロードする流れになります。モデルのダウンロードには1GB前後の容量が必要になるため、Wi-Fi環境で実行したほうが安全。

初回ダウンロード完了後は、基本的にネットワークを切った状態でも動作します。飛行機の中でも、地下鉄の圏外エリアでも、山奥の電波が入らない場所でも、AIとの対話は止まりません。これは従来のクラウド型AIには決してできなかった芸当。

初心者向けTips: アプリを最初に起動したらE2B(軽量版)から試すのがおすすめです。E4Bのほうが賢いですが、端末の発熱とバッテリー消費が大きくなります。用途に合わせて使い分けると快適に運用できます。

最初に試したい機能

起動直後に試す価値があるのが、テキスト入力から画像入力への切り替え。Gemma 4はマルチモーダル対応のため、カメラで撮った写真を直接投げ込んで質問できます。レシートを撮影して「これを家計簿用にCSV形式で書き出して」と頼めば、端末内だけで完結する処理として結果が返ってくる仕組み。

音声入力にも対応しているため、会議中の発言を録音してそのまま要約させる使い方も検討できます。ただし現時点で日本語の音声認識精度がどこまで実用に耐えるかは、端末や環境によって差が出る可能性があります。最初は英語や短文で試してから、徐々に運用範囲を広げていくのが安全です。

開発者視点|Apache 2.0ライセンスとスキル開発の自由度

Gemma 4の真価は、実のところ開発者向けの扉が大きく開いているところにあります。Apache 2.0ライセンスで提供されているため、商用利用・改変・再配布・独自アプリへの組み込みが自由。これは閉じたモデル(ChatGPTやClaudeのようにAPI経由でしか触れないもの)と比べたときの決定的な違いです。

Google AI Edge Galleryには独自スキルをアップロードして共有する仕組みが用意されており、GitHub経由でコミュニティが作ったスキルを取り込める構造。既存のエコシステムをそのまま拡張できる点は、企業が社内ツールを内製するときの障壁を大きく下げます。

Apache 2.0が開ける商用利用の可能性

Apache 2.0は、OSSライセンスの中でも特に商用に優しい部類。このライセンスで公開されたモデルは、派生物を作って自社サービスに組み込んでも、ソースコードの公開義務は発生しません。SaaS企業が自社製品にGemma 4をバンドルして販売することも、受託開発会社が顧客向けのアプリに組み込むことも可能という位置づけ。

この設計は、スタートアップにとって大きなチャンスを生みます。クラウドAPI課金が重荷だった領域——たとえば医療IoT、組み込みデバイス、オフライン前提の産業機器など——で、AI機能を搭載した製品を現実的なコストで出せるようになるからです。従量課金ではなく「モデルを同梱して一度で売り切る」ビジネスモデルが、実装の選択肢に入ってくる。

カスタムスキル開発で何が生まれるか

GitHubで配布されるスキル群は、AIエージェント経済の民主化という大きな文脈の一部と読み取れます。Vercelのギレルモ・ラウハCEOが「今は世界中の誰もがアプリを作れる時代になった」とコメントしているように(TechCrunch報道、2026年3月)、開発の裾野は確実に広がっています。Gemma 4のスキル共有カルチャーもこの流れの延長線上にある仕組み。

想定されるカスタムスキルの例は多岐にわたります。社内専用の検索スキル、自社APIを呼び出す業務スキル、特定業界の用語辞書を参照するスキル、カメラで撮影した帳票を仕訳するスキルなど。一人のエンジニアが週末に作ったスキルが、GitHubを経由して世界中のGemma 4ユーザーに届く構造──これはOSSの強みがAI時代にも持ち込まれた形と言えます。

オンデバイスAIが変える「AI設計の美学」

ここからは少し視点を上げた考察。Gemma 4のようなオンデバイスAIは、単なる「軽量化されたAI」ではなく、AI設計そのものの哲学に一石を投じる存在だと捉えています。

ソフトウェア業界では長らく「スケールすれば解決する」という信念が支配してきました。モデルを大きくし、データを増やし、計算資源を積み増せば性能が上がる──クラウドAIの世界観はこの前提のうえに成り立っています。しかしこの方向性が無限に持続可能かと言えば、電力消費・インフラ投資・環境負荷のすべてに疑問符がつくのが現状。

有限リソースが生む設計の洗練

Bryan Cantrill氏(SimonWillison.netで2026年4月13日に引用された記事より)が興味深い指摘をしています。LLMには「怠惰さ」という美徳が欠けており、作業のコストがゼロであるために、システムを大きくすることはできても良くすることはできない、と。人間の有限な時間こそが洗練された抽象化を強制する原動力になっている、という考察。

この視点は、スマホという有限リソース環境でAIを動かすGemma 4の設計思想にぴったり重なります。RAMもストレージもバッテリーも限られているからこそ、不要な肥大化は許されない。モデル自体を徹底的に削ぎ落とし、本当に必要な能力だけを残す──この制約が、逆説的により洗練されたAIを生む可能性があります。

クラウドAIでは「巨大であることが善」でしたが、オンデバイスAIでは「小さくて賢いことが善」。この価値観の反転が、AI業界全体の設計美学を塗り替えていく兆しが見えます。

クラウド依存時代の終わりの兆し

もちろん、クラウドAIが消えるわけではありません。大規模な研究、高度な推論、最新情報の検索など、クラウド側でしか成立しないタスクは残り続けます。ただし、これまで「とりあえず全部クラウドに送る」というデフォルト設計が当たり前だったものが、「処理できるものは端末で、必要なものだけクラウドに」という設計へ変わっていく可能性が出てきました。

この変化は、ユーザー体験にも影響します。レスポンスが速い、通信が切れても動く、データが漏れない──こうした体験は、一度慣れてしまうと戻れない性質のもの。Gemma 4が開いた扉は、単なる新モデルの登場ではなく、AIとの関わり方そのものの転換点と呼べる規模の動きかもしれません。

よくある質問

Q. Gemma 4は無料で使えますか?

モデル本体の利用料金は無料です。Apache 2.0ライセンスで公開されているため、個人利用・商用利用ともに追加費用は発生しません。Google AI Edge GalleryアプリもAndroid・iOSで無料提供されています。ただし端末のストレージ・RAM・バッテリーを消費する点には注意が必要です。

Q. 商用利用はできますか?

できます。Apache 2.0ライセンスのため、自社サービスへの組み込み、改変、再配布、派生モデルの作成がすべて許可されています。商用利用時にソースコードの公開義務もありません。受託開発や自社プロダクトへの統合を検討している場合、ライセンス的なハードルはほぼないと言えます。

Q. 日本語には対応していますか?

対応しています。Gemmaファミリーは140以上の言語をサポートしており、日本語もその対象に含まれます。ただし英語に比べて学習データ量の差がある可能性は否定できず、専門分野や長文処理での精度は実際に試してから判断するのが安全です。

Q. オフラインでも動きますか?

動きます。モデルを一度ダウンロードしてしまえば、通信を切った状態でも推論可能です。飛行機の中、地下、圏外エリアでも問題なく使えるのが特徴。ただし初回のモデルダウンロード時にはWi-Fi環境が推奨されます。

Q. iPhoneとAndroidで違いはありますか?

Google AI Edge Galleryアプリ自体は両OSで提供されていますが、Android側では将来的にGemini Nano 4として深く統合される可能性があります。現時点ではどちらのOSでも基本機能に差はないと見られます。端末のRAMやチップ性能によるパフォーマンス差のほうが、OS差よりも大きく影響するのが実情。

まとめ|スマホ完結AI時代の幕開け

Gemma 4が示したのは、AIが必ずしもクラウドに依存する必要はないという現実。スマホのRAMだけで動く軽量モデルから、サーバー規模の高性能モデルまで、4つのバリエーションで幅広い用途をカバーします。Apache 2.0ライセンスによる自由度の高さ、エージェントスキルによる実用性、そしてGitHub経由のエコシステム拡張──この三拍子が揃ったオープンソースAIは、これまで存在しませんでした。

料金
無料(Apache 2.0ライセンス)
ライセンス
Apache 2.0(商用利用可)
対応OS
Android / iOS(Google AI Edge Gallery経由)
モデルバリエーション
E2B / E4B / 26B / 31B(4種)
対応言語数
140以上
対応モダリティ
テキスト・画像・音声
提供元
Google

個人ユーザーはまず「Google AI Edge Gallery」アプリをインストールして、E2B版を試してみるところから始めるのが現実的。開発者はHugging Faceからモデルをダウンロードし、自社プロダクトへの組み込み可能性を検証するフェーズに入れます。「プライバシーを守りながらAIを使いたい」と感じていた業務層には、ようやく実用解が出てきたという受け止め方が妥当でしょう。スマホ完結AI時代の扉は、もう開いています。

コメント

タイトルとURLをコピーしました