Gemma 3 は、10 億、40 億、120 億、270 億のパラメータを含む 4 つのバリエーションでリリースされます。 Google によれば、これは世界最高のシングルスピード モデルであり、大規模なコンピューター クラスターを必要とせず、単一の GPU または TPU で実行できます。

理論的には、これにより、Gemini Nano モデルがモバイル デバイス上でローカルに実行されるのと同様に、Gemma 3 を Pixel スマートフォンの Tensor Processing Unit (TPU) 上で直接実行できるようになります。

Gemini AI モデル シリーズと比較すると、Gemma 3 の最大の利点はオープン ソースであることです。これにより、開発者はモバイル アプリケーションやデスクトップ ソフトウェアをオンデマンドで簡単にカスタマイズ、パッケージ化、展開できます。さらに、Gemma は 140 を超える言語をサポートしており、そのうち 35 言語はすでにトレーニング パッケージとして利用可能です。

ad13e24ffc15c60fc50aa51c6fff5038.jpeg 翻訳:
Gemma 3(270億パラメータバージョン)のパフォーマンスを他のAIモデルと比較します。写真: Google

最新の Gemini 2.0 モデルと同様に、Gemma 3 はテキスト、画像、ビデオを処理できます。パフォーマンスの面では、Gemma 3 は、DeepSeek V3、OpenAI o3-mini、Meta の Llama-405B バリアントなど、他の多くの一般的なオープンソース AI モデルよりも優れています。

200ページの本に相当する内容

Gemma 3 は最大 128,000 トークンのコンテキスト ウィンドウをサポートします。これは 200 ページの本のデータの量に相当します。一方、比較すると、Gemini 2.0 Flash Lite モデルには最大 100 万トークンのコンテキスト ウィンドウがあります。

79f4765176ea9c0652ae7c685e0c1e21.jpeg
Gemma 3(270億パラメータバージョン)のパフォーマンスを他のAIモデルと比較します。写真: Google

Gemma 3 は、Gemini が Gmail や Docs などのプラットフォーム間での作業をシームレスにサポートするのと同様に、外部データセットと対話し、自動エージェントとして機能します。

Google の最新のオープンソース AI モデルは、ローカルに展開することも、Vertex AI などの同社のクラウド サービスを通じて展開することもできます。 Gemma 3 は現在、Google AI Studio のほか、Hugging Face、Ollama、Kaggle などのサードパーティ プラットフォームでも利用できます。

Google の第 3 世代オープンソース モデルは、企業が大規模言語モデル (LLM) と小規模言語モデル (SLM) の両方を並行して開発するという業界のトレンドの一部です。 Google のライバルである Microsoft も、オープンソースの小規模言語モデル Phi ファミリーで同様の戦略を追求している。

Gemma や Phi などの小規模な言語モデルはリソース効率が高く評価されており、スマートフォンなどのデバイスで実行するのに最適です。さらに、レイテンシが低いため、モバイル アプリケーションに特に適しています。

米司法省:Google は Chrome ブラウザに永久に「別れを告げる」必要がある。検索大手の Google は Chrome ブラウザの売却を強制されるが、人工知能の新興企業への投資は引き続き許可される。