ニュース

Google、クラス最高性能を謳うLLM「Gemma 2」提供開始

Googleは、開発者向けのオープンな大規模言語モデル(LLM)「Gemma 2」の正式提供を開始した。90億パラメータと270億パラメータの2種類が用意されている。

「Gemma」は、軽量かつオープンなLLM。2024年2月に発表され、研究者や開発者向けに提供されていたほか、5月に開催の開発者向け会議「Google I/O」では、早くも「Gemma 2」の投入が予告されていた。

Gemma 2は第1世代よりも高性能かつ効率的な推論が可能で、安全性も大幅に向上したとする。

Gemma 2の270億パラメータモデルでは、その2倍以上のサイズのモデルに比肩する回答を提供できる。90億パラメータでは、Metaの「Llama 3」の80億パラメータモデルや、同サイズの他のオープンモデルを凌ぐ、クラス最高の性能を発揮する。

他モデルとの性能比較
第1世代Gemmaとの比較

一方、Gemmaの特徴でもある軽量さも備える。270億パラメータは、単一のGoogle Cloud TPUホスト、または「NVIDIA A100 80GB Tensor Core GPU」「NVIDIA H100 Tensor Core GPU」上にて、全精度で効率的に推論を実行できる設計で、高い性能を維持しながらコストを大幅に削減可能。「より利用しやすく、予算に見合ったAIの導入が可能になる」としている。

これらにより、Gemma 2は、高性能なゲーミングノートPCやハイエンドデスクトップPCからクラウドベースでのセットアップまで、「さまざまなハードウェア上で驚異的なスピードで実行できるように最適化されている」とアピールされている。

Gemini 1.5 Proもアップデート

Googleはこのほか、開発者向けに提供する「Gemini 1.5 Pro」の機能の拡張を発表している。200万トークンのコンテキストウィンドウが利用できるようになるほか、コード実行機能が提供される、コード実行機能では、AIモデルによる動的なPythonコードの生成・実行に対応、数値計算ライブラリが付属するインターネットに接続されていないサンドボックスにて試行できる。