
Googleはオープンソースの大規模言語モデルGemma 3を発表した。
これはパラメータが少なく、DeepSeekのR1よりも98%精度が高い。
このモデルは 32 個の GPU チップを使用しますが、R1 アルゴリズムは入力トークン データの処理に 1 つの GPU のみを使用します。
「Gemmami 3 は、そのサイズに比べて最高のパフォーマンスを提供します」と Google は、新しいプログラムの技術レポートと結果を説明する中で述べました。
ただし、このスコアを単独で達成するには 32 個の GPU が必要になると主張しています。

コメント