西田宗千佳のイマトミライ
第271回
AWSから見えてくる生成AI競争時代のクラウド投資
2024年12月9日 08:20
12月1日から6日まで、米ラスベガスでは、Amazon Web Services(AWS)の年次イベントである「re:invent 2024」が開催されており、今年も筆者は取材に訪れた。
クラウドサービス・プロバイダーのビジネスにおいて、AIへの対応はもちろん重要なことだ。今年の同社の発表も、軸の1つはそこにあった。
AIへの対応というと「より賢い大規模言語モデルの発表」や、「よりリアルな画像生成ができる生成AIの登場」などが注目される。
今回発表の目玉として、Amazonによる新生成AI「Amazon Nova」の公開があったり、Anthropicによる新AI「Project Rainier」の存在が公開されていたりする。
ただ、それ自体は1つの要素でしかない。
AWSが目指しているのは、生成AIの基盤モデル自体以上に、「生成AIの処理自体」を効率よく提供することだ。
今回は現地での取材から、彼らの動きについて考察してみたい。
AWSのイベントに「AmazonのCEO」が登壇の意味
AWSはre:inventの会期中、複数の基調講演を行なうのが常だ。最初はインフラ構築とハードウェアに関する「MONDAY NIGHT LIVE」、次がCEOによる基調講演。翌日がAI・機械学習に特化したものがあり、大手顧客に関する基調講演があり、最終日には、Amazon CTOのワーナー・ヴォゲルス氏による「ビジョン」的な基調講演である。
サービスの発表という意味では、もちろん、CEOであるマット・ガーマン氏によるものが最も大きな意味を持つ。
特に今年は、ガーマンCEOとともに、Amazon本体のCEOである、アンディ・ジャシー氏も登壇した。ジャシー氏は2021年までAWSのCEOでもあり、久々のre:invent登壇でもあった。
re:inventはAWSのイベントであり、Amazonはあくまで「最大の顧客の1つ」という位置付けだ。ジャシー氏が登壇したのも、AWSの顧客であるAmazonが、同社のサービスの中でいかにAIを活用しているのか……ということのアピールでもある。
例えば、先日から日本でも、Amazonのストア内で質問に答えるAIアシスタント「ルーファス」が稼働している。これもまた、AWSが提供する生成AI基盤である「Amazon Q」で動作するサービスだ。
ジャシーCEOは、「Amazon内部で構築中または構築済みの生成AIの適用例は、1,000件ほどにもなった」と話す。フルフィルメントセンター内でのロボット活用からカスタマーサポート、前出の「Rufas」まで、AWS上で動かすAIによってAmazon自体が効率化していることをアピールする。
そして、Amazonの提供する新しい生成AI基盤として公開されたのが、前出の「Amazon Nova」だ。
Amazon Novaは、いわゆる大規模言語モデルとしての顔と、画像・映像生成AIとしての顔をもつ。
前者としてはGPT-4oやGemini Pro、Claude 3.5などの「トップレベルAI」と同等の賢さを実現し、なおかつ、「最低でも75%以上安い」(ジャシーCEO)を目指す。
また、画像生成用の「Amazon Nova Canvas」と、動画生成用の「Amazon Nova Reel」が用意される。
動画については現状6秒までという制限があるものの、先行利用した企業からは「生成される動画背景の一貫性に優れる」(電通デジタル・執行役員の山本覚氏)との評価を得ている。
Amazonの名を冠した生成AIは他にもあり、昨年春には「Amazon Titan」が発表されている。Titanはなくなるわけではないが、現状あまり高い評価が得られていない。Amazon QはAWSでのシステム開発向けという側面が強く、完全な汎用というわけではない。
Amazon Novaは「AWSのサービスを使って提供されるAmazonのAI」という、少々わかりづらい立ち位置にある。
しかし、多様化する生成AI基盤へのニーズをカバーするためにも、競争力のあるAIを提供することは必要であり、強くアピールするためにもre:inventという場が必要……と判断したのだろう。
基盤整備は半導体に及ぶ
さらにわかりづらいかもしれないが、AWSは特定の生成AIだけを提供しているわけではない。これは他のクラウドサービス・プロバイダーも同様だが、様々なAIを動かすための基盤サービスを提供しつつ、自社でもサービスを打ち出す、というパターンになっている。
AWSが提供するAI基盤は「Amazon Bedrock」という。前出の「Amazon Q」「Amazon Titan」、そして「Amazon Nova」もAmazon Bedrock上で動作させることを選べるAI、という扱いだ。Amazon Bedrockでは、Mataの「Llama」やStability AIの「Stable Diffusion」、Anthropicの「Claude」などが選べる。
そのニーズは拡大しており、AWSのインフラ自体も、増え続けるAIのニーズにあわせて変化が続いている。
同社はサーバー向けARM系CPUの「Graviton」、分散コンピューティング向けの「Nitro」など、独自半導体・ハードウェアを使ったシステムで効率化を進めているが、特にAI向けとして開発したのが、学習向けの負荷を軽減するための「AWS Trainium」である。
昨年はCPUの「AWS Graviton4」と「AWS Trainium2」を発表しているが、今年は新チップの発表は行っていない。
しかし、Trainium2の利用拡大については、さらに一歩先に進めた。AWSは、Trainium2を使ったクラスター的な活用を広げる。
AWSはAIを含めた高性能演算基盤として、NVIDIAとの連携も強調する。一方で、AIの「学習」については独自のアクセラレーターチップであるTrainiumを活用し、効率化と処理能力強化を進めようとしている。
「AWS Trainium2 UltraServer」は、内部にAIアクセラレーターとして64個のTrainium2を内蔵したもの。基調講演後には、会場で実機も展示された。さらにこれを4つ組み合わせた「AWS Trainium2 UltraCluster」もある。
基調講演にゲストとして登壇したAnthropic・共同設立者のトム・ブラウン氏は、同社が提供する生成AIサービス「Claude」の先にある新プロジェクトとして「Project Rainier」を発表した。Project Rainierは現在の「Claude 3.5 Haiku」よりも賢いAIを目指すものだが、学習には「AWS Trainiumを何千・何百と使う」としている。このための基盤作り自体がProject Rainierの本質であり、AWSとの協業の軸でもある。
AmazonはAnthropicに対し、累計で80億ドル(約1.2兆円)を投資する。
Amazon Novaを作り、Anthropicに80億ドルを投資し、その背後でTrainiumをベースとしたハードウェア構築にも投資していることになるわけで、Amazon・AWSの投資規模の大きさには驚かされる。
こうした投資が続くのも、OpenAIなどのライバルに負けるわけにはいかないからだろう。どこも争うように投資と開発を続けており、投資にブレーキを踏むことは競争から降りることにつながる。
同時に、AIを開発する企業にとっては、AWSのような企業が基盤へと投資し続けてくれることが必要でもある。
AmazonとAWSは、その両面に投資することで現状に対応しようとしているわけだ。
AWSは生成AIを「レガシーソフト問題」解決に活かす
ただ、AWSは生成AIに関して、他社にない大きなビジネスの可能性を見出しつつある。
それが「システムをモダン化する技術としての生成AI」だ。
昨年のre:inventでAWSは、Amazon Qを使って「古いバージョンJavaのソフトを、新しいバージョンに書き直す」技術を発表している。
今年、そうした開発向けには「Amazon Q Developer」という呼称が使われるようになった。
さらに、Javaの書き直しだけでなく、2つのサービスが発表されている。
1つは、Windowsの「.net」向けに作られたアプリケーションを、Linuxなど向けに書き直すサービス。
もう1つは、古いIBMのメインフレーム向けに作られたアプリケーションを、最新のクラウド環境へと移行させるサービスだ。
どちらもAmazon Q Developerで動作する。
古いアプリケーションのメンテナンスは必要かつ重要なものだが、課題は他にもある。古い技術を有する技術者がどんどん減っていること、そして、作られた当時に記録されたドキュメントなどの情報が散逸していくからだ。
ここで生成AI技術が使える。
過去に作られたソフトウェアをAmazon Q Developerで処理し、ドキュメントの再構築やアプリ移植の手伝いができるからだ。
すべてを人の手で行なうと数年・数カ月かかるものが、この技術だと数日単位で可能になってくる。
当然、移行先はAWSのサービスということになるが、「古い技術のメンテナンス」に困る企業にとってはありがたいことだろう。
こうした部分もまた、AWSにとっての「生成AI投資領域」なのだ。
インフラ自社開発で電力・発熱を制御、電力事情には長期戦略で
AWSは世界中でサーバー投資を続けていることになるが、その環境負荷はどうなるのだろうか?
今回現地で、AWS・インフラストラクチャサービス担当バイスプレジデントのプラサド・カリアナラマン氏に話を聞くことができた。
カリアナラマン氏(以下敬称略):サーバーインフラでは電気設計・機械設計のシンプルさを改善し、電気使用量は最大46%になった。Gravitonのようなオリジナル半導体の活用は、消費電力の低減に大きな価値を持つ。放熱については、液冷から空冷まで色々な選択肢がある。内部の電源や冷却まで、自社で開発を行なっている。ただ、ストレージやデータベースやネットワークはそこまで発熱は大きくならず、空冷で対処できるだろう。一方で、NVIDIAのBlackwellのような処理基盤については、チップの冷却に液体を必要としており、循環システムが必要になる。
AWSにとってもサーバーインフラの運用負荷は大きな課題だ。だからこそ、積極的に独自の技術を開発し、最適化していくことが必須なわけだ。AWSの投資は、サーバーインフラの建設だけでなく半導体にも及んでいるわけだが、その理由は、結局のところ「そうしないと最適なインフラが作れない」からでもあるわけだ。
カリアナラマン:発電については、再生可能エネルギーの活用に期待している。ただ、その効率化には時間もかかるので、長い目で考えながら計画を進めている。今日では、我々は世界最大の再生可能エネルギーの購入者でもある。どんなインフラを使うかは、地域によってかなり異なる。
原子力発電にも投資しているが、日本でも活用の可能性があるかは、時間をかけて考えていく必要がある。
日本は電力供給の面で不利な立場にある。広大な土地を使った太陽光発電ができるわけでもなく、石油や天然ガスなどの資源があるわけでもなく、原子力発電の活用にも、政策と感情の両面で課題を抱えている。
そんな日本でもサーバーのニーズは拡大する一方であり、AI関連での電力需要は増す一方だろう。
クラウドインフラ事業者が国内で活発に使えるよう、電力事情については、再生可能エネルギーのさらなる活用や小型原子炉の導入を含め、より明確なグランドプランを早急に構築する必要がありそうだ。