ニュース
AWS、国内データセンターに低炭素コンクリート採用 AIインフラも拡充
2025年1月31日 18:28
Amazon Web Services(AWS)は31日、日本国内で環境負荷軽減と生成AI活用を推進する取り組みを発表した。山梨県丹波山村との水源涵養プロジェクトや、データセンター建設における低炭素型コンクリートの導入に加え、生成AIの実用化支援を強化する。
低炭素型コンクリートをデータセンター建設に導入
日本国内でのクラウドインフラ拡充に向け、2011年~2027年までに3兆7,700億円を投資する計画を進めている。その一環として、2026年に国内で稼働予定の新しいデータセンターを建設中で、従来のデータセンターと比較してエンボディドカーボンを64%削減した低炭素型コンクリートを採用する。
この取り組みは、竹中工務店、清水建設、大林組との協力により進められており、セメントの使用量を減らし、高炉スラグやバイオ炭を活用したECMコンクリートなどの新技術を導入する。これにより、炭素の貯留を促進し、データセンター建設における環境負荷を低減する。
また、同社では40年までに「ネット・ゼロ・カーボン」を達成することを目標とし、2023年末時点で41%を達成している。24年1月からは、全世界の新設データセンターでエンボディドカーボンが業界標準よりも35%低いコンクリートを使用する方針を示しており、日本国内でも持続可能なインフラ構築に向けた取り組みを進めていくとする。
さらに、日本国内では25件の再生可能エネルギープロジェクトを推進し、年間32万MWh以上の電力を供給する計画を進めている。これは、約7万6,000世帯分の年間消費電力に相当する規模となる。
特に、大規模なメガソーラー(太陽光発電)や風力発電の活用を拡大しており、9件のメガソーラー・風力発電プロジェクトを進めるほか、16件のルーフトップ型(建物の屋根を活用した)太陽光発電設備を導入している。
AWSはグローバル規模で再生可能エネルギーの活用を加速しており、2020年から4年連続で世界最大の再生可能エネルギー購入企業となっている。米国では、電力供給の選択肢として原子力の活用も検討している一方で、日本国内においては引き続き太陽光や風力といった再生可能エネルギーのみを活用する方針を継続するとしている。
丹波山村と水源涵養プロジェクトを開始
AWSでは、アジアパシフィック(東京)リージョンのデータセンターを丹波山村の水源地の一部に設置している。プロジェクトでは、森林の間伐や剪定、若木の成長管理を通じて、土壌への浸透水を増やし、地下水の涵養(かんよう)を促進する。これにより、AWSの事業で使用する水量以上の水を地域に還元することを目指す。
Amazon BedrockがDeepSeek R1対応 RAGやエージェント強化
AWSは、生成AIの実用化を支援するため、「Amazon Bedrock」を強化している。Amazon Bedrockは、企業が生成AIアプリケーションを構築・拡張できるサービス。複数のAIモデルプロバイダーの基盤モデルを利用できる点が特徴。「Luma AI」や「stabillity.ai」、「Anthropic」など様々なAIに対応。また、中国発のAI企業DeepSeekのLLM「R1」も利用可能になった。
また、「Amazon Bedrock Marketplace」を新たに追加。100を超える人気の基盤モデルを簡単に検索・導入できるようになった。日本からは「KARAKURI」「Preferred Networks」「Stockmark」がモデルを公開している。
さらに、モデルの効率的な活用を可能にする「Bedrock Model Distillation(モデル蒸留)」を導入。モデル蒸留とは、大規模なAIモデルの知識や出力パターンを、小規模なAIモデルに転移(蒸留)させ、特定用途向けに最適化する手法。これにより、小規模モデルでも大規模モデルに近い精度を維持しながら、処理速度を最大500%向上させ、コストを最大75%削減できる。
ほかにも、推論機能も強化しており、繰り返し利用されるトークンを安全にキャッシュし、コストを最大90%抑えつつ、レイテンシー(応答時間)を最大85%削減する「Prompt Cashing」、プロンプトの内容に応じて最適なAIモデルを自動選択する「Intelligent Prompt Routing」を搭載。これにより、適切なモデルを自動選択し、処理コストを抑えながら精度を維持できるようにしている。
企業が保有するデータを活用し、より精度の高い生成AIの応答を可能にする、「Amazon Bedrock Knowledge Base」を導入。ナレッジベースとは、企業の内部データと生成AIを連携させる仕組みで、特定の業務やドメインに特化した高精度な応答を提供できる。また、構造化データに対して自然言語でクエリしデータを取得できる。
また、RAG(検索拡張生成)の機能も強化。RAGは、AIが応答を生成する際に、特定のデータベースやドキュメントを検索し、リアルタイムで情報を取得・活用できる技術。これにより、最新の情報を反映した正確な回答を生成できるようになる。さらに、RAGとデータベース連携を強化し、SQLを自動生成する機能も追加。プロンプトの意図を解析し、企業が持つデータベースに適したSQLクエリを自動作成・実行することで、構造化データからの情報抽出が可能となった。
さらにAIエージェント機能を拡張し、新たに「Amazon Bedrock multi-agent Collaboration」を提供している。この機能は複数のエージェントが協調・連携しながら複雑な業務タスクを自動化する仕組みを指す。これまでのエージェントは複数の専門的なタスクを処理するには課題があったとし、それを解消するために登場したのが、Amazon Bedrock multi-agent Collaborationとなる。個々の業務に特化したエージェントを複数用意し、スーパーバイザーエージェントがこれらの個々のエージェントの調整役を担う。機密情報を持つエージェントの設定や、エージェントタスクを順次実行するか、並列実行するかの判断、エージェント間の連携状況などをスーパーバイザーエージェントが適宜統制を行なう。これにより、全体の工程を効率よく自動化できるようになるという。
AWSでは、責任あるAIの利用を強化している。AIポリシーに応じた安全対策を実装しており、複数のモデルとAmazon Bedrockのエージェントに適用可能。例えば、責任あるAIポリシーに基づいてコンテンツのフィルタリングを設定したり、センシティブな禁止トピックを文章で定義し、出力を制限。また個人情報や機密情報を検出し、ブロックすることも可能としている。
AI向けハードウェアの強化 Trainium 2を導入
生成AIの処理性能を向上させる専用チップの「AWS Trainium 2(トレーニアム)」は、前世代の「Trainium」と比較して、最大2倍の性能向上と最大40%のエネルギー効率向上を実現する。
Trainiumu 2は「EC2 Trn2 Instances」に搭載され、16個のTrainium 2チップを統合した構成で、大規模なAIモデルの学習や推論処理を高速化する。さらに、64個のTrainium 2チップを相互接続した「AWS Trainium 2 UltraServer」を活用すれば、最大83.2ペタフロップスの演算能力を提供する。さらに25年後半にはTrainiumu 3を展開予定としている。
AWS Japanの代表執行役員社長 白幡晶彦氏は、2024年11月の就任から3カ月を迎える。「今後10年でクラウドを取り巻く状況が変わっていくのではないかと思う。利用者の大事な基幹システムを預かる責任を感じ、責任を負える、信頼のおける会社にしていくのが大きなテーマになる。スタートアップの良さを持ち続けること大切にし、Still Day One(常に初日の気持ちで)の精神を大切にしたい」とコメントした。