ニュース
次世代AIのブレイクスルーとは? 東大×ソフトバンクのBeyond AI研究
2025年2月13日 08:00
東京大学 Beyond AI研究推進機構が主催する「第5回 Beyond AI 研究推進機構 国際シンポジウム」が2月7日、東京大学・福武ホールで開催された。
「Beyond AI 研究推進機構」は2020年5月に東京大学とソフトバンクとの産学協創事業の研究拠点として設立された。AIの基盤技術研究やその他の学術領域との融合によって、新たな学術分野の創出を目指す「基礎研究(中長期研究)」と、さまざまな社会課題・産業課題へのAIの活用を目的とする「応用研究(ハイサイクル研究)」の二つの領域で研究を推進している。
第5回の国際シンポジウムのテーマは「次世代のAI:次なるブレークスルーと可能性」。2024年のノーベル物理学賞とノーベル化学賞は深層学習を用いたAIに関する研究に与えられるなど、AIの進展は著しいが今後の展開の予測は困難になりつつある。
シンポジウムでは、東京大学総長の藤井輝夫氏、ソフトバンク 代表取締役 社長執行役員兼 CEOの宮川潤一氏による開会挨拶に続いて、著名な数理工学者である甘利俊一氏や、Physical Intelligence共同創業者のセルゲイ・レヴィン氏、巨額資金を調達しているSakana AI CEOのデイビッド・ハ氏など海外からの演者を含む基調講演、およびパネルディスカッションが行なわれた。会場には160人以上が集まり、オンラインでは2,000人以上が聴講した。
AIが変える未来社会
東大総長の藤井氏は「このプロジェクトは10年計画でスタートした。現在、その中間地点。プロジェクト後半に入り先を見据えて 世界の未来社会に貢献できるようなさらなる成果の創出を目指す。生成AIの登場と普及や商業展開によって大きな曲がり角に立っている。ダボス会議でも今回はインテリジェント時代が議論された」と述べた。
ビデオで登壇したソフトバンク宮川氏は「以前は数年かかっていた開発が、たった数カ月でリリースしている。今年はAGI(汎用人工知能)が完成する年だと確信している。AIの基礎を築いてきたAI研究者の知恵と熱意に深い敬意を表する。新たな知見が得られることを心から願っている」と述べた。
Beyond AI連携事業とは
続いて、東京大学 Beyond AI 研究推進機構 機構長の萩谷昌己氏がBeyond AI連携事業の概要について紹介した。前述のようにBeyond AIは応用研究と基礎研究の二本立てで研究を行なっているが、新事業創出には経済産業省の「CIP(Collaborative Innovation Partnership、技術研究組合)」という仕組みを使っている。中長期にはAIそのものを進化させる分野や学際的な分野など、4つの分野で研究を行なっている。
方向性としては物理学を進化させる方法、脳科学など他分野の知識をAIに融合させる方法などがある。またAIと倫理などの可能性や、大規模言語モデルのバイアス等についても研究を行なっている。
新事業創出を目指す応用研究には、ソフトバンクのリソースも活用する。例として挙げられたのは臨場感の高いバーチャル試着体験の創出だった。CIPでは次世代の医療やヘルスケア実現を目指すHEMILLIONS社に続いて、まもなく新会社を設立する予定。さらにどんどん会社を生み出すためにプラットフォームを作る予定だと紹介した。
AIにおける諸課題を解決するために
シンポジウムの趣旨については実世界知能実現を目指す研究を行なっている東京大学 先端科学技術研究センター教授の原田達也氏が解説した。原田氏は言語のみならず視聴覚に至るまで影響を及ぼしている「マルチモーダル基盤モデル」のインパクトに改めて触れた。AIは生活や社会、サイエンスの手法自体も変えつつある。たとえば核融合のプラズマ制御にもAIが用いられ始めている。
2024年のノーベル賞は、物理学賞・化学賞ともAI関連の研究に与えられた。AIの進化は加速しているが、将来の予測は極めて困難だ。そこで色々な分野の研究者とともに知見を共有し、議論したいと考えたと語った。
また、AIには学習コスト、消費電力、推論効率、トレーニングデータ、バイアス、倫理、安全、汎化、堅牢性、現実との繋がり、マルチモーダル、自律的な意思決定など、未解決の課題がある。これらの課題に取り組んで解決していかなければならないと原田氏は語った。
AIと文明
最初の基調講演は「AIと文明 - 未来への展望(AI and Civilization–Future Perspectives)」と題して、情報幾何、数理神経科学、AI分野の先駆者として知られる帝京大学先端総合研究機構特任教授、東京大学名誉教授、理化学研究所栄誉研究員の甘利俊一氏が行なった。
甘利氏は「物理法則が支配する宇宙、地球に『生命』という特別な物質が現れた。情報としての構造を持ち、自己複製する。エラーによって環境に適応した新しいものも生まれる。生命によって新たな法則が生まれた。そして人が現れ、進化が図られてきた。生命によって物質と情報が相互作用する。進化は情報システムであるとも言える」と大きな視点から話を始めた。
そして脳のなかで情報システムがどのように実装されているかは未解明だと指摘し、数理的なアプローチの重要性を改めて強調して、AIの歴史を振り返った。以前は予算もなくて大変だったという。
そして現在のAIにも理論的に未解明の部分があり、さらに研究が必要だと指摘した。またAIの意識やこころについてや、AIによって社会や文明が変化する可能性があり「将来は仕事すること=楽しむこととなるかもしれない。さまざまなかたちの社会ができるかもしれない」と語った。
ロボット基盤モデル「π0」
AIロボットスタートアップのPhysical Intelligence共同創業者で、強化学習を中心とした意思決定と自律モデルの研究を行なっているカリフォルニア大学バークレー校 EECS(電気工学・コンピュータサイエンス学科)准教授 セルゲイ・レヴィン(Sergey Levine)氏は「ロボット基盤モデル」について紹介した。
AIは、数年前までは個別のタスクごとに個別のトレーニングデータセットを作って人間がラベル付けをしてモデルを学習させていた。だが現在では大規模な汎化できる基盤モデルで教師なし学習を行ない、ファインチューンすることで特定タスクに対応させられるようになった。それと同様のアプローチがロボットに対しても可能になりつつある。
レヴィン氏はまず「RT-X」というプロジェクトを紹介した。34の研究室、22のロボット、数百スキルからなるデータセットを使って単一モデルをトレーニングし、既存手法と比較したところ、タスク成功率は50%向上した。
RT-X: generalist AI models lead to 50% improvement over RT-1 and 3x improvement over RT-2, our previous best models. 🔥🥳🧵
— Quan Vuong (@QuanVng)October 3, 2023
Project website:https://t.co/GAlvFdqwx5pic.twitter.com/Jzy8b2eOjf
さらに強力なロボット基盤モデルを作るためにレヴィン氏らはPhysical Intelligenceを創業。異なるロボットのデータを統合した基盤モデル「π0(パイゼロ)」を開発した。ロボットはゼロショット学習が可能になり、高度なタスクではファインチューニングすることで、異なる条件でも一貫した成功率を達成した。
レヴィン氏は「現在のモデルにはまだ制約があるし洗練された意思決定手法が必要だ。だが言語モデルにおける『Chain of Thought(思考の連鎖)』のようにタスクを細分化し計画的逐次推論を行なうことで、ロボットの視覚-言語モデル(VLM)でも複雑な作業を遂行できるようになる。強化学習も有効だ」と語った。基板へのチップ挿入やケーブル接続などの精密な作業に強化学習を適用したところ短期間で100%の成功率を達成し、動作速度も向上したと紹介した。
共感的なAIが次世代に文化を伝える
シンガポール科学技術研究庁(A*STAR)マルチモーダル生成AIグループリーダー兼教育用AIプログラム責任者であるナンシー・F・チェン(Nancy F. Chen)氏は「共感的な推論、ファスト&スロー、AIの心をかたち作る(Empathetic Reasoning, Fast and Slow: Shaping AI's Mind)」と題して講演した。人間や動物のように共感、つまり他人の立場に立って考える能力があれば、AIと人間の協働も、より容易になると考えられる。
チェン氏はシンガポール発の大規模言語モデル「MERaLiON(Multimodal Empathetic Reasoning and Learning in One Network)」を紹介した。マルチモーダルな共感的推論と学習を一つのネットワークで実現するプロジェクトで、シンガポールで使われている英語に対応した音声基盤モデル、多言語・多文化な環境に対応した音声・テキスト統合モデルとなっている。
チェン氏はこのモデルの背景を述べ、AIエージェントの教育への有用性を語った。「AIエージェントは子供に忍耐強く教えてくれる」ため、人間よりも教育に向いている側面もあるという。
また移民社会のシンガポールではAIを使って自分たちの民族の言語を教育することもできるのではないかと語った。そして「日本の文化には共感を見ることができる」と述べた。以心伝心、おもてなしといった概念のことだ。生成AIの時代にもこれらの考え方を取り込んでより良いサービスができるといいのではないかと述べた。
小規模モデルの集合知を使って大規模なAI超えを目指す「Sakana AI」
最後の講演は「集合知の未来と基盤モデルのメタ進化(The Future of Collective Intelligence and Meta Evolution for Foundation Models)」と題して、Sakana AI 代表取締役/Co-Founder and CEOのデイビット・ハ(David Ha)氏が行なった。
デイビット・ハ氏はゴールドマンサックスを経て、2016年にGoogle Brain Researchチームに所属。2017年にGoogle Brain東京チームトップして来日し、東京大学で博士号を取得後、「Stable Diffusion」で知られるStability AIの研究責任者を経て、2023年にSakana AIを創業した。独自のAI技術を日本で開発したいと考えたという。
デイビット・ハ氏は社会的進化、知性の進化に関心があると述べた。人間の知は「集合知」であり、レジリエントだ。AIを進化させるにはAI自体がAIを生み出していく必要があると述べ、AIの集合知を作ることでAIを進化させていくことができると語った。
Sakana AIは小規模なAIを組み合わせて、より大規模なAIを作ることを目指している。ゼロからモデルを作るのではなく既存のモデルを組み合わせることで、ローコストでより良いモデルを生み出す進化的アプローチも有効だと考えているという。
ハ氏はSakana AIが作ったVLM(Vision Language Model)による画像を使ったチャットや、日本のカルチャーっぽい絵の生成を紹介した。また科学的発見にもAIエージェントは有用だと考えており、修士レベルの学生のレベルを目指しているという。
そして「AIサイエンティストはハルシネーションのかたちで新しい考え方を生む」と述べ、浮世絵風画像生成モデルや、スマホでも動く小規模日本語言語モデル「TinySwallow」などこれまでの同社の成果物のほか、AIを使った人工生命なども紹介した。
余裕を持った冒険がイノベーションを生む
このあと、パネルディスカッションが行なわれた。モデレーターは原田達也教授。パネリストは甘利俊一氏のほか、筑波大学 デジタルネイチャー開発研究センター長の落合陽一氏、東京大学 大学院新領域創成科学研究科 教授の杉山将氏、東京大学 大学院情報理工学系研究科 教授の武田朗子氏、東京大学 大学院総合文化研究科 准教授の馬場雪乃氏。
話題は、基盤モデルの発展から始まり、優秀な人材を集めるためにはどうすればいいか、大企業による大規模投資が行なわれているなかアカデミアが今なすべきことは何か、AGI(汎用人工知能)への道はどうなりそうか、AIに関するセキュリティや規制、ルールの問題と広範だった。詳細は割愛する。
最後に若者たちへのメッセージとして、杉山氏は「人生は探索と活用のトレードオフ。若い人も我々も探索し続ける、学び続けることが重要」と述べた。馬場氏は「イノベーションは誰も思いつかなかった使い方、その人なりの興味を突き詰めた結果から生まれるので、他者に踊らされずに突き詰めるべきで、その先にイノベーションを起こすといいのではないか」と語った。
甘利氏は「自分が興味をもって『やりたい』と思うものをつかんで追求していく、できれば仲間を作って追求することが重要。ただし時々はテーマを変えて違う角度からものを見る。柔軟な発想を持つことが重要」と述べた。
武田氏は「人生は最適化しすぎないことが重要。一見無駄だと思われることもあとから役立つことがある。最適化の研究者である私自身もでキャリアはショートパスではない。だからこそ色んな場所に出ていけるし、コラボレーションにもつながる。色々なことを試して勉強してイノベーションを起こしてほしい」と述べた。
落合陽一氏は「GPT-2が出てきたときに、あそこで100億円ぶっこむ覚悟はまったくなかった、と坂村健氏に言ったら『老いた』と言われた。あの段階で100億円、200億円とかけられたやつだけが今は楽しそう。冒険が大切だ。『インディ・ジョーンズ』みたいな研究、冒険度が高い方向に進むべき。ヤバいものを見つけたら、そこに100億円ぶっこむべき」と語った。
Beyond AI 研究推進機構 機構長の萩谷昌己氏も最後に「好奇心を持ってやってみること、余裕をもって冒険をすることが次のブレイクスルーには重要なのではないか」とコメントを述べた。