スペインのMultiverse ComputingがシリーズBで313億円を調達。量子コンピューターの考え方でLLMを圧縮する技術

量子コンピューティング技術を活用した大規模言語モデル(LLM)開発のMultiverse Computingは2025年6月12日、シリーズB資金調達ラウンドでの€189m(約313億円)の確保を発表した。
同社は2019年、スペインで設立。Enrique Lizaso Olmos CEO、Román Orús最高戦略責任者(CSO)、Samuel Mugel CTO、Alfonso Rubio-Manzanares最高マーケティング責任者(CMO)の4人が共同創業者となっている。
推論ではなくモデルそのものを圧縮する技術
生成AIの普及と進化により、必要とされる電力の確保が課題となっているのは、よく知られるところだ。この課題に対しては、AIを開発する企業が自ら発電所を設けるなど、さまざまな対策が立てられているさなかである。
一方、AIが大量のエネルギーを消費するということは、計算資源も同様に消費していることでもある。求められる計算の量を圧縮できれば、空いた資源を別の推論に割り当てる、短時間の生成、また消費エネルギーの削減にもつながるだろう。
Multiverse Computingによると、現状でもLLMの推論で圧縮技術は利用されているものの、大きなメリットはない。そこで同社が取り組むのが、量子コンピューティングの考え方をベースにLLMのモデルそのものを圧縮するという方法だ。
Multiverse Computingは、この技術を「CompactifAI」と命名した。
量子コンピューティングにおける計算は、それに適したものと適さないものがある。つまり、量子コンピューターを使ったところで、必ずしも古典コンピューターより高速の計算ができるとは限らないということだ。
よって、LLMが推論を行うときの計算を量子コンピューターや量子コンピューティング的な方法を採ったところで、やはり高速な計算や消費資源の圧縮になるとも限らない。
CompactifAIは、こうした推論を圧縮するのではなく、量子コンピューター・量子物理学の計算手法である「テンソルネットワーク」を活用し、LLMの構造を圧縮する。
平たくいえば、必要がないと判断できる推論、計算を行わないことで、LLMの質を下げずに計算資源の消費を抑制するイメージとなりそうだ。
このような技術を有することから、Multiverse Computingは2025年5月、企業データベースを製作するCB Insightsの「List of the 100 Most Innovative AI Startups(最も革新的なAIスタートアップ100社)」の一つに選定された。
エレクトロニクス関連の戦略的投資家が参加
シリーズBには、Hewlett-Packardのコーポレートベンチャーキャピタル(CVC)であるHP Tech Venturesや東芝などが参加。資金の使途は、「LLMの導入を阻む莫大なコストを解消し、AIの普及を加速させ、$106b規模のAI推論市場に革命をもたらす」と述べるにとどめ、詳細は明らかにしていない。
Olmos CEOは、「モデル圧縮におけるブレークスルーとして始まったこの取り組みは、すぐに変革をもたらした。AI導入における新たな効率性を実現し、AIモデル実行に必要なハードウエア要件を大幅に削減した」とコメントしている。
中央がOlmos CEO。左はOrús CSO、右がMugel CTO(Multiverse Computingプレスリリースより)
【世界のLLMの技術動向調査やコンサルティングに興味がある方】
世界のLLMの技術動向調査や、ロングリスト調査、大学研究機関も含めた先進的な技術の研究動向ベンチマーク、市場調査、参入戦略立案などに興味がある方はこちら。
先端技術調査・コンサルティングサービスの詳細はこちら
CONTACT
お問い合わせ・ご相談はこちら

