ヒューマノイドロボット開発企業 Figure の資金調達総額が10億ドルを突破、商用展開を加速

Figure は、2022年に米国で創業されたロボティクス企業である。「実世界で稼働する商用可能なヒューマノイド」を目標に掲げ、AI 基盤モデルを組み込みつつ、製造・物流・サービスなど多様な業務に対応できる汎用ヒューマノイドロボットの開発を進めている。これまでに 2 世代のヒューマノイドロボットを完成させ、現在は次世代機「Figure 03」を開発中だ。
2025年9月、同社はシリーズCラウンドで10億ドル超を調達し、評価額は390億ドルに達した。ラウンドは Parkway Venture Capital が主導し、NVIDIA、Intel Capital、LG Technology Ventures などが参加した。資金はロボットの量産化、BotQ の製造拡大、GPU インフラやシミュレーション基盤の強化、人動画やマルチモーダルデータ収集などに活用される予定だ。
同社は「高度なAI で人間の能力を拡張する」ことをミッションに掲げ、長期的な視野で汎用ヒューマノイドの社会実装を進めている。米国では 1,000 万件以上の危険・不人気職が存在し、労働人口の伸びも鈍化が予測されている。人手不足を補うためには自動化が不可欠であり、Figure はまず製造・物流・倉庫・小売を重点領域に据えている。
これに対し同社は「人間環境に適応する汎用ヒューマノイド」を掲げ、専用設計に頼らず 1 体で数百万のタスクを担える構想を描く。人型の身体を備え労働市場に直接組み込むことで、人間労働に依存する世界 GDP の半分(約42兆ドル)を補完し、長期的には労働コストをロボットのレンタル価格に収束させることを目指している。
仮想環境での検証で開発を加速
Figure のヒューマノイドは、人間と同じ二足歩行・腕・手を備え、既存の環境を改造せずに利用できる設計を採用している。関節やアクチュエータを最適化し、省エネルギーかつ長時間の稼働を実現。制御には視覚・音声・運動を統合したマルチモーダル AI 基盤モデルを組み込み、人間の動作データを学習させることで、基本動作から複雑な作業までを共通モデルで汎化できる点が特徴だ。
さらに、大規模シミュレーションと GPU インフラを活用し、仮想環境で膨大なケースを高速に検証する。これにより安全性と開発効率を両立し、実機だけに依存せず精度を高めている。加えて、実世界のマルチモーダルデータを収集し、シミュレーションと組み合わせて制御系を強化。結果として 24 時間稼働でも高い成功率を維持する堅牢な汎用ロボット基盤を構築している。
ヒューマノイドの商用展開を加速
今回の資金は、ヒューマノイドの商用展開を加速させるための中核投資に充てられる。
同社が掲げる重点領域は三つある。第一に、実世界での稼働を拡大するため、製造体制を強化し量産化を進め。第二に、ロボットの知覚や推論を担う Helix モデル群の性能を高めるべく、次世代 GPU インフラを拡充する。第三に、人間の動作映像やマルチモーダルデータを収集し、学習基盤を強化することで環境適応力を高める点が挙げられる。
これらの取り組みにより Figure は、ヒューマノイドを家庭や商業施設に本格導入しようとしている。目標は、ロボットを社会に自然に溶け込ませ、多様な現場で人間を補完する存在へと発展させることにある。
ヒューマノイドのグローバル動向とFigureの戦略
以前本サイトでは、ヒューマノイド開発動向や中国勢の急成長について特集した。そこで紹介したのは、強化学習や Sim-to-Real の活用、生成 AI を通じた自然言語インタフェースの進化、さらに UBTech や Fourier など中国企業の野心的な取り組みである。こうした潮流は、産業現場におけるロボット導入の速度と射程を一気に広げつつある。
Figureの製造体制の拡充、Helix モデルを軸とした知能の高度化、そして実世界データの獲得による適応力の強化は、世界の先端事例と歩調を合わせつつ差別化を図る挑戦だ。各社が実証から量産・商用化へと歩みを進める今、同社がどこまでスピードと信頼性を両立できるかが、ヒューマノイドの社会実装を左右する鍵になるだろう。
参考文献:
※1:Figure Exceeds $1B in Series C Funding at $39B Post-Money Valuation( リンク)
※2:同社公式HP(リンク)
【世界のロボティクスの技術動向調査やコンサルティングに興味がある方】
世界のロボティクスの技術動向調査や、ロングリスト調査、大学研究機関も含めた先進的な技術の研究動向ベンチマーク、市場調査、参入戦略立案などに興味がある方はこちら。
先端技術調査・コンサルティングサービスの詳細はこちら
CONTACT
お問い合わせ・ご相談はこちら

