Memories AI、ウェアラブル・ロボット向けに視覚記憶レイヤーを構築
-
FromTechCrunch AI
Memories.aiは、AIが物理世界で成功するために、見たものを記憶する必要があるというShawn Shen氏の信念に基づき、ウェアラブルやロボットが視覚記憶を保持・想起できるようにするインフラストラクチャを構築しています。
同社はNvidiaと提携し、NvidiaのCosmos-Reason 2(推論型ビジョン言語モデル)およびNvidia Metropolis(ビデオ検索・要約アプリケーション)を活用して、視覚記憶技術を開発しています。
Shen氏と共同創業者兼CTOのBen Zhou氏は、MetaのRay-BanグラスのAIシステム開発中に、ユーザーが録画したビデオデータを思い出せない場合に、この技術をどのように実生活で活用できるかという疑問から着想を得て、Memories.aiを設立しました。
AIの記憶能力は近年進化していますが、OpenAIのChatGPTやxAI、Google Geminiなどの進歩は主にテキストベースの記憶に焦点を当ててきました。Shen氏は、物理的なAIアプリケーションは視覚情報への依存度が高いため、テキストベースの記憶だけでは不十分だと指摘しています。
Memories.aiは2024年に設立され、これまでに1,600万ドルを調達しました。同社は、ビデオデータを格納・検索可能なデータ形式に埋め込み・インデックス化するためのインフラストラクチャ構築と、モデルをトレーニングするためのデータ収集という2つの要素が、視覚記憶レイヤー構築に不可欠であると考えています。
2025年7月には大規模視覚記憶モデル(LVMM)をリリースし、これはGemini Embedding 2の小型版に例えられています。データ収集には、同社の「データコレクター」が着用するハードウェアデバイスLUCIを使用しています。
同社はLVMMの第2世代をリリースし、Qualcommとの提携によりQualcommプロセッサ上で動作する予定です。また、大手ウェアラブル企業とも協力していますが、詳細は非公開です。
Shen氏は、ウェアラブルやロボット市場は将来的に大きな成長が見込まれるものの、現時点ではモデルとインフラストラクチャの構築に注力していると述べています。
AIによる翻訳/要約をしています。正確な情報はオリジナルサイトにてご確認ください。
当サイトの記事にはプロモーションが含まれる場合があります。
