當量子計算遇上 AI 壓縮:1.89 億歐融資背后的算力效率革命
西班牙量子啟發(fā) AI 公司 Multiverse Computing 宣布完成 1.89 億歐元 B 輪融資,本輪由 Bullhound Capital 領投,HP Tech Ventures、東芝、CDP Venture Capital 等全球戰(zhàn)略投資者跟投。這家成立于 2017 年的初創(chuàng)公司,憑借量子物理啟發(fā)的張量網絡(Tensor Networks)技術,將大語言模型(LLMs)壓縮率提升至 95%,同時保持原始模型精度,徹底改寫了 AI 部署的硬件成本邏輯。

「業(yè)界普遍認為模型壓縮必然伴隨性能損失,但 Multiverse 正在顛覆這一認知。」創(chuàng)始人 Enrique Lizaso Olmos 指出,其核心產品 CompactifAI 通過解析神經網絡內部數(shù)十億虛假關聯(lián),實現(xiàn)對 Llama、DeepSeek、Mistral 等主流開源模型的深度優(yōu)化。測試數(shù)據(jù)顯示,壓縮后模型推理速度提升 4-12 倍,數(shù)據(jù)中心算力成本降低 50-80%,而在極端壓縮場景下,GPT-4 級模型可直接運行于消費級設備。
從實驗室到產業(yè)化:張量網絡如何破解大模型「部署困局」?
傳統(tǒng)模型壓縮技術(量化、剪枝)雖能縮小模型體積,但往往導致 10-30% 的精度損失,這也是企業(yè)級 LLM 部署依賴 GPU 集群的核心原因。Multiverse 聯(lián)合創(chuàng)始人、量子物理專家 Román Orús 另辟蹊徑,將量子多體物理中的張量網絡理論引入神經網絡優(yōu)化 —— 通過矩陣分解技術識別模型中的冗余參數(shù),在數(shù)學層面實現(xiàn)「無損壓縮」。
這種跨學科創(chuàng)新帶來的產業(yè)價值立竿見影:某自動駕駛公司采用 CompactifAI 后,車載視覺模型體積從 80GB 壓縮至 4GB,卻保持 99.2% 的障礙物識別準確率,直接推動端側 AI 計算平臺成本下降 60%。「我們不是在做簡單的模型減肥,而是重構 AI 的計算底層。」Orús 強調,該技術已支持超 20 種主流模型架構,客戶覆蓋汽車、金融、醫(yī)療等關鍵行業(yè)。
科技巨頭押注歐洲 AI 主權:HP、東芝為何重金入局?
本輪融資陣容堪稱「全球科技聯(lián)盟」:Bullhound Capital 合伙人 Per Roman 直言,Multiverse 的技術「正在加速歐洲 AI 主權進程」;HP 技術創(chuàng)新總裁 Tuan Tran 則表示,該投資旨在解決「大模型高成本部署的行業(yè)痛點」,其與 HP 邊緣計算設備的整合已進入測試階段。值得注意的是,東芝、Santander Climate VC 的加入,暗示壓縮技術在低碳算力、綠色數(shù)據(jù)中心領域的潛在價值。
