返回资讯列表
大模型

Multiverse Computing 推出压缩AI模型,加速主流应用

Anna Heim2026/05/06524 阅读
📊

随着私人企业违约率升至9.2%高点,风险投资公司Lux Capital建议AI企业以书面形式确认计算资源承诺,强调供应链风险加剧。与此同时,小型AI模型正走向本地化运行——西班牙初创公司Multiverse Computing推出“CompactifAI”应用,基于其量子启发式压缩技术,将超轻量级模型Gilda嵌入设备实现离线运行,保障隐私与低延迟;其智能路由系统“Ash Nazg”可自动切换本地

随着私人企业违约率攀升至9.2%以上——为多年来的最高水平——风险投资公司Lux Capital近日建议,依赖人工智能(AI)技术的企业应将自身计算资源承诺以书面形式予以确认。Lux Capital警告称,当前AI供应链正因财务动荡而持续震荡,仅靠口头协议已远远不够。

然而,还存在另一种完全不同的选择:彻底放弃对外部计算基础设施的依赖。当下,一些小型AI模型已发展到足以在用户自有设备上直接运行的程度——无需数据中心、无需云服务提供商,也无任何对手方风险——这使其具备了实际应用价值。而Multiverse Computing正是这一方向的积极践行者。

这家西班牙初创公司此前一直保持低调,但随着市场对AI效率需求日益增长,其曝光度正在迅速提升。该公司已成功对来自OpenAI、Meta、DeepSeek及Mistral AI等主流AI实验室的模型进行压缩,并推出了一款名为“CompactifAI”的应用程序,用以展示其压缩模型的能力;同时上线了一个API门户——该门户使开发者能够便捷地访问并基于这些模型构建应用,从而大幅提升其可及性。

“CompactifAI”应用(与Multiverse公司所研发的量子启发式压缩技术同名)是一款类ChatGPT或Mistral Le Chat风格的AI聊天工具。用户提出问题后,模型即可作答。其核心差异在于:Multiverse将名为“Gilda”的超轻量级模型嵌入其中,该模型小到足以实现本地离线运行——据公司介绍。

对于终端用户而言,这代表了一种“边缘AI”体验:数据无需离开设备,也不再依赖网络连接。不过需注意的是,用户的移动设备必须具备足够的内存(RAM)和存储空间。若设备性能不足(例如许多较旧型号iPhone便不满足条件),该应用会自动切换至云端模型,通过API调用完成处理。这一本地与云端之间的智能路由由Multiverse开发的系统“Ash Nazg”负责管理——该名称源自托尔金《指环王》中“至尊魔戒”上的铭文,令不少粉丝倍感亲切。然而,一旦转为云端运行,其核心优势之一——隐私保护——便随之削弱。

上述限制表明,CompactifAI尚不具备大规模面向消费者的成熟条件,而这也可能从来不是其目标。根据Sensor Tower的数据,该应用在过去一个月中的下载量不足5,000次。

其真正瞄准的对象是企业客户。目前,Multiverse正推出一个自助式API门户,允许开发者及企业直接接入其压缩模型,无需经过AWS Marketplace等第三方渠道。

来源:Anna Heim

AI人工智能科技大模型