快链头条 消息,3 月 17 日,稳定币发行商 Tether 宣布,其 AI 平台 QVAC Fabric 推出全球首个面向 Microsoft BitNet(1-bit LLM)的跨平台 LoRA 微调框架,使十亿参数级语言模型能够在普通硬件上完成训练与推理,包括笔记本电脑、消费级 GPU 及智能手机。
官方表示,该框架显著降低了 AI 模型训练所需的显存和算力门槛,支持 Intel、AMD、Apple Silicon 及多种移动 GPU(如 Adreno、Mali、Apple Bionic)。
在测试中,约 1.25 亿参数 BitNet 模型 可在 Samsung S25 上约 10 分钟完成微调;10 亿参数模型 在 Samsung S25 上约 1 小时 18 分钟完成,在 iPhone 16 上约 1 小时 45 分钟完成,团队甚至成功在 iPhone 16 上微调 130 亿参数模型。
性能方面,BitNet 模型在移动 GPU 上的推理速度可比 CPU 提升 2 至 11 倍。同时,测试显示 BitNet-1B 在推理与微调任务中的显存占用相比 16-bit 模型最高可减少 77.8%。
Paolo Ardoino 表示,此项技术旨在降低对大型云计算与专用 AI 硬件的依赖,让 AI 模型训练能够在本地设备完成,并为去中心化 AI 与联邦学习等新模式提供基础。