苹果已正式批准了 AI 基础设施初创公司 Tiny Corp 的驱动程序,使英伟达(Nvidia)和 AMD 的外接显卡(eGPU)能够在基于 Arm 架构的 Mac 上运行。该驱动专为运行大语言模型(LLM)设计,专注于计算任务。虽然需要通过 Docker 进行编译,但最关键的是,开发者无需再关闭苹果的系统完整性保护(SIP)。这标志着 macOS 本地人工智能开发迎来了重要里程碑。
打破芯片壁垒:英伟达重返 macOS
多年来,苹果与英伟达的关系一直处于“冰封”状态:苹果不仅全面取消了对英伟达 GPU 的支持,还在向 Apple Silicon(苹果芯片)过渡时彻底放弃了 eGPU 支持。然而,人工智能的爆发式增长迫使硬件生态系统走向务实。作为一家雄心勃勃的 AI 基础设施公司,Tiny Corp 实现了许多开发者认为不可能的事情:让苹果官方为 M 系列芯片签署了兼容英伟达的驱动程序。
“苹果终于批准了我们用于 AMD 和 NVIDIA 的驱动,”Tiny Corp 在宣布这一认证时确认道。
获得官方签名是此次进展中最核心的一环。过去,任何试图在 macOS 上运行未经授权的内核扩展的操作,都必须关闭系统完整性保护(SIP)。对于个人极客来说,关闭 SIP 虽然有风险但尚可接受;但对于使用公司设备的企事业 AI 开发者而言,这严重违反了 IT 安全策略。通过官方批准该驱动,苹果实际上为企业工程团队打开了大门,让他们能在不破坏系统安全的前提下,将专用的 AI 硬件集成到现有的 Mac 工作流中。
专为 AI 计算打造,而非即插即用的图形显示
需要明确的是该驱动的应用范围。它不能把 MacBook Pro 变成高端游戏本,也不会向显示器输出图像信号。它是一个纯粹的计算驱动,从底层开始就是专为机器学习和深度学习工作负载而设计的。
此外,目前的部署方式仍具有较高的技术门槛。它没有简单的即插即用安装包,开发者必须使用 Docker 来编译驱动。这种容器化的方法既能保证宿主操作系统的稳定性,又能让 eGPU 直接与 AI 框架进行交互。
对于 AI 从业者来说,与本地计算带来的巨大价值相比,这点操作门槛微不足道。该硬件桥接方案的主要目标是部署、测试和微调开源大语言模型。虽然苹果的统一内存架构在将海量模型权重加载到 RAM 方面表现优异,但在原始矩阵乘法、处理速度以及成熟的软件生态方面,英伟达的硬件依然是无可争议的黄金标准。
加速本地 AI 工作流
引入英伟达计算
