HuggingFace联手谷歌云,TPU加速AI应用部署
Hugging Face 平台迎来重磅升级,谷歌云 TPU 加持 AI 应用
近日,Hugging Face 兴奋地宣布,其 Inference Endpoints 和 Spaces 平台将迎来重磅升级,正式支持谷歌云 TPU v5e。这一合作将为 AI 开发者提供更强大的算力支持,帮助他们在 Hugging Face 平台上更快、更高效地部署和应用 AI 模型。
Inference Endpoints:一键部署,TPU 助力模型推理加速
Hugging Face Inference Endpoints 为开发者提供了一种便捷的生成式 AI 模型部署方案。开发者只需几步操作,即可将模型部署到所选云提供商管理的专用基础架构上。现在,平台已支持谷歌云 TPU v5e,为模型推理加速提供更强动力。
平台提供三种 TPU 实例配置,满足不同模型规模和性能需求:
v5litepod-1:配备 1 个核心和 16GB 内存(1.375 美元/小时)
v5litepod-4:配备 4 个核心和 64GB 内存(5.50 美元/小时)
v5litepod-8:配备 8 个核心和 128GB 内存(11.00 美元/小时)
Spaces:打造更强 AI 演示,TPU 助您轻松实现
Hugging Face Spaces 是一个面向开发者的 AI 演示和应用程序创建、部署和共享平台。此次升级为 Spaces 带来了谷歌云 TPU v5e 的强大支持,开发者可以更轻松地构建和展示性能更强大的 AI 应用。
强强联手,共促 AI 开发体验升级
Hugging Face 与谷歌云的合作并不止于此。双方合作开发的开源库 Optimum TPU 简化了在谷歌云 TPU 上训练和部署 Hugging Face 模型的流程。Inference Endpoints 正是利用 Optimum TPU 和文本生成推理(TGI)在 TPU 上提供大型语言模型(LLM)。
未来可期,更多精彩值得期待
Hugging Face 与谷歌云的合作将持续为 AI 开发者带来更多惊喜。未来,双方将支持更多模型架构,并不断优化平台功能,致力于为开发者提供更便捷、高效的 AI 开发体验。