Mistral AI 让尖端 AI 触手可及
Mistral AI 近日宣布在 la Plateforme 平台上推出模型定制化服务,为 AI 应用带来更强大的性能、更快的速度和更精细的编辑控制。现在,用户可以轻松高效地根据自身需求调整 Mistral AI 模型,降低大规模定制生成式 AI 模型所需的成本和专业知识,轻松打造专属 AI 助手。无论用户是想在自己的基础架构上微调 Mistral AI 模型,还是希望利用 Mistral 托管的微调服务及其专有的微调技术,la Plateforme 都能满足您的需求。
模型微调是一种用于定制和改进大型语言模型 (LLM) 性能的关键技术,可以为特定应用提供更好的响应能力、灵活性和效率。在定制较小的模型以适应特定领域或用例时,微调提供了一种匹配较大模型性能的方法,从而降低了部署成本并提高了应用程序速度。
三种定制 Mistral 模型的方式
Mistral AI 为专门化 Mistral AI 模型提供了三种不同的切入点:

用于 Mistral 模型的开源微调 SDK
对于希望在其基础架构上微调 Mistral 开源模型的开发人员,Mistral 发布了轻量级高效的代码库 mistral-finetune。该代码库基于 LoRA 训练范式,允许进行内存高效且高性能的微调。使用 mistral-finetune,您可以在不牺牲性能或内存效率的情况下,在您的基础架构上微调所有 Mistral 开源模型。

la Plateforme 上的无服务器微调服务
为了进一步促进微调而无需基础架构的麻烦,Mistral 将在 la Plateforme 上推出新的微调服务。这些服务利用了 Mistral 独特的微调技术(通过广泛的研发进行了改进),可以快速且经济高效地进行模型调整,并有效地部署微调后的模型。作为 Mistral 向 AI 应用程序开发人员公开先进科学方法的使命的新一步,la Plateforme 使用 LoRA 适配器来防止遗忘基础模型知识并允许高效的服务。

图1:Mistral LoRA 微调比 Mistral 7B 和 Mistral Small 的完整微调更有效,同时具有相似的性能:评估指标是与 MTBench 评估非常相似的归一化内部基准(1 是指 Mistral Small 完整微调的参考)。
传统上,微调模型需要企业进行大量投资。 Mistral 在该领域的专业知识使其能够以高效的方式提供微调,这意味着降低了培训和服务的成本。
目前,Mistral 的微调服务与 Mistral 7B 和 Mistral Small 兼容。使用这两种模型的用户可以立即使用 Mistral 的 API 有效地定制模型,以满足他们的特定需求。 Mistral 还计划在未来几周内为其微调服务添加新的模型。
用户可以通过在 la Plateforme 上注册,探索 Mistral 提供的指南和关于如何使用自定义 LLM 构建应用程序的教程。

定制培训服务
Mistral 的定制培训服务可以使用客户自己的专有数据,根据客户的特定应用微调 Mistral AI 模型。这种方法能够为特定领域创建高度专业化和优化的模型。 Mistral 提出了先进的技术,例如持续预训练,以将专有知识包含在模型权重本身中。
这些定制培训服务仅供部分客户使用,并根据他们的特定需求量身定制。 有兴趣的用户可以联系 Mistral 销售团队 以了解更多信息。

参与 Mistral 微调黑客马拉松
想要深入了解并体验 Mistral 全新的微调 API?不要错过 2024 年 6 月 5 日至 30 日举行的 Mistral 微调黑客马拉松。点击此处 了解更多信息,加入这场技术盛宴!