🦥Unsloth Studio 介绍

使用 Unsloth Studio 在本地运行和训练 AI 模型。

今天,我们发布 Unsloth Studio (Beta):一个开源、无需代码的网页界面,用于在一个统一的 本地 界面中训练、运行和导出开源模型。

bolt快速开始star功能githubGitHub

  • 在本地运行 GGUF 和 safetensor 模型,适用于 Mac、Windows、Linux。

  • 以少 70% 的 VRAM 将 500+ 个模型的训练速度提升 2 倍(且不损失准确率)

  • 运行并训练文本、视觉、TTS 音频、嵌入模型

circle-check

⭐ 功能

在本地运行模型

搜索并运行 GGUF 和 safetensor 模型,支持 自我修复的工具 调用 / 网页搜索、 自动推理 参数调优、 代码执行 (Bash + Python)、API(很快推出)。上传图片、文档、音频、代码。

并排对战模型。基于 llama.cpp + Hugging Face,我们支持 多 GPU 推理 以及大多数模型。

执行代码 + 修复工具调用

Unsloth Studio 让 LLM 不仅能运行 JavaScript,还能运行 Bash 和 Python。它还会像 Claude Artifacts 一样对程序进行沙箱隔离,因此模型可以测试代码、生成文件,并通过真实计算验证答案。

例如,Qwen3.5-4B 搜索了 20 多个网站并引用了来源,网页搜索发生在其思维轨迹之中。

无需代码训练

上传 PDF、CSV、JSON 文档或 YAML 配置,并立即在 NVIDIA 上开始训练。Unsloth 的内核可优化 LoRA、FP8、FFT、PT,覆盖 500+ 个文本、视觉、TTS/音频和嵌入模型。

微调最新的 LLM,例如 Qwen3.5 和 NVIDIA Nemotron 3. 多 GPU 会自动工作,并且新版即将到来。

数据配方

数据配方 通过图节点工作流将你的文档转换为可用 / 合成数据集。上传 PDF、CSV 和 JSON 等非结构化或结构化文件。由 NVIDIA Nemo 数据设计器arrow-up-right驱动的 Unsloth 数据配方会自动将文档转换为你想要的格式。

可观测性

获得 完整可视性 ,并对训练运行进行控制。实时跟踪训练损失、梯度范数和 GPU 利用率,并按你的喜好进行自定义。

你甚至可以在手机等其他设备上查看训练进度。

导出 / 保存模型

导出任何模型,包括你微调后的模型,保存为 safetensors 或 GGUF,以便与 llama.cpp、vLLM、Ollama、LM Studio 等一起使用。

保存你的训练历史,以便你回顾运行、再次导出并进行实验。

模型竞技场

与两个不同的 模型聊天并比较 ,例如基础模型和微调模型,以查看它们的输出有何不同。

只需先加载你的第一个 GGUF/模型,再加载第二个,搞定!推理会先加载一个模型,再加载第二个。

隐私优先 + 安全

Unsloth Studio 可 100% 离线运行,并在你的电脑本地使用。其基于令牌的身份验证,包括加密密码以及 JWT 访问 / 刷新流程,可确保你的数据安全。

你可以使用之前从 HF 等处下载的已有 / 旧模型或 GGUF。阅读 这里的说明.

circle-exclamation

⚡ 快速开始

Unsloth Studio 可在 Windows、Linux、WSL 和 MacOS 上运行(目前仅支持聊天)。

  • CPU: Unsloth 在没有 GPU 的情况下仍然可用,但仅限于 聊天 推理和 数据配方.

  • 训练: 可在 NVIDIA上运行:RTX 30、40、50、Blackwell、DGX Spark/Station 等 + Intel GPU

  • Mac: 与 CPU 类似 - 目前仅可用于聊天和 数据配方MLX 训练即将很快推出。

  • AMD: 聊天可用。使用 Unsloth Core进行训练。Studio 支持即将到来。

  • 即将推出: 对以下内容的训练支持 Apple MLX AMD。

  • 多 GPU: 已经可用,重大升级即将到来。

使用下面相同的安装命令进行更新:

MacOS、Linux、WSL:

Windows PowerShell:

启动 Unsloth

Docker:

使用我们的官方 Docker 镜像: unsloth/unslotharrow-up-right 目前适用于 Windows、WSL 和 Linux。MacOS 支持即将推出。

circle-check

有关安装和卸载的更多详情,请访问 Unsloth Studio 安装 部分。

arrow-down-to-squareInstallationchevron-right

google Google Colab 笔记本

我们创建了一个 免费的 Google Colab 笔记本arrow-up-right ,让你可以在 Colab 的 T4 GPU 上体验 Unsloth 的所有功能。你可以训练和运行参数最多 22B 的大多数模型,并切换到更大的 GPU 来处理更大的模型。只需点击“Run all”,安装完成后界面就会弹出。

安装完成后,向下滚动到 启动 Unsloth Studio 并点击 打开 Unsloth Studio 左侧显示的白色框中:

继续向下滚动,以查看实际界面。

circle-exclamation

seedling 工作流程

以下是 Unsloth Studio 的典型工作流程,帮助你快速上手:

  1. 启动 Studio

  2. 从本地文件或受支持的集成中加载模型。

  3. 从 PDF、CSV 或 JSONL 文件导入训练数据,或从头构建数据集。 数据配方.

  4. 在中清理、优化并扩展你的数据集

  5. 使用推荐预设开始训练,或自行自定义配置。

到你已经使用的本地技术栈中。

video 你可以阅读我们对 Unsloth Studio 各个部分的独立深入解析:

视频教程

这是 NVIDIA 制作的视频教程,帮助你快速上手 Studio:

comments-question 常见问题

Unsloth 会收集或存储数据吗? Unsloth 不会收集使用遥测数据。Unsloth 只会收集兼容性所需的最少硬件信息,例如 GPU 类型和设备(如 Mac)。Unsloth Studio 100% 离线并在本地运行。

如何使用我之前从 Hugging Face 下载的旧 / 现有模型? 可以,你可以使用之前从 Hugging Face 等处下载的已有/旧模型或 GGUF。现在 Unsloth 应该会自动检测到它们,否则请阅读我们的 这里的说明.

为什么 Unsloth 中的推理有时更慢? Unsloth 和其他本地推理应用一样,都是由 llama.cpp 驱动的,因此速度应大致相同。有时 Unsloth 可能更慢,是因为你开启了网页搜索、代码执行、自我修复工具调用。这些功能都会让推理变慢。如果在关闭所有功能后速度差异仍然更慢,请提交一个 GitHub issue!

Unsloth Studio 支持 OpenAI 兼容的 API 吗? 支持,我们的数据配方已经支持。对于推理,我们正在开发这项功能,希望最早本周就能发布支持,敬请期待!

Unsloth 现在是否采用 AGPL-3.0 许可? Unsloth 采用 Apache 2.0 和 AGPL-3.0 的双许可证模式。核心 Unsloth 包仍然采用 Apache 2.0arrow-up-right许可,而某些可选组件,例如 Unsloth Studio UI,则采用 AGPL-3.0arrow-up-right.

许可。这种结构有助于支持 Unsloth 的持续开发,同时保持项目开源,并促进更广泛的生态继续成长。

Studio 只支持 LLM 吗? 不是。Studio 支持一系列受支持的 transformers 兼容模型家族,包括文本、多模态模型、 文本转语音、音频、 嵌入以及 BERT 风格模型。

我可以使用自己的训练配置吗? 可以。导入一个 YAML 配置,Studio 会自动填充相关设置。

我该如何调整上下文长度? 借助 llama.cpp 的智能自动上下文,已经不再需要调整上下文长度,它只会使用你需要的上下文,而不会加载任何额外内容。不过,我们之后仍会添加该功能,以防你需要使用它。

要使用这个界面,必须训练模型吗? 不,你可以直接下载任何 GGUF 或模型,而无需对任何模型进行微调。

Unsloth 的未来

我们正在努力让开源 AI 尽可能易于获取。接下来,Unsloth 和 Unsloth Studio 将正式支持:多 GPU、Apple Silicon/MLX 和 AMD。提醒一下,这是 Unsloth Studio 的 BETA 版本,因此未来几周会有大量公告和改进。我们也在与 NVIDIA 密切合作开发多 GPU 支持,以提供尽可能最佳且最简单的体验。

致谢

非常感谢 NVIDIA 和 Hugging Face 参与我们的发布。同时也感谢所有 Unsloth Studio 早期 Beta 测试者,我们非常感激你们投入的时间和反馈。我们还要感谢 llama.cpp、PyTorch 和 open model labs 提供了让 Unsloth Studio 成为可能的基础设施。

最后更新于

这有帮助吗?