🦥Unsloth Studio 介绍
使用 Unsloth Studio 在本地运行和训练 AI 模型。
今天,我们发布 Unsloth Studio (Beta):一个开源、无需代码的网页界面,用于在一个统一的 本地 界面中训练、运行和导出开源模型。
在本地运行 GGUF 和 safetensor 模型,适用于 Mac、Windows、Linux。
以少 70% 的 VRAM 将 500+ 个模型的训练速度提升 2 倍(且不损失准确率)
运行并训练文本、视觉、TTS 音频、嵌入模型
了解所有最新更新,请查看我们的 新的更新日志页面! ✨
3 月 27 日: Unsloth 现在有了桌面快捷图标。
推理现在快了 20–30%,并且现在计算正确。
自动检测来自 Hugging Face、LM Studio 等 下载的旧模型或已有模型。
CPU RAM 不再暴涨。
3 月 25 日:你现在可以更新 Unsloth Studio 了! 请通过以下方式更新: unsloth studio update
Windows 现在 CPU 或 GPU 都能无缝工作。请重新安装!
应用快捷方式。安装完成后,你现在可以通过桌面上的快捷图标启动。
预编译
llama.cpp二进制文件 - 安装速度快 6 倍!安装体积减少 50% (节省 7GB 或更多)、安装速度快 2 倍、解析更快。pypi 包体积减少 50%。
工具调用已改进。 更好的 llama.cpp 解析,聊天中不再显示原始工具标记,推理更快,新增工具输出面板和计时器。
MacOS 和 CPU 现在都支持 数据配方 并启用了多文件上传。

⭐ 功能
在本地运行模型
搜索并运行 GGUF 和 safetensor 模型,支持 自我修复的工具 调用 / 网页搜索、 自动推理 参数调优、 代码执行 (Bash + Python)、API(很快推出)。上传图片、文档、音频、代码。
并排对战模型。基于 llama.cpp + Hugging Face,我们支持 多 GPU 推理 以及大多数模型。


无需代码训练
上传 PDF、CSV、JSON 文档或 YAML 配置,并立即在 NVIDIA 上开始训练。Unsloth 的内核可优化 LoRA、FP8、FFT、PT,覆盖 500+ 个文本、视觉、TTS/音频和嵌入模型。
微调最新的 LLM,例如 Qwen3.5 和 NVIDIA Nemotron 3. 多 GPU 会自动工作,并且新版即将到来。



导出 / 保存模型
导出任何模型,包括你微调后的模型,保存为 safetensors 或 GGUF,以便与 llama.cpp、vLLM、Ollama、LM Studio 等一起使用。
保存你的训练历史,以便你回顾运行、再次导出并进行实验。


隐私优先 + 安全
Unsloth Studio 可 100% 离线运行,并在你的电脑本地使用。其基于令牌的身份验证,包括加密密码以及 JWT 访问 / 刷新流程,可确保你的数据安全。
你可以使用之前从 HF 等处下载的已有 / 旧模型或 GGUF。阅读 这里的说明.

请注意,这是 Unsloth Studio 的 BETA 版本。未来几天和几周内将会有大量改进、修复和新功能。我们正在积极解决的一个问题是预编译 llama.cpp 二进制文件,以显著加快安装时间。
⚡ 快速开始
Unsloth Studio 可在 Windows、Linux、WSL 和 MacOS 上运行(目前仅支持聊天)。
训练: 可在 NVIDIA上运行:RTX 30、40、50、Blackwell、DGX Spark/Station 等 + Intel GPU
Mac: 与 CPU 类似 - 目前仅可用于聊天和 数据配方 。 MLX 训练即将很快推出。
AMD: 聊天可用。使用 Unsloth Core进行训练。Studio 支持即将到来。
即将推出: 对以下内容的训练支持 Apple MLX 和 AMD。
多 GPU: 已经可用,重大升级即将到来。
使用下面相同的安装命令进行更新:
MacOS、Linux、WSL:
Windows PowerShell:
启动 Unsloth
Docker:
使用我们的官方 Docker 镜像: unsloth/unsloth 目前适用于 Windows、WSL 和 Linux。MacOS 支持即将推出。
由于预编译的 llama.cpp 二进制文件,首次安装现在应快 6 倍,且体积减少 50%。
有关安装和卸载的更多详情,请访问 Unsloth Studio 安装 部分。
Installation Google Colab 笔记本
我们创建了一个 免费的 Google Colab 笔记本 ,让你可以在 Colab 的 T4 GPU 上体验 Unsloth 的所有功能。你可以训练和运行参数最多 22B 的大多数模型,并切换到更大的 GPU 来处理更大的模型。只需点击“Run all”,安装完成后界面就会弹出。
安装完成后,向下滚动到 启动 Unsloth Studio 并点击 打开 Unsloth Studio 左侧显示的白色框中:
继续向下滚动,以查看实际界面。

我们现在会预编译 llama.cpp 二进制文件,以显著加快安装速度。
有时 Studio 链接可能会返回错误。这是因为你可能使用了广告拦截器,或者 Mozilla 或 Google Colab 期望你停留在 Colab 页面;如果检测到不活跃,它可能会关闭 GPU 会话。不过,你仍然可以向下滚动一点
工作流程
以下是 Unsloth Studio 的典型工作流程,帮助你快速上手:
从 安装说明.
启动 Studio
从本地文件或受支持的集成中加载模型。
从 PDF、CSV 或 JSONL 文件导入训练数据,或从头构建数据集。 数据配方.
在中清理、优化并扩展你的数据集
使用推荐预设开始训练,或自行自定义配置。
到你已经使用的本地技术栈中。
你可以阅读我们对 Unsloth Studio 各个部分的独立深入解析:
视频教程
这是 NVIDIA 制作的视频教程,帮助你快速上手 Studio:
常见问题
Unsloth 会收集或存储数据吗? Unsloth 不会收集使用遥测数据。Unsloth 只会收集兼容性所需的最少硬件信息,例如 GPU 类型和设备(如 Mac)。Unsloth Studio 100% 离线并在本地运行。
如何使用我之前从 Hugging Face 下载的旧 / 现有模型? 可以,你可以使用之前从 Hugging Face 等处下载的已有/旧模型或 GGUF。现在 Unsloth 应该会自动检测到它们,否则请阅读我们的 这里的说明.
为什么 Unsloth 中的推理有时更慢? Unsloth 和其他本地推理应用一样,都是由 llama.cpp 驱动的,因此速度应大致相同。有时 Unsloth 可能更慢,是因为你开启了网页搜索、代码执行、自我修复工具调用。这些功能都会让推理变慢。如果在关闭所有功能后速度差异仍然更慢,请提交一个 GitHub issue!
Unsloth Studio 支持 OpenAI 兼容的 API 吗? 支持,我们的数据配方已经支持。对于推理,我们正在开发这项功能,希望最早本周就能发布支持,敬请期待!
Unsloth 现在是否采用 AGPL-3.0 许可? Unsloth 采用 Apache 2.0 和 AGPL-3.0 的双许可证模式。核心 Unsloth 包仍然采用 Apache 2.0许可,而某些可选组件,例如 Unsloth Studio UI,则采用 AGPL-3.0.
许可。这种结构有助于支持 Unsloth 的持续开发,同时保持项目开源,并促进更广泛的生态继续成长。
Studio 只支持 LLM 吗?
不是。Studio 支持一系列受支持的 transformers 兼容模型家族,包括文本、多模态模型、 文本转语音、音频、 嵌入以及 BERT 风格模型。
我可以使用自己的训练配置吗? 可以。导入一个 YAML 配置,Studio 会自动填充相关设置。
我该如何调整上下文长度? 借助 llama.cpp 的智能自动上下文,已经不再需要调整上下文长度,它只会使用你需要的上下文,而不会加载任何额外内容。不过,我们之后仍会添加该功能,以防你需要使用它。
要使用这个界面,必须训练模型吗? 不,你可以直接下载任何 GGUF 或模型,而无需对任何模型进行微调。
Unsloth 的未来
我们正在努力让开源 AI 尽可能易于获取。接下来,Unsloth 和 Unsloth Studio 将正式支持:多 GPU、Apple Silicon/MLX 和 AMD。提醒一下,这是 Unsloth Studio 的 BETA 版本,因此未来几周会有大量公告和改进。我们也在与 NVIDIA 密切合作开发多 GPU 支持,以提供尽可能最佳且最简单的体验。
致谢
非常感谢 NVIDIA 和 Hugging Face 参与我们的发布。同时也感谢所有 Unsloth Studio 早期 Beta 测试者,我们非常感激你们投入的时间和反馈。我们还要感谢 llama.cpp、PyTorch 和 open model labs 提供了让 Unsloth Studio 成为可能的基础设施。

最后更新于
这有帮助吗?

