输入一句话就能生成图像的 Stable Diffusion 已经火爆数月。它是一个开源模型,而且在消费级 GPU 上就能运行,是一项普通人就能接触到的「黑科技」。
在该模型走红之初,就有人尝试将其移植到苹果设备上运行,比如 M1 Mac、iPhone 14 Pro,并把教程传授给大家。
但令人没想到的是,前几天,苹果竟亲自下场了,手把手教大家如何直接将 Stable Diffusion 模型转换为自家 iPhone、iPad 和 Mac 可以运行的版本。以下是生成结果示例:
在苹果设备上运行 Stable Diffusion 和 Core ML + diffusers 生成的图像。
项目地址:https://github.com/apple/ml-stable-diffusion
整个代码库包括:
-
python_coreml_stable_diffusion,一个 Python 包,用于将 PyTorch 模型转换为 Core ML 格式,并使用 Python 版的 Hugging Face diffusers 执行图像生成;
-
StableDiffusion,一个 Swift 包,开发者可以把它作为依赖包添加到他们的 Xcode 项目中,在他们的应用程序中部署图像生成功能。Swift 包依赖于 python_coreml_stable_diffusion 生成的 Core ML 模型文件。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢