Las nuevas optimizaciones han permitido que los dispositivos Mac basados en M2 generen imágenes de difusión estable en menos de 18 segundos.
Stable Diffusion es un generador de imágenes de IA similar a DALL-E. Los usuarios pueden ingresar un mensaje de texto y la IA producirá una imagen que a menudo es mucho mejor que lo que la mayoría de nosotros, simples mortales, podemos hacer.
Apple apoya el proyecto Stable Diffusion y publicó una actualización en su blog de aprendizaje automático esta semana sobre cómo está mejorando el rendimiento en Mac.
“Más allá de la generación de imágenes a partir de indicaciones de texto, los desarrolladores también están descubriendo otros usos creativos para Stable Diffusion, como la edición de imágenes, la pintura interna, la pintura externa, la superresolución, la transferencia de estilos e incluso la generación de paletas de colores”, escribió Apple.
“Con el creciente número de aplicaciones de Stable Diffusion, garantizar que los desarrolladores puedan aprovechar esta tecnología de manera efectiva es importante para crear aplicaciones que los creativos de todo el mundo puedan usar”.
Apple destaca que hay muchas razones por las que las personas quieren ejecutar Stable Diffusion localmente en lugar de un servidor, que incluyen:
- salvaguardar la privacidad — Los datos del usuario permanecen en el dispositivo.
- Más flexibilidad — Los usuarios no requieren una conexión a Internet.
- Costo reducido — Los usuarios pueden eliminar los costos relacionados con el servidor.
Apple dice que ha lanzado optimizaciones para Core ML para Stable Diffusion en macOS 13.1 e iOS 16.2, junto con código para ayudar a comenzar en dispositivos basados en M.
Después de las optimizaciones, una Macbook Air M2 básica puede generar una imagen utilizando un modelo de difusión estable de 50 pasos de inferencia en menos de 18 segundos. Podría decirse que lo más impresionante es que incluso un iPad Pro M1 puede hacer el trabajo en menos de 30 segundos.
El lanzamiento también incluye un paquete de Python para convertir modelos Stable Diffusion de PyTorch a Core ML utilizando difusores y coremltools, así como un paquete Swift para implementar los modelos.
Las instrucciones detalladas sobre evaluación comparativa e implementación están disponibles en el repositorio Core ML Stable Diffusion aquí.
(Credito de imagen: Manzana)

¿Quiere aprender más sobre IA y big data de los líderes de la industria? Eche un vistazo a AI & Big Data Expo que tendrá lugar en Ámsterdam, California y Londres.
Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados por TechForge aquí.
Los Mac posteriores a M2 ahora generan imágenes de difusión estable en menos de 18 segundos aparecieron primero en AI News.