Les Mac M2 génèrent désormais des images de diffusion stable en moins de 18 secondes
Les Mac M2 génèrent désormais des images de diffusion stable en moins de 18 secondes

De nouvelles optimisations ont permis aux appareils Mac basés sur M2 de générer Diffusion stable images en moins de 18 secondes.

Stable Diffusion est un générateur d'images AI similaire à DALL-E. Les utilisateurs peuvent saisir une invite de texte et l'IA produira une image qui est souvent bien meilleure que ce que la plupart d'entre nous, simples mortels, pouvons faire.

Apple soutient le projet Stable Diffusion et a publié une mise à jour sur son blog d'apprentissage automatique cette semaine sur la façon dont il améliore les performances sur Mac.

"Au-delà de la génération d'images à partir d'invites de texte, les développeurs découvrent également d'autres utilisations créatives de Stable Diffusion, telles que l'édition d'images, l'in-painting, l'out-painting, la super-résolution, le transfert de style et même la génération de palette de couleurs", a écrit Apple.

"Avec le nombre croissant d'applications de Stable Diffusion, il est important de s'assurer que les développeurs peuvent exploiter efficacement cette technologie pour créer des applications que les créatifs du monde entier pourront utiliser."

Apple souligne qu'il existe de nombreuses raisons pour lesquelles les utilisateurs souhaitent exécuter Stable Diffusion localement au lieu d'un serveur, notamment :

  • Protection de la vie privée — Les données utilisateur restent sur l'appareil.
  • Plus de flexibilité — Les utilisateurs n'ont pas besoin d'une connexion Internet.
  • Coût réduit — Les utilisateurs peuvent éliminer les coûts liés au serveur.

Apple indique avoir publié des optimisations de Core ML pour Stable Diffusion dans macOS 13.1 et iOS 16.2, ainsi que du code pour aider à démarrer sur les appareils basés sur M.

Suite aux optimisations, un Macbook Air M2 de base peut générer une image à l'aide d'un modèle de diffusion stable à 50 étapes d'inférence en moins de 18 secondes. Sans doute plus impressionnant, même un iPad Pro M1 peut faire le travail en moins de 30 secondes.

La version comprend également un package Python pour convertir les modèles Stable Diffusion de PyTorch en Core ML à l'aide de diffuseurs et d'outils coreml, ainsi qu'un package Swift pour déployer les modèles.

Des instructions détaillées sur l'analyse comparative et le déploiement sont disponibles sur le référentiel Core ML Stable Diffusion ici.

(Crédit d'image : Pomme)

Vous voulez en savoir plus sur l'IA et le Big Data auprès des leaders de l'industrie ? Vérifier Salon de l'IA et du Big Data se déroulant à Amsterdam, en Californie et à Londres.

Découvrez d'autres événements et webinaires technologiques d'entreprise à venir propulsés par TechForge ici.

Mots clés: pomme, m2 mac, apprentissage automatique, diffusion stable




Source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Scroll to Top