@music_zone

@music_zone

Share this post

@music_zone
@music_zone
Riffusion détourne le modèle de Stability pour générer de la musique
Musictech

Riffusion détourne le modèle de Stability pour générer de la musique

En entraînant le modèle text-to-image de Stability à générer des spectrogrammes de pièces musicales, qui sont ensuite convertis en signal audio, l'IA de Riffusion lui permet de générer de la musique.

Philippe Astor
févr. 23, 2024
∙ abonné payant

Share this post

@music_zone
@music_zone
Riffusion détourne le modèle de Stability pour générer de la musique
1
Partager
Pièce de blues rock chantée de 12 secondes générée par l’IA de Riffusion à partir de deux vers de Rimbaud traduits en anglais.

Fondée en 2022 par le musicien et dévelopeur Seth Forsgren et par le roboticien Hayk Martiros, la start-up Riffusion, basée à San Francisco, a développé un outil d'intelligence artificielle permettant de générer des chansons à partir de prompts textuels. L'IA musicale générative de Riffusion s'appuie sur le modèle d'apprentissage profond (ou deep-learning) Stable Diffusion de la compagnie Stability, conçu à l’origine pour générer des images photoréalistes de haute qualité à partir de descriptions textuelles.

Continuez votre lecture avec un essai gratuit de 7 jours

Abonnez-vous à @music_zone pour continuer à lire ce post et obtenir 7 jours d'accès gratuit aux archives complètes des posts.

Déjà abonné payant ? Se connecter
© 2025 Philippe Astor
Confidentialité ∙ Conditions ∙ Avis de collecte
ÉcrireObtenir l’app
Substack est le foyer de la grande culture

Partager