@music_zone

@music_zone

Share this post

@music_zone
@music_zone
Riffusion détourne le modèle de Stability pour générer de la musique
Copier le lien
Facebook
Email
Notes
Plus
Musictech

Riffusion détourne le modèle de Stability pour générer de la musique

En entraînant le modèle text-to-image de Stability à générer des spectrogrammes de pièces musicales, qui sont ensuite convertis en signal audio, l'IA de Riffusion lui permet de générer de la musique.

Philippe Astor
févr. 23, 2024
∙ abonné payant

Share this post

@music_zone
@music_zone
Riffusion détourne le modèle de Stability pour générer de la musique
Copier le lien
Facebook
Email
Notes
Plus
1
Partager
Pièce de blues rock chantée de 12 secondes générée par l’IA de Riffusion à partir de deux vers de Rimbaud traduits en anglais.

Fondée en 2022 par le musicien et dévelopeur Seth Forsgren et par le roboticien Hayk Martiros, la start-up Riffusion, basée à San Francisco, a développé un outil d'intelligence artificielle permettant de générer des chansons à partir de prompts textuels. L'IA musicale générative de Riffusion s'appuie sur le modèle d'apprentissage profond (ou deep-learning) Stable Diffusion de la compagnie Stability, conçu à l’origine pour générer des images photoréalistes de haute qualité à partir de descriptions textuelles.

Continuez votre lecture avec un essai gratuit de 7 jours

Abonnez-vous à @music_zone pour continuer à lire ce post et obtenir 7 jours d'accès gratuit aux archives complètes des posts.

Already a paid subscriber? Se connecter
© 2025 Philippe Astor
Confidentialité ∙ Conditions ∙ Avis de collecte
ÉcrireObtenir l’app
Substack est le foyer de la grande culture

Partager

Copier le lien
Facebook
Email
Notes
Plus