Quel que soit le type de musique que vous écoutez, l’art du remix fait aujourd’hui partie intégrante de la musique populaire. Depuis ses premières racines dans la musique concrète et les artistes dancehall de la Jamaïque des années 60 jusqu’au dernier remix de Cardi B, la réorientation et la réorganisation des chansons pour créer de nouveaux morceaux ont longtemps été un moyen pour les musiciens de découvrir des sons nouveaux et passionnants.
Au début de la production de musique électronique, la musique était remixée au moyen de manipulations physiques sur bande, un processus maîtrisé par des ingénieurs du son pionniers comme Delia Derbyshire, King Tubby et Lee ‘Scratch’ Perry. Et le processus est resté en grande partie inchangé jusqu’à l’avènement de la musique numérique.
Maintenant, le remixage est sur le point d’une autre grande transformation – et la société d’IA Audioshake mène la charge. Nous avons parlé à la cofondatrice d’Audioshake, Jessica Powell, de la façon dont la société utilise un algorithme sophistiqué pour aider les créateurs de musique à extraire les chansons du passé pour créer de nouveaux contenus, et des futures applications potentielles de la technologie dans la bande sonore de vidéos Tik-Tok amusantes, de publicité , et faire en sorte que les concerts de musique en direct virtuels sonnent bien.
Sommaire
De petites tiges poussent de puissantes pistes
S’adressant à TechRadar entre deux apparitions lors d’une conférence en Italie, Powell nous a expliqué comment fonctionne la technologie d’Audioshake.
« Nous utilisons l’IA pour diviser les chansons en leurs parties, qui sont connues par les producteurs sous le nom de stems – et les stems sont pertinents car vous pouvez déjà faire beaucoup avec eux, comme dans les films et les publicités », a-t-elle expliqué.
Travailler avec ces tiges permet aux producteurs de manipuler des éléments individuels d’une chanson ou d’une bande-son – par exemple, en baissant le volume de la voix lorsqu’un personnage à l’écran commence à parler. Les tiges sont également utilisées dans tout, de la création de pistes de karaoké, qui coupent complètement le chant principal afin que vous puissiez faire face à votre groupe préféré pendant trois minutes, au remix d’une chanson d’Ed Sheeran sur un rythme reggaeton.
Et, comme l’explique Powell, les tiges sont encore plus utilisées aujourd’hui. Les technologies audio spatiales telles que Dolby Atmos prennent des parties individuelles d’une piste et les placent dans une sphère 3D – et lorsque vous écoutez avec les bons haut-parleurs ou une excellente barre de son, vous avez l’impression que la musique vient de vous sous tous les angles.
Donc, si les stems sont si largement utilisés dans l’industrie de la musique et au-delà, pourquoi Audioshake est-il même nécessaire ? Eh bien, les maisons de disques n’ont pas toujours accès aux stems d’une piste – et avant les années 1960, la musique la plus populaire était composée de techniques d’enregistrement monophoniques et à deux pistes. Et cela signifie que les parties individuelles de ces chansons – les voix, les guitares, la batterie – ne pouvaient pas être séparées.
C’est là qu’Audioshake entre en jeu. Prenez n’importe quelle chanson, téléchargez-la dans la base de données de l’entreprise, et son algorithme analyse la piste et la divise en un nombre quelconque de tiges que vous spécifiez – tout ce que vous avez à faire est de sélectionner les instruments qu’il doit écouter. pour.
Nous l’avons essayé nous-mêmes avec Life on Mars de David Bowie. Après avoir sélectionné les instruments approximatifs que nous voulions que l’algorithme écoute (dans ce cas, voix, guitare, basse et batterie), il lui a fallu 30 secondes pour analyser la chanson et la décomposer en ses parties constituantes.
À partir de là, vous pouvez entendre chaque instrument séparément : la batterie, les notes de basse bourdonnantes, le solo de guitare pleurnicheur emblématique, le jeu de piano flamboyant de Rick Wakeman ou simplement la piste vocale de Bowie. Et la vitesse à laquelle Audioshake est capable de le faire est à couper le souffle.
« Si vous êtes une maison de disques ou un éditeur de musique, vous pouvez en quelque sorte créer un instrument à la volée », explique Powell. « Vous n’avez pas besoin d’aller dans un DAW (Digital Audio Workstation) comme Ableton ou Pro Tools pour réassembler la chanson pour créer l’instrumental – c’est juste ici à la demande. »
Alors, comment ça marche? Eh bien, l’algorithme a été entraîné pour reconnaître et isoler les différentes parties d’une chanson. C’est étonnamment précis, surtout si l’on considère que l’algorithme n’est pas techniquement conscient de la différence entre, disons, un violoncelle et un synthé basse fréquence. Il y a des zones qui le font trébucher, cependant.
Heavy autotune – Powell utilise l’exemple des « artistes comme T-Pain » – sera identifié comme un effet sonore par opposition à une tige vocale. L’algorithme ne peut pas encore apprendre des commentaires des utilisateurs, c’est donc quelque chose qui doit être abordé par les développeurs, mais le fait que ces tiges puissent être séparées du tout est vraiment impressionnant.
Le droit d’enregistrer
Malheureusement, la technologie d’Audioshake n’est actuellement pas disponible pour l’humble producteur de chambre à coucher. À l’heure actuelle, les clients de la société sont principalement des détenteurs de droits comme des maisons de disques ou des éditeurs – et bien que cela puisse être décevant pour quiconque aimerait briser un classique d’Abba avant la prochaine résidence virtuelle du groupe à Londres, la technologie est utilisée dans des moyens vraiment intéressants.
Une société de gestion de chansons, Hipgnosis, qui voit les chansons comme des opportunités d’investissement autant que des œuvres d’art, détient les droits sur un énorme catalogue de chansons emblématiques d’artistes allant de Fleetwood Mac à Shakira.
En utilisant Audioshake, Hipgnosis crée des tiges pour ces vieilles chansons et les donne ensuite à son écurie d’auteurs-compositeurs « pour essayer de réimaginer ces chansons pour l’avenir et les présenter à une nouvelle génération », comme le dit Powell, ajoutant « Vous pouvez imaginer certains de ces rythmes entre les mains de la bonne personne qui peut faire des choses vraiment cool avec eux.
Posséder les droits de ces chansons rend ces choses possibles – et ouvrir la technologie au public pourrait être un bourbier juridique, avec des personnes utilisant et diffusant des créations artistiques qui ne leur appartiennent pas. Ce n’est pas seulement une question juridique, cependant; pour Audioshake, c’est aussi une question d’éthique, et Powell indique clairement que la technologie doit fonctionner pour les artistes, pas contre eux.
Elle dit que la compagnie « voulait vraiment s’assurer que nous respections les souhaits de l’artiste. S’ils veulent ouvrir leurs chansons et trouver ces nouvelles façons de les monétiser, nous voulons être là pour les aider à le faire. Et s’ils ne sont pas d’accord avec ça, ce n’est pas nous qui allons aider quelqu’un à casser son travail sans permission.
« Prenez les tournesols de Van Gogh », ajoute-t-elle. « Nous n’allons pas simplement sortir un tournesol si vous ne le voulez pas.
Le son du futur
Cependant, les remix pop traditionnels ne sont qu’un début. Il existe de nombreuses applications potentielles pour Audioshake qui pourraient être ouvertes à l’avenir – et TikTok pourrait être l’une des plus lucratives.
Les possibilités créées en donnant aux créateurs de TikTok la possibilité de travailler avec des tiges pour mélanger des pistes de manière divertissante pourraient être un outil inestimable pour une plate-forme de médias sociaux basée sur de courts extraits audio et vidéo.
Il est également possible d’améliorer la qualité sonore de la musique diffusée en direct. Lorsqu’un artiste diffuse en direct l’un de ses concerts sur une plate-forme comme Instagram, à moins qu’il ne puisse utiliser un flux direct depuis la table de son, l’auditeur va entendre toute une charge de bruit et de distorsion de la foule.
« Regardez quelque chose sur Instagram Live et vous ne restez même pas dans les parages – vous préféreriez presque regarder la vidéo musicale parce que le son est mauvais », explique Powell. En utilisant Audioshake (et avec un petit retard), vous pouvez réduire le bruit de la foule, baisser les basses et augmenter la voix pour une expérience audio plus claire.
En regardant encore plus loin, il est possible d’utiliser la technologie pour produire de la musique adaptative, c’est-à-dire une musique qui change en fonction de vos activités.
« C’est plus futuriste, mais imaginez que vous marchez dans la rue en écoutant Drake », dit Powell. « Et puis vous commencez à courir et cette chanson se transforme – c’est toujours la chanson de Drake, mais c’est maintenant presque comme un genre différent, et cela vient du travail avec les parties de la chanson, comme augmenter l’intensité du battement de tambour pendant que vous vous entraînez. »
Il semble que la musique adaptative soit un peu éloignée, mais nous savons que l’audio peut déjà être manipulé en fonction de votre environnement. Il suffit de regarder les écouteurs antibruit adaptatifs comme le Sony WH-1000XM4, qui peuvent augmenter le niveau d’annulation du bruit lorsque vous entrez dans des environnements bruyants – et d’autres modèles de casques ont des fonctionnalités similaires qui ajustent automatiquement le volume de votre musique en fonction de votre environnement. La fonction Speak-to-Chat du XM4 est un autre exemple, le casque écoutant le son de votre voix.
Les applications pour faire fonctionner des écouteurs pourraient aller encore plus loin. Avec les Apple AirPods 3 censés avoir des capteurs biométriques qui mesureront tout, de votre rythme respiratoire à la précision avec laquelle vous pouvez recréer une pose de yoga, la musique adaptative pourrait même être utilisée pour renforcer vos entraînements lorsque vos écouteurs détectent une baisse d’effort – et Les technologies d’extraction de tiges comme Audioshake pourraient permettre aux artistes de monétiser plus facilement leur musique de cette manière.
Bien qu’il soit peu probable que la musique adaptative atteigne nos oreilles avant quelques années, l’idée d’ouvrir des chansons afin de les rendre plus interactives et de les personnaliser est tout aussi excitante que la prochaine génération de musiciens exploitant les chansons du passé pour créer de nouveaux sons. Espérons qu’un jour, d’humbles musiciens de chambre pourront également exploiter ces chansons, comme cueillir des fleurs dans un vase de Van Gogh.