Greenroom

Le jour où un sismologue a inventé l’Auto-Tune

De Rihanna à PNL, tout le monde utilise aujourd’hui le logiciel Auto-Tune, parfois sans même le savoir. À l’origine de tout ça, un ancien sismologue qui ne se doutait pas vraiment qu’il allait révolutionner à ce point le monde de la musique.

Le 24 novembre 1998, un séisme sans pareil secoue le monde de la musique. Il s’appelle « Believe », dernier single de la chanteuse californienne Cher. En quelques mois, le morceau pulvérise absolument tous les scores et finit en tête des ventes américaines, françaises, italiennes, allemandes, australiennes, norvégiennes, anglaises, etc, etc, etc. À 52 ans, Cher n’incarne pourtant pas vraiment la fraîcheur. Ce qui subjugue surtout le public, c’est sa voix robotique, parfaitement juste et glacée comme du métal. Une prouesse technologique rendue possible grâce à Auto-Tune, un tout nouveau logiciel qui semble alors capable de pouvoir transformer les chanteuses vieillissantes en androïdes du nouveau millénaire. Et personne n’avait vu venir cet impressionnant tremblement de terre qui va changer l’Histoire de la musique. Mis à part Andy Hildebrand, soixantenaire souriant et sismologue de formation.

Photoshop musical

Formé en ingénierie électrique à l’Université de l’Illinois, celui que beaucoup surnomment aujourd’hui « Docteur Andy » se spécialise dans les prédictions sismiques : il étudie les sols pour l’entreprise Exxon, puis pour sa propre boite Landmark Graphics Corporation. À 40 ans, il décide pourtant de prendre sa retraite pour s’inscrire dans une école de musique où son passé de scientifique fascine. « Un jour, je mangeais avec des amis et une femme m’a demandé de lui fabriquer une boite qui lui permettrait de chanter juste. Ça a fait rire tout le monde car nous savions qu’un tel système ne pouvait pas exister, » se rappelle-t-il aujourd’hui. Pourtant, Andy Hildebrand réalise rapidement que les algorithmes qu’il utilisait en sismologie peuvent facilement être appliqués à la musique pour corriger par exemple une voix ne chantant pas dans le ton.

Via son entreprise Antares Audio Technologies, il crée alors le logiciel Auto-Tune, le Graal dont rêvaient tous les ingénieurs du son : « Auto-Tune a changé la manière dont fonctionnent les studios d’enregistrement car la justesse des voix a toujours été un problème. Avant, un studio faisait chanter la même phrase au chanteur encore et encore, jusqu’à ce qu’elle soit juste. Ça prenait beaucoup de temps et ça nécessitait énormément de prises. Avec Auto-Tune, le chanteur chante sa chanson une fois et il rentre chez lui. Le producteur règle ensuite les problèmes de justesse lui-même, ce qui lui fait gagner beaucoup de temps, et donc d’argent. Aujourd’hui, tous les grands studios utilisent Auto-Tune : ça leur permet de rester compétitifs ». Équivalent musical du logiciel Photoshop pour le photographe, Auto-Tune se retrouve désormais partout, corrigeant les voix sans que l’on s’en aperçoive pour des genres aussi variés que la pop, le rock, la country, le reggae, la musique de Bollywood ou même certains chants religieux du Moyen-Orient. « Quand les gens arrivent à entendre cet effet, ils disent « ça c’est de l’Auto-Tune ! » Mais ils ne réalisent pas qu’Auto-Tune est souvent utilisé pour corriger la justesse sans même qu’ils ne l’entendent, » s’amuse aujourd’hui Docteur Andy.

 « Qui suis-je pour juger ? »

Véritable acte de naissance d’Auto-Tune auprès du grand public, « Believe » de Cher marque tout particulièrement les esprits car il est le premier morceau à rendre ce logiciel audible en poussant l’effet jusqu’à l’exagération. « Je pensais que les producteurs ne l’utiliseraient jamais avec ce type de programmation » reconnaît Andy Hildebrand qui avoue avoir été surpris en entendant le tube de Cher. Pourtant, c’est cet Auto-Tune à la voix de robot qui séduit aujourd’hui massivement les musiciens et chanteurs, des starlettes de la pop jusqu’aux rappeurs les plus bruts. « On a l’impression de l’entendre partout aujourd’hui mais c’est parce qu’il est utilisé de manière plus frontale, et surtout qu’il est assumé par les artistes » résume avec justesse la jeune chanteuse parisienne OKLou. « On ne parle plus de “performance” vocale, on est moins attaché qu’avant à l’authenticité du timbre, au rapport “vrai” à la voix. Je pense que c’est une bonne chose, ça veut dire que les gens ont compris que la qualité d’un morceau n’est pas dans la performance mais dans la sincérité de la démarche, quelle qu’elle soit ».

Mais tandis que certains continuent à s’acharner sans fin sur le pauvre logiciel devenu malgré lui le bouc émissaire de tous les maux de la musique actuelle, Docteur Andy ne peut s’empêcher d’esquisser le sourire amusé d’un ancien sismologue un peu détaché de tous ces débats esthétiques : « Dire que corriger la justesse d’une voix est une forme de triche revient à dire que le maquillage est une forme de triche. Qui suis-je pour juger ? Personnellement, ma femme utilise du maquillage ».