In uno studio di registrazione poco illuminato di Seul, i produttori dell'etichetta musicale K-pop che ha portato al successo mondiale il gruppo BTS stanno utilizzando l'intelligenza artificiale per fondere la voce di un cantante sudcoreano con quella di un madrelingua di altre cinque lingue.

La tecnologia ha permesso a HYBE, la più grande etichetta musicale della Corea del Sud, di pubblicare un brano della cantante MIDNATT in sei lingue: coreano, inglese, spagnolo, cinese, giapponese e vietnamita a maggio.

Alcuni cantanti K-pop hanno pubblicato canzoni in inglese e giapponese, oltre al coreano, ma l'applicazione della nuova tecnologia per una pubblicazione simultanea in sei lingue è una prima mondiale, secondo HYBE, e potrebbe aprire la strada all'utilizzo da parte di artisti più popolari.

"Ascolteremo prima la reazione, la voce dei fan, poi decideremo quali saranno i nostri prossimi passi", ha detto Chung Wooyong, capo del ramo interattivo di HYBE, in un'intervista presso lo studio dell'azienda.

Lee Hyun, 40 anni, conosciuto come MIDNATT, che parla solo limitatamente l'inglese e il cinese oltre al coreano, ha registrato la canzone "Masquerade" in ogni lingua.

I madrelingua hanno letto i testi e successivamente i due brani sono stati combinati senza soluzione di continuità con l'aiuto della tecnologia musicale AI interna di HYBE, ha detto Chung.

La canzone è l'ultimo segno della crescente influenza dell'AI nell'industria musicale, in un momento in cui i Grammy Awards hanno introdotto nuove regole per l'uso della tecnologia e i mash-up di canzoni generati dall'AI stanno inondando i social media.

"Abbiamo diviso un pezzo di suono in diversi componenti: pronuncia, timbro, altezza e volume", ha detto Chung. "Abbiamo esaminato la pronuncia, che è associata al movimento della lingua, e abbiamo usato la nostra immaginazione per vedere che tipo di risultato avremmo potuto ottenere usando la nostra tecnologia".

In un confronto prima e dopo, mostrato alla Reuters, è stato aggiunto un suono vocale allungato alla parola "twisted" nel testo inglese, ad esempio, per ottenere un suono più naturale, mentre non è stato apportato alcun cambiamento rilevabile alla voce del cantante.

L'utilizzo del deep learning alimentato dal framework Neural Analysis and Synthesis (NANSY) sviluppato da Supertone fa sì che la canzone suoni più naturale rispetto all'utilizzo di un software non AI, ha detto Choi Hee-doo, chief operating officer di Supertone.

HYBE ha annunciato l'acquisizione di Supertone per 45 miliardi di won (36 milioni di dollari) a gennaio. HYBE ha detto che intende rendere accessibile ai creatori e al pubblico una parte della tecnologia AI utilizzata nella canzone di MIDNATT, ma non ha precisato se applicherà delle tariffe.

'ESPERIENZA IMMERSIVA'

MIDNATT ha detto che l'uso dell'AI gli ha permesso di avere uno "spettro più ampio di espressioni artistiche".

"Sento che la barriera linguistica è stata eliminata ed è molto più facile per i fan globali avere un'esperienza immersiva con la mia musica", ha detto in una dichiarazione.

Anche se la tecnologia non è nuova, si tratta di un modo innovativo di utilizzare l'AI nella musica, ha detto Valerio Velardo, direttore di The Sound of AI, un servizio di consulenza per la musica e l'audio AI con sede in Spagna.

Non solo i musicisti professionisti, ma anche una popolazione più ampia beneficerà della tecnologia musicale AI nel lungo termine, ha detto Velardo.

"Abbasserà la barriera della creazione musicale. È un po' come Instagram per le foto, ma nel caso della musica".

Per ora, la tecnologia di correzione della pronuncia di HYBE richiede "settimane o mesi" per fare il suo lavoro, ma quando il processo si velocizzerà, potrebbe servire per una gamma più ampia di scopi, come l'interpretazione nelle videoconferenze, ha detto Choi Jin-woo, il produttore di "Masquerade" di MIDNATT che si fa chiamare Hitchhiker. (Servizio di Hyunsu Yim; Servizio aggiuntivo di Daewoung Kim e Hyun Young Yi; Montaggio di Josh Smith e Jamie Freed)