Das größte K-Pop-Musikunternehmen HYBE beseitigt Sprachprobleme mit künstlicher Intelligenz

Die Produzenten des K-Pop-Musikunternehmens HYBE, das die erfolgreiche Boyband BTS der Welt vorstellte, nutzen künstliche Intelligenz in ihrem Studio in Seoul, um die Stimme eines südkoreanischen Musikers mit der Stimme von Menschen zu kombinieren, die fünf verschiedene Sprachen sprechen.

HYBE, Südkoreas größtes Musiklabel, veröffentlichte im vergangenen Mai ein Modul des Musikers MIDNATT in sechs Sprachen: Koreanisch, Englisch, Spanisch, Chinesisch, Japanisch und Vietnamesisch.

Einige K-Pop-Musiker haben in der Vergangenheit neben ihrer Muttersprache Koreanisch auch Musik auf Englisch und Japanisch veröffentlicht, doch die Anwendung der neuen Technologie auf eine gleichzeitige Übertragung in sechs Sprachen wäre eine Weltneuheit und würde den Weg für eine breitere Nutzung ebnen, heißt es zu HYBE.

„Wir würden zuerst auf die Stimmen der Fans hören, ihre Reaktionen beobachten und dann entscheiden, was unsere nächsten Schritte sein sollten“, sagte Chung Wooyong von HYBE in einem Interview im Studio des Unternehmens.

Der 40-jährige Lee Hyun, bekannt als MIDNATT, spricht neben Koreanisch nur begrenzt Englisch und Chinesisch und hat die Musik von „Masquerade“ in sechs Sprachen aufgenommen.

Chung sagte, dass zunächst Muttersprachler die Texte der Musik lasen und dann die Stimme des Künstlers mithilfe der „KI“-Musiktechnologie von HYBE nahtlos kombiniert wurde.

Das Lied gilt als jüngstes Zeichen für den wachsenden Einfluss künstlicher Intelligenz in der Musikindustrie, zu einer Zeit, als die Grammy Awards neue Regeln für den Einsatz von Technologie einführten und KI-generierte zusammengesetzte Musik die sozialen Medien überschwemmte.

Chung erklärte, dass sie ein Klangmodul in verschiedene Komponenten wie Diskurs, Klangfarbe, Tonhöhe und Klang unterteilt hätten, und sagte, dass sie auch ihre Vorstellungskraft nutzten, um zu sehen, welche Ergebnisse sie durch den Einsatz von Technologie erzielen könnten.

HYBE, das angab, einen Teil der in der Musik von MIDNATT verwendeten KI-Technologie den Urhebern und der Öffentlichkeit zugänglich zu machen, machte keine Angaben dazu, ob dafür ein Preis erhoben werden würde.

MIDNATT sagte, dass die Sprachbarriere für Fans auf der ganzen Welt aufgehoben wurde und erklärte, dass die Verwendung von „Al“ ihm ein breiteres Spektrum an künstlerischen Ausdrucksmöglichkeiten verschafft.

Valerio Velardo, Direktor von The Sound of AI, einem in Spanien ansässigen Beratungsdienst für künstliche Intelligenz für Musik und Ton, sagte, diese Technologie sei eine innovative Möglichkeit, künstliche Intelligenz in der Musik einzusetzen.

HYBE gab an, dass es zwar Wochen dauern kann, bis die Sprachkorrekturtechnologie ihre Arbeit erledigt, sie aber glauben, dass die Übersetzung in Videokonferenzen einem umfassenderen Zweck dienen könnte, wenn sich der Prozess beschleunigt.

 

 

T24

künstliche IntelligenzMusikSpracheTon
Comments (0)
Add Comment