I ricercatori Deezer hanno sviluppato un sistema di intelligenza artificiale in grado di associare alcune canzoni con stati d’animo e intensità, come notato da VentureBeat. Il lavoro è descritto in un recente articolo pubblicato su Arxiv.org dal titolo “la Musica, la Rilevazione dello stato d’animo Audio Basata sui Testi Con Profonda Reti Neurali.“
Per determinare un brano musicale di umore, il team ha preso in considerazione sia il segnale audio e testi. Per iniziare, hanno alimentato i segnali audio in una rete neurale, insieme con i modelli di ricostruire i contesti linguistici di parole. Quindi, per insegnare come determinare l’umore di una canzone, hanno usato i Milioni Canzone del set di dati (MSD), che è una raccolta di metadati per oltre 1 milione di canzoni contemporanee. In particolare, hanno utilizzato per Ultimo.fm set di dati, che assegna gli identificatori di tracce da oltre 500.000 unico tag. Molti di questi tag sono legate all’umore, e più di 14.000 inglese parole di queste tag sono stati dati due rating scala di correlazione per come negativo o positivo di una parola, e anche come la calma o energetico una parola per formare il sistema.
I Milioni di Database di canzoni contiene solo i metadati per le canzoni, non le canzoni stesse, così il team si è poi abbinata a tutte queste informazioni a Deezer catalogo utilizzo di identificatori come i titoli dei brani, i nomi degli artisti e i titoli degli album. Circa il 60 per cento del dataset risultante (18,644 tracce) è stato utilizzato per addestrare i AI, con il resto utilizzato per convalidare e verificare ulteriormente il sistema.
Questo tipo di lavoro è visto come un modo ulteriore di come la musica, i testi, di umore e di correlare
Alla fine, i ricercatori hanno concluso che l’IA era meglio in grado di rilevare come la calma o energetico canzone è stata migliore rispetto ad approcci più tradizionali che non hanno fatto uso di AI, e eseguito circa la stessa di quando è venuto a rilevare se una canzone è stata positiva o negativa. “Sembra che questo guadagno di prestazioni è il risultato della capacità del nostro modello di svelare e l’uso di medio livello correlazioni tra audio e testi, in particolare quando si tratta di prevedere stretching,” i ricercatori hanno scritto nella carta.
Si segnala in carta per sfruttare questo lavoro, un “database con testi sincronizzati audio e sarebbe di grande aiuto per andare avanti.” Se ad un database esistente, il team ritiene che essi potrebbero più finemente determinare l’ambiguità nel mood dei brani, come “in alcuni casi, ci può essere una significativa variabilità tra gli ascoltatori” (persone, non sempre d’accordo, se una canzone è positivo o negativo, per esempio). In ultima analisi, i ricercatori ritengono che questo tipo di lavoro è visto come un modo ulteriore di come la musica, i testi, e l’umore correlate, così come la possibilità di avere profonda modelli di apprendimento essere in grado di ordinare attraverso e trovare senza etichetta dati in alto volume.
Questo è lontano dalla prima volta Deezer ha tentato di utilizzare l’IA in ordine per ordinare attraverso la musica. L’anno scorso, ha assunto una sfida al Sonar festival di rispondere alla domanda, “Quando un utente è in casa, come possiamo rilevare il contesto in cui sono ascoltare musica e raccomandare la musica di conseguenza?” Deezer teoricamente in grado di utilizzare questo tipo di machine learning, in futuro, di ordinare automaticamente e catalogo musica — non solo con i metadati di base, come il nome dell’artista o genere di musica, ma qualcosa di più sfumato, come stato d’animo.