Now and Then: un nuovo brano dei Beatles, nuovamente insieme per un ultima volta grazie alla Intelligenza Artificiale

Paul McCartney aveva rivelato all’inizio di quest’anno in un’intervista alla BBC di aver usato l’IA per creare quella che ha definito l’ultima canzone dei Beatles, basata su un demo degli anni ’70 di John Lennon.

Ebbene, il brano, chiamato Now and Then, è in procinto di essere pubblicato, ed è come se grazie alla IA I Beatles si fossero riuniti per un’ultima volta.

La prossima settimana la band pubblicherà infatti quella che chiamano la loro ultima canzone.

Il nuovo singolo Now and Then ha avuto origine come registrazione casalinga di John Lennon negli anni ’70, ma è stata completata solo l’anno scorso. Paul McCartney, Ringo Starr e Sean Taro Ono Lennon hanno annunciato il brano in un breve trailer pubblicato su YouTube (qui) il 26 ottobre.

Sean ha spiegato ai microfoni della BBC: “Quando abbiamo perso John, sapevamo che era davvero finita. Paul mi ha chiamato e mi ha detto che gli sarebbe piaciuto lavorare su Now and Then. Ha messo la base. Io ho messo la batteria. È l’ultima canzone che mio padre, Paul, George e Ringo potranno mai fare insieme“.

L’audio della musicassetta era considerato troppo danneggiato per essere utilizzabile fino ad ora. Ma un nuovo software per computer addestrato sulla voce di Lennon ha permesso ai Beatles rimasti di estrarre e affinare le sue parti vocali. La nuova registrazione include anche una parte di chitarra che George Harrison suonò prima della sua morte nel 2001.

Now and Then verrà trasmessa in anteprima su BBC Six Music e in tutto il mondo giovedì prossimo. (M.H.B. per FM-world)

Il WSJournal (e qualche esperto di DataScience) ci aiutano a spiegare il vero algoritmo di Spotify

Si parla di tecnologia e di come funziona l’algoritmo di Spotify, in questo editoriale scritto per FM-world da Marco Barsotti.

Dopo tanti post in cui esperti o presunti tali ci spiegavano l’algoritmo di Spotify (battezzato da alcuni BaRT, Bandits for Recommendations as Treatments, il 15 aprile è stato pubblicato un articolo sullo stesso argomento da parte del Wall Street Journal. Unendo quanto spiegato da questa autorevole fonte ad alcuni interessanti notebook (in Python) di parte di studiosi di DataScience pensiamo di poter raccontare qualcosa di interessante.

Scettici?

Prima di buttarci nei dettagli una spiegazione. Siamo sempre stati scettici degli articoli online che “spiegavano” BaRT in quanto – a differenza di Facebook e di Netflix – il blog dell’engineering di Spotify (che è questo) non ha mai citato nulla di nome BaRT. Abbiamo visto articolo sulle proprietà dell’ algoritmo di Poisson per la stima dei quartili in test A/B o anche una descrizione tutta da leggere (non mancate, qui) sull’aura musicale di ciascuno di noi. Ma di BaRT niente. Ma passiamo all’articolo del Journal.

Echonest

Le basi dell'”algoritmo” vengono dall’acquisizione da parte di Spotify di The Echonest avvenuta nel 2014: si tratta di un’azienda nata come spinoff del MIT Media Lab (quello di Negroponte e del suo One Laptop per Child).

Echonest non analizzava solo i brani in quanto tali: in un post del 2013, subito prima l’acquisizione, veniva spiegato chiaramente: Indicizziamo e analizziamo oltre 10 milioni di nuovi blog post, discussioni sui social media e recensioni musicali quotidiane.
Applichiamo poi tecniche di Machine Learning e Natural Language Processing per contestualizzare queste discussioni e identificare trend musicali”.

Oltre i metadati

Troverete il resto della spiegazione qui.  Ed è quel database, per cosi’ volerlo chiamare, che ha posto le fondamenta per il sistema di raccomandazioni attuale.

Collaborative filtering

Il primo passo oggi è un processo detto “collaborative filtering“. Tra i suoi obiettivi, spiega al WSJ Ziad Sultan “vice presidente della personalizzazione” di Spotify, quello di identificare affinità tra brani e podcast (tra brani e podcast!) osservandone i posizionamenti relativi nelle playlist di milioni di utenti.

Spazio n-dimensionale

Questi oggetti (brani e podcast) sono inseriti nello spazio n-dimensionale che possiamo vedere in versione semplificata (3D) qui sopra: la distanza cartesiana tra i punti rappresenta le affinità.

Interessante notare come questo sia esattamente lo stesso criterio usato dai vari LLM come ChatGPT per clusterizzare i concetti (o meglio, token e parole):

Natale

A Natale siamo tutti più buoni, tranne pero’ questi spazi n-dimensionali che divengono nocivi. Basta pensare al tormentone “All I Want for Christmas Is You” di Carey che a partire da inizio dicembre si trova prossimo a praticamente tutti gli altri brani, tra cui lo scorrelatissimo “Silent Night“. E apparentemente in Italia anche a Quevedo (e agli Wham).

Terremoti

Un effetto poco gradevole già a dicembre, figuriamoci da gennaio in poi. E – detto per inciso – a chi scrive è capitato “su un noto social” di vendere per due settimane una quantità irragionevole di influencer turche musulmane intente (crediamo) a spiegare qualche concetto trascendente.
La spiegazione stava nella “deduzione” del di lui “algoritmo” di un nostro interesse per una religione avendo avuto la colpa di visualizzare un po’ troppi video relativi al terremoto in Turchia.

Content Based Filtering

Andiamo avanti. Il passo successivo è il Content Based Filtering. L’idea è di associare un numero decimale (“float32”) a ciascuno dei seguenti parametri per ogni brano: loudness, tempo, danceability, energy, speechiness, acousticness, instrumentalness, liveness, valence, e durationCon un po’ di passaggi si ottiene un vettore associato a ogni playlist:

 

con il risultato all’immagine seguente (la playlist di base è quella a sinistra, mentre le due a destra sono generate da due differenti algoritmi, il primo dei quali è appunto quello di Spotify). Senza dubbio i tanti lettori di FM-World esperti di clock e playlist potranno darcene un giudizio ragionato.

Non ditelo a nessuno, ma…

…Ma è possibile utilizzare questo sistema anche per creare playlist per le nostre emittenti: è tutto disponibile qui.

SIA vs Avicii

A titolo di curiosità, ecco di seguito i parametri che abbiamo trovato confrontando i parametri di due splendidi ma diversi brani: la versione di SIA di “I Go To Sleep” (a sinistra) con “Seek Bromance” di Avicii/Tin Berg (i parametri sono in stile JSON, dunque nome-parametro : valore). Ad esempio Avicii ha una “danceability” di 0,49 mentre SIA solo di 0,43.

Recensioni

Questi dati, ricavati da un’analisi dei brani stessi, sono poi integrati con attributi e parole chiave utilizzate nelle varie recensioni fatte da critici (siti ufficiali) e normali ascoltatori (blogs e reddit): e qui ritroviamo, appunto, il database di The Echonest.

Politically-Correct-ness

C’era da attenderselo di questi tempi: l’articolo del Journal non poteva esimersi da terminare con una “messa in guardia” contro l’attacco alla “diversità” possibile tramite questi sistemi di IA.

Ecco la spiegazione: “Se un ascoltatore ha nella sua playlist una predominanza di brani cantati da uomini allora le playlist (per terzi) create sulla base di quella rischiano anch’esse di aver un bias “anti-femminile” (!) creando un possibile feedback loop che amplificherà l’aberrazione.

la sede di Capitol Records a Los Angeles

Soul Music

E quindi non possiamo che concludere con una nota positiva: agli esordi di Radio Milano International in tanti ci eravamo appassionati della Motown e della Soul Music: il nostro personale bias era (e in parte è, avendo ancora sull’iPhone alcune compilation dell’epoca) decisamente pro-black (scusate l’inglese), dunque nessuno potrà mai darci dei razzisti.

Orgogliosi possiamo oggi affermarlo: stavamo lodevolmente cercando di costruire un mondo con una maggiore “inclusion. (Marco Barsotti per FM-World)

Musk rende pubblico l’algoritmo di Twitter: cerchiamo di capire come funziona

Servizio a cura di Marco Barsotti

La stampa non ne ha praticamente parlato, ma venerdì 31 marzo è stata una data storica. Grazie a Elon Musk, per la prima volta un social network ha reso pubblico il cosiddetto algoritmo (in questo caso addirittura il codice sorgente) che decide cosa vediamo nella nostra timeline.

Con questo articolo cerchiamo di farne un rapidissimo riassunto e di dare qualche consiglio a chi volesse aumentare la propria visibilità sul social usato da “everybody who is somebody“.

500 milioni di tweet/giorno

Partiamo da un fatto: ogni giorno vengono generati circa 500 milioni di Tweet: scopo dell’algoritmo decidere quali mostrare a ciascun utente. Il sistema si chiama “Home Mixer” ed è scritto in gran parte nel linguaggio Scala.

L’algoritmo di Twitter: Tre fasi e due gruppi

L’algoritmo si articola in tre fasi, parzialmente (ma non totalmente) basate sulla IA (Intelligenza Artificiale). Prende in considerazione i contenuti di due gruppi di utenti: In Network, coloro che seguiamo o ci seguono e Out of Network, coloro che non seguiamo.

Fase 1

Di nome “Candidate Sources” pende in considerazione in modo eguale (50/50) tweet effettuati da persone che seguiamo e da sconosciuti, con l’obiettivo di selezionarne 1500 (lo 0,0003% del totale).

In Network

I tweet “in network” sono selezionati in base alla probabilità di un “engagement” (una reazione, quale un like, un commento o un retweet) da parte del singolo utente.  Viene utilizzata una regressione basata sulle interazioni reciproche passate.

Out of Network

I tweet “out of network” sono selezionati in base al “social graph“, in sostanza lo stesso criterio precedente ma applicato “agli amici degli amici” (se ci permettete questa espressione vagamente sinistra).

In altre parole se io sono A, ho un amico B e non seguo C, ma B ha un alto engagement con C allora forse anch’io A posso aver interesse in quanto afferma C.

Confusi?

Confusi? Restate con noi, ancora pochi passaggi e arriviamo ai consigli per gli acquisti (anzi, per i tweet).

Fase 2

In questa fase viene generata una rappresentazione numerica degli interessi dei singoli utenti e del contenuto dei tweet. In questo modo è possibile calcolare l’affinità dei tweet disponibili con i nostri interessi in base alla distanza tra i due numeri.

Un esempio

In altre parole se una persona con cui ho interessi comuni (diciamo: Nicola Franceschini) parla di un argomento che mi interessa (diciamo: Ryuichi Sakamoto) allora il suo tweet apparirà prominente nella mia timeline.

Se invece sempre Franceschini parlasse di Laura Pausini allora il suo messaggio comparirebbe egualmente, ma molto in basso. Se invece a parlare di Laura Pausini fosse un altro membro della comunità di Talkmedia (ipotizzando che fosse attivo su Twitter) allora nulla sarebbe riportato nella timeline di chi scrive.

Altri Social

Questo esempio è rilevante in quanto è ipotizzabile (per motivi che non stiamo ad analizzare) ci siano numerose similitudini anche con l’algoritmo di Facebook e di altri social.

Parametri e Peperoni

L’ordinamento di cui sopra, detto ranking, è effettuato da una minuscola rete neuronale (dunque: da una IA) composta da 48 milioni di parametri (per fare un confronto: GPT 3.5, probabilmente utilizzato da Peperoni AI per il programma di Patrizia su radio 70-80.it) dispone di circa 170 miliardi di parametri (364500% di più!).

Infine viene applicato un filtro euristico (metodo non totalmente scientifico che utilizza senso comune e semplici regole) per filtrare ulteriormente i contenuti, evitare di vederne troppi dalle stesse persone e inserire qualche pubblicità nel mix finale.

Consigli per gli acquisti

Ed eccoci alla ricetta per un tweet di successo, ricavata da alcuni programmatori che hanno analizzato non la nostra spiegazione ma proprio il codice sorgente reso pubblico a fine marzo.

Cosa cercare (boost)

Questi i fattori che favoriscono la diffusione di un nostro contenuto:

  • Like (30x, trenta volte più’ di un tweet che ne e’ privo)
  • Retweet Count (20x per ogni retweet, a giudicare dal codice qui sopra)
  • Contenuto che include immagini o video (4x)
  • Contenuto che ha ricevuto almeno un commento (2x)

Questi invece i fattori che incidono negativamente

  • Tweet che consiste solo in una URL
  • Retweet senza commento/testo aggiunto
  • Tweet che è stato bloccato, anche solo da un utente
  • Tweet che ha causato un “unfollow”
  • Tweet che è stato segnalato come inappropriato

Conclusioni

Con l’inedita decisione di rendere pubblico l’algoritmo (peraltro non molto sofisticato) di Twitter Elon Musk ha dato a tutti la possibilità di vedere (abbastanza) chiaro in uno dei grandi misteri del nostro tempo, quello stesso che permette alla stampa di affermare – senza prove – che (ad esempio) la decisione sulla Brexit è stata “influenzata dai social network“.

Speriamo Meta e gli altri vogliano presto seguirne l’esempio.

(Marco Hugo-Barsotti per FM-World)

* Per comunicati e segnalazioni: [email protected]