Luceverde Radio (gruppo ACI) e la IA di Content on Demand: un “case study” in piena produzione, con importanti sviluppi in vista

Content on Demand ormai in produzione. Un anno dopo aver appreso che ACI Radio stava sperimentando il sistema di creazione di contenuti basato su IA (Intelligenza Artificiale) “Content on Demand”, siamo tornati a parlare con Piermattia Fioravanti Cinci Agricola per capire come stavano andando le cose. Scoprendo per caso una problematica totalmente scorrelata legata al DAB, a nostro avviso di grande importanza.

Le radio di ACI

Giovedì 5 settembre abbiamo contattato Piermattia Fioravanti, Business Development Manager ACI Informobility per fare il punto sulla loro sperimentazione di Content on Demand.

L’intervista si è rivelata più che interessante relativamente al tema in questione. Ma poi abbiamo posto qualche domanda legata al nostro giro di tavolo riguardo le difficoltà di ascolto della radio in mobilità nell’era dei “dashboard” gestiti dai produttori di autoveicoli… e  Piermattia ha aggiunto un importante tassello alla questione, segnatamente all’attribuzione dei codici PI, evidenziando una problematica che non avevamo mai riscontrato in nessun articolo di stampa.

Troppi argomenti interessanti, abbiamo pertanto deciso di dividere l’intervista in due parti: pubblichiamo oggi quella relativa a Content On Demand, rimandando di due giorni quella inerente alla testimonianza di ACI relativa ai codici PI e alla questione Automotive.

Aci Radio oggi

FM-world (M.H.B.): Sono passati dodici mesi (e sei giorni) dalla nostra ultima intervista. Quale l’evoluzione delle vostro radio in quest’anno?

Piermattia Fioravanti: Abbiamo cercato di affinare i contenuti, di migliorare il palinsesto. Abbiamo cambiato qualche speaker, scegliendo chi più si adattava al tono della radio. Dunque abbiamo fatto delle modifiche, ma non stravolgimenti, abbiamo sempre le stesse idee dal punto di vista di comunicazione.

E, soprattutto, abbiamo arricchito i contenuti dedicati al mondo dell’auto. In definitiva siamo sempre in linea con quello che era l’obiettivo iniziale e con quello che fa l’ACI.

FM-world (M.H.B.): Gli studi sono ora anche a Milano, mi pare di aver sentito in onda.

Risposta: Sì, sono sia a Roma che a Milano. A Milano non sono di proprietà, mentre quelli di Roma sì, e abbiamo speaker sia Roma che Milano, così riusciamo a coinvolgere gli ospiti di entrambe le metropoli. Sono due poli importanti dal punto di vista della mobility, pensa solo alla vicinanza con  Monza. E con tante case di produzione.

Un editore, due radio

FM-world (M.H.B.): In due parole, cosa differenzia le vostre due radio.

P.F.: Sono due cose decisamente diverse. Luceverde è una radio di informazione sul traffico, legata alla mobilità in senso stretto, quindi fornisce aggiornamenti sul traffico. Invece ACI Radio parla di mobilità 360 gradi, quindi diamo informazioni sul traffico, certo, ma poi parliamo di mobilità, di mobilità alternativa, di norme, di Formula 1, degli sport minori, di sicurezza,

Content on demand

FM-world (M.H.B.): Prima accennava al vostro uso di Content on Demand (COD), che se non erro avete avuto già in fase di beta testing…

P.F.: Esatto. Utilizziamo COD per i notiziari su Luceverde radio.

Il workflow è il seguente:  la base sono i contenuti redazionali preparati dai redattori, coloro che scrivono i  notiziari di infomobilità che intendiamo mandare in onda. Successivamente, li inseriamo in COD, il quale aggiunge pre-roll e post-roll, eventualmente mette a posto eventuali errori e crea la parte audio.

FM-world (M.H.B.):  COD inserisce autonomamente anche i contributi nel sistema di messa in onda?

P.F: No, attualmente questa fase è fatta manualmente: ma ovviamente siamo in fase di automazione.


Formula 1 e Giubileo

FM-world (M.H.B.): Altri utilizzi?

P.F.: Sì, uno essenziale: la creazione di contenuti in altre lingue. È stato essenziale in occasione del GP di Monza e lo sarà ancora per il Giubileo.

In questo caso abbiamo preso il contenuto in italiano, lo abbiamo fatto tradurre alla piattaforma, utilizzando appunto la sua l’intelligenza artificiale, per poi farlo “speakerare” con una delle tante voci disponibili, che abbiamo scelto noi.

FM-world (M.H.B.): Vi considerate in fase di sperimentazione o produzione?

P.F.: Produzione, produzione. Quanto vi ho detto è in produzione. Ma poi abbiamo anche la sperimentazione, nel senso che vogliamo arrivare alla creazione dei bollettini informativi a partire dalle notizie di base.

Mi spiego: se oggi COD mi speakera in italiano l’esatto contenuto creato dai redattori, domani mi creerà ulteriori contenuti anche sulla base di semplici notizie di agenzia. Un modo di aumentare la produttività, se così possiamo dire. O forse aumentare la quantità di contenuti generati a parità di collaboratori. Senza dimenticare anche che spesso il processo tradizionale comporta degli errori, che invece questo workflow automatizzato ci permette di evitare. (M.H.B. per FM-world)

Smettete di svalutare la musica: “Open Letter” di duecento artisti a chi sviluppa modelli di Intelligenza Artificiale

“Smettete di svalutare la musica”: questo il titolo della lettera aperta firmata da duecento musicisti, nomi quali Billie Eilish e Diana Krall, che “hanno preso carta e penna” per firmare una missiva indirizzata alle piattaforme che sviluppano modelli di IA.

Cominciamo subito col dire che la lettera non risulta essere pervenuta a 22HBG: senza dubbio gli artisti hanno pensato alle più grandi piattaforme e/o a coloro che sviluppano i modelli base e non a chi lavora sugli embeddings o sul piano degli agenti per gli utenti finali.

I firmatari

I firmatari sono duecento artisti il cui elenco inizia con Agus Martino e termina con Zayn Malik. In mezzo, nomi quali Diana Krall, Katy Perry, Nicki Minaj: pesi massimi, insomma. Cosa dice dunque la lettera?

La lettera

Vi proponiamo la traduzione completa (ottenuta grazie a Claude 3, Intelligenza Artificiale di Anthropic, visto che l'”Artist Rights Alliance”  ha pensato di pubblicare il testo in formato immagine, forse per evitare il “copia-incolla”).

Noi, i sottoscritti membri delle comunità di artisti e cantautori, chiediamo agli sviluppatori di AI, alle aziende tecnologiche, alle piattaforme e ai servizi musicali digitali di cessare l’uso dell’intelligenza artificiale (AI) per violare e svalutare i diritti degli artisti umani.

Non sbagliatevi: crediamo che, quando utilizzata responsabilmente, l’AI ha un enorme potenziale per far progredire la creatività umana e in un modo che permetta lo sviluppo e la crescita di nuove ed entusiasmanti esperienze per i fan della musica ovunque.

Sfortunatamente, alcune piattaforme e sviluppatori stanno impiegando l’AI per sabotare la creatività e minare artisti, cantautori, musicisti e titolari di diritti.

Quando utilizzata in modo irresponsabile, l’AI rappresenta enormi minacce per la nostra capacità di proteggere la nostra privacy, le nostre identità, la nostra musica e i nostri mezzi di sussistenza. Alcune delle aziende più grandi e potenti stanno, senza permesso, utilizzando il nostro lavoro per addestrare modelli di AI. Questi sforzi mirano direttamente a sostituire il lavoro degli artisti umani con enormi quantità di “suoni” e “immagini” creati dall’AI che diluiscono sostanzialmente i fondi di royalties che vengono pagati agli artisti. Per molti musicisti, artisti e cantautori che cercano semplicemente di sbarcare il lunario, questo sarebbe catastrofico.

Se non controllata, l’AI metterà in moto una corsa al ribasso che degraderà il valore del nostro lavoro e ci impedirà di essere equamente ricompensati per esso.

Questo assalto alla creatività umana deve essere fermato. Dobbiamo proteggerci contro l’uso predatorio dell’AI per rubare le voci e le sembianze degli artisti professionisti, violare i diritti dei creatori e distruggere l’ecosistema musicale.

Chiediamo a tutti gli sviluppatori di AI, alle aziende tecnologiche, alle piattaforme e ai servizi musicali digitali di impegnarsi a non sviluppare né implementare tecnologie di generazione musicale AI, contenuti o strumenti che minino o sostituiscano l’artigianalità di cantautori e artisti o che ci neghino un’equa remunerazione per il nostro lavoro.

Alcune osservazioni

Il testo parla da sé. Ci limitiamo ad alcune osservazioni.

La prima, che ci fa enorme piacere, che non si chieda un intervento legislativo. Non un appello  ai politici – incomprensibilmente spesso ritenuti più saggi degli altri cittadini – ma all’industria stessa.

La seconda, che si parla della difesa “dei più deboli“. Come dice la lettera, di “artisti e cantautori che cercano semplicemente di sbarcare il lunario” e non delle grandi star, che possono eventualmente difendersi con importanti avvocati.

L’ultima, che la “corsa al ribasso” probabilmente ci sarà comunque. Se anche i brani di questi artisti verranno esclusi dai dataset utilizzati per trainare le IA, nulla impedirà alle macchine di creare sonorità nuove, magari inventandole da sole.

Come ha scritto TechCrunch, alcune aziende come Adobe e Stability AI stanno lavorando su generatori di musica AI che utilizzano brani concessi in licenza o esenti da royalty.

Gen Gen

Nel 2016 AlphaGo aveva a suo tempo imparato a battere i migliori giocatori umani al gioco “Go” non apprendendo dai maestri, ma semplicemente giocando contro se stesso. Analogamente le macchine potrebbero imparare a creare i migliori brani senza del tutto il bisogno di utilizzare come modello creazioni umane.

Resta l’incognita pubblico. Oggi probabilmente poco disposto a ballare o intrattenersi su musica sintetica. Ma la Gen Gen, la generazione nata nell’era dell’intelligenza Artificiale Generativa, farà ancora la differenza?

(M.H.B. per FM-World)

 

Now and Then: un nuovo brano dei Beatles, nuovamente insieme per un ultima volta grazie alla Intelligenza Artificiale

Paul McCartney aveva rivelato all’inizio di quest’anno in un’intervista alla BBC di aver usato l’IA per creare quella che ha definito l’ultima canzone dei Beatles, basata su un demo degli anni ’70 di John Lennon.

Ebbene, il brano, chiamato Now and Then, è in procinto di essere pubblicato, ed è come se grazie alla IA I Beatles si fossero riuniti per un’ultima volta.

La prossima settimana la band pubblicherà infatti quella che chiamano la loro ultima canzone.

Il nuovo singolo Now and Then ha avuto origine come registrazione casalinga di John Lennon negli anni ’70, ma è stata completata solo l’anno scorso. Paul McCartney, Ringo Starr e Sean Taro Ono Lennon hanno annunciato il brano in un breve trailer pubblicato su YouTube (qui) il 26 ottobre.

Sean ha spiegato ai microfoni della BBC: “Quando abbiamo perso John, sapevamo che era davvero finita. Paul mi ha chiamato e mi ha detto che gli sarebbe piaciuto lavorare su Now and Then. Ha messo la base. Io ho messo la batteria. È l’ultima canzone che mio padre, Paul, George e Ringo potranno mai fare insieme“.

L’audio della musicassetta era considerato troppo danneggiato per essere utilizzabile fino ad ora. Ma un nuovo software per computer addestrato sulla voce di Lennon ha permesso ai Beatles rimasti di estrarre e affinare le sue parti vocali. La nuova registrazione include anche una parte di chitarra che George Harrison suonò prima della sua morte nel 2001.

Now and Then verrà trasmessa in anteprima su BBC Six Music e in tutto il mondo giovedì prossimo. (M.H.B. per FM-world)

Il WSJournal (e qualche esperto di DataScience) ci aiutano a spiegare il vero algoritmo di Spotify

Si parla di tecnologia e di come funziona l’algoritmo di Spotify, in questo editoriale scritto per FM-world da Marco Barsotti.

Dopo tanti post in cui esperti o presunti tali ci spiegavano l’algoritmo di Spotify (battezzato da alcuni BaRT, Bandits for Recommendations as Treatments, il 15 aprile è stato pubblicato un articolo sullo stesso argomento da parte del Wall Street Journal. Unendo quanto spiegato da questa autorevole fonte ad alcuni interessanti notebook (in Python) di parte di studiosi di DataScience pensiamo di poter raccontare qualcosa di interessante.

Scettici?

Prima di buttarci nei dettagli una spiegazione. Siamo sempre stati scettici degli articoli online che “spiegavano” BaRT in quanto – a differenza di Facebook e di Netflix – il blog dell’engineering di Spotify (che è questo) non ha mai citato nulla di nome BaRT. Abbiamo visto articolo sulle proprietà dell’ algoritmo di Poisson per la stima dei quartili in test A/B o anche una descrizione tutta da leggere (non mancate, qui) sull’aura musicale di ciascuno di noi. Ma di BaRT niente. Ma passiamo all’articolo del Journal.

Echonest

Le basi dell'”algoritmo” vengono dall’acquisizione da parte di Spotify di The Echonest avvenuta nel 2014: si tratta di un’azienda nata come spinoff del MIT Media Lab (quello di Negroponte e del suo One Laptop per Child).

Echonest non analizzava solo i brani in quanto tali: in un post del 2013, subito prima l’acquisizione, veniva spiegato chiaramente: Indicizziamo e analizziamo oltre 10 milioni di nuovi blog post, discussioni sui social media e recensioni musicali quotidiane.
Applichiamo poi tecniche di Machine Learning e Natural Language Processing per contestualizzare queste discussioni e identificare trend musicali”.

Oltre i metadati

Troverete il resto della spiegazione qui.  Ed è quel database, per cosi’ volerlo chiamare, che ha posto le fondamenta per il sistema di raccomandazioni attuale.

Collaborative filtering

Il primo passo oggi è un processo detto “collaborative filtering“. Tra i suoi obiettivi, spiega al WSJ Ziad Sultan “vice presidente della personalizzazione” di Spotify, quello di identificare affinità tra brani e podcast (tra brani e podcast!) osservandone i posizionamenti relativi nelle playlist di milioni di utenti.

Spazio n-dimensionale

Questi oggetti (brani e podcast) sono inseriti nello spazio n-dimensionale che possiamo vedere in versione semplificata (3D) qui sopra: la distanza cartesiana tra i punti rappresenta le affinità.

Interessante notare come questo sia esattamente lo stesso criterio usato dai vari LLM come ChatGPT per clusterizzare i concetti (o meglio, token e parole):

Natale

A Natale siamo tutti più buoni, tranne pero’ questi spazi n-dimensionali che divengono nocivi. Basta pensare al tormentone “All I Want for Christmas Is You” di Carey che a partire da inizio dicembre si trova prossimo a praticamente tutti gli altri brani, tra cui lo scorrelatissimo “Silent Night“. E apparentemente in Italia anche a Quevedo (e agli Wham).

Terremoti

Un effetto poco gradevole già a dicembre, figuriamoci da gennaio in poi. E – detto per inciso – a chi scrive è capitato “su un noto social” di vendere per due settimane una quantità irragionevole di influencer turche musulmane intente (crediamo) a spiegare qualche concetto trascendente.
La spiegazione stava nella “deduzione” del di lui “algoritmo” di un nostro interesse per una religione avendo avuto la colpa di visualizzare un po’ troppi video relativi al terremoto in Turchia.

Content Based Filtering

Andiamo avanti. Il passo successivo è il Content Based Filtering. L’idea è di associare un numero decimale (“float32”) a ciascuno dei seguenti parametri per ogni brano: loudness, tempo, danceability, energy, speechiness, acousticness, instrumentalness, liveness, valence, e durationCon un po’ di passaggi si ottiene un vettore associato a ogni playlist:

 

con il risultato all’immagine seguente (la playlist di base è quella a sinistra, mentre le due a destra sono generate da due differenti algoritmi, il primo dei quali è appunto quello di Spotify). Senza dubbio i tanti lettori di FM-World esperti di clock e playlist potranno darcene un giudizio ragionato.

Non ditelo a nessuno, ma…

…Ma è possibile utilizzare questo sistema anche per creare playlist per le nostre emittenti: è tutto disponibile qui.

SIA vs Avicii

A titolo di curiosità, ecco di seguito i parametri che abbiamo trovato confrontando i parametri di due splendidi ma diversi brani: la versione di SIA di “I Go To Sleep” (a sinistra) con “Seek Bromance” di Avicii/Tin Berg (i parametri sono in stile JSON, dunque nome-parametro : valore). Ad esempio Avicii ha una “danceability” di 0,49 mentre SIA solo di 0,43.

Recensioni

Questi dati, ricavati da un’analisi dei brani stessi, sono poi integrati con attributi e parole chiave utilizzate nelle varie recensioni fatte da critici (siti ufficiali) e normali ascoltatori (blogs e reddit): e qui ritroviamo, appunto, il database di The Echonest.

Politically-Correct-ness

C’era da attenderselo di questi tempi: l’articolo del Journal non poteva esimersi da terminare con una “messa in guardia” contro l’attacco alla “diversità” possibile tramite questi sistemi di IA.

Ecco la spiegazione: “Se un ascoltatore ha nella sua playlist una predominanza di brani cantati da uomini allora le playlist (per terzi) create sulla base di quella rischiano anch’esse di aver un bias “anti-femminile” (!) creando un possibile feedback loop che amplificherà l’aberrazione.

la sede di Capitol Records a Los Angeles

Soul Music

E quindi non possiamo che concludere con una nota positiva: agli esordi di Radio Milano International in tanti ci eravamo appassionati della Motown e della Soul Music: il nostro personale bias era (e in parte è, avendo ancora sull’iPhone alcune compilation dell’epoca) decisamente pro-black (scusate l’inglese), dunque nessuno potrà mai darci dei razzisti.

Orgogliosi possiamo oggi affermarlo: stavamo lodevolmente cercando di costruire un mondo con una maggiore “inclusion. (Marco Barsotti per FM-World)

Musk rende pubblico l’algoritmo di Twitter: cerchiamo di capire come funziona

Servizio a cura di Marco Barsotti

La stampa non ne ha praticamente parlato, ma venerdì 31 marzo è stata una data storica. Grazie a Elon Musk, per la prima volta un social network ha reso pubblico il cosiddetto algoritmo (in questo caso addirittura il codice sorgente) che decide cosa vediamo nella nostra timeline.

Con questo articolo cerchiamo di farne un rapidissimo riassunto e di dare qualche consiglio a chi volesse aumentare la propria visibilità sul social usato da “everybody who is somebody“.

500 milioni di tweet/giorno

Partiamo da un fatto: ogni giorno vengono generati circa 500 milioni di Tweet: scopo dell’algoritmo decidere quali mostrare a ciascun utente. Il sistema si chiama “Home Mixer” ed è scritto in gran parte nel linguaggio Scala.

L’algoritmo di Twitter: Tre fasi e due gruppi

L’algoritmo si articola in tre fasi, parzialmente (ma non totalmente) basate sulla IA (Intelligenza Artificiale). Prende in considerazione i contenuti di due gruppi di utenti: In Network, coloro che seguiamo o ci seguono e Out of Network, coloro che non seguiamo.

Fase 1

Di nome “Candidate Sources” pende in considerazione in modo eguale (50/50) tweet effettuati da persone che seguiamo e da sconosciuti, con l’obiettivo di selezionarne 1500 (lo 0,0003% del totale).

In Network

I tweet “in network” sono selezionati in base alla probabilità di un “engagement” (una reazione, quale un like, un commento o un retweet) da parte del singolo utente.  Viene utilizzata una regressione basata sulle interazioni reciproche passate.

Out of Network

I tweet “out of network” sono selezionati in base al “social graph“, in sostanza lo stesso criterio precedente ma applicato “agli amici degli amici” (se ci permettete questa espressione vagamente sinistra).

In altre parole se io sono A, ho un amico B e non seguo C, ma B ha un alto engagement con C allora forse anch’io A posso aver interesse in quanto afferma C.

Confusi?

Confusi? Restate con noi, ancora pochi passaggi e arriviamo ai consigli per gli acquisti (anzi, per i tweet).

Fase 2

In questa fase viene generata una rappresentazione numerica degli interessi dei singoli utenti e del contenuto dei tweet. In questo modo è possibile calcolare l’affinità dei tweet disponibili con i nostri interessi in base alla distanza tra i due numeri.

Un esempio

In altre parole se una persona con cui ho interessi comuni (diciamo: Nicola Franceschini) parla di un argomento che mi interessa (diciamo: Ryuichi Sakamoto) allora il suo tweet apparirà prominente nella mia timeline.

Se invece sempre Franceschini parlasse di Laura Pausini allora il suo messaggio comparirebbe egualmente, ma molto in basso. Se invece a parlare di Laura Pausini fosse un altro membro della comunità di Talkmedia (ipotizzando che fosse attivo su Twitter) allora nulla sarebbe riportato nella timeline di chi scrive.

Altri Social

Questo esempio è rilevante in quanto è ipotizzabile (per motivi che non stiamo ad analizzare) ci siano numerose similitudini anche con l’algoritmo di Facebook e di altri social.

Parametri e Peperoni

L’ordinamento di cui sopra, detto ranking, è effettuato da una minuscola rete neuronale (dunque: da una IA) composta da 48 milioni di parametri (per fare un confronto: GPT 3.5, probabilmente utilizzato da Peperoni AI per il programma di Patrizia su radio 70-80.it) dispone di circa 170 miliardi di parametri (364500% di più!).

Infine viene applicato un filtro euristico (metodo non totalmente scientifico che utilizza senso comune e semplici regole) per filtrare ulteriormente i contenuti, evitare di vederne troppi dalle stesse persone e inserire qualche pubblicità nel mix finale.

Consigli per gli acquisti

Ed eccoci alla ricetta per un tweet di successo, ricavata da alcuni programmatori che hanno analizzato non la nostra spiegazione ma proprio il codice sorgente reso pubblico a fine marzo.

Cosa cercare (boost)

Questi i fattori che favoriscono la diffusione di un nostro contenuto:

  • Like (30x, trenta volte più’ di un tweet che ne e’ privo)
  • Retweet Count (20x per ogni retweet, a giudicare dal codice qui sopra)
  • Contenuto che include immagini o video (4x)
  • Contenuto che ha ricevuto almeno un commento (2x)

Questi invece i fattori che incidono negativamente

  • Tweet che consiste solo in una URL
  • Retweet senza commento/testo aggiunto
  • Tweet che è stato bloccato, anche solo da un utente
  • Tweet che ha causato un “unfollow”
  • Tweet che è stato segnalato come inappropriato

Conclusioni

Con l’inedita decisione di rendere pubblico l’algoritmo (peraltro non molto sofisticato) di Twitter Elon Musk ha dato a tutti la possibilità di vedere (abbastanza) chiaro in uno dei grandi misteri del nostro tempo, quello stesso che permette alla stampa di affermare – senza prove – che (ad esempio) la decisione sulla Brexit è stata “influenzata dai social network“.

Speriamo Meta e gli altri vogliano presto seguirne l’esempio.

(Marco Hugo-Barsotti per FM-World)

* Per comunicati e segnalazioni: [email protected]