Content on Demand: l’Intelligenza Artificiale che crea contenuti audio originali ed esclusivi ora disponibile in beta test

A inizio dicembre 2023 è entrato in fase di beta test il servizio Content on Demand di cui ci eravamo occupati ad agosto.
Rispetto a questa estate il  prodotto è stato applicato anche a settori differenti da quello strettamente radiofonico, come ad esempio nel caso di un’applicazione legata agli smart speaker e una agli annunci alla popolazione.
Vediamo in questo articolo qualche ulteriore dettaglio, come funziona in pratica e come partecipare alla fase di beta.

Beta Test

Beta test nel gergo informatico significa che un prodotto o servizio passa dalla fase “a uso interno” a una di test pubblico. Nel nostro caso, Content on Demand di 22HBG è dunque ora aperto a emittenti e sviluppatori che desiderino sperimentarlo, sapendo che potrebbero trovare alcune funzionalità ancora non completamente messe a punto.

Content on Demand

Ricordiamo innanzitutto di cosa si tratta. Content on Demand è un servizio sviluppato da 22HBG che permette di creare contenuti audio originali di qualità sulla base di specifici “prompt” tramite il supporto dell’Intelligenza Artificiale (IA) di Peperoni AI.

Come funziona

Utilizzeremo per questo esempio il caso di un’emittente radiofonica.
L’accesso avviene tramite web (dunque nessuna applicazione da installare) e l’interfaccia presenta pochi e intuitivi campi da riempire:

Preroll, Base e Postroll non sono ovviamente concetti che occorre spiegare ai lettori di questa testata.

Parliano invece del box in basso, “Text Generation”:

Text Generation

Qui si interagisce con la IA, fornendo alcune indicazioni generali (“comportati come se tu fossi un giornalista esperto..”) e alcune particolari (“genera un testo in italiano …”).

Si tratta del cosiddetto “prompt”, la richiesta che si fa alla IA. Generalmente occorre qualche iterazione per mettere a punto il messaggio esatto, chiarendo il comportamento desiderato con frasi quali “esprimiti in modo formale” oppure “non citare nomi di persone” o “termina dicendo ‘un saluto agli ascoltatori’ “. Ma si tratta di un’operazione da effettuare una sola volta in fase di messa a punto del sistema.

Speaker

Sono disponibili le voci di numerosi speaker artificiali: a oggi 506 combinazioni di lingua parlata e sesso dello speaker, generate tramite tecnologia Microsoft e tramite quella di Google.

È possibile un preascolto basto su una frase standard, oppure si può’ generare un contenuto personalizzato, come nei due esempi che seguono:

Clip generato con voce google “it_standard_C” (nome provvisorio)

 

Stesso clip, ma genarato con voce “it_Wavenet-D” (nome provvisorio)

Workflow automatici

Fin ora abbiamo mostrato un utilizzo manuale dell’applicazione da parte di un operatore umano, ma è  comunque possibile creare dei workflow automatizzati. Vediamo come.

Feed RSS

La magia si chiama “feed RSS”, la versione “machine-readable” di ogni sito web. Nell’esempio che segue, abbiamo chiesto a Content on Demand di creare un clip sulla base delle ultime notizie di borsa recuperate da uno dei feed di cui parleremo tra breve, utilizzando il prompt seguente:

Crea un audio clip di 60 secondi  in base alla notizia contenuta nel feed RSS”

Questo il risultato



Automazione…

Fin qui i clip audio sono creati sotto la supervisione di un operatore umano. Ma Content on Demand prevede una totale automazione, con la possibilità di programmare la creazione di nuovi contenuti originali a intervalli predefinitili:

…e integrazione

In questo modo risulta semplice programmare il caricamento dei contenuti in specifiche location (cartelle) per la messa in onda automatica.

Si può andare oltre: 22HBG propone integrazioni personalizzate che connettono Content on Demand al sistema di automazione adottato dalla singola emittente.


Possibili utilizzi – Radio

Sono innumerevoli i campi di applicazione possibili. Si pensi ad esempio a una rubrica di aggiornamento in tempo reale sui dati di borsa: siti come it.investing.com, Wallstreetitalia o CNBC  forniscono un’ampia serie di informazioni in tempo reale, tutte catturabili da Content on Demand. Facile dunque creare un automatismo che, in base al clock dell’emittente, recuperi le informazioni e crei in tutta autonomia il clip audio da inserire in programmazione.


Non solo radio

Abbiamo detto che Content on Demand è utile anche oltre i confini del mondo radiofonico. Sono infatti previsti – e di fatto già’ sperimentati in questi mesi – numerosi servizi basati sull’audio, dove messaggi indirizzati al grande pubblico o anche a utilizzatori specifici e diffusi da altoparlanti o smart speaker sono generati da Content on Demand in base alle informazioni recepite proprio tramite il meccanismo di feed che abbiamo visto.

Niente clonaggio voci

Per terminare, una nota sulla strategia di 22HBG riguardo le voci clonate. È oggi possibile – e di fatto funziona incredibilmente bene – creare una versione artificiale di un qualunque conduttore sulla base di poche decine di minuti di parlato originale.
Si è deciso per il momento di non implementare questa funzionalità: oltre i consueti motivi etici (e’ appena terminato un lungo sciopero di attori e autori di Los Angeles e la IA era uno dei temi delle rivendicazioni), la società ritiene che sia più opportuno utilizzare oggi queste tecnologie per creare prodotti e processi innovativi, piuttosto che per dubbi tentativi di rimpiazzo di personale qualificato.

Conclusioni

Avere in onda contenuti sempre aggiornati – anche durante la notte, anche durante le festività – è certamente un vantaggio competitivo per un’emittente. Cosi come lo è la possibilità creare e inventare  contenuti originali e articolati sulla base di poche rapide indicazioni tutte le applicazioni che prevedono l’utilizzo di contenuti audio. Tutte funzionalità che – con un minimo di personalizzazione iniziale – sono implementabili tramite Content on Demand.

Nelle prossime settimane torneremo a parlare di Content on Demand analizzando alcuni case studies di questa fase iniziale di alpha test; chi desiderasse entrare nella fase di beta può invece scrivere a [email protected] (M.H.B. per FM-World)

Talkmedia: di cosa si parla nel gruppo Facebook di FM-world

Riassumiamo in questo articolo alcuni dei post di maggior interesse (in base al numero di commenti) apparsi nel mese di agosto sul gruppo Facebook Talkmedia. Gli argomenti e il riassunto sono stati selezionati ed elaborati da PeperoniAI Claude di Anthropic, con fact checking a cura della redazione.

Radioincontri

RadioIncontri, la manifestazione che si è svolta a Riva del Garda tra il 2004 e il 2010, è rimasta nel cuore di molti radiofonici, come testimoniano i numerosi commenti nostalgici al post originale di Nicola Franceschini.

In generale, traspare tutta la nostalgia per i “RadioIncontri” di Riva del Garda, appuntamento annuale tra il 2004 e il 2010 che riuniva professionisti e appassionati da tutt’Italia per confrontarsi sul mondo della radiofonia.

Tra i commenti, c’è chi evoca con affetto l’atmosfera di condivisione e socialità che vi si respirava, paragonandoli ad un vero e proprio “gruppo Facebook dal vivo“. Chi ricorda i bei momenti trascorsi con vecchie conoscenze, stringendo nuove amicizie destinate a durare.

Si rievocano anche le storiche “gare di volume” tra gli impianti radiofonici portati da vari espositori, sempre più potenti e all’avanguardia. E la presenza, accanto alle radio universitarie, delle nuove web radio emergenti dell’epoca, a testimonianza di un evento al passo coi tempi.

Tra i contributi, il noto editore di alcune storiche webradio italiane fa notare come in realtà le proprie radio di punta fossero state escluse da quegli incontri, suscitando non poche perplessità. Una visione critica che offre uno spunto di riflessione, pur senza intaccare il sentimento nostalgico prevalente.

Il futuro della radiofonia al centro del dibattito su Facebook

Un post pubblicato da Massimo Siddi che analizza i nuovi trend di consumo on demand rispetto ai palinsesti radiofonici tradizionali ha suscitato un acceso dibattito sul futuro della radiofonia.

Tra i commenti, c’è chi mostra preoccupazione per lo spostamento di massa degli ascoltatori verso contenuti personalizzati sulle piattaforme digitali, abbandonando l’ascolto lineare. Siddi però ridimensiona questa visione, spiegando come si tratti di un processo in atto già da anni in molti settori, non di un cambiamento improvviso.

Secondo la sua analisi, la sfida per la radio è aprirsi oltre la linearità tradizionale, sperimentando nuove modalità di produzione di contenuti. In caso contrario rischia di rimanere indietro rispetto alle scelte del pubblico. Un commentatore condivide questa prospettiva, evidenziando come il cambiamento stia arrivando in modo inesorabile.

Non mancano però vedute più possibiliste, come quella di un utente secondo cui la radio lineare non è necessariamente destinata a scomparire. Piuttosto, potrà trasformarsi e ritagliarsi una nuova collocazione specifica, come è avvenuto per esempio al cinema in sala con l’avvento dello streaming.

Siddi ribadisce che non si tratta di decretare la morte della radio, quanto di comprendere i cambiamenti in atto per reinventare il mezzo radiofonico in una nuova dimensione al passo coi tempi.

Com’era la radio ai tempi dell’analogico: il ricordo dei vecchi mixer

Il post di Giuseppe Fiorellini del 18 agosto che ritrae Leonardo Leopardo mentre  usa un vecchio mixer analogico (nota 1) il mitico mixer di RMI marcato Semprini ha suscitato nei commenti un vivace scambio di ricordi tra i veterani del settore.

In tanti hanno citato con nostalgia i marchi di mixer che hanno utilizzato dagli anni ’70 in poi: oltre al mitico Semprini, vengono menzionati frequentemente anche Soundcraft, Munter, Davoli, FBT ed altri marchi storici dell’elettroacustica italiana.

C’è chi ricorda di aver usato questi mixer fino agli anni 2000, chi invece sottolinea come oggi il timbro sonoro venga dato dai processori digitali. Non mancano riferimenti anche ai riverberi a molla e agli equalizzatori analogici dell’epoca, che richiedevano una certa abilità nella taratura.

I commenti esprimono tutta la nostalgia per una tecnologia che, nonostante alcuni difetti come il rumore di fondo, garantiva un “calore” sonoro maggiore rispetto all’era digitale. Una passione che accomuna i reduci di quella radio artigianale in cui la differenza la faceva il tocco personale.

Le “chart” di FM-World al centro del dibattito sugli ascolti radiofonici

Durante le ultime settimane sulla pagina di Talkmedia sono state riportate più volte le classifiche delle radio piû ascoltate sull’aggregatore FM-World, denominate (mutuando il nome dalle classifiche di dischi) “charts” (anzi: top-charts!).

Il post originale a firma Franceschini che riporta le classifiche delle radio più ascoltate sulla piattaforma FM-World ha innescato nei commenti una discussione sul tema della rilevazione degli ascolti nel mondo radiofonico.

In particolare, un primo utente fa notare come i pur piccoli numeri di audience generati da FM-World facciano capire quanto siano di fatto inutili le tradizionali indagini condotte su campioni dalle società specializzate.

Un altro commentatore entra nel merito delle chart di FM-World, sottolineando come vi sia una netta predominanza di un’emittente nazionale durante la notte, fatto che contrasterebbe con i dati ufficiali disponibili. Questo viene visto come un segnale di possibile discrasia tra le classifiche di ascolto istituzionali e i trend emergenti dalla piattaforma.

Non mancano poi le osservazioni sulle radio mancanti in queste chart: vengono fatte notare ad esempio l’assenza di un’emittente nazionale molto popolare e quella di una storica radio locale, apprezzata nella sua area. Questo limiterebbe una visione completa del panorama radiofonico.

C’è anche chi sottolinea l‘opportunità offerta da FM-World di scoprire nuove emittenti tra le oltre 500 presenti, rispetto alla più ridotta offerta degli aggregatori istituzionali. E si ricorda, a ulteriore sostegno dei dubbi sulla validità dei dati ufficiali, la recente uscita della Rai dalla rilevazione condotta dalla società PER.

In sintesi, tramite queste varie obiezioni e puntualizzazioni sembra emergere una diffusa perplessità sull’attendibilità delle classiche indagini di ascolto realizzate su campione.

FM-World viene vista come possibile alternativa più realistica per quantificare le effettive performance delle varie emittenti radiofoniche.

(nota 1): Siamo stati costretti a correggere la IA, probabilmente nata troppo tempo dopo il 1975

(Articolo a cura di Peperoni ai e Claude/Anthropic su supervisione di M.H.B. per FM-World)

Musk rende pubblico l’algoritmo di Twitter: cerchiamo di capire come funziona

Servizio a cura di Marco Barsotti

La stampa non ne ha praticamente parlato, ma venerdì 31 marzo è stata una data storica. Grazie a Elon Musk, per la prima volta un social network ha reso pubblico il cosiddetto algoritmo (in questo caso addirittura il codice sorgente) che decide cosa vediamo nella nostra timeline.

Con questo articolo cerchiamo di farne un rapidissimo riassunto e di dare qualche consiglio a chi volesse aumentare la propria visibilità sul social usato da “everybody who is somebody“.

500 milioni di tweet/giorno

Partiamo da un fatto: ogni giorno vengono generati circa 500 milioni di Tweet: scopo dell’algoritmo decidere quali mostrare a ciascun utente. Il sistema si chiama “Home Mixer” ed è scritto in gran parte nel linguaggio Scala.

L’algoritmo di Twitter: Tre fasi e due gruppi

L’algoritmo si articola in tre fasi, parzialmente (ma non totalmente) basate sulla IA (Intelligenza Artificiale). Prende in considerazione i contenuti di due gruppi di utenti: In Network, coloro che seguiamo o ci seguono e Out of Network, coloro che non seguiamo.

Fase 1

Di nome “Candidate Sources” pende in considerazione in modo eguale (50/50) tweet effettuati da persone che seguiamo e da sconosciuti, con l’obiettivo di selezionarne 1500 (lo 0,0003% del totale).

In Network

I tweet “in network” sono selezionati in base alla probabilità di un “engagement” (una reazione, quale un like, un commento o un retweet) da parte del singolo utente.  Viene utilizzata una regressione basata sulle interazioni reciproche passate.

Out of Network

I tweet “out of network” sono selezionati in base al “social graph“, in sostanza lo stesso criterio precedente ma applicato “agli amici degli amici” (se ci permettete questa espressione vagamente sinistra).

In altre parole se io sono A, ho un amico B e non seguo C, ma B ha un alto engagement con C allora forse anch’io A posso aver interesse in quanto afferma C.

Confusi?

Confusi? Restate con noi, ancora pochi passaggi e arriviamo ai consigli per gli acquisti (anzi, per i tweet).

Fase 2

In questa fase viene generata una rappresentazione numerica degli interessi dei singoli utenti e del contenuto dei tweet. In questo modo è possibile calcolare l’affinità dei tweet disponibili con i nostri interessi in base alla distanza tra i due numeri.

Un esempio

In altre parole se una persona con cui ho interessi comuni (diciamo: Nicola Franceschini) parla di un argomento che mi interessa (diciamo: Ryuichi Sakamoto) allora il suo tweet apparirà prominente nella mia timeline.

Se invece sempre Franceschini parlasse di Laura Pausini allora il suo messaggio comparirebbe egualmente, ma molto in basso. Se invece a parlare di Laura Pausini fosse un altro membro della comunità di Talkmedia (ipotizzando che fosse attivo su Twitter) allora nulla sarebbe riportato nella timeline di chi scrive.

Altri Social

Questo esempio è rilevante in quanto è ipotizzabile (per motivi che non stiamo ad analizzare) ci siano numerose similitudini anche con l’algoritmo di Facebook e di altri social.

Parametri e Peperoni

L’ordinamento di cui sopra, detto ranking, è effettuato da una minuscola rete neuronale (dunque: da una IA) composta da 48 milioni di parametri (per fare un confronto: GPT 3.5, probabilmente utilizzato da Peperoni AI per il programma di Patrizia su radio 70-80.it) dispone di circa 170 miliardi di parametri (364500% di più!).

Infine viene applicato un filtro euristico (metodo non totalmente scientifico che utilizza senso comune e semplici regole) per filtrare ulteriormente i contenuti, evitare di vederne troppi dalle stesse persone e inserire qualche pubblicità nel mix finale.

Consigli per gli acquisti

Ed eccoci alla ricetta per un tweet di successo, ricavata da alcuni programmatori che hanno analizzato non la nostra spiegazione ma proprio il codice sorgente reso pubblico a fine marzo.

Cosa cercare (boost)

Questi i fattori che favoriscono la diffusione di un nostro contenuto:

  • Like (30x, trenta volte più’ di un tweet che ne e’ privo)
  • Retweet Count (20x per ogni retweet, a giudicare dal codice qui sopra)
  • Contenuto che include immagini o video (4x)
  • Contenuto che ha ricevuto almeno un commento (2x)

Questi invece i fattori che incidono negativamente

  • Tweet che consiste solo in una URL
  • Retweet senza commento/testo aggiunto
  • Tweet che è stato bloccato, anche solo da un utente
  • Tweet che ha causato un “unfollow”
  • Tweet che è stato segnalato come inappropriato

Conclusioni

Con l’inedita decisione di rendere pubblico l’algoritmo (peraltro non molto sofisticato) di Twitter Elon Musk ha dato a tutti la possibilità di vedere (abbastanza) chiaro in uno dei grandi misteri del nostro tempo, quello stesso che permette alla stampa di affermare – senza prove – che (ad esempio) la decisione sulla Brexit è stata “influenzata dai social network“.

Speriamo Meta e gli altri vogliano presto seguirne l’esempio.

(Marco Hugo-Barsotti per FM-World)

* Per comunicati e segnalazioni: [email protected]