L’AI minaccia se stessa? Il rischio del cannibalismo digitale

di Ermes Strippoli

Il web è sempre più invaso da contenuti creati dall’intelligenza artificiale, e questo potrebbe diventare un problema serio per la stessa AI. Il rischio è che i sistemi di AI finiscano per “nutrirsi” dei propri output, portando a un progressivo degrado della qualità e dell’originalità dei risultati prodotti, un fenomeno chiamato “cannibalismo digitale” o “disordine di autofagia del modello.”

Come il patrimonio genetico si impoverisce con matrimoni tra consanguinei, allo stesso modo, i modelli AI che riutilizzano i propri dati rischiano di produrre contenuti sempre più uniformi e meno accurati. Ad esempio, uno studio pubblicato su Nature ha dimostrato che, dopo varie iterazioni, un modello AI linguistico ha iniziato a generare risposte incoerenti, come menzionare “code di coniglio” senza senso. Similmente, i modelli generativi di immagini tendono a creare volti sempre più simili tra loro dopo pochi cicli di rigenerazione.

Questo problema si aggrava quando le AI vengono addestrate con dati non controllati provenienti dal web, che possono includere contenuti sintetici generati da altre AI. La mancanza di regolamentazioni che impongano l’etichettatura dei contenuti generati dall’AI complica ulteriormente la situazione.

La sfida ora è chiara: dobbiamo trovare un modo per addestrare le AI mantenendo la qualità e la diversità dei dati. È essenziale garantire l’accesso a informazioni originali e distinguere i dati generati dagli LLM da quelli autentici. Tuttavia, per raggiungere questo obiettivo, è fondamentale colmare il vuoto normativo attuale.

 


FOTO: di Freepik

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Abilita le notifiche per non perderti nessun articolo! Abilita Non abilitare