L’AI minacciata dai propri contenuti: ecco perché rischia il collasso
Attualmente, ci sono due paradossi che caratterizzano l’intelligenza artificiale. Il primo è la grande quantità di risorse necessarie per il suo funzionamento, che consuma enormi quantità di energia e acqua (oltre alle emissioni di CO2), ma allo stesso tempo, l’AI potrebbe essere fondamentale per affrontare (o almeno tentare di risolvere) la crisi climatica. Il secondo paradosso riguarda la possibilità che l’intelligenza artificiale possa crollare sotto il peso dei dati su cui è stata addestrata, basandosi su modelli precedenti. Questo è stato evidenziato in uno studio recentemente pubblicato su Nature. I ricercatori affermano che l’efficacia dell’AI generativa e dei grandi modelli linguistici è aumentata progressivamente, in particolare nella creazione di immagini e testi. La rapidità dell’evoluzione ha portato i creatori di contenuti a fare sempre più affidamento sulle piattaforme di intelligenza artificiale. Di conseguenza, una parte significativa dei contenuti generati dall’AI sarà sempre più visibile online.
Il “Collasso del modello” e i difetti irreversibili
Tuttavia, questo utilizzo definito dagli scienziati come «indiscriminato» può causare «difetti irreversibili» nei modelli stessi. Questo fenomeno, chiamato dagli scienziati «Collasso del modello», è dovuto al fatto che le AI vengono addestrate su grandi volumi di dati, spesso provenienti dai modelli precedenti. Ciò porterà le generazioni successive di AI a essere sempre più alimentate da materiale già “digerito” dai loro predecessori e da contenuti preconfezionati trovati online, creati spesso dagli stessi modelli generativi. Questo porta a un fenomeno descritto dagli scienziati come «Processo degenerativo». In pratica, gli errori appresi dai modelli precedenti vengono rapidamente assimilati dai successivi, con la conseguente generazione di risposte ai prompt sempre più errate.
Problemi di qualità dei contenuti
La ragione è semplice. Finché i modelli venivano addestrati con contenuti forse imperfetti, ma creati da esseri umani, la qualità del materiale di training rendeva efficace anche la produzione dei modelli generativi. Ora, invece, i contenuti di bassa qualità o superficiali, generati dalle stesse AI, vengono utilizzati per il training delle nuove AI. Di conseguenza, i risultati generati non sono più della stessa qualità di un tempo.
Questo non è un problema da poco: potrebbe portare alla creazione di immagini e testi completamente scollegati dalla realtà, e a errori che rendono le AI inevitabilmente meno efficaci e utili. Esiste un modo per evitare che ciò accada. Si potrebbero, ad esempio, contrassegnare tutti i contenuti generati da AI come tali. In questo modo, potrebbero essere esclusi dai dati di training per evitare che vengano assimilati dai modelli successivi.
Il ruolo dei contenuti umani nell’addestramento dell’AI
Tuttavia, lo sforzo richiesto non è trascurabile: dovrebbe diventare uno standard comune adottato da tutte le aziende di intelligenza artificiale. Se il filosofo tedesco Ludwig Feuerbach affermava che siamo ciò che mangiamo, potremmo dire che l’AI è ciò che impara. Ecco perché è fondamentale che venga addestrata con contenuti prodotti dall’uomo, nonostante i timori che l’AI possa sostituire gli esseri umani.
Ludovica Borzise