Consulenza aziendale, commerciale e marketing
01 Dicembre 2025
Model collapse: se l’intelligenza impara solo da sè si impoverisce
Il “model collapse” è un fenomeno simile alla consanguineità: quando le AI si nutrono solo di contenuti generati da altre AI, la ricchezza genetica dei dati svanisce. Così, la creatività si inaridisce e i modelli degenerano in copie di copie sempre più povere.
La storia dovrebbe essere Magistra Vitae: le comunità isolate che, per secoli, si sono riprodotte solo al proprio interno con il passare delle generazioni sono diventate sempre più deboli fino ad estinguersi, La consanguineità favorisce la diffusione delle malattie genetiche e la vitalità complessiva si riduce. Ora trasportiamo questo scenario nel mondo dell’intelligenza artificiale. Il fenomeno ha un nome tecnico: model collapse, il collasso dei modelli. Si verifica quando i sistemi di AI vengono addestrati non più su dati umani, freschi e vari, ma su contenuti prodotti da altre AI. È come se la linfa vitale del sapere fosse sostituita da una copia della copia della copia.All’inizio sembra innocuo. Un articolo generato da un modello, una traduzione automatica, un’immagine sintetica: perché non riutilizzarli come dati di training? In fondo sembrano realistici. Ma con il tempo, il dataset si impoverisce. I modelli non imparano più dal mondo, dalla sua complessità e imprevedibilità, bensì da un universo ristretto e sterilizzato. È il corrispettivo digitale della consanguineità: invece di geni differenti che si mescolano, troviamo pattern sempre uguali che si ripetono.Gli effetti sono sottili ma devastanti. Le prime generazioni di AI “autoalimentate” iniziano a produrre testi corretti, ma piatti, privi di sfumature. Le immagini si uniformano: occhi perfetti, ma senza anima, scenari lucidi ma indistinti. La varietà linguistica si riduce, le espressioni...