allucinazione della (o di) intelligenza artificiale locuz. s.le f. Informazione errata prodotta da un sistema di intelligenza artificiale, non corrispondente alla realtà o incoerente rispetto ai dati forniti. ◆ Lo stato di “allucinazione dell’intelligenza artificiale” (AI Hallucination State) è un fenomeno che si manifesta quando l’output generato è falso, non è basato sul set di dati su cui è stato addestrato né è previsto dal modello con cui è stato realizzato (Wikipedia, 2023). Nello stato di allucinazione viene fornita una risposta esaustiva, efficace, chiara, logica, ma inventata, completamente infondata. (Chiara Cilardo, Agendadigitale.eu, 28 giugno 2023, Società digitale) • [tit.] Le allucinazioni dell’IA sono la parola dell’anno. (Avvenire.it, 17 novembre 2023, Rubriche) • Non è chiaro quando il problema delle allucinazioni delle AI sarà risolto, né se sarà davvero possibile farlo. Secondo Raza Habib, ex ricercatore di Google, la soluzione potrebbe arrivare entro un anno grazie al miglioramento dei processi di controllo e calibrazione delle informazioni, mentre Microsoft ha proposto uno strumento per individuare errori simili e anche Sundar Pichai, amministratore delegato di Google e Alphabet, ha recentemente definito le allucinazioni «un problema ancora non risolto». (Post.it, 22 maggio 2024, Tecnologia) • Con il termine “allucinazioni” – che alcuni esperti criticano perché tende ad antropomorfizzare il funzionamento della tecnologia – intendiamo risposte plausibili ai prompt degli utenti, ma che in realtà contengono errori fattuali, logici o sono totalmente inventate. Considerato il numero di funghi tossici in America settentrionale, più che di un caso letterario insomma, si trattava di un potenziale problema di salute pubblica causato da allucinazioni dell’AI non controllate, e dalla mancanza di un meccanismo di revisione prima della vendita ai consumatori su una popolare piattaforma digitale. (Roberto Pizzato, Wired.it, 14 ottobre 2024, La ricerca) • [tit.] Molti scienziati sfruttano le allucinazioni dell'intelligenza artificiale come spunto per nuove idee che possono portare a scoperte interessanti. [testo] Le allucinazioni AI si verificano quando gli scienziati addestrano i modelli generativi su uno specifico argomento e successivamente lasciano che l’intelligenza artificiale rielabori tali informazioni. I risultati possono essere sbagliati e surreali, ma alcune volte portano ad importanti scoperte. (Luca Colantuoni, Puntoinformatico.it, 27 dicembre 2024) • «I risultati giurisprudenziali citati nell’atto sono il frutto di una ricerca effettuata da una collaboratrice di studio su Chat Gpt – si legge nella sentenza – L’IA ha dunque generato risultati errati che possono essere qualificati con il fenomeno delle cosiddette allucinazioni di intelligenza artificiale, che si verifica quando l’IA inventa risultati inesistenti». La sentenza è dello scorso 14 marzo ed è già diventata un caso nel panorama del diritto italiano perché «si è verificato un caso di scuola», spiega Eugenio Albamonte, pm della procura nazionale antimafia, tra i maggiori esperti di intelligenza artificiale applicata al diritto. «E cioè come difendersi dagli errori dell’IA, anche quando si parla di giustizia?». (Giuliano Foschini, Repubblica.it, 17 aprile 2025, Cronaca).
La locuz. ricalca l’ingl. AI Hallucination. Varianti attestate nei media it.: allucinazione delle AI, dell’AI, dell’IA; con giustapposizione: allucinazione AI.