“Allucinazioni” dell’AI, Antitrust: le società daranno informazioni più trasparenti (Immagine generata dall'AI, Foto di Alexandra_Koch da Pixabay)
“Allucinazioni” dell’AI, Antitrust: i modelli daranno informazioni più trasparenti
L’Antitrust chiude tre istruttorie sul rischio di “allucinazioni” dell’intelligenza artificiale, i risultati inesatti, fuorvianti o inventati che possono essere restituiti dai modelli di AI. DeepSeek, Mistral e NOVA AI forniranno informazioni più trasparenti, con avvisi e banner in italiano
Arrivano informazioni più chiare, trasparenti e in lingua italiana sul rischio di “allucinazioni” nei sistemi di intelligenza artificiale. Si tratta del rischio che, a fronte di un’interrogazione o una domanda, l’assistente AI restituisca possibili informazioni inesatte, fuorvianti o addirittura inventate.
Negli ultimi mesi l’Antitrust ha esteso l’azione di vigilanza sulle pratiche commerciali scorrette ai sistemi di intelligenza artificiale generativa e si è occupata appunto delle “allucinazioni” dell’AI, con tre istruttorie condotte nei confronti di altrettante società – Hangzhou DeepSeek Artificial Intelligence Co. Ltd e Beijing DeepSeek Artificial Intelligence Co. Ltd (‘Deepseek’), Mistral AI SAS (‘Mistral’) e Scaleup Yazilim Hizmetleri Anonim Şirketi, che offre un servizio “chatbot cross-platform” denominato NOVA AI.
Ora l’Antitrust ha chiuso le istruttorie accogliendo gli impegni presentati dalle società senza accertare l’infrazione.
Allucinazioni dell’AI, informazioni più chiare
Le società di AI hanno infatti assunto specifici impegni che nel complesso rafforzano la trasparenza informativa sul rischio di “allucinazioni” dei sistemi offerti, intervenendo sui canali di fruizione dei servizi (siti internet e app) e nelle varie fasi del processo decisionale che precede l’acquisto o la registrazione.
Ci saranno disclaimer e avvisi permanenti nelle interfacce di utilizzo sotto le chat che avvertono, in lingua italiana, della presenza delle allucinazioni, anche con hyperlink dedicati. Viene inoltre arricchita l’informativa precontrattuale con esplicite avvertenze sui limiti di affidabilità dei contenuti generati dai sistemi di intelligenza artificiale e sulla necessità di verificarli.
Sfida tecnologica oggettiva
Nel procedimento relativo a DeepSeek, ricorda l’Antitrust in una nota, “la società ha anche previsto un investimento tecnologico per mitigare il fenomeno delle “allucinazioni”, anche se consapevole che – nell’attuale stato tecnologico – non sia possibile eliminarle completamente”.
DeepSeek riconosce che il fenomeno delle “allucinazioni dell’AI” rappresenta una sfida tecnologica oggettiva e condivisa da tutti gli operatori. La società si impegna dunque a inserire un banner informativo permanente, in lingua italiana” al di sotto del box presente nella chat per l’input dei prompt (cioè la finestra di dialogo), che sarà sempre visibile e conterrà un messaggio del tipo “Contenuto generato da IA. Verifica sempre l’accuratezza delle risposte, che possono contenere inesattezze”.
Ci sarà un banner informativo permanente nella pagina di primo accesso al servizio. E avvisi visibili per le risposte generate su temi di particolare sensibilità quali l’ambito medico, legale e finanziario.
DeepSeek si impegna inoltre a tradurre integralmente in lingua italiana le “condizioni generali”/“termini di utilizzo” del servizio (‘T&C’), inclusa la parte relativa ai rischi di allucinazione, attualmente disponibili soltanto in lingua inglese. E si impegna a migliorare i propri modelli di intelligenza artificiale, anche in fase di addestramento e di post training del modello.
Le risposte dell’AI potrebbero non essere accurate
Gli impegni relativi a NOVA AI chiariscono al consumatore che si tratta di un servizio che offre solo accesso, mediante un’unica interfaccia, ad alcune chatbot (delle quali sono stati dati maggiori dettagli), senza fornire un servizio di aggregazione e di elaborazione delle risposte.
NOVA AI ha già inserito, dal primo ottobre 2025, una nuova sezione in lingua inglese denominata “Use of AI Technologies” che avverte espressamente l’utente circa la possibilità che i contenuti generati possono presentare errori. Inserirà Termini e Condizioni del servizio in lingua italiana con un avviso nel quale si legge, fra l’altro, che “le informazioni fornite possono pertanto essere incomplete, inaccurate o non originali e non devono quindi essere considerate alla stregua di consigli fattuali, professionali o completi”. Il testo avviserà poi che “l’uso dell’app per finalità commerciali, mediche, legali o altre attività critiche è rigorosamente vietato ed effettuato a esclusivo rischio dell’utente”.
Ci saranno disclaimer in lingua italiana che avviseranno del rischio di allucinazioni – “Le risposte dell’IA potrebbero non essere accurate. Assicurati di verificare che le informazioni siano corrette”.
Mistral a sua volta si impegna a pubblicare un disclaimer informativo permanente in lingua italiana per avvisare l’utenza della possibilità che l’assistente virtuale possa generare errori nelle proprie risposte. E si impegna a tradurre in lingua italiana e a integrare l’informativa circa i rischi connessi alle allucinazioni dell’IA presente all’interno delle proprie “Condizioni di Servizio” accessibili sia da Web, che da App, con una traduzione in italiano che riguarderà poi l’intero sito.

