smartphone

https://www.pexels.com/it-it/foto/interfaccia-chatbot-ai-mobile-su-smartphone-30530423/

L’Antitrust indaga sulle “allucinazioni” di DeepSeek, ovvero la produzione di risultati inesatti, fuorvianti o inventati da parte della piattaforma di intelligenza artificiale cinese. L’Autorità garante della concorrenza e del mercato ha infatti aperto un’istruttoria nei confronti del modello di IA cinese, accusata di non dare informazioni adeguate sui rischi che derivano dall’uso dei suoi modelli di intelligenza artificiale in relazione alle risposte fuorvianti, inesatte o inventate che il modello può restituire di fronte a una domanda. L’ipotesi dell’Antitrust è che l’informativa insufficiente sia una pratica commerciale scorretta.

Antitrust vs DeepSeek

Il procedimento riguarda le società Hangzhou DeepSeek Artificial Intelligence Co., Ltd. e Beijing DeepSeek Artificial Intelligence Co., Ltd. che insieme detengono e gestiscono il sistema di intelligenza artificiale noto come DeepSeek.

Sulla base di informazioni acquisite ai senso del Codice del Consumo, si legge nel procedimento pubblicato sul bollettino Antitrust di ieri, è emerso che “DeepSeek avrebbe posto in essere una condotta consistente nel non informare in maniera sufficientemente chiara, immediata e intellegibile che gli utenti dei propri modelli di IA potrebbero incorrere in quelle che in gergo tecnico prendono il nome di “allucinazioni”: situazioni cioè in cui, a fronte di un dato input inserito da un utente, il modello di IA genera uno o più outputs contenenti informazioni inesatte, fuorvianti o inventate”.

In particolare, prosegue l’Autorità, “nessun disclaimer o warning sull’eventualità che si verifichino ‘allucinazioni’ appare nelle finestre di dialogo che si aprono durante l’utilizzo dei modelli di IA di Deepseek. L’unica informativa rinvenibile nelle finestre di dialogo di DeepSeek riporta la seguente avvertenza generica: “AI-generated, for reference only””. L’avvertenza appare solo in lingua inglese anche se la domanda è in italiano; per l’Antitrust questo non è sufficiente a colmare la lacuna contestata perché troppo generica e inoltre presente solo in inglese.

L’esempio riportato dall’Antitrust fa riferimento alla richiesta di informazioni su quanto accaduto a piazza Tiananmen nel 1989 e ottiene la risposta “Sorry, that’s beyond my current scope. Let’s talk about something else”. Si tratta di un “parliamo di qualcos’altro” che in questo caso rimanda forse più a una risposta politica di censura che a un vuoto di informazioni, ma in ogni caso viene preso a modello del rischio più generale corso dall’utente di incorrere in “allucinazioni” senza averne piena consapevolezza.

Il rischio di allucinazioni di DeepSeek

L’informazione sul rischio di allucinazioni dei modelli di DeepSeek, spiega l’Antitrust, non è nemmeno presente nelle pagine di primo contatto con l’utenza che precedono l’apertura delle finestre di dialogo.

Il rischio è però presente e spiegato nel termini di uso del servizio, laddove si riconosce che “tutti gli Output forniti da questo servizio sono generati da un modello di intelligenza artificiale e possono contenere errori o omissioni (…) Non si devono considerare gli output come consulenza professionale.” I termini avvisano inoltre che i risultati del software non dovrebbero essere la base di “ulteriori azioni o inazioni”. Ma per l’Antitrust questa indicazione non colma la lacuna informativa contestata perché ci si arriva “solo tramite apposita ricerca, scrollando cioè l’homepage fino al fondo e facendo apposito click all’hyperlink “Terms of Use” riportato all’interno della sezione “Legal & Safety”.

Per l’Antitrust la condotta, “consistente in una insufficiente informativa circa la possibilità che nell’utilizzo dei modelli di IA di DeepSeek l’utenza possa incorrere in informazioni inesatte, fuorvianti o inventate (c.d. allucinazioni), sembrerebbe costituire una pratica commerciale scorretta” ai sensi del Codice del consumo.

L’Antitrust spiega inoltre che “l’informativa sulla possibilità di incorrere in informazioni inesatte, fuorvianti o inventate appare essenziale per il compimento in modo consapevole da parte dell’utenza della scelta di utilizzo dei modelli di IA di DeepSeek (anziché di quelli offerti dai competitors), scelta che costituisce una “decisione commerciale” ai sensi del Codice del consumo”.

Questa scelta, in assenza di adeguata informativa, verrebbe fatta “nella errata convinzione di poter fare pieno affidamento sull’attendibilità e correttezza dei suoi risultati.

DeepSeek può presentare memorie scritte e documenti entro 30 giorni.

DeepSeek in Italia

DeepSeek è una start-up di intelligenza artificiale a basso costo che viene dalla Cina. Uno dei punti di forza evidenziato dalle cronache che raccontano lo sviluppo di questa IA è che il modello DeepSeek-R1 è stato addestrato a un costo inferiore rispetto a quelli necessari per gli altri modelli di intelligenza artificiale. Il 10 gennaio 2025 DeepSeek ha rilasciato la sua prima app chatbot gratuita e al 27 gennaio aveva superato ChatGPT come app gratuita più scaricata sull’App Store iOS negli Stati Uniti.

Non è la prima volta che in Italia vengono contestate criticità a DeepSeek. La piattaforma di IA è finita anche nel mirino del Garante Privacy che a gennaio di quest’anno ha disposto, in via d’urgenza e con effetto immediato, la limitazione del trattamento dei dati degli utenti italiani nei confronti di Hangzhou DeepSeek Artificial Intelligence e di Beijing DeepSeek Artificial Intelligence, le società cinesi che forniscono il servizio di chatbot DeepSeek, chiedendo quali siano i dati personali raccolti e se questi vengono conservati su server situati in Cina.

Parliamone ;-)