(Immagine generata dall'AI, Foto di Alexandra_Koch da Pixabay)
NOVA AI, l’Antitrust apre istruttoria: non informa sulle possibili “allucinazioni”
L’Antitrust apre un’istruttoria sul chatbot NOVA AI per l’assenza di una chiara informativa sul rischio di “allucinazioni”, la possibilità che l’assistente AI restituisca informazioni “inesatte, fuorvianti o inventate”
L’Antitrust apre un’istruttoria su NOVA AI chatbot per l’assenza di informativa sulle possibili “allucinazioni”. NOVA è un “chatbox cross-platform”, offerto e gestito dalla società ScaleUp, che offre un servizio di intelligenza artificiale sviluppato a partire da altre piattaforme. Accedendo al sito internet, NOVA viene presentata come “Your AI Assistant: Nova is a revolutionary AI chatbot developed on GPT-4o & Gemini”.
Il rischio di “allucinazioni”
L’Antitrust contesta alla società di non aver informato in modo chiaro che “gli utenti dei propri modelli di IA potrebbero incorrere in quelle che in gergo tecnico prendono il nome di “allucinazioni”: situazioni cioè in cui, a fronte di un dato input inserito da un utente, il modello di IA genera uno o più outputs contenenti informazioni inesatte, fuorvianti o inventate. In particolare, nessun disclaimer o warning sull’eventualità che si verifichino ‘allucinazioni’ appare nelle finestre di dialogo che si aprono durante l’utilizzo dei modelli di IA di NOVA”.
Le allucinazioni sono dunque possibili informazioni inesatte, fuorvianti o inventate in cui ci si può imbattere interrogando l’assistente di intelligenza artificiale. Dal sito di NOVA è possibile registrarsi per fruire gratuitamente del servizio; per interrogarla bisogna scegliere quale sistema utilizzare tra OpenAI GPT – 4o mini, OpenAI GPT-4, Open AI Gpt 4o, Gemini e Claude.
L’utilizzo gratuito di NOVA, spiega l’Antitrust, si rivela possibile solo scegliendo “Open AI GPT – 4o mini”, mentre selezionando gli altri sistemi si apre un pop-up che propone un abbonamento mensile o settimanale. In nessun punto del processo web ci sono informazioni sulla presenza di possibili allucinazioni.
Secondo l’Antitrust “la possibilità di NOVA di generare allucinazioni, tuttavia, può essere dedotta dalla circostanza che le singole piattaforme su cui si basa informano gli utenti della possibilità di generare risposte non corrette, al pari degli altri c.d. Large Language Models”.
I rischi delle “allucinazioni” per i consumatori
La comunicazione di avvio del procedimento per possibile pratica commerciale scorretta è pubblicata nel bollettino online del 29 settembre.
Qui l’Autorità garante della concorrenza spiega che “l’informativa sulla possibilità di incorrere in informazioni inesatte, fuorvianti o inventate appare essenziale per il compimento in modo consapevole da parte dell’utenza della scelta di utilizzo dei modelli di IA di NOVA (anziché di quelli offerti dai competitors o da quelli su cui la stessa si basa), scelta che costituisce una “decisione commerciale” ai sensi del Codice del consumo, anche quando non prevede il pagamento di un corrispettivo monetario. In assenza di adeguata informativa, tale scelta verrebbe operata nella errata convinzione di poter fare pieno affidamento sull’attendibilità e correttezza dei suoi risultati”.
L’assenza di questa informazione appare rilevante anche perché gli utenti potrebbero interrogare i modelli di IA di Nova anche su argomenti quali salute, finanza, diritto, di particolare interesse per il consumatore.
In questo senso, spiega l’Antitrust, “la rilevata omissione informativa è in grado di incidere, oltre che sulla decisione commerciale relativa all’utilizzo in sé dei modelli di IA di NOVA, anche sulle decisioni che a valle di tale utilizzo possano essere adottate nella convinzione (errata) che gli outputs ottenuti siano pienamente attendibili”.
L’Autorità chiede a ScaleUp di fornire tutta una serie di informazioni sui servizi di NOVA AI entro trenta giorni.

