È stato pubblicato sul sito dello Studio Legale Parente Bianculli un interessante approfondimento giuridico dal titolo “Cancellare notizie da Google, AI Mode, Perplexity e ChatGPT”, dedicato all’evoluzione del diritto all’oblio nell’era dell’intelligenza artificiale e dei nuovi motori di ricerca generativi. Il testo affronta in modo analitico la trasformazione del concetto di deindicizzazione, oggi esteso anche agli algoritmi di sintesi e ai sistemi che producono risposte dirette a partire da fonti pubbliche, sollevando questioni di natura tecnica e giurisprudenziale.

Nel contributo si analizza come la disciplina del GDPR – in particolare l’articolo 17 sul diritto alla cancellazione dei dati personali – si intersechi con i meccanismi di apprendimento automatico delle piattaforme di intelligenza artificiale, che tendono a memorizzare e rielaborare informazioni tratte dal web in modo non sempre controllabile dall’utente. Il testo evidenzia i nuovi profili di responsabilità dei titolari del trattamento, i limiti tecnici alla rimozione delle informazioni apprese dai modelli linguistici e il ruolo che le Linee Guida EDPB e l’AI Act europeo stanno assumendo per garantire trasparenza e tutela dei diritti digitali.
“Siamo davanti a una fase di transizione in cui il diritto all’oblio non può più limitarsi alla cancellazione dei link su Google“, afferma l’Avv. Domenico Bianculli. “Oggi la questione è capire come impedire che le intelligenze artificiali continuino a riprodurre, sintetizzare o diffondere dati personali non più pertinenti, anche dopo la loro rimozione dalle fonti originarie“.
L’analisi prosegue affrontando il tema della deindicizzazione nei motori di ricerca di nuova generazione, come Google AI Mode o Perplexity.ai, che combinano ricerca tradizionale e generazione automatica di risposte. L’articolo spiega che, a differenza dei motori classici, tali sistemi non si limitano a mostrare collegamenti, ma costruiscono risposte narrative, rendendo di fatto più complesso l’esercizio del diritto all’oblio per cancellare notizie da internet.
“Il problema non è solo tecnico, ma anche concettuale“, osserva l’Avv. Angelica Parente, coautrice dell’approfondimento. “Una volta che un’informazione entra nei dataset di addestramento, il concetto di “cancellazione” diventa teorico. È necessario un cambio di paradigma normativo: non più solo diritto all’oblio, ma diritto a non essere riprodotti da algoritmi che apprendono senza limiti temporali“.
Nel comunicato si sottolinea anche come la giurisprudenza più recente – tra cui le pronunce della Corte di Giustizia UE nei casi Google Spain e GC vs CNIL – continui a rappresentare il fondamento dell’oblio digitale, pur dovendo essere reinterpretata alla luce dei nuovi modelli di ricerca basati sull’intelligenza artificiale.
L’articolo, inoltre, esamina le implicazioni etiche e reputazionali legate alla conservazione automatica dei dati e la necessità di strumenti giuridici idonei a tutelare l’identità digitale dei cittadini.
Il contributo offre infine una riflessione sulle prospettive di “oblio algoritmico”, concetto che potrebbe presto entrare nelle agende normative europee come estensione del diritto alla cancellazione, imponendo agli sviluppatori di sistemi AI di garantire meccanismi di rimozione e aggiornamento dei dati personali nei dataset di training.
La pubblicazione si inserisce nel più ampio lavoro di ricerca dello Studio Parente Bianculli sui rapporti tra diritto, tecnologia e tutela della persona, e rappresenta un punto di partenza per un confronto giuridico e tecnico che sarà centrale nei prossimi anni, man mano che l’intelligenza artificiale si integra nei sistemi informativi e nei motori di ricerca globali.
