Un giudice statunitense ha stabilito che le chat di un imputato per frode con Claude non sono riservate.
In una sentenza di febbraio descritta come la prima del suo genere negli Stati Uniti, il giudice Jed Rakoff ha stabilito che le conversazioni di Bradley Heppner con Claude di Anthropic riguardo alla sua esposizione legale hanno annullato sia il privilegio avvocato-cliente che la protezione del lavoro prodotto, poiché un'IA non è un avvocato e le piattaforme di IA pubbliche non hanno alcun obbligo di riservatezza.
Più di una dozzina di importanti studi legali hanno da allora emesso avvisi ai clienti.
Una sentenza storica di un tribunale federale statunitense ha provocato un'ondata di avvertimenti legali in tutto il paese: se utilizzi un chatbot IA disponibile pubblicamente per ricercare o discutere la tua situazione legale, quelle conversazioni potrebbero essere sequestrate, divulgate all'avvocato avversario e utilizzate come prova contro di te.
Il caso che ha fatto scattare l'allerta è Stati Uniti contro Heppner, in cui il giudice Jed S. Rakoff del Distretto Meridionale di New York ha stabilito a febbraio 2026 che le conversazioni private di un imputato criminale con l'IA Claude di Anthropic non erano né protette dal privilegio avvocato-cliente né coperte dalla dottrina del lavoro prodotto.
Il 💜 della tecnologia dell'UE Gli ultimi rumori dalla scena tecnologica dell'UE, una storia del nostro saggio fondatore Boris e alcune opere d'arte IA discutibili. È gratuito, ogni settimana, nella tua casella di posta. Iscriviti ora! La sentenza, pronunciata oralmente il 10 febbraio e seguita da un'opinione scritta il 17 febbraio, è descritta dagli osservatori legali come la prima decisione del suo genere negli Stati Uniti sulla questione se le conversazioni con chatbot IA abbiano protezione legale.
L'imputato, Bradley Heppner, era l'ex presidente della società di servizi finanziari in bancarotta GWG Holdings e fondatore della società di asset alternativi Beneficent.
È stato accusato dai pubblici ministeri federali nel novembre 2025 di frode sui titoli e frode telematica, e si è dichiarato non colpevole. Dopo aver ricevuto un subpoena da parte di un gran giurì e prima di ingaggiare formalmente un avvocato difensore, Heppner ha utilizzato Claude per analizzare la sua esposizione legale, delineare potenziali strategie difensive e sviluppare argomenti legali, agendo di propria iniziativa piuttosto che sotto la direzione dei suoi avvocati.
Quando l'FBI ha perquisito la sua casa, ha sequestrato circa 31 documenti che memorializzavano queste conversazioni con l'IA. Il governo ha richiesto la loro produzione; Heppner ha sostenuto che erano privilegiate.
Rakoff ha respinto quell'argomento su tre basi. In primo luogo, il privilegio avvocato-cliente protegge le comunicazioni tra un cliente e un avvocato. Claude non è un avvocato, non ha licenza legale, non deve alcun dovere di lealtà e non può formare una relazione privilegiata.
Come ha detto Rakoff dalla panchina, Heppner aveva “divulgato a una terza parte, di fatto, all'IA, che non aveva alcun obbligo di riservatezza.”
In secondo luogo, non c'era una ragionevole aspettativa di riservatezza: il giudice ha esaminato i termini di servizio e la politica sulla privacy di Anthropic, che consentono esplicitamente la raccolta di dati, l'uso di input e output per addestrare il modello e la divulgazione a terzi, comprese le autorità di regolamentazione governative.
Cliccando su accetta, Heppner aveva acconsentito a un quadro di divulgazione incompatibile con il privilegio. In terzo luogo, la protezione del lavoro prodotto non si applicava perché Heppner non stava agendo sotto la direzione dei suoi avvocati quando ha interrogato Claude, e i documenti non riflettevano la strategia dei suoi avvocati al momento della creazione.
Nello stesso giorno della sentenza di Rakoff, un giudice magistrato federale nel Michigan ha raggiunto quella che inizialmente sembra essere la conclusione opposta.
Nel caso Warner contro Gilbarco, Inc., il giudice magistrato Anthony Patti ha stabilito che le conversazioni di un querelante pro se con ChatGPT riguardo al suo caso di discriminazione sul lavoro erano protette come lavoro prodotto, argomentando che gli strumenti IA sono “strumenti, non persone” e che la rinuncia al lavoro prodotto richiede la divulgazione a un avversario, non semplicemente a una piattaforma software.
Un terzo caso, Morgan contro V2X (D. Colo., marzo 2026), ha raggiunto una conclusione simile per un altro litigante pro se. Gli analisti legali notano che questi casi sono fattualmente distinguibili da Heppner: i querelanti in Warner e Morgan erano auto-rappresentati, governati da una regola di procedura civile espressamente protettiva del lavoro prodotto, mentre Heppner era un imputato criminale rappresentato che ha agito senza la guida di un avvocato.
I tribunali stessi hanno riconosciuto di non stabilire regole ampie per tutti gli scenari.
L'impatto pratico è stato immediato. Reuters ha riportato che più di una dozzina di importanti studi legali statunitensi hanno emesso avvisi ai clienti che mettono in guardia dall'uso di piattaforme IA pubbliche per qualsiasi questione legale.
Lo studio legale di New York Sher Tremonte è andato oltre, aggiungendo un linguaggio contrattuale agli accordi di impegno con i clienti che afferma che condividere il consiglio o le comunicazioni di un avvocato con un chatbot potrebbe annullare il privilegio avvocato-cliente.
Il consenso delle linee guida da parte di studi legali tra cui Orrick, Crowell & Moring e Fisher Phillips è coerente: trattare le piattaforme IA pubbliche come un ambiente intrinsecamente non riservato; assumere che qualsiasi cosa digitata potrebbe essere divulgata.
Utilizzare solo implementazioni IA private e chiuse i cui termini di servizio non consentono l'addestramento su input o la divulgazione a terzi; e ottenere sempre una direzione esplicita dall'avvocato prima di utilizzare qualsiasi sistema IA in relazione a questioni legali.
Altri articoli
Un giudice statunitense ha stabilito che le chat di un imputato per frode con Claude non sono riservate.
Un tribunale statunitense ha stabilito che le conversazioni con chatbot AI non sono legalmente privilegiate. Il caso riguardava Claude. I clienti devono considerare le chat pubbliche di AI come potenzialmente scopribili in tribunale.
