Anthropic modifica le politiche sui dati: scelta tra opt-out o condivisione per l'addestramento AI
Anthropic ha modificato le sue politiche sui dati, offrendo agli utenti la scelta tra opt-out o condivisione dei dati per migliorare i modelli AI, con un deadline di decisone a settembre 2025.

Rinnovamento delle politiche sui dati di Anthropic
Anthropic ha annunciato un'importante modifica nella gestione dei dati utente, introducendo una scelta obbligatoria per gli utenti delle sue piattaforme di intelligenza artificiale. A partire da una data limite, gli utenti devono decidere se condividere i loro dati di conversazione per l'addestramento dei modelli AI o mantenere la policy precedente di eliminazione dei dati entro 30 giorni.
Il nuovo modello di gestione dei dati
Fino ad ora, Anthropic non utilizzava i dati delle chat degli utenti per migliorare i propri modelli AI. La nuova politica, invece, prevede l’utilizzo delle conversazioni e delle sessioni di codifica degli utenti che decidano di condividere i dati, con estensione fino a cinque anni di conservazione attiva.
Le conversazioni e i contenuti di coding saranno raccolti e utilizzati per affinare la sicurezza e le capacità di comprensione dei modelli AI di Anthropic, migliorando l'accuratezza nel rilevamento dei contenuti dannosi e l’efficacia delle risposte.
Implicazioni per gli utenti
Gli utenti di prodotti come Claude Free, Pro e Max devono esprimere la propria preferenza tramite un prompt durante il processo di registrazione o tramite una finestra pop-up di aggiornamento delle politiche, con un'accettazione predefinita che può essere disattivata, ma con rischi di accadimenti non intenzionali.
La decisione deve essere presa entro il 28 settembre 2025: accettando, si consente la raccolta e l’uso dei dati fino a cinque anni; rifiutando, si mantiene la precedente politica di eliminazione in 30 giorni.
Contesto più ampio e considerazioni etiche
Le nuove politiche di Anthropic si inseriscono in un quadro più ampio di tensioni tra le aziende di AI e le normative sulla privacy, con colossi come OpenAI che sono sotto scrutinio legale per i loro metodi di gestione dei dati. Accanto a queste dinamiche, si riscontra un crescente rischio di scelte poco consapevoli da parte degli utenti, spesso influenzati dal design delle interfacce che sottovalutano la complessità delle decisioni sulla privacy.
Prospettive future e sfide regolamentari
L'estensione della conservazione dei dati sta rispecchiando una tendenza del settore a preferire dati di lunga durata per migliorare la qualità dei modelli e aumentare la sicurezza, anche se incrementa i rischi di esposizione e violazioni di privacy. Le autorità di regolamentazione, come la FTC, stanno monitorando attentamente queste pratiche, evidenziando la necessità di trasparenza e di un consenso realmente informato.
Conclusione e aspetti pratici
- Le aziende di AI stanno spostando l’equilibrio tra innovazione e privacy tramite politiche di opt-in più flessibili, ma con rischi di approvazione automatica che possono nuocere alla consapevolezza degli utenti.
- Gli utenti devono prestare attenzione alle nuove impostazioni e decisioni, considerando che la raccolta di dati su lunga durata può influire sulla privacy futura e sull’uso dei propri dati in modelli AI.
- La trasparenza nelle pratiche di raccolta e uso dei dati sarà uno dei fattori chiave per la fiducia del consumatore e la conformità normativa.