Il GDPR dell'UE e l'imminente AI Act mirano a tutelare la privacy, ma i critici sostengono che ostacolano l'innovazione. Sorgono conflitti su trasparenza, minimizzazione dei dati e responsabilità. Bilanciare la crescita dell'IA con una solida tutela della privacy richiede una progettazione che metta al primo posto la privacy, il monitoraggio della conformità e pratiche etiche, garantendo che l'innovazione progredisca senza sacrificare i diritti fondamentali.
Le più grandi piattaforme digitali del mondo, come Meta e Google, hanno affermato che le normative UE ostacolano il lancio dei loro strumenti di intelligenza artificiale nel mercato europeo e, di conseguenza, ostacolano l'innovazione per le aziende di tutti i settori. I requisiti stabiliti dal Digital Services Act (DSA), dall'AI Act e dal Regolamento generale sulla protezione dei dati (GDPR) creano barriere, secondo questi giganti della tecnologia, mentre i gruppi della società civile focalizzati sulla privacy dei consumatori sostengono che le aziende debbano essere tenute a rispettare standard più elevati di responsabilità in termini di utilizzo dei dati prima di essere sollevate da qualsiasi onere normativo.
Mentre i TikTok e i Meta di tutto il mondo sostengono che i consumatori sono esclusi finché le loro soluzioni di IA non saranno disponibili sul mercato UE, i gruppi della società civile sottolineano l'importanza dei diritti e della sicurezza dei consumatori. Se il diritto alla protezione dei dati personali è fondamentalmente sancito e tutelato dal GDPR, queste normative devono essere centrali nella regolamentazione, nella progettazione e nell'implementazione degli strumenti di IA. Oggi sembra che questa supervisione manchi.
Vedere l'IA attraverso la lente della privacy dei dati è più di una semplice burocrazia; allo stesso tempo, tuttavia, voci nell'Unione Europea avvertono che non intraprendere alcuna azione sull'IA ostacolerà l'innovazione e scoraggerà gli investimenti. È necessario trovare un equilibrio.
Cos'è la Legge sull'intelligenza artificiale dell'UE? Un approccio completo alla governance e alla regolamentazione dell'intelligenza artificiale in Europa, la Legge sull'intelligenza artificiale copre rischi, obblighi, utenti e intelligenza artificiale per scopi generali. Il suo scopo apparente è supportare l'innovazione dell'intelligenza artificiale consentendo alle aziende di sviluppare e testare modelli di intelligenza artificiale per scopi generali. Ma non è così semplice.
I critici della normativa ritengono che rallenti lo sviluppo dell'intelligenza artificiale e l'innovazione in generale a causa di limitazioni normative. La Legge sull'intelligenza artificiale è vista come parte di un'eccessiva regolamentazione europea, che include il spesso citato GDPR, che dà priorità alla protezione digitale e alla privacy dei dati a scapito dello sviluppo economico e della leadership nel settore dell'intelligenza artificiale.
Molti indicherebbero la decisione degli Stati Uniti di adottare una moratoria decennale sulla regolamentazione dell'intelligenza artificiale come un segno di sostegno tangibile al libero flusso dell'innovazione. I sostenitori della legge statunitense sostengono che essa eviterebbe un complicato mosaico di leggi statali sull'intelligenza artificiale (che già affliggono il settore della privacy dei dati) concentrandosi su una legge a livello federale, mentre gli oppositori sostengono che la moratoria è semplicemente una concessione alle grandi aziende tecnologiche formulata in un linguaggio favorevole alla concorrenza.
In che modo l'AI Act e il GDPR entrano in conflitto, e perché è importante?
Dal 2018, la privacy dei dati personali dei residenti nell'Unione Europea è tutelata dal GDPR, garantendo che i dati personali siano trattati in modo trasparente e lecito. L'AI Act (AIA), che entrerà in vigore nel 2026, mira a stabilire requisiti chiari affinché i sistemi di intelligenza artificiale rispettino i diritti fondamentali, inclusa la privacy. Tuttavia, sorgono delle sfide laddove l'AI Act e il GDPR si incontrano, poiché i loro ambiti e obiettivi differiscono significativamente fin dall'inizio.
Come possono coesistere, consentendo sia la crescita e lo sviluppo dei sistemi di intelligenza artificiale sia i diritti individuali alla privacy dei dati?
I sistemi di intelligenza artificiale pongono diverse sfide evidenti alle progettazioni basate sulla privacy di default, tra cui questa serie non esaustiva di esempi:
I sistemi di intelligenza artificiale devono avere uno scopo chiaramente definito e legittimo fin dalle prime fasi di sviluppo, il che è in conflitto con le normative che regolano le soluzioni di intelligenza artificiale per scopi generali; la base giuridica appropriata per il trattamento dei dati non è di default allineata ai principi del GDPR.
La trasparenza è un principio fondamentale del GDPR e della tutela e protezione della privacy dei dati; di default, i sistemi di intelligenza artificiale sono come scatole nere che non offrono alcuna visibilità sul loro funzionamento.
Poiché i sistemi di intelligenza artificiale richiedono quanti più dati possibile per l'addestramento, il principio di minimizzazione dei dati e di limitazione di scopo/ambito del GDPR risulta essere discutibile.
Il GDPR impone l'accuratezza dei dati e regole rigorose per la loro conservazione, che i sistemi di intelligenza artificiale non sono progettati per rispettare.
Il GDPR garantisce agli individui il diritto di rinunciare al processo decisionale automatizzato, il che contrasta con gran parte di ciò che l'intelligenza artificiale promette, che richiederà il monitoraggio umano parallelamente al funzionamento del sistema di intelligenza artificiale.
L'intelligenza artificiale può trarre inferenze dai dati esistenti, il che può creare nuove preoccupazioni in materia di privacy. I sistemi di intelligenza artificiale possono generare informazioni identificative dai dati disponibili, il che esula dall'attuale ambito di applicazione del GDPR.
Il GDPR e l'AIA assegnano ruoli e responsabilità in modo diverso, il che può comportare disparità di governance nella valutazione del rischio e nella responsabilità. Chi è responsabile di cosa?
Come si possono bilanciare e superare queste sfide per garantire il rispetto sia della privacy che dell'innovazione nell'intelligenza artificiale? Le organizzazioni che intendono agire correttamente per entrambi i settori devono:
Siate dettagliati su ciò che chiedete all'IA di fare: definite il problema che l'IA intende risolvere, identificate i dati utilizzati per l'addestramento e i test, determinate i risultati attesi e valutate come tali risultati verranno utilizzati. Applicate i principi di minimizzazione dei dati del GDPR fin dall'inizio.
Progettare tenendo a mente la privacy: dopo aver valutato i requisiti del GDPR e dell'AIA, progettate tenendo a mente la privacy per evitare le principali insidie delle tendenze "black box" dell'IA.
Monitorate la conformità: eseguite audit regolari e rimanete aggiornati sulle normative in evoluzione per garantire che il sistema di IA aderisca ai requisiti del GDPR e dell'AIA.
Ritornate sempre a un approccio che metta la privacy al primo posto: lasciate che il GDPR sia la guida in caso di dubbio, perché la privacy dei dati individuali prevale su tutto e il GDPR offre la massima protezione. Ciò significa tenere sempre a mente la privacy e il consenso dell'utente.
Si noti che recenti ricerche sostengono che i modelli linguistici di grandi dimensioni (LLM) siano qualificabili come dati personali ai sensi del GDPR, il che significa che la conformità ai requisiti di protezione dei dati sarebbe applicabile durante l'intero ciclo di sviluppo. Questa non è un'interpretazione universalmente accettata dei dati LLM, ma vale la pena di peccare di prudenza in materia di privacy dei dati. La scatola nera percepita dell'IA, una volta aperta, può essere più simile a un vaso di Pandora, rivelando che i set di addestramento dell'IA open source potrebbero essere disseminati di dati personali. Ricerche recenti hanno trovato milioni di immagini di passaporti, carte di credito, certificati di nascita e altri documenti contenenti informazioni personali identificabili in DataComp CommonPool, uno dei grandi set di addestramento dell'IA per la generazione di immagini.
Le analisi della società di consulenza EY lo dimostrano chiaramente: "Il rischio che l'IA utilizzi impropriamente i dati e violi la privacy non può essere sottovalutato, soprattutto data l'attuale mancanza di una comprensione approfondita dei suoi effetti a lungo termine. Proprio come i freni consentono di guidare in sicurezza ad alta velocità, solidi quadri normativi consentono alle organizzazioni di operare in modo sicuro e affidabile nel panorama in rapida evoluzione dell'IA. Questi quadri consentono lo sviluppo di tecnologie di IA, tutelando al contempo la privacy personale e i diritti umani".