Il 7 febbraio siamo stati al GDPR Forum e l’importanza delle regolamentazioni AI è stato il tema centrale di quest’anno. Non smetteremo mai di dirlo: un uso cosciente, regolamentato e responsabile dell’AI è fondamentale, perché altrimenti il confine tra privato e non, tra lecito e non consentito, diventa davvero troppo sottile.

GDPR e AI Act: le regolamentazioni AI sono un must
Il 7 febbraio, a Reggio Emilia, abbiamo partecipato all’edizione 2025 del GDPR Forum. È da tempo che sensibilizziamo i nostri clienti sull’importanza di policy legate alle tecnologie AI, in tutti gli ambiti e in primis nel mondo del lavoro, come abbiamo spiegato in questo articolo, per esempio, o anche in quest’altro approfondimento.
Il Forum è sempre un atteso incontro davvero ricco di spunti, a partire dal futuro della protezione dei dati nell’era digitale, affrontando temi cruciali come l’AI Act e l’importanza dell’alfabetizzazione digitale come rivoluzione culturale. Ormai la comprensione e l’uso consapevole delle tecnologie digitali sono aspetti che non possono essere trascurati per garantire la sicurezza e la privacy dei dati personali.
AI: sicurezza al primo posto
L’introduzione di sistemi di AI solleva naturalmente la questione fondamentale della sicurezza e della supervisione umana. Questi sistemi sono progettati per operare in settori critici e devono quindi essere dotati di interfacce uomo-macchina che permettano una supervisione efficace. L’obiettivo principale della sorveglianza umana è prevenire o minimizzare i rischi per la salute, la sicurezza e i diritti fondamentali delle persone. Gli operatori devono avere la possibilità di decidere di non utilizzare il sistema, ignorare o annullare i suoi output, e intervenire direttamente sul suo funzionamento, anche attraverso procedure di arresto sicuro.
Deepseek: perché no
Un focus importante è stato il blocco di deepseek, un’operazione complessa a causa del mancato riconoscimento della giurisdizione italiana in Cina. Questo caso evidenzia le sfide legali e operative che emergono quando si cerca di applicare normative nazionali in un contesto globale, ma soprattutto perché è necessario istruire tutti, dai provider agli utenti: quanti, inconsapevolmente, avranno inserito i loro dati personali su Deepseek “per vedere come funziona”, senza preoccuparsi di dove vadano a finire quei dati personali, o di come possano essere riutilizzati? Le regolamentazioni AI servono anche a questo, a proteggere tutti coloro che fanno uso di questi strumenti, anche solo per sfizio.
L’importanza della privacy
Quale è il valore dei dati personali nell’era digitale? Potremmo paragonare i dati personali come nuovi giacimenti petroliferi, con grandi potenze che competono alla corsa all’oro nero. Il punto però è che un giacimento si esaurisce, i dati invece non si consumano, e il loro valore risiede nella loro capacità di essere utilizzati e riutilizzati. Questa caratteristica unica rende i dati personali una risorsa preziosa e proprio per questo anche estremamente vulnerabile.
Ed ecco quindi che le aziende, in particolare gli e-commerce, ricercano un nuovo equilibrio tra performance e conformità. Le strategie di marketing devono essere reinventate per mantenere alte le performance senza violare le normative. La trasparenza è diventata un requisito fondamentale, e ogni business ora deve:
- Spiegare chiaramente come vengono utilizzati i dati
- Ottenere il consenso esplicito degli utenti
- Rispettare il diritto all’oblio, che consente agli utenti di richiedere la cancellazione dei propri dati.
I consumatori oggi sono sempre più informati sui loro diritti e mostrano una crescente diffidenza verso la profilazione aggressiva. Bisogna quindi dimostrare un impegno concreto nel proteggere i dati degli utenti e nel rispettare le normative vigenti, non solo per evitare sanzioni, ma anche per costruire e mantenere la fiducia dei consumatori.
Nuove basi delle regolamentazioni AI: l’algoretica
“Algoretica” è un nuovo campo di studio che combina etica e algoritmi, che sottolinea l’importanza di sviluppare sistemi di intelligenza artificiale che rispettino i diritti umani e la dignità delle persone. In questo contesto, il Garante per la protezione dei dati personali ha identificato otto pratiche vietate nell’uso dell’AI, tra cui l’uso di tecniche manipolative subliminali, lo sfruttamento delle vulnerabilità delle persone, il social scoring e il riconoscimento delle emozioni sul posto di lavoro e nelle scuole.
Anche l’articolo 22 del GDPR, che riguarda i sistemi decisionali automatizzati, è stato discusso come un esempio di come la normativa possa essere vista non come un ostacolo, ma come un’opportunità per proteggere i dati personali. Il GDPR è stato descritto come lo “scudo ultimo” per la protezione dei dati, offrendo un quadro normativo solido per affrontare le sfide dell’era digitale.
L’AI non basta, si passa sempre dalle persone
Durante il forum, il Comandante Provinciale della Guardia di Finanza di Reggio Emilia è intervenuto per illustrare l’uso dell’AI per le analisi di rischio relative ai reati finanziari, in conformità con la legge n. 160 del 27 dicembre 2019, art. 17. L’AI viene utilizzata come strumento di prevenzione, ma l’intervento umano rimane essenziale per le verifiche. Inoltre, è stato sottolineato che il data scraping non può essere utilizzato per l’analisi del rischio finanziario dei contribuenti, evidenziando la necessità di un approccio etico e legale nell’uso dei dati.
Le regolamentazioni AI sono limiti necessari
Il GDPR Forum ha messo in luce l’importanza di un approccio equilibrato e consapevole all’uso delle tecnologie digitali, promuovendo un dialogo costruttivo tra innovazione e protezione dei dati. Le regolamentazioni AI sono davvero dei limiti necessari, ma proprio per questo non sono solo un limite: sono il punto di partenza per un uso degli strumenti AI cosciente, etico e consapevole.