L'Università degli Studi di Milano ha recentemente introdotto un decalogo intitolato "Governare l’Intelligenza Artificiale in Ateneo", un documento che mira a promuovere un uso responsabile dell’AI, che sia etico, legittimo e consapevole degli strumenti di intelligenza artificiale all'interno dell'istituzione. Utilizziamo gli spunti di questo decalogo per ragionare insieme non solo sull’uso etico dell’AI, ma anche come questo si rapporta alle normative più recenti. Insomma, la regolamentazione dell’AI è uno dei temi più caldi di questi ultimi tempi, infatti in questo articolo abbiamo visto che è stato il tema centrale del GDPR Forum e come sia importante per tutte le aziende implementare subito delle azioni di governance per non incorrere in pesanti sanzioni. Partiamo subito in questa utile panoramica sull’uso responsabile dell’AI.

1- AI Literacy e Formazione
Uno dei pilastri del decalogo è l’alfabetizzazione in tema di AI. E l’Università fa benissimo a metterlo come primo punto. È importante diffondere consapevolezza su questi strumenti, anche perché solo conoscendoli è possibile davvero un uso responsabile dell’AI. Non è un caso infatti che la formazione sia un elemento essenziale delle nostre politiche di governance rispetto agli adeguamenti per l’AI Act.
2- Data Protection
Un altro aspetto cruciale è la protezione dei dati personali. L’uso di AI deve rispettare le normative sulla privacy e la data protection, minimizzando i trattamenti e garantendo che solo le informazioni necessarie siano trasmesse agli strumenti di AI.
3- Trasparenza e Tracciabilità
L’uso responsabile dell’AI implica assoluta trasparenza: è necessario dichiarare la base di dati utilizzata, le chiavi di ricerca e gli strumenti impiegati, assicurando la tracciabilità delle operazioni come richiesto dalla regolamentazione europea.
4- Qualità dei Dati e Inclusività
Il decalogo sottolinea l’importanza della qualità dei dati utilizzati dagli strumenti di AI per evitare risultati discriminatori. L’accesso agli strumenti automatizzati deve essere neutrale e non prevedere barriere all’ingresso, garantendo inclusività ed equità.
5- Sostenibilità Ambientale
Abbiamo apprezzato moltissimo che l’Università abbia riconosciuto l’impatto ambientale degli strumenti di AI, che sono energivori, e promuova un uso consapevole e limitato a casi di effettiva necessità. Le AI non sono un giocattolo: sembra una cosetta semplice e facile, ma ogni volta che digitiamo un prompt stiamo consumando preziose risorse di energia. L’uso responsabile dell’AI parte anche da questa consapevolezza!
6- Cybersecurity
Naturalmente, la cybersecurity è una priorità fondamentale: gli strumenti di AI devono essere protetti da attacchi informatici, e l’affidabilità del produttore o distributore deve essere sempre valutata.
7- Supervisione Umana
L’AI non può governarsi da sola. La supervisione umana resta assolutamente necessaria su tutti i sistemi di AI utilizzati, in modo da poter correggere, reinterpretare o disattivare i risultati se necessario.
8- Responsabilità
La responsabilità dell’adozione degli strumenti di AI ricade su ciascun utente, che deve utilizzarli in modo consapevole e attento. D’altronde, quando si parla di uso responsabile dell’AI, è chiaro che nessuno può essere esente dal dovere di assumersi la responsabilità delle proprie scelte e farne un uso etico. E poi, va chiaramente sottolineato, quando si parla di aziende, è importante anche ricordare che è su queste che va a cadere la responsabilità finale di un utilizzo scorretto.
9- Governance
Il nono punto del decalogo promuove una governance data-driven rispettosa dei valori etici e giuridici. È vietato l’uso di dati personali sensibili nei sistemi di AI, a meno che non sia strettamente necessario, e in tal caso, sono previste valutazioni preliminari.
10 – Legalità
L’Università degli Studi di Milano pone il rispetto della legge e delle migliori pratiche come priorità assoluta nel suo decimo punto, invitando tutta la comunità accademica a conformarsi ai principi del decalogo.
Il decalogo dell’Università degli Studi di Milano rappresenta un passo deciso verso l’integrazione responsabile dell’Intelligenza Artificiale nell’ambiente accademico, promuovendo un uso responsabile dell’AI, etico, trasparente e rispettoso delle normative vigenti. Non possiamo che dichiararci assolutamente d’accordo con tutti i 10 punti del decalogo, punti che sono alla base anche del nostro lavoro, a maggior ragione adesso che l’AI Act è entrato in vigore: bisogna adeguarsi adesso, la legge non aspetta i ritardatari.