09.11.2023 - L’attuale legge sulla protezione dei dati è direttamente applicabile all’IA

L’attuale legge sulla protezione dei dati è direttamente applicabile all’IA

09.11.2023 – Anche in Svizzera, l’intelligenza artificiale (IA) sta ormai permeando la vita economica e sociale della popolazione. L'Incaricato federale della protezione dei dati e della trasparenza (IFPDT) sottolinea pertanto che la legge federale sulla protezione dei dati (LPD), in vigore dal 1° settembre 2023, si applica direttamente al trattamento dei dati basato sull’IA.

Il 30 ottobre 2023, il presidente statunitense Biden ha firmato un ordine esecutivo che segna una tappa fondamentale verso la regolamentazione dell’intelligenza artificiale (IA). Già a giugno di quest’anno il Parlamento europeo aveva manifestato un consenso di massima per il proseguimento dei lavori legislativi relativi al cosiddetto «AI Act», una regolamentazione europea in materia di IA. Attualmente, anche il Comitato sull’intelligenza artificiale (CAI) del Consiglio d’Europa sta elaborando un contratto quadro sull’IA, i diritti umani, la democrazia e lo Stato di diritto pubblico. 

In Svizzera, entro la fine del 2024 l’Amministrazione federale valuterà diversi approcci normativi in materia di IA. Il Consiglio federale prenderà poi una decisione in merito e, qualora fosse necessario, emanerà il relativo mandato di regolamentazione. Per le normative in ambito tecnologico, la Svizzera adotta un approccio settoriale, ovvero la legislazione viene elaborata in funzione del tema o del settore di attività. In futuro emergerà se questo approccio settoriale possa rimanere invariato oppure vada affiancato o sostituito da una regolamentazione generale sull’IA.

Alla luce dell’impennata del trattamento dei dati basato sull’IA, l’IFPDT sottolinea che, indipendentemente dall’approccio che si adotterà per le regolamentazioni future, è necessario osservare le disposizioni sulla protezione dei dati attualmente in vigore. La legge federale sulla protezione dei dati (LPD) è stata formulata in modo tecnologicamente neutro ed è pertanto direttamente applicabile anche al trattamento dei dati basato sull’IA. Per questo motivo l’IFPDT ricorda a produttori, distributori e utenti di tali applicazioni l’obbligo giuridico di assicurarsi che gli interessati dispongano della massima autodeterminazione digitale possibile, e ciò già nelle fasi di sviluppo di nuove tecnologie e di pianificazione dell’impiego.

Ai sensi delle disposizioni della LPD, i produttori, i distributori e gli utenti sono inoltre tenuti a rendere trasparenti lo scopo, il funzionamento e le fonti dei dati trattati dall’intelligenza artificiale. Il diritto legale alla trasparenza è strettamente correlato al diritto degli interessati di opporsi al trattamento automatizzato dei dati o di richiedere che le decisioni individuali automatizzate siano verificate da un essere umano, come espressamente previsto dalla LPD. Nel caso dei modelli linguistici intelligenti che comunicano direttamente con gli utenti, questi ultimi hanno il diritto legale di sapere se stanno comunicando con una macchina e se i dati da loro forniti saranno utilizzati per migliorare i programmi ad autoapprendimento o per altri scopi. Deve essere sempre chiaramente riconoscibile anche l’impiego di programmi che consentono la falsificazione di volti, immagini o messaggi vocali di persone identificabili, nel caso in cui ciò non risulti totalmente illegale a seguito di divieti penali.  

In linea di principio il trattamento dei dati basato sull’IA in caso di rischio elevato è autorizzato dalla LPD, ma richiede misure adeguate a protezione delle persone potenzialmente interessate. Per questo motivo, la legge presuppone una valutazione d'impatto sulla protezione dei dati nei casi di rischio elevato. Sono invece vietate le applicazioni progettate appositamente per compromettere la sfera privata e l’autodeterminazione informativa, queste ultime protette dalla LPD. È il caso, ad esempio, del trattamento dei dati basato sull'intelligenza artificiale che si osserva in alcuni Paesi con governi autoritari, come l'uso del riconoscimento facciale su larga scala in tempo reale o la sorveglianza e la valutazione globale dello stile di vita degli individui, altrimenti nota come «sistema di credito sociale».

Webmaster
Ultima modifica 11.12.2023

Inizio pagina