Passare al contenuto principale

ComunicazioniPubblicato il 8 maggio 2025

Update - L’attuale legge sulla protezione dei dati è direttamente applicabile all’IA

Anche in Svizzera, l’intelligenza artificiale (IA) sta ormai permeando la vita economica e sociale della popolazione. L'Incaricato federale della protezione dei dati e della trasparenza (IFPDT) sottolinea pertanto che la legge federale sulla protezione dei dati (LPD), in vigore dal 1° settembre 2023, si applica direttamente al trattamento dei dati basato sull’IA.

Nel marzo 2025 la Svizzera ha firmato la Convenzione del Consiglio d'Europa sull'intelligenza artificiale (IA) e i diritti umani, la democrazia e lo Stato di diritto. Come annunciato dal Consiglio federale, saranno apportate le modifiche necessarie al diritto svizzero affinché la Svizzera possa ratificare la Convenzione del Consiglio d'Europa. L'approccio normativo svizzero in materia di IA si basa su tre obiettivi: rafforzare la Svizzera come polo di innovazione, garantire la tutela dei diritti fondamentali, compresa la libertà economica, e rafforzare la fiducia della popolazione nell'IA.

Alla luce dell’impennata del trattamento dei dati basato sull’IA, l’IFPDT sottolinea che, indipendentemente dall’approccio che si adotterà per le regolamentazioni future, è necessario osservare le disposizioni sulla protezione dei dati attualmente in vigore. La legge federale sulla protezione dei dati (LPD) è stata formulata in modo tecnologicamente neutro ed è pertanto direttamente applicabile anche al trattamento dei dati basato sull’IA. Per questo motivo l’IFPDT ricorda a produttori, distributori e utenti di tali applicazioni l’obbligo giuridico di assicurarsi che gli interessati dispongano della massima autodeterminazione digitale possibile, e ciò già nelle fasi di sviluppo di nuove tecnologie e di pianificazione dell’impiego.

Ai sensi delle disposizioni della LPD, i produttori, i distributori e gli utenti sono inoltre tenuti a rendere trasparenti lo scopo, il funzionamento e le fonti dei dati trattati dall’intelligenza artificiale. Il diritto legale alla trasparenza è strettamente correlato al diritto degli interessati di opporsi al trattamento automatizzato dei dati o di richiedere che le decisioni individuali automatizzate siano verificate da un essere umano, come espressamente previsto dalla LPD. Nel caso dei modelli linguistici intelligenti che comunicano direttamente con gli utenti, questi ultimi hanno il diritto legale di sapere se stanno comunicando con una macchina e se i dati da loro forniti saranno utilizzati per migliorare i programmi ad autoapprendimento o per altri scopi. Deve essere sempre chiaramente riconoscibile anche l’impiego di programmi che consentono la falsificazione di volti, immagini o messaggi vocali di persone identificabili, nel caso in cui ciò non risulti totalmente illegale a seguito di divieti penali.

In linea di principio il trattamento dei dati basato sull’IA in caso di rischio elevato è autorizzato dalla LPD, ma richiede misure adeguate a protezione delle persone potenzialmente interessate. Per questo motivo, la legge presuppone una valutazione d'impatto sulla protezione dei dati nei casi di rischio elevato. Sono invece vietate le applicazioni progettate appositamente per compromettere la sfera privata e l’autodeterminazione informativa, queste ultime protette dalla LPD. È il caso, ad esempio, del trattamento dei dati basato sull'intelligenza artificiale che si osserva in alcuni Paesi con governi autoritari, come l'uso del riconoscimento facciale su larga scala in tempo reale o la sorveglianza e la valutazione globale dello stile di vita degli individui, altrimenti nota come «sistema di credito sociale».