Passare al contenuto principale

Pubblicato il 24 settembre 2025

IA e protezione dei dati

Anche in Svizzera, l’intelligenza artificiale sta permeando in misura sempre crescente la vita della popolazione. L’IFPDT sottolinea che la legge svizzera sulla protezione dei dati (LPD) si applica direttamente al trattamento dei dati basato sull’IA.

La legge federale sulla protezione dei dati (LPD) è stata formulata in modo tecnologicamente neutro ed è pertanto direttamente applicabile anche al trattamento dei dati basato sull’IA. Per questo motivo l’IFPDT ricorda a produttori, distributori e utenti di tali applicazioni l’obbligo giuridico di assicurarsi che gli interessati dispongano della massima autodeterminazione informativa e sfera privata possibile, e ciò già nelle fasi di sviluppo di nuove tecnologie e di pianificazione dell’impiego.

Informazione trasparente

Secondo il quadro legale definito dalla LPD i produttori, i distributori e gli utenti sono tenuti a indicare in modo trasparente lo scopo, il funzionamento e le fonti dei dati trattati dall’intelligenza artificiale. Il diritto legale degli interessati alla trasparenza e strettamente correlato al loro diritto di opporsi al trattamento automatizzato dei dati o di richiedere che le decisioni individuali automatizzate siano verificate da un essere umano.

Nell’uso di modelli linguistici intelligenti che comunicano direttamente con gli utenti, questi ultimi hanno il diritto di sapere se, e in che misura, stanno comunicando con una macchina e se i dati da loro forniti saranno utilizzati per migliorare i programmi ad autoapprendimento o per altri scopi. Deve essere sempre chiaramente riconoscibile anche l’impiego di programmi che consentono la falsificazione di volti, immagini o messaggi vocali di persone identificabili nel caso in cui ciò non risulti già totalmente illegale sulla base di divieti penali.

Protezione dei diritti fondamentali

In linea di principio il trattamento dei dati basato sull’IA che comporta un rischio elevato è autorizzato dalla LPD, ma richiede misure adeguate a protezione delle persone potenzialmente interessate. Per questo motivo, la LPD presuppone una valutazione d’impatto sulla protezione dei dati nei casi di rischio elevato. Sono invece vietate le applicazioni progettate appositamente per compromettere la sfera privata e l’autodeterminazione informativa, queste ultime protette dalla LPD. È il caso, ad esempio, del trattamento dei dati basato sull’intelligenza artificiale che si osserva in alcuni Paesi con governi autoritari, come l’uso del riconoscimento facciale su larga scala in tempo reale o la sorveglianza e la valutazione globale dello stile di vita degli individui, altrimenti nota come «sistema di credito sociale».

Altre notizie