IA e protezione dei dati
Anche in Svizzera, l’intelligenza artificiale sta permeando in misura sempre crescente la vita della popolazione. L’IFPDT sottolinea che la legge svizzera sulla protezione dei dati (LPD) si applica direttamente al trattamento dei dati basato sull’IA.
La legge federale sulla protezione dei dati (LPD) è stata formulata in modo tecnologicamente neutro ed è pertanto direttamente applicabile anche al trattamento dei dati basato sull’IA. Per questo motivo l’IFPDT ricorda a produttori, distributori e utenti di tali applicazioni l’obbligo giuridico di assicurarsi che gli interessati dispongano della massima autodeterminazione informativa e sfera privata possibile, e ciò già nelle fasi di sviluppo di nuove tecnologie e di pianificazione dell’impiego.
Informazione trasparente
Secondo il quadro legale definito dalla LPD i produttori, i distributori e gli utenti sono tenuti a indicare in modo trasparente lo scopo, il funzionamento e le fonti dei dati trattati dall’intelligenza artificiale. Il diritto legale degli interessati alla trasparenza e strettamente correlato al loro diritto di opporsi al trattamento automatizzato dei dati o di richiedere che le decisioni individuali automatizzate siano verificate da un essere umano.
Nell’uso di modelli linguistici intelligenti che comunicano direttamente con gli utenti, questi ultimi hanno il diritto di sapere se, e in che misura, stanno comunicando con una macchina e se i dati da loro forniti saranno utilizzati per migliorare i programmi ad autoapprendimento o per altri scopi. Deve essere sempre chiaramente riconoscibile anche l’impiego di programmi che consentono la falsificazione di volti, immagini o messaggi vocali di persone identificabili nel caso in cui ciò non risulti già totalmente illegale sulla base di divieti penali.
Protezione dei diritti fondamentali
In linea di principio il trattamento dei dati basato sull’IA che comporta un rischio elevato è autorizzato dalla LPD, ma richiede misure adeguate a protezione delle persone potenzialmente interessate. Per questo motivo, la LPD presuppone una valutazione d’impatto sulla protezione dei dati nei casi di rischio elevato. Sono invece vietate le applicazioni progettate appositamente per compromettere la sfera privata e l’autodeterminazione informativa, queste ultime protette dalla LPD. È il caso, ad esempio, del trattamento dei dati basato sull’intelligenza artificiale che si osserva in alcuni Paesi con governi autoritari, come l’uso del riconoscimento facciale su larga scala in tempo reale o la sorveglianza e la valutazione globale dello stile di vita degli individui, altrimenti nota come «sistema di credito sociale».
Altre notizie
Update - L’attuale legge sulla protezione dei dati è direttamente applicabile all’IA
Anche in Svizzera, l’intelligenza artificiale (IA) sta ormai permeando la vita economica e sociale della popolazione. L'Incaricato federale della protezione dei dati e della trasparenza (IFPDT) sottolinea pertanto che la legge federale sulla protezione dei dati (LPD), in vigore dal 1° settembre 2023, si applica direttamente al trattamento dei dati basato sull’IA.
Conclusione dell'indagine preliminare X (ex Twitter): utilizzo dei dati personali per l'addestramento dell'IA Grok
L'IFPDT conclude la sua indagine preliminare sull'uso dei dati per l'addestramento dell'intelligenza artificiale (IA) Grok. Gli utenti della piattaforma X possono opporsi all'uso dei loro contributi pubblici per l'addestramento dell'IA.
L’attuale legge sulla protezione dei dati è direttamente applicabile all’IA
09.11.2023 – Anche in Svizzera, l’intelligenza artificiale (IA) sta ormai permeando la vita economica e sociale della popolazione. L'Incaricato federale della protezione dei dati e della trasparenza (IFPDT) sottolinea pertanto che la legge federale sulla protezione dei dati (LPD), in vigore dal 1° settembre 2023, si applica direttamente al trattamento dei dati basato sull’IA.
Utilizzo di ChatGPT e di applicazioni analoghe basate sull'intelligenza artificiale
04.04.2023 - Dopo il divieto di ChatGPT in Italia, l'IFPDT consiglia agli utenti di fare un uso consapevole delle applicazioni basate sull'IA e ricorda alle aziende i loro obblighi.