IA et protection des données
En Suisse aussi, l’intelligence artificielle (IA) investit de plus en plus le quotidien de la population. Le PFPDT rappelle que le droit suisse de la protection des données est directement applicable aux traitements de données recourant à l’IA.
La loi fédérale sur la protection des données (LPD), de par sa formulation, vise toutes les technologies. Elle est donc directement applicable aux cas où l’IA est utilisée pour traiter des données. C’est pourquoi le PFPDT attire l’attention des fabricants, des fournisseurs et des utilisateurs des applications concernées sur l’obligation légale de s’assurer, dès le moment où ils envisagent de les développer ou de les utiliser, que le degré d’autodétermination soit aussi élevé que possible en ce qui concerne l’autodétermination informelle et le respect de la sphère privée.
Transparence de l'information
Compte tenu du cadre juridique défini par la LPD, les fabricants, les fournisseurs et les utilisateurs de systèmes d’IA doivent indiquer de manière transparente la finalité, le fonctionnement ainsi que les sources de données utilisées dans le traitement de données basé sur l’IA. Le droit à la transparence que la loi garantit aux personnes concernées est étroitement lié au droit de s’opposer à un traitement automatisé des données ou d’exiger que les décisions automatisées soient examinées par un être humain.
Lors de l’utilisation de modèles de langage intelligents communiquant directement avec les utilisatrices et les utilisateurs, ces derniers ont le droit de savoir si et dans quelle mesure ils communiquent avec une machine et si les données qu’ils ont saisies sont réutilisées pour améliorer les programmes d’autoapprentissage ou à d’autres fins. De même, l’utilisation de programmes permettant de falsifier les visages, les images ou les messages vocaux de personnes identifiables doit toujours être clairement indiqué (dans la mesure où elle ne tombe pas sous le coup du droit pénal, et est donc tout simplement illégale).
Protection des droits fondamentaux
Les traitements de données basés sur l’IA qui comportent des risques élevés sont en principe autorisés par le droit de la protection des données, mais ils nécessitent des mesures appropriées pour protéger les personnes potentiellement concernées. C’est pourquoi, en cas de risque élevé, la LPD exige une « analyse d’impact relative à la protection des données personnelles ». Les applications visant l’érosion de la sphère privée et de l’autodétermination informationnelle tels que prévus par la LPD sont interdites par la législation sur la protection des données. Il s’agit en particulier des traitements de données basés sur l’IA que l’on peut observer dans les États à régime autoritaire, comme la reconnaissance faciale généralisée en temps réel ou l’observation et l’évaluation globales du mode de vie (« social scoring »).
Actualités sur le thème de l'IA
Update - La loi actuelle sur la protection des données est directement applicable à l’IA
En Suisse aussi, l’intelligence artificielle (IA) investit de plus en plus la vie économique et sociale de la population. Dans ce contexte, le PFPDT rappelle que la loi sur la protection des données en vigueur depuis le 1er septembre 2023 est directement applicable aux traitements de données basés sur l’IA.
Clôture de l'enquête préliminaire à l’encontre de X (anciennement Twitter) : Utilisation de données personnelles pour l'entraînement de l'IA Grok
Le PFPDT clôt son enquête préliminaire concernant l'utilisation de données pour l'entraînement de l'intelligence artificielle (IA) Grok. Les utilisatrices et utilisateurs de la plateforme X peuvent s'opposer à l'utilisation de leurs messages publics pour l'entraînement de l'IA.
La loi actuelle sur la protection des données est directement applicable à l’IA
09.11.2023 – En Suisse aussi, l’intelligence artificielle (IA) investit de plus en plus la vie économique et sociale de la population. Dans ce contexte, le PFPDT rappelle que la loi sur la protection des données en vigueur depuis le 1er septembre 2023 est directement applicable aux traitements de données basés sur l’IA.
Utilisation de ChatGPT et d'applications comparables basées sur l'IA
04.04.2023 - Après l'interdiction de ChatGPT en Italie, le PFPDT conseille aux utilisatrices et utilisateurs de faire un usage conscient des applications basées sur l’IA et rappelle aux entreprises leurs obligations.