Recours à l’intelligence artificielle au quotidien – exemples pratiques
L’intelligence artificielle (IA) imprègne tous les domaines de la vie : elle permet de rédiger des articles spécialisés ou des lettres personnalisées, d’établir et d’évaluer des dossiers de candidature, de surveiller des données de santé et de contrôler l’administration de médicaments, mais aussi de trouver l’amour de sa vie - voire le remplacer.
Les traitements de données basés sur l’IA connaissent un essor fulgurant. L’IA se manifeste sous de nombreuses formes, allant des simples arbres de décision aux réseaux neuronaux complexes. De plus en plus d’entreprises et de particuliers y ont recours pour accomplir leurs tâches quotidiennes, séduits par la promesse d’un gain d’efficacité et d’une réduction des coûts d’exploitation.
Nous pouvons utiliser l’IA de manière consciente pour nous faciliter la vie et nous décharger de certaines tâches au quotidien. Cependant, l’on ne peut parfois simplement pas s’y soustraire ou y être soumis inconsciemment, voire contre sa volonté.
Tant que les systèmes d’IA traitent uniquement des données matérielles ou des informations sans référence à des personnes, ils ne sont en principe pas concernés par la législation sur la protection des données. Mais dès que l’IA traite des données personnelles, les dispositions applicables en matière de protection des données doivent être respectées. La loi sur la protection des données, formulée de manière neutre sur le plan technologique, s’applique aux innovations.
Du point de vue de la protection des données, l’utilisation d’informations pour l’entraînement de modèles d’IA ainsi que le traitement d’informations à l’aide de l’IA sont donc pertinents, pour autant que ces informations concernent des personnes physiques. Il convient de noter que l’IA peut faciliter l’établissement d’un lien avec une personne physique lors de la mise en relation de différents jeux de données ; c’est-à-dire qu’à l’aide de l’IA des données pseudonymisées, voire anonymisées, peuvent à nouveau être reliées à une personne spécifique. Dans tous les cas, la LPD constitue le cadre juridique.
Les principes de traitement qui doivent aussi être respectés pour recourir à l’IA sont définis à l'art. 6 LPD :
- Reconnaissabilité / transparence
- Proportionnalité
- Finalité
- Bonne foi
- Exigence de l’exactitude des données
Lors de l’entraînement de modèles d’IA, le principe de finalité est souvent compromis, car les données utilisées ont été initialement collectées dans un autre contexte et à d’autres fins. Tout changement de finalité doit être justifié ; à cet égard, le consentement de la personne concernée ou le motif justificatif visé à l’art. 31, al. 2, let. e, LPD sont déterminants.
Exemples d’utilisation de l’IA dans la vie quotidienne :
Conseils pour les personnes concernées
- Renseignez-vous sur le fabricant du produit, et en particulier sur les finalités de l’utilisation, et évaluez les risques.den Produkthersteller und insbesondere die Verwendungszwecke und schätzen Sie die Risiken ein.
- Qui a accès à vos données ? Sont-elles transmises à des tiers ? La sécurité des données mérite une attention particulière.
- Quelles sont les données utilisées à des fins d’entraînement ? Une anonymisation est-elle effectuée à cette fin ? Est-il possible de s’opposer à ce traitement de données ?
- Acceptez-vous que vos données soient traitées dans ces conditions ? Dans le cas contraire, renoncez à utiliser les services ou, si cela est possible pour l’utilisation concrète, supprimez les données personnelles avant de saisir votre demande dans un programme basé sur l’IA.
Communications en lien avec l'IA:
Update - La loi actuelle sur la protection des données est directement applicable à l’IA
En Suisse aussi, l’intelligence artificielle (IA) investit de plus en plus la vie économique et sociale de la population. Dans ce contexte, le PFPDT rappelle que la loi sur la protection des données en vigueur depuis le 1er septembre 2023 est directement applicable aux traitements de données basés sur l’IA.
Clôture de l'enquête préliminaire à l’encontre de X (anciennement Twitter) : Utilisation de données personnelles pour l'entraînement de l'IA Grok
Le PFPDT clôt son enquête préliminaire concernant l'utilisation de données pour l'entraînement de l'intelligence artificielle (IA) Grok. Les utilisatrices et utilisateurs de la plateforme X peuvent s'opposer à l'utilisation de leurs messages publics pour l'entraînement de l'IA.
La loi actuelle sur la protection des données est directement applicable à l’IA
09.11.2023 – En Suisse aussi, l’intelligence artificielle (IA) investit de plus en plus la vie économique et sociale de la population. Dans ce contexte, le PFPDT rappelle que la loi sur la protection des données en vigueur depuis le 1er septembre 2023 est directement applicable aux traitements de données basés sur l’IA.
Utilisation de ChatGPT et d'applications comparables basées sur l'IA
04.04.2023 - Après l'interdiction de ChatGPT en Italie, le PFPDT conseille aux utilisatrices et utilisateurs de faire un usage conscient des applications basées sur l’IA et rappelle aux entreprises leurs obligations.