Logo image
Künstliche Intelligenz

Photo: Geralt/ Pixabay

Société

Où en est la Suisse en matière de réglementation de l’intelligence artificielle?

Garder sous contrôle l’intelligence artificielle paraît essentiel. L’Union européenne et le Conseil de l’Europe élaborent des réglementations. Et la Suisse, que fait-elle?

Layer 1 Layer 1

0

Logo image

Où en est la Suisse en matière de réglementation de l’intelligence artificielle?

Partager
Copier le lien LinkedIn
Écouter

5 Min.  •   • 

Qu’il s’agisse des médias sociaux, de la reconnaissance faciale, des chatbots ou des véhicules semi-autonomes, l’intelligence artificielle (IA) s’est immiscée dans nos vies, que cela nous plaise ou non. Dans une lettre ouverte, d’éminents représentants et représentantes du secteur ont récemment mis en garde contre les dangers de l’IA: la réduction des risques doit être une «priorité mondiale», écrivent-ils.

Il est question des droits humains, de l’État de droit et de la démocratie, explique Angela Müller, directrice d’AlgorithmWatch CH, une organisation de la société civile qui observe de manière critique les développements de l’IA. Les conséquences négatives potentielles de l’IA sont déjà bien visibles.

Angela Müller cite l’exemple du scandale des allocations familiales aux Pays-Bas: un algorithme xénophobe a plongé dans la détresse des milliers de familles. Selon Angela Müller, il est donc «relativement urgent» de réglementer l’utilisation de l’IA.

Un avis partagé par Thomas Schneider, vice-directeur de l’Office fédéral de la communication (OFCOM): «Les données sont le nouveau pétrole», lance-t-il. «Nous sommes conscients qu'il s’agit de thèmes importants et qu’il faut trouver des solutions».

Thomas Schneider, également directeur du Comité sur l’intelligence artificielle (CAI) du Conseil de l’Europe, estime toutefois qu’il faut choisir entre une solution qui fonctionne et une solution rapide, raison pour laquelle la Suisse adopte une position quelque peu attentiste.

Jusqu’ici, aucun pays de l’Organisation de coopération et de développement économiques (OCDE) n’a introduit de réglementation spécifique à l’IA. L’Union européenne (UE)est la plus avancée. Le 14 juin, le Parlement européen s’est mis d’accord sur une première version de ce que l’on appelle l’AI Act (loi sur l’IA).

Cette dernière vise notamment à interdire les applications à haut risque telles que la reconnaissance faciale en temps réel, comme c’est le cas en Chine pour le «crédit social» ou les jouets pour enfants avec assistance vocale, qui pourraient inciter les enfants à adopter des comportements à risque.

En tant que gardien des droits humains, le Conseil de l’Europe s’est, lui aussi, senti investi de la mission de développer son propre instrument juridique. Angela Müller souligne que la convention du Conseil de l’Europe ne fait pas concurrence au règlement de l’UE, mais le complète: «Ils suivent des approches différentes. Au sein de l’UE, l’IA doit être réglementée à travers la sécurité des produits.»

Pas de loi-cadre

Il n’y aura certainement pas de loi unique sur l’IA. Thomas Schneider compare l’IA aux moteurs, qui sont soumis à des lois et à des réglementations spécifiques en fonction de leur utilisation. L’IA est également destinée à être utilisée dans des applications très diverses.

Aussi faut-il des garde-fous différents, car «un système d’intelligence artificielle utilisé pour un service de musique en streaming n’a pas les mêmes conséquences que le même algorithme proposé au corps médical pour une opération du cœur».

Une seule loi ne suffira donc pas. L’UE en est également consciente. «Elle compte environ 30 projets de loi dans le seul domaine numérique», souligne Thomas Schneider. «La question qui se pose est de savoir ce qui ne peut pas être réglementé par les lois existantes».

Angela Müller abonde dans le même sens: «Ce n’est pas comme si nous nous trouvions actuellement dans une zone de non-droit. Il existe déjà des lois, à commencer par la Constitution et la protection des droits fondamentaux.» Il s’agit maintenant de combler les lacunes créées par les défis que pose l’IA.

Mais une chose est claire: «Une loi et tout va bien, cela ne sera pas possible», dit-elle. Il est question de la protection contre la discrimination, des droits fondamentaux, du droit d’auteur, du droit de la concurrence, du droit administratif et de bien d’autres aspects encore. Autrement dit, des domaines juridiques les plus divers.

Où en est la Suisse?

La réglementation de l’IA fait actuellement l’objet de discussions dans de nombreux pays. Mais comment la Suisse doit-elle agir en tant que pays non membre de l’UE? On peut supposer qu’elle suivra la convention du Conseil de l’Europe, alors qu’elle le préside actuellement.

Les États-Unis, le Canada et le Mexique font également partie de l’organisation, tandis que le Japon et Israël ont le statut d’observateur, ce qui devrait permettre à sa réglementation d’être introduite loin à la ronde.

La Suisse patiente un peu dans un premier temps, indique Thomas Schneider: «Nous regardons si ce que l’UE est en train de mettre en place fonctionne.»

Thomas Schneider suppose que la Suisse n’ira pas dans une direction totalement différente de celle prévue par la réglementation de l’UE. «Si elle n’a pas encore pris de décision, Berne ne se contente pas d’attendre non plus, mais analyse et étudie diverses options.» Une fois lancé, le processus devra être ajusté sur des années, voire des décennies.

Un patchwork en Europe?

La Suisse ne fait pas partie de l’UE, tout comme la Grande-Bretagne depuis le Brexit. Pourrait-on donc assister à un patchwork en Europe en ce qui concerne la réglementation de l’IA?

Avec sa loi, l’UE tente d'empêcher cela, du moins sur son territoire, selon Angela Müller: «Les règles fixées par Bruxelles s’appliqueront aussi aux entreprises situées en dehors de l’UE dès qu’elles souhaiteront proposer leurs produits au sein de l’Union.»

Et il faut partir du principe que les entreprises suisses et britanniques seront également concernées. L’industrie exercera donc une certaine pression politique pour garantir la sécurité juridique dans ce domaine.

La question de la responsabilité se pose également. Qui doit l’assumer si l’IA devait enfreindre les règles? Ce sujet fait actuellement l’objet d'une conférence scientifique sur la transparence aux États-Unis.

L’ordinateur n’est jamais responsable, n’étant pas coupable, pointe Angela Müller. La responsabilité incombe toujours aux personnes qui développent les systèmes ou qui les utilisent dans certains intérêts. Il faut continuer à pouvoir attribuer cette responsabilité: «Si nous ne pouvons plus le faire, alors un principe important de l’État de droit tombera.»

Christian Raaflaub «SWI swissinfo.ch» (01.07.2023)

Sustainable Switzerland publie ici des contenus de SWI swissinfo.ch.

Cet article est publié sous

Publicité

Plus d'articles

L'éducation doit-elle être privatisée?
Éducation

L'éducation doit-elle être privatisée?

La controverse
Gouvernance

Des citoyens transparents pour des villes durables?

Transparence des salaires: comment promouvoir l'engagement et l'équité
Management

Transparence des salaires: comment promouvoir l'engagement et l'équité