En vidéo – AlgorithmWatch envoie une pétition au Conseil fédéral pour appeler à réglementer l’intelligence artificielle

L’association AlgorithmWatch poursuit ses pressions sur le Conseil fédéral pour l’adoption de mesures de protection contre la discrimination par les algorithmes. De quoi rendre les intelligences artificielles exemptes de tout défaut?«C’est maintenant au Conseil fédéral d’assumer ses responsabilités.» Après le lancement d’un appel en juin dernier, l’association AlgorithmWatch et sa directrice Angela Müller envoient ce mardi une pétition au Conseil fédéral pour appeler à davantage de réglementations autour de l’intelligence artificielle. Dans le viseur, les cas de discrimination algorithmique, sujet qui s’impose «du point de vue des droits fondamentaux, mais aussi d’un point de vue social, éthique et économique», explique l’association dans un communiqué.Le timing est choisi: cet hiver, le Conseil fédéral étudiera les contours d’une potentielle législation sur le sujet. Le Département fédéral de l’environnement, des transports, de l’énergie et de la communication a été missionné pour rédiger un rapport sur le sujet, avant d’entamer les discussions sur une réglementation spécifique discutée dès 2025.Le précédent appel d'AlgorithmWatch: La pression augmente sur la Suisse pour qu’elle réglemente l’intelligence artificielle Soutenue par 45 organisations, dont l’Unicef et la Fédération romande des consommateurs, la pétition a également été signée par 70 personnalités suisses et près de 3000 citoyens. Parmi les signataires, Fabian Luetz, doctorant à la Faculté de droit de l’Université de Lausanne. Selon lui, les algorithmes ne peuvent pas continuer d’être utilisés sans une réglementation plus importante: «S’il n’y a pas de cadre juridique, il n’y a pas d’obligation d’informer. Si demain je postule pour une entreprise, je ne sais même pas si un algorithme est utilisé ou pas.» Pour AlgorithmWatch, renforcer la protection contre la discrimination implique notamment: - D’élargir la protection pour qu’elle s’applique aussi à la discrimination par des acteurs privés. «En Suisse, on n’est actuellement pas protégé ou très peu protégé contre la discrimination quand elle est le fait d’acteurs privés», détaille Estelle Pannatier, responsable de plaidoyer pour AlgorithmWatch. - La mise en place de procédures de recours collectif. - Et l’obligation pour les entités qui développent ou utilisent des systèmes algorithmiques de réaliser des analyses d’impact. Lire aussi: En Suisse, le futur encadrement de l’intelligence artificielle divise De quoi régler toutes les problématiques de discrimination de la part des algorithmes? Seul, un potentiel cadre juridique mis en place par le Conseil fédéral aura bien du mal à résoudre les problématiques de discriminations d’algorithmes conçus aux Etats-Unis ou ailleurs, tempère Fabian Luetz. Une meilleure coopération internationale est nécessaire pour le doctorant à la Faculté de droit de l’Université de Lausanne, notamment entre «les différentes agences qui s’occupent de la réglementation de l’IA, sinon on va avoir des continents avec des enjeux différents». Aussi, la protection contre des algorithmes biaisés peut être intégrée lors de la conception, puis contrôlée avant leur publication: «On ne voit pas sur le marché des médicaments qui n’ont pas été contrôlés, parce que Swissmedic fait des contrôles en amont», avance Fabian Luetz. Toutes ces solutions impliquent une réglementation de l’IA plus importante, qui est loin de faire l’unanimité. En Suisse, la faîtière des entreprises Economiesuisse a publié [un rapport sur le sujet](https://www.economiesuisse.ch/fr/dossier-politique/lia-en-suisse-des-conditions-cadre-de-qualite-avec-des-instruments-qui-ont-fait). On pouvait y lire qu’il ne fallait pas «céder à l’activisme politique». Selon l’organisation, «dans la plupart des cas, il n’est pas nécessaire de revoir une loi en profondeur».

En vidéo – AlgorithmWatch envoie une pétition au Conseil fédéral pour appeler à réglementer l’intelligence artificielle

L’association AlgorithmWatch poursuit ses pressions sur le Conseil fédéral pour l’adoption de mesures de protection contre la discrimination par les algorithmes. De quoi rendre les intelligences artificielles exemptes de tout défaut?

«C’est maintenant au Conseil fédéral d’assumer ses responsabilités.» Après le lancement d’un appel en juin dernier, l’association AlgorithmWatch et sa directrice Angela Müller envoient ce mardi une pétition au Conseil fédéral pour appeler à davantage de réglementations autour de l’intelligence artificielle. Dans le viseur, les cas de discrimination algorithmique, sujet qui s’impose «du point de vue des droits fondamentaux, mais aussi d’un point de vue social, éthique et économique», explique l’association dans un communiqué.

Le timing est choisi: cet hiver, le Conseil fédéral étudiera les contours d’une potentielle législation sur le sujet. Le Département fédéral de l’environnement, des transports, de l’énergie et de la communication a été missionné pour rédiger un rapport sur le sujet, avant d’entamer les discussions sur une réglementation spécifique discutée dès 2025.

Le précédent appel d'AlgorithmWatch: La pression augmente sur la Suisse pour qu’elle réglemente l’intelligence artificielle
Soutenue par 45 organisations, dont l’Unicef et la Fédération romande des consommateurs, la pétition a également été signée par 70 personnalités suisses et près de 3000 citoyens. Parmi les signataires, Fabian Luetz, doctorant à la Faculté de droit de l’Université de Lausanne. Selon lui, les algorithmes ne peuvent pas continuer d’être utilisés sans une réglementation plus importante: «S’il n’y a pas de cadre juridique, il n’y a pas d’obligation d’informer. Si demain je postule pour une entreprise, je ne sais même pas si un algorithme est utilisé ou pas.»
Pour AlgorithmWatch, renforcer la protection contre la discrimination implique notamment: - D’élargir la protection pour qu’elle s’applique aussi à la discrimination par des acteurs privés. «En Suisse, on n’est actuellement pas protégé ou très peu protégé contre la discrimination quand elle est le fait d’acteurs privés», détaille Estelle Pannatier, responsable de plaidoyer pour AlgorithmWatch. - La mise en place de procédures de recours collectif. - Et l’obligation pour les entités qui développent ou utilisent des systèmes algorithmiques de réaliser des analyses d’impact.
Lire aussi: En Suisse, le futur encadrement de l’intelligence artificielle divise
De quoi régler toutes les problématiques de discrimination de la part des algorithmes? Seul, un potentiel cadre juridique mis en place par le Conseil fédéral aura bien du mal à résoudre les problématiques de discriminations d’algorithmes conçus aux Etats-Unis ou ailleurs, tempère Fabian Luetz. Une meilleure coopération internationale est nécessaire pour le doctorant à la Faculté de droit de l’Université de Lausanne, notamment entre «les différentes agences qui s’occupent de la réglementation de l’IA, sinon on va avoir des continents avec des enjeux différents». Aussi, la protection contre des algorithmes biaisés peut être intégrée lors de la conception, puis contrôlée avant leur publication: «On ne voit pas sur le marché des médicaments qui n’ont pas été contrôlés, parce que Swissmedic fait des contrôles en amont», avance Fabian Luetz. Toutes ces solutions impliquent une réglementation de l’IA plus importante, qui est loin de faire l’unanimité. En Suisse, la faîtière des entreprises Economiesuisse a publié [un rapport sur le sujet](https://www.economiesuisse.ch/fr/dossier-politique/lia-en-suisse-des-conditions-cadre-de-qualite-avec-des-instruments-qui-ont-fait). On pouvait y lire qu’il ne fallait pas «céder à l’activisme politique». Selon l’organisation, «dans la plupart des cas, il n’est pas nécessaire de revoir une loi en profondeur».