AI and Equality

White papers

Intégration des droits humains à chaque étape du cycle de vie de l’IA

Lisez le livre blanc pour explorer les questions clés à chaque étape des six phases du cycle de vie de l’IA. Ce guide aide les créateurs à réfléchir aux objectifs, aux impacts sur les droits humains, et aux effets sociétaux plus larges des systèmes qu’ils conçoivent — en collaboration avec les communautés concernées.

Ce document a été élaboré par Women At The Table, avec le soutien essentiel du Canton de Genève pour la traduction et l’organisation des ateliers, à destination de la Division Paix et Droits Humains du Département fédéral des affaires étrangères suisse, dans le cadre du programme AI4D – Intelligence artificielle pour le développement, financé par le Centre de recherches pour le développement international (IDRC).

La recherche actuelle souligne les risques que posent les systèmes d’IA pour les droits humains — qu’ils soient individuels ou collectifs — lorsqu’ils sont développés sans vigilance ni cadre éthique rigoureux. En intégrant une analyse critique dès les premières étapes de conception, il devient possible d’anticiper, d’atténuer, voire d’éviter totalement ces préjudices.

Ce livre blanc présente notre cadre IA & Égalité, pensé pour encourager cette approche et aller plus loin encore, en promouvant un développement de l’IA ancré dans la dignité humaine et la protection des droits fondamentaux.

Ce cadre s’appuie sur des questions essentielles et des points de vigilance à chaque étape du cycle de vie d’un système d’IA, afin que les impacts sur les droits humains soient identifiés et pris en compte au bon moment — non pas une fois le système déployé, mais dès sa conception. En intégrant l’évaluation d’impact sur les droits humains développée par l’Alan Turing Institute à notre approche pragmatique du développement de l’IA, nous proposons une méthodologie claire, conforme aux exigences réglementaires émergentes, notamment celles de la législation européenne sur l’IA.

Mais notre ambition va au-delà de la conformité. Nous défendons une vision proactive : une IA conçue pour promouvoir activement les droits humains, l’égalité et l’inclusion, et non simplement pour limiter les dommages. En impliquant les communautés concernées dès le départ et en leur conférant un réel pouvoir décisionnel, nous posons les bases de systèmes justes, inclusifs et porteurs d’opportunités. Ces systèmes peuvent non seulement corriger les inégalités existantes, mais aussi en imaginer de nouvelles solutions.

 

Notre objectif:
Adapter les politiques sociales aux avancées scientifiques et aux valeurs du XXIe siècle, en repensant les critères de performance de l’IA au-delà de la seule “efficacité”, pour en faire un véritable levier de justice, d’innovation et de progrès.

Lisez le white paper et découvrez-en davantage sur les questions essentielles tout au long des six étapes du cycle de vie de l’IA pour permettre aux créateurs d’IA de réfléchir aux objectifs, aux impacts sur les droits de l’homme et aux effets sociétaux plus larges des systèmes qu’ils créent en collaboration avec les communautés affectées par leur système.

À propos des autrices

Emma Kallina

Doctorante à l’Université de Cambridge (Royaume-Uni), sous la supervision de Thomas Bohné, Stephen Cave et Alan Blackwell. Elle est également Student Fellow au Leverhulme Centre for the Future of Intelligence et Research Fellow au Responsible AI Institute.

Sofia Kypraiou

Sofia a conçu l’atelier et la méthodologie AI Toolbox dans le cadre de son mémoire de Master en Data Science à l’EPFL en 2021. Elle continue de piloter l’évolution technique du projet et de ses composantes connexes. Elle a été Tech Fellowchez Women At The Table en 2021 et a été nommée en 2023 parmi les « 10 femmes à suivre dans la tech en Suisse » par Girls In Tech Switzerland.

Caitlin Kraft-Buchman

Entrepreneuse de coalitions, originaire de New York et installée de manière permanente à Genève. Elle est cofondatrice de l’initiative International Gender Champions (2015) et de l’A+ Alliance for Inclusive Algorithms (2019). En 2023, elle a coprésidé le groupe d’expertes de la CSW67 — la Commission de la condition de la femme des Nations Unies — sur le thème prioritaire « Technologie et innovation ».

Nous construisons une communauté mondiale dédiée à une IA inclusive, fondée sur les droits humains.

Rejoignez notre communauté IA & Égalité: étudiant·es, chercheur·es, data scientists et professionnel·les de l’IA qui croient en une intelligence artificielle responsable, équitable et centrée sur l’humain.