L’expansion rapide de l’intelligence artificielle (IA) a transformé de manière structurelle les processus de prise de décision dans des domaines tels que la santé, l’éducation, le secteur public et la gestion environnementale. Loin d’être un ensemble neutre d’outils techniques, l’IA constitue aujourd’hui une infrastructure sociotechnique qui incorpore des valeurs, des présupposés normatifs et des rapports de pouvoir. Dans ce contexte émerge l’approche Artificial Intelligence for Social Good (AI4SG), comprise comme un cadre théorico-pratique visant à aligner la conception, la mise en œuvre et l’évaluation des systèmes d’IA sur des objectifs explicites de bien-être social, d’équité et de durabilité.
AI4SG (Artificial Intelligence for Social Good) peut être définie comme un champ de recherche et de pratique qui cherche à appliquer les développements et avancées de l’intelligence artificielle afin de résoudre des problèmes sociaux et d’améliorer le bien-être des individus, de la société et de la planète dans son ensemble.
AI4SG ne se limite pas à l’application de technologies avancées à des problématiques sociales ; elle propose plutôt une réorientation normative de l’innovation algorithmique, intégrant l’éthique appliquée, la gouvernance et l’évaluation de l’impact social comme composantes structurelles du développement technologique.
De l’optimisme technologique à la critique algorithmique
La littérature critique contemporaine a montré que l’adoption indiscriminée de systèmes algorithmiques peut générer des effets indésirables significatifs. O’Neil (2016) montre comment des modèles prédictifs opaques, même lorsqu’ils sont statistiquement robustes, peuvent amplifier les inégalités et consolider des formes d’exclusion structurelle. De manière complémentaire, Benjamin (2019) met en évidence que les systèmes d’IA tendent à reproduire des hiérarchies raciales et sociales préexistantes, configurant ce qu’elle appelle le New Jim Code.
Dans une perspective plus large, l’IA est de plus en plus comprise comme un phénomène matériel et politique, dont le fonctionnement dépend de chaînes mondiales d’extraction des ressources, de travail humain précarisé et de concentrations asymétriques de pouvoir (Crawford, 2021). Ces contributions convergent pour souligner que l’efficacité technique ne constitue pas un critère suffisant pour évaluer la légitimité sociale de l’IA, ouvrant ainsi un espace conceptuel pour des approches telles que l’AI4SG.
Définition et portée de l’AI4SG
Selon Cowls (2022), l’AI4SG peut être définie comme l’ensemble des approches, méthodologies et pratiques visant à maximiser l’impact social positif de l’IA tout en minimisant les risques éthiques, sociaux et environnementaux. Cette approche se caractérise par trois traits fondamentaux :
- Intentionnalité normative : les objectifs sociaux ne sont pas des effets collatéraux, mais des finalités explicites du système.
- Centralité de l’être humain : l’IA est conçue comme un soutien à la délibération et à la décision humaines, et non comme un substitut à la responsabilité morale.
- Évaluation de l’impact : la performance du système est mesurée tant en termes techniques que sociaux.
Dans cette perspective, l’AI4SG se situe à l’intersection de la science des données, de l’éthique des technologies et des politiques publiques.
La littérature spécialisée converge autour d’un ensemble de principes qui structurent les projets d’AI4SG :
- Justice et équité algorithmiques, par l’identification et l’atténuation des biais.
- Transparence et explicabilité, comme conditions de la confiance publique.
- Responsabilité et reddition de comptes, définissant clairement les acteurs et leurs rôles.
- Précaution et proportionnalité, en particulier dans les contextes de forte vulnérabilité.
- Impact social vérifiable, au-delà de l’efficacité opérationnelle.
Christian (2020) conceptualise ce défi comme le problème d’alignement, soulignant que l’adéquation des systèmes intelligents aux valeurs humaines constitue simultanément un problème technique, institutionnel et moral.
L’AI4SG dans les secteurs critiques : le cas de la santé et du secteur public
L’IA peut être mobilisée dans de nombreux domaines afin d’avoir un impact positif sur les individus, les communautés ou les écosystèmes :
- Inclusion sociale : contribution à la réduction des inégalités grâce à des applications facilitant la communication des personnes en situation de handicap ou à des outils détectant les biais de genre dans les processus de recrutement et d’octroi de crédit.
- Santé et bien-être : utilisation pour le diagnostic de maladies (telles que la septicémie ou la rétinopathie diabétique) à partir de l’analyse de dossiers médicaux et d’images. Elle facilite également la télémédecine, permettant d’atteindre des zones éloignées grâce aux dispositifs mobiles.
- Éducation de qualité : développement de systèmes d’apprentissage personnalisés (tuteurs intelligents ou avatars) s’adaptant au rythme et aux besoins spécifiques de chaque apprenant.
- Agriculture et environnement : emploi dans l’agriculture de précision à l’aide de robots optimisant les semis et l’irrigation, ainsi que dans la surveillance climatique, la protection de la vie marine et la lutte contre le braconnage à l’aide de drones et d’algorithmes de vision par ordinateur.
De manière analogue, dans le secteur public, l’application de l’IA au ciblage des politiques sociales exige des cadres de gouvernance robustes afin d’éviter l’automatisation non critique de décisions à fort impact social.
Analyse de l’AI4SG depuis une perspective décoloniale : limites épistémiques et possibilités émancipatrices
D’un point de vue décolonial, l’approche AI4SG requiert une problématisation supplémentaire qui dépasse les cadres normatifs dominants de l’éthique de l’IA. À la suite d’Aníbal Quijano, la technologie moderne est indissociablement liée à la colonialité du pouvoir, entendue comme un schéma historique articulant savoir, économie et autorité. En ce sens, l’IA — y compris celle orientée vers le « bien social » — ne peut être considérée comme neutre ni universelle.
La majorité des systèmes d’IA sont conçus à partir d’épistémologies et de rationalités techniques propres au Nord global, ce qui implique que les problèmes sociaux et les critères d’optimisation sont souvent définis depuis des cadres extérieurs aux contextes dans lesquels ces technologies sont déployées. Comme le souligne Walter Mignolo, ce processus reproduit une forme de colonialité du savoir, dans laquelle certains types de connaissances sont légitimés comme universels tandis que d’autres sont systématiquement marginalisés.
Réflexion finale
L’Artificial Intelligence for Social Good constitue aujourd’hui un cadre indispensable pour orienter le développement de l’intelligence artificielle dans des contextes de forte complexité sociale. En intégrant l’éthique, la gouvernance et la critique épistémologique, l’AI4SG permet de dépasser les visions réductrices de l’innovation technologique et de progresser vers une conception de l’IA comme un outil au service du bien-être collectif. L’intégration d’une perspective décoloniale élargit encore cette approche, rappelant qu’il ne peut y avoir de véritable « bien social » sans justice épistémique, contextualisation culturelle et participation effective des communautés concernées. L’avenir de l’AI4SG dépendra, en définitive, de la capacité institutionnelle à traduire ces principes en pratiques concrètes de conception, de régulation et d’évaluation.
Références
Benjamin, R. (2019). Race after technology: Abolitionist tools for the new Jim code. Polity Press.
Christian, B. (2020). The alignment problem: Machine learning and human values. W. W. Norton & Company.
Coeckelbergh, M. (2020). AI ethics. MIT Press.
Cowls, J. (Ed.). (2022). Artificial intelligence for social good. Springer.
Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.
O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. Crown.
PhD. Wilmer Lopez Lopez – Marzo 2026




Deja una respuesta