19 novembre 2025

L’intelligence artificielle (IA), saluée comme une avancée majeure du génie humain, interroge profondément notre capacité à en faire un levier de justice et d’humanité. Les papes François et Léon XIV appellent à un débat urgent sur son usage, soulignant ses potentialités, mais aussi ses risques : exploitation des pays du Sud, épuisement des ressources, ou encore opacité des algorithmes. Il s’agit maintenant d’ouvrir des espaces de formation pour un consentement « libre et éclairé ». La loi française impose déjà une transparence dans certains domaines, comme la santé, mais l’enjeu dépasse le cadre juridique : il s’agit de préserver la dignité humaine et la responsabilité collective.

L’IA, souvent perçue comme une « boîte noire », repose sur des calculs statistiques et non sur une véritable intelligence. Déléguer des décisions sans compréhension ni contrôle pourrait menacer notre liberté et notre autonomie. Comme le rappelle le Comité National de l’éthique pour le Numérique, son développement exige une vigilance éthique pour éviter la manipulation et garantir qu’elle serve l’intelligence collective, en écho à Laudato si’. Les risques de concentration du pouvoir entre les mains de quelques géants du numérique posent aussi un défi démocratique.

Pourtant, l’IA pourrait, si elle est bien orientée, renforcer la solidarité et répondre aux cris de la Terre et des plus vulnérables.

La pensée sociale chrétienne nous invite à repenser le progrès : l’IA doit être un outil au service du bien commun, favorisant la créativité, la responsabilité et le lien social. Eccleria propose à ses équipes de prendre en compte ces innovations dans un projet plus large, où la technologie respecte la singularité humaine et contribue à un monde plus juste.

Questions pour le discernement en équipe :

  1. Quels critères éthiques pourrions-nous définir, ensemble, pour évaluer si une utilisation de l’IA respecte la dignité humaine et le bien commun ?
  2. Comment concilier l’efficacité des algorithmes avec la nécessité de transparence et de compréhension, surtout dans des domaines sensibles comme la santé ou l’emploi ?
  3. Dans notre quotidien, où voyons-nous l’IA renforcer — ou au contraire fragiliser — les liens humains et la justice sociale ?
  4. Quelles actions concrètes pourrions-nous mettre en place, à notre échelle, pour que l’IA serve les plus vulnérables plutôt que les intérêts économiques dominants ?
  5. En tant que chrétiens engagés, comment pouvons-nous contribuer à un débat public qui place l’humain et la planète au cœur des choix technologiques ?

Texte de référence

Le Vatican face à l’IA

Rome a correctement identifié les dangers que pose réellement l’IA. “Il y a un risque grave de déléguer à des processus algorithmiques des décisions qui affectent la vie des personnes — dans le travail, la justice, l’aide sociale — sans recourir de manière adéquate au discernement et à la responsabilité humains”, souligne la lettre du cardinal Pietro Parolin.

Le numéro deux du Saint-Siège pointe également les problèmes que peuvent poser l’érosion de la vie privée par la surveillance de masse, l’avenir du travail ou encore les biais algorithmiques. Ce dernier point tracasse particulièrement les spécialistes du secteur car les IA doivent être entraînées sur des textes et des choix humains — historique de CV retenus, de produits achetés, etc. — pour nous être utiles.. Ce qui les amène à intégrer, voire amplifier, certains de nos préjugés.

LIRE TOUT L’ARTICLE L’express — IA — SSF2025

PRIERE du Fil rouge de la Session des Semaines Sociales de France sur l’IA (Bordeaux, nov. 2026)