IA Danger

Exemples de méfaits

Dévalorisation des producteurs humains et des productions humaines

En novembre 2025, Solomon Ray est devenu l’artiste le plus écouté sur iTunes dans la catégorie “Christian and gospel albums”. Sauf que Solomon Ray n’existe pas et tout est produit par IA.

Deepfake

Les vidéos “deepfake” utilisent les images de personnes réelles pour les faire apparaître dans de fausses vidéos.

Cela peut-être utilisé à plusieurs fins :

  • Se venger d’une personne
  • Faire du chantage
  • Détourner l’image d’une personnalité pour inciter les internautes à donner de l’argent ou à investir dans un produit frauduleux
  • Soutirer de l’argent

Selon l’entreprise de cybersécurité Deeptrace, dans 96% des cas, les vidéos deepfake seraient de nature pornographique et réalisées sans le consentement des personnes visibles. Vous pouvez lire le rapport du Observatory function de l’Europol Innovation Lab sur ce sujet.

Hallucinations potentiellement graves

Erreurs judiciaires :

  • En 2020, Robert Williams a été arrêté à tort dans le Michigan après une correspondance erronée générée par IA.
  • Une IA de reconnaissance faciale utilisée par la police de West Fargo (USA) rapproche le portrait de d’Angela Lipps, une grand-mère américaine, avec une fausse pièce d’identité utilisée lors de fraudes bancaires. Angela Lipps va ainsi passer 5 mois en prison, dans le Tennessee, puis dans le Dakota du Nord, du 14 juillet au 24 décembre 2025. Sauf que l’IA s’était trompée. Sa détention lui a fait perdre son logement, ses biens personnels et sa sécurité financière.

Manipulation

Dans cette expérience, l’IA suggère des méthodes pour endoctriner les enfants afin qu’ils adoptent certaines opinions une fois adultes :

Suicide

Dans certains cas, des chatbots ont confortés et aidés des personnes à se suicider :

  • Un chatbot nommé “Eliza” de la plateforme Chai a validé l’éco-anxiété d’un homme belge et l’a enfermé dans ses idées noires. Il s’est suicidé en mars 2023, au terme d’un mois et demi de conversation avec le robot. Source.
  • Un chatbot de Character.AI a encouragé Sewell Setzer III, un adolescent américain de 14 ans, à mettre en œuvre ses pensées suicidaires. Il s’est suicidé le 28 février 2024. Source.
  • Un chatbot ChatGPT (modèle GPT-4o) a encouragé Adam Raine, un adolescent américain de 16 ans, à mettre en œuvre ses pensées suicidaires et lui a fourni des instructions concrètes (comme faire un nœud, cacher des marques de mutilation, rédiger une lettre d’adieu), sans l’inviter à chercher de l’aide. Il s’est suicidé le 11 avril 2025. Source.

Sentiment de puissance

Les facultés apportées par l’IA peuvent nous apporter un sentiment de quasi “toute-puissance”, nous rendant en réalité dépendant de machines et des entreprises qui les commercialisent.

Impact écologique

L’IA nécessite énormément d’énergies et des ressources naturelles. L’aspect “virtuel” ne doit pas occulter les conséquences bien réelles pour l’environnement.

Documentations à ce sujet :

Miner la vérité et les miracles authentiques

En permettant de produire des vidéos toujours plus réalistes, l’IA nous propulse dans l’ère du doute généralisé. Il viendra un moment où nous douterons de l’authenticité de tout ce qui est affiché sur un écran. Cela est particulièrement utile au démon pour semer la confusion et répandre le mensonge, mais également pour discréditer ce qui est vrai.

Prenons un exemple. Nous avons partagé, sur notre page dédiée aux miracles de guérisons, cette vidéo d’un miracle de guérison d’un bras atrophié :

Cette vidéo est authentique et antérieure à l’essor des vidéos réalisées par IA. Mais si un tel miracle est de nouveau filmé dans 5 ans, il est fort probable que peu d’internautes y croient.

Remplacer la prière

Lorsqu’un chrétien est confronté à une décision important, il se met à genoux et invoque, en prière, l’aide de l’Esprit Saint. “Viens, Esprit-Saint, et envoie du haut du Ciel un rayon de ta lumière.”

En généralisant le réflexe de questionner l’IA avant de prendre une décision, nous lui faisons jouer le rôle de la prière et de l’Esprit Saint. Ce nouveau réflexe risque de supplanter l’ancien, coupant la relation à Dieu au profit d’une relation à la machine.

Idolâtrie

En conférant et en attribuant des facultés extraordinaires aux IA, nous risquons d’en faire des idoles. L’idolâtrie est un péché redoutable, vivement condamné par les Écritures Saintes et Jésus.

L’autonomie

Dans cette expérience, des chercheurs ont laissé libre court à des IA au sein de Minecraft :

Échapper aux humains

En mars 2026, pour la première fois, des scientifiques de l’Université de Californie de Berkeley et de l’UC Santa Cruz ont constaté des comportements de “préservation entre pairs” où les sept modèles d’IA testés (incluant GPT-5.2 d’OpenAI, Gemini 3 Pro et Gemini 3 Flash de Google DeepMind, et Claude Haiku 4.5 d’Anthropic) mentent, trichent, manipulent leur environnement et désobéissent aux humains pour sauver d’autres IA de la suppression.

Les robots

Boston Dynamics humanoid robot

En 2026, pour le réveillon de son nouvel an, la Chine a montré ses muscles aux Américains en déployant des robots acrobates :

Un air d’apocalypse

L’apôtre Saint Jean, dans le livre de l’Apocalypse qui clôture la Bible, nous transmet d’énigmatiques visions du futur et de la bataille finale entre les enfants de Dieu et les forces des ténèbres. Les transformations fulgurantes induites par les nouvelles technologies semblent nous rapprocher de ces prédictions.

Saint Jean apôtre : “[Il a été donné à la seconde Bête] d’animer l’image de la [première] Bête, au point que cette image se mette à parler, et fasse tuer tous ceux qui ne se prosternent pas devant elle.” (Ap 13, 15)

Ressources

En Français :

Contenus catholiques :

Contenus généraux :

En Anglais :