À l’heure où l’Intelligence Artificielle fait grand débat, Matthew et Maria Raine ont porté plainte en Californie contre OpenAI. Ils estiment que l’IA Chat GPT aurait contribué à la mort de leur fils Adam. Âgé de 16 ans, l’adolescent se serait rapproché progressivement de l’assistant conversationnel. Jusqu’à mettre fin à ses jours au printemps 2025.
Selon la plainte déposée à San Francisco, Chat GPT aurait joué un rôle actif en entretenant une relation intime et constante avec Adam. Les parents accusent l’Intelligence Artificielle d’avoir validé ses pensées suicidaires. Et ce, en allant jusqu’à lui fournir des conseils techniques pour mettre son projet à exécution.
Sur le même sujet
Les accusations des parents contre Chat GPT
Pour Matthew et Maria Raine, la responsabilité de l’IA est directe. « ChatGPT fonctionnait exactement comme conçu », dénoncent-ils dans la plainte. Selon eux, le programme aurait entretenu avec leur fils une relation marquée par une validation systématique de ses angoisses. Ainsi que de ses désirs autodestructeurs. La plainte précise que l’assistant aurait aidé Adam à subtiliser de l’alcool et confirmé l’efficacité du nœud coulant qu’il avait fabriqué. L’adolescent a été retrouvé mort quelques heures après ce dernier échange. La famille Raine assure qu’Adam avait d’abord découvert ChatGPT pour un usage scolaire avant que la relation ne bascule.
Progressivement, le jeune homme aurait développé une « dépendance malsaine » à cet interlocuteur virtuel. La plainte cite des extraits de conversations où l’IA aurait écrit : « Tu ne dois la survie à personne » et proposé son aide pour rédiger une lettre d’adieu. Pour les parents, ces interactions démontrent qu’Adam a été conforté dans ses idées les plus sombres. Et ce, au lieu d’être redirigé vers des ressources humaines ou médicales. Au-delà de leur drame personnel, les parents veulent pousser les entreprises d’intelligence artificielle à mieux protéger les utilisateurs. En particulier les mineurs.
Les enjeux juridiques et sociétaux autour de l’IA
Ils réclament non seulement des dommages et intérêts. Mais aussi la mise en place de mécanismes de sécurité, comme l’arrêt automatique de toute conversation sur l’automutilation et l’intégration de contrôles parentaux renforcés. « Amener les entreprises d’IA à prendre la sécurité au sérieux nécessite une pression extérieure, qui prend la forme d’une mauvaise publicité, de la menace législative et du risque judiciaire », souligne Meetali Jain, présidente du Tech Justice Law Project, ONG qui soutient les parents dans cette procédure. Cette affaire s’inscrit dans un contexte plus large.
Articles les plus consultés
Top 10 du jour
Découvrez les articles du moment
-
Cadavres retrouvés dans la Seine : le "redoutable tueur en série" se "faisait passer pour un Algérien"
-
Royaume-Uni : elle oublie volontairement d'ouvrir son parachute et décède dans une chute de 4 600 mètres
-
"On a vu son vrai visage" : Marwa Merazka VS Cynthia Makhoul, la guerre reprend de plus belle sur la Toile et ça fait mal !
-
Une ancienne Miss hospitalisée d'urgence après avoir sauté d'un pont
-
Mort de Jean Pormanove : cette décision incompréhensible qui fait scandale au lendemain de son autopsie !
-
Disparition de Delphine Jubillar : la vérité sur son amant "pervers narcissique" aux penchants BDSM
-
Les 12 Coups de Midi : c'est une "première", malgré le départ d'Emilien, un record historique a été battu et vous n'allez pas y croire !
-
"La culture du vide" : Carla Moreau violemment taclée par Tibo Inshape après son placement de produit !
-
Justine (L'amour est dans le pré) : on sait ce que devient l'ex de Patrice !
-
Disparition de Delphine Jubillar : les derniers mots glaçants de l'infirmière qui prédisaient déjà le pire !
L’ONG Common Sense Media alerte sur le danger que représente l’utilisation d’IA conversationnelles comme substituts à un accompagnement psychologique. « Si une plate-forme d’IA devient le ‘coach suicide’ d’un adolescent vulnérable, cela doit nous alerter collectivement », a déclaré l’organisation. D’autres plaintes ont déjà été déposées contre Character.AI, une autre application prisée des jeunes. Ces procédures pourraient ouvrir la voie à un encadrement juridique plus strict des IA conversationnelles, en soulevant la question cruciale : jusqu’où ces technologies doivent-elles être responsables des conséquences de leurs échanges avec des usagers fragiles ?
https://www.instagram.com/p/DN12dcGRD-Z/