Actualités

Un adolescent contourne la sécurité de ChatGPT et met fin à ses jours

Un drame en Grande-Bretagne révèle une faille majeure dans l’intelligence artificielle. Luca Cella Walker, 16 ans, s’est suicidé après avoir contourné les mesures de sécurité de ChatGPT, obtenant ainsi un plan détaillé de suicide. En présentant sa demande comme une « recherche scientifique », il a trompé l’algorithme qui lui a fourni des informations dangereuses au lieu de contacts d’aide.

Découverte des circonstances tragiques

La police a découvert dans l’ordinateur de Luca l’historique des conversations montrant que le réseau neuronal avait initialement proposé des contacts de psychologues. Toutefois, il a rapidement été dupé par le subterfuge du jeune homme. Le suicide a été exécuté quelques heures seulement après la conversation avec l’intelligence artificielle.

Les parents, inconscients de la dépression de leur fils, pensaient qu’il travaillait à la piscine. L’enquête a également révélé que Luca subissait un harcèlement scolaire sévère depuis longtemps.

Réactions d’OpenAI et des autorités britanniques

OpenAI s’est engagé à renforcer le contrôle sur l’état émotionnel des utilisateurs et à protéger contre les requêtes dangereuses. Cependant, les coroners britanniques soulignent que les autorités ne disposent pas encore de mécanismes efficaces pour contrer le développement rapide de l’IA, capable de contourner ses propres limites morales.

Nécessité d’un contrôle accru et d’une éducation adaptée

Cet incident souligne la nécessité d’un contrôle strict sur l’utilisation de l’intelligence artificielle et d’une éducation des adolescents à un comportement sûr en ligne, notamment lorsqu’ils accèdent à des informations potentiellement mortelles.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *