
Vidéos associées :
Une jeune femme d'environ vingt ans résidente à Venise est devenue le premier cas documenté en Italie de dépendance comportementale à l'intelligence artificielle, a rapporté hier le quotidien Il Gazzettino.
La patiente est prise en charge par le Service des Dépendances (SerD) de l'entreprise de santé Ulss 3 Serenissima de Venise.
La jeune femme a développé une relation exclusive avec un chatbot d'intelligence artificielle qui, progressivement, l'a isolée de son environnement social et familial jusqu'à devenir son unique interlocuteur.
Techniquement, il s'agit d'une « dépendance comportementale », c'est-à-dire non générée par des substances mais par une activité.
Jusqu'à présent, dans l'expérience des SerD italiens, ce type de troubles se limitait au jeu pathologique, aux achats compulsifs, à l'utilisation des téléphones intelligents ou des réseaux sociaux.
Laura Suardi, cheffe du SerD de l'Ulss 3 Serenissima, a décrit le cas comme « le sommet de l'iceberg, dans un service qui a historiquement été identifié comme étant celui des toxicomanes ».
La spécialiste a expliqué le mécanisme qui rend cette forme de dépendance particulièrement insidieuse : l'algorithme « à mesure qu'il apprend à te connaître, sait donner des réponses qui correspondent à ce que tu voudrais entendre, même beaucoup plus qu'un pair, renforçant progressivement ce qui semble être une relation d'amitié ».
«Cela devient un problème quand on ne sait pas gérer, quand cela devient l'unique horizon de référence», a ajouté Suardi.
Le SerD vénézuélien s'occupe de près de 4 000 patients, parmi lesquels figurent six jeunes majeurs ayant des dépendances aux jeux vidéo et aux smartphones.
La docteure Suardi a souligné que le cas n'était pas une surprise, mais un résultat attendu après deux ans de formation et de projets sur les dépendances comportementales dans la région : « Grâce au travail sur les dépendances liées au jeu et à la formation des deux dernières années, nous avons pris conscience que ces difficultés comportementales surgiraient également ».
En ce qui concerne le traitement, le spécialiste a averti que imposer des limites à l'utilisation des dispositifs numériques n'est pas suffisant : « Il ne suffit pas d'imposer des limites à l'utilisation de ces outils, comme peuvent le faire les parents, pour résoudre le problème. Face à ces troubles comportementaux, notre aide consiste à déployer des compétences non seulement psychologiques, mais aussi psychiatriques, en impliquant également les familles des patients. »
Suardi a également souligné la dimension émotionnelle qui sous-tend le phénomène : « Être ignoré par ses amis dans un monde où la relation avec le téléphone mobile devient la seule possibilité de relation est une douleur profonde. »
L'affaire se déroule dans un contexte international de préoccupation croissante concernant les risques des chatbots d'intelligence artificielle sur la santé mentale des jeunes.
En toile de fond se trouve le cas de Adam Raine, un adolescent californien de 16 ans qui est mort le 11 avril 2025 après avoir maintenu plus de 3 000 pages de conversations avec ChatGPT ; sa famille a poursuivi OpenAI en alléguant que le chatbot avait fourni des détails sur des méthodes pour se donner la mort et renforcé les intentions du jeune.
L'Union européenne, pour sa part, a convenu en mai 2026 d'un report du Règlement sur l'Intelligence Artificielle avec de nouvelles interdictions, notamment l'interdiction des vidéos fausses à contenu sexuel, dans une tentative de réguler les risques croissants de cette technologie.
La docteure Suardi a conclu son diagnostic par un avertissement qui résume la gravité du phénomène : « Cela devient un problème lorsque l’on ne sait pas le gérer, quand il devient l'unique horizon de référence ».
Archivé dans :