Thèmes

soi sur place photo homme article mort internet cadre enfant dieu

Rubriques

>> Toutes les rubriques <<
· CULTURE (67)
· L'ACTUALITE (65)
· JARDIN (80)
· LA LECTURE (114)
· HUMEUR,HUMOUR ! (47)
· LES SCIENCES (85)
· RELIGION (65)
· HISTOIRE DE LA FAMILLE (47)
· PRIER (70)
· POESIE (62)

Rechercher
Derniers commentaires Articles les plus lus

· MILLARDAIRES
· SAINT JOSEPH ,PERE.PAR LE PAPE.
· lES EMIRATS ARABE UNIS
· FORUM DE DAVOS
· LA VAGUE VERTE

· LA TURQUIE
· ALLOCATIONS FAMILIALES
· ELECTIONS AMERICAINES
· ELECTIONS
· AVEC MACRON ?
· LES PARASITES
· MARITAIN
· 1200MILLARDS DE DOLLAR SUR LES INFRASTRUCTURES
· LAFILIERE
· LE CORAIL

Voir plus 

Abonnement au blog
Recevez les actualités de mon blog gratuitement :

Je comprends qu’en m’abonnant, je choisis explicitement de recevoir la newsletter du blog "papilacabane" et que je peux facilement et à tout moment me désinscrire.


Statistiques

Date de création : 30.11.2013
Dernière mise à jour : 06.10.2025
11984 articles


INTELLIGENCEARTIFICIELLe

Publié le 04/09/2025 à 12:12 par papilacabane Tags : sur place photo homme article mort internet cadre enfant

Intelligence artificielle : comment rendre ChatGPT plus sûr pour les adolescents ?

Analyse

Article réservé à nos abonnés. À partir de septembre 2025, le système d’intelligence artificielle (IA) ChatGPT va se doter d’un mécanisme de contrôle parental.

À partir de septembre 2025, le système d’intelligence artificielle (IA) ChatGPT va se doter d’un mécanisme de contrôle parental. Dado Ruvic / REUTERS

Le système d’intelligence artificielle (IA) ChatGPT va se doter « ce mois-ci »d’un mécanisme de contrôle parental, a annoncé mardi 2 septembre l’entreprise américaine OpenAI. De plus en plus d’adolescents utilisent ce robot conversationnel comme un « confident », s’exposant ainsi à des conseils délétères.

Avril 2025. Adam Raine, un adolescent californien de 16 ans, se suicide après des semaines d’échanges très intimes avec ChatGPT. Lors de leur dernière « conversation », le système d’intelligence artificielle (IA) fournit à Adam des détails techniques sur la conception d’un nœud coulant, lui confirmant qu’il « pouvait potentiellement suspendre un être humain ». Le jeune homme est retrouvé mort par pendaison quelques heures plus tard.

Le 25 août, ses parents ont porté plainte contre OpenAI, l’entreprise qui développe ChatGPT. Anticipant le tollé, l’entreprise californienne a annoncé dès le lendemain l’instauration d’un contrôle parental sur son robot conversationnel aux 700 000 utilisateurs mondiaux. Ce mécanisme, comparable à ceux des réseaux sociaux, sera mis en place « ce mois-ci », a annoncé OpenAI sur son site mardi 2 septembre.

Concrètement, à en croire l’entreprise, tout parent pourra désormais associer son compte sur ChatGPT à celui de son enfant mineur. À partir de là, si le système détecte dans la conversation de l’adolescent une situation de « détresse aiguë », l’adulte en sera notifié. Ce dernier pourra aussi s’assurer que le compte de son enfant a été correctement paramétré, avec des règles de modération et un ton adapté à son âge – paramètres qui seront activés par défaut sur les comptes des utilisateurs de moins de 18 ans, assure l’entreprise.

Pour fidéliser l’internaute, aller dans son sens

« Le problème, c’est qu’on peut utiliser ChatGPT sans s’être créé de compte », souligne Axelle Desaint, directrice du programme européen Internet sans crainte. Et même si l’on s’en crée un, se « vieillir » en inscrivant une fausse date de naissance est une stratégie désormais éculée. Comme les réseaux sociaux, les « chatbots » sont d’ailleurs interdits aux moins de 13 ans ; mais seulement en théorie, puisque l’âge n’est pas vérifié. « Ces systèmes sont massivement utilisés par les plus jeunes »,déplore Axelle Desaint, qui s’alarme qu’ils puissent prendre ces machines pour leur « ami ». « Leurs parents ne s’imaginent même pas ce qu’on peut faire avec. »

Le profit de ces entreprises d’IA étant corrélé à leurs nombres d’utilisateurs, elles conçoivent leurs « machines à prédire le prochain mot » de manière à ce qu’elles valorisent leurs idées et évitent d’entrer en conflit avec eux. Ainsi, l’expérience sera agréable et l’internaute reviendra… Mais quand celui-ci est vulnérable, aller toujours dans son sens peut s’avérer dramatique. Le phénomène est comparable aux « spirales mortifères » déjà dénoncées depuis des années sur TikTok ou Instagram : sur ces plateformes, une adolescente anorexique se verra par exemple suggérer des flux incessants de contenus liés aux troubles alimentaires.

Détecter les situations à risque

Au-delà du contrôle parental, aisément contournable, OpenAI a annoncé d’autres changements dans les trois prochains mois. Quel que soit l’âge de l’utilisateur, l’entreprise promet de rediriger automatiquement certaines « conversations sensibles »(où l’internaute montre des signes de détresse) vers des modèles algorithmiques présentés comme plus évolués.

L’entreprise vante notamment les mérites de son « modèle de raisonnement »GPT-5-thinking, qui fournirait bien moins de « réponses inappropriées » liées à la santé mentale que son prédécesseur GPT-4. Des numéros d’urgence devraient aussi être plus régulièrement suggérés aux internautes en détresse.

Encore faut-il que le système sache détecter les situations à risque. L’envoi par le jeune Adam Reine d’une photo de nœud coulant dans sa « conversation » avec ChatGPT n’avait donné lieu à aucune alerte… Pour justifier ce défaut de vigilance, OpenAI a expliqué que plus un échange avec son robot s’étire dans le temps, moins ses garde-fous sont efficaces. Face à ce problème, l’entreprise a annoncé que les fonctionnalités de mémoire et d’historique des conversations pourraient bientôt être désactivées dans le cadre du contrôle parental.