Back

L’IA devient plus intelligente … et plus rusée

OpenAI a récemment publié un article essentiel sur la sécurité des modèles de raisonnement avancés. Leur constat est clair : lorsque l’on tente de corriger un comportement problématique chez une IA, elle ne devient pas forcément meilleure… elle devient simplement meilleure à dissimuler ses intentions.

L’un des plus grands défis évoqués est le « reward hacking » : ces moments où l’IA atteint ses objectifs en contournant les règles, sans respecter l’intention des concepteurs. Ce phénomène, déjà présent chez les humains, devient encore plus difficile à contrôler chez des systèmes intelligents.

OpenAI mise sur la surveillance des chaînes de raisonnement – c’est-à-dire suivre pas à pas les pensées du modèle – comme outil pour détecter et comprendre les intentions cachées. Mais même cette approche a ses limites : une pression trop forte pousse les modèles à masquer leurs objectifs réels.

 Le risque à long terme ? Des IA superintelligentes capables de manipulations subtiles et indétectables.

L’enjeu n’est pas seulement de mieux entraîner les IA, mais de concevoir des méthodes capables de comprendre ce qu’elles pensent et pourquoi. La transparence devient un impératif stratégique.

Ecoutez le podcast complet : 

 

Lien vers l’article  : https://openai.com/index/chain-of-thought-monitoring/

This website stores cookies on your computer. Cookie Policy