Article
L'IA nous rend-elle plus bêtes ?
J'ai mené environ cent cinquante entretiens pratiques au cours des quatre dernières années. Cinquante pour des postes de spécialistes en données. Une centaine pour des spécialistes en publicité et en marketing de performance.
Dans la quasi-totalité des cas, il s'agissait de s'asseoir face à un candidat devant une tâche pratique — quelque chose de proche d'un problème réel que nous devons effectivement résoudre dans l'entreprise. Pas de théorie. Pas de trivialités. De la résolution de problèmes.
Avec le temps, j'ai commencé à percevoir un schéma récurrent.
Ce n'était pas soudain. Il n'y a pas eu de moment unique où la qualité des candidats se serait effondrée. Mais lorsque l'on fait cela suffisamment longtemps — lorsque l'on conserve les mêmes tâches et les mêmes exigences — on finit par voir la courbe.
Et la courbe descend.
LE MEILLEUR RÉSULTAT QUE J'AIE JAMAIS VU — SANS IA
La meilleure solution que j'aie jamais reçue provenait d'une femme qui n'avait pas d'IA.
Pas de ChatGPT. Pas de Copilot. Aucun modèle de langage en arrière-plan pendant son heure de préparation. Elle disposait des données, de l'énoncé de la tâche, et de son propre esprit.
Elle est enseignante de mathématiques. Elle travaille dans l'éducation, où elle promeut des approches pédagogiques innovantes inspirées de Montessori — le genre de personne qui consacre ses journées à rendre compréhensibles les choses complexes.
Ça se voyait.
Je ne peux pas révéler ce qu'elle a fait précisément — les entretiens sont toujours en cours et les tâches sont toujours utilisées. Mais sur une échelle de un à dix, elle a obtenu un neuf.
Il y a eu plusieurs moments durant sa présentation où j'ai pensé : c'est une autre catégorie. Pas un moment. Plusieurs.
Elle n'a pas simplement répondu à la question. Elle a remarqué dans les données des éléments qui ne faisaient pas partie de la question. Des éléments que je n'avais pas explicitement demandés. Des éléments qui comptaient.
C'est là toute la différence entre un résultat assisté par l'IA et une véritable résolution humaine de problèmes. L'IA répond à ce que vous demandez. Elle a répondu à ce qui importait.
À ce jour, aucun candidat équipé d'IA ne s'en est approché.
LE DÉCLIN DE LA PENSÉE AUTONOME
Il y a trois ans, environ un candidat sur cinq obtenait un score supérieur à six sur dix. Leur solution était suffisamment solide pour que l'entretien devienne intéressant.
Un sur vingt atteignait huit ou plus. Cela signifiait qu'ils avaient résolu la tâche de manière autonome, pour l'essentiel correctement, avec un niveau de pensée critique qui rendait évident qu'ils comprenaient ce qu'ils faisaient.
Aujourd'hui — pour les postes de spécialistes en données — j'aurais du mal à trouver quiconque au-dessus de cinq.
Je ne parle pas d'un glissement subtil. Je parle d'un déclin mesurable de la qualité de résolution de problèmes, qui a redéfini ce que j'attends lorsque j'entre dans une salle d'entretien.
Pour les spécialistes en publicité, le tableau est légèrement meilleur. Mais la tendance est la même.
LE PARADOXE DE PRODUCTIVITÉ DE L'IA — PLUS D'OUTILS, DE PIRES RÉSULTATS
Les candidats aux postes de spécialistes en données reçoivent le jeu de données et la tâche une heure avant l'entretien. Ils ont le temps de se préparer. Ils ont accès à tous les outils de leur choix — y compris des modèles d'IA d'ordres de grandeur plus puissants que tout ce qui existait lorsque j'ai commencé à mener ces entretiens.
Plus de temps. De meilleurs outils. De pires résultats.
Dans tout autre contexte, nous appellerions cela une crise.
Je ne suis pas le seul à observer ce schéma. Un essai contrôlé randomisé mené par Grace Liu et ses collègues (1 222 participants répartis sur plusieurs expériences) a montré que les personnes ayant bénéficié d'une assistance IA obtenaient des résultats significativement inférieurs une fois l'outil retiré — même après seulement dix minutes d'exposition. Les chercheurs suggèrent que l'IA conditionne les individus à attendre des réponses immédiates, les privant de l'expérience de travailler par eux-mêmes sur les difficultés. Le mécanisme porte un nom : la décharge cognitive.
Une étude du MIT Media Lab portant sur 54 participants, utilisant des mesures EEG, a révélé que la connectivité cérébrale diminuait systématiquement avec le niveau d'assistance IA — le groupe ChatGPT présentant le couplage neuronal le plus faible dans les zones associées aux fonctions exécutives, au traitement sémantique et à la régulation de l'attention. L'étude est un preprint qui n'a pas encore été évalué par les pairs — mais la direction est cohérente avec ce que j'observe dans mes entretiens.
Ce sont des domaines différents — les mathématiques, la rédaction. Mon domaine est la résolution analytique de problèmes en données et en marketing. Mais le schéma sous-jacent est le même. De meilleurs outils. Moins d'effort. Des performances plus faibles.
Voici à quoi cela ressemble en pratique. Le candidat prend les données, les injecte dans un modèle, et apporte le résultat à l'entretien. Parfois le résultat paraît propre. Parfois même impressionnant — bien structuré, visuellement soigné.
Puis je pose la première question de suivi.
« Pourquoi avez-vous procédé de cette manière ? »
Et la salle se tait.
La réponse n'a jamais été la leur.
QUAND L'IA REMPLACE LA PENSÉE — LA GÉNÉRATION BOÎTE NOIRE
Les entretiens les plus révélateurs que j'aie vécus récemment concernaient de jeunes candidats qui sont des programmeurs compétents. Ils savent affiner des modèles, ajuster des algorithmes, manier des outils complexes.
Ils présentent leur solution avec assurance. Le résultat paraît structuré, parfois même impressionnant. Mais après quelques questions de suivi, le tableau se précise. Ils ont injecté les données dans un modèle, l'ont traité comme une boîte noire, et ont accepté ce qui en sortait. Ils ne le disent pas aussi crûment — mais c'est ce qui s'est passé.
Rejoindre la Bibliothèque
Accès complet à mes pensées, histoires personnelles, observations et ce que j'entends des gens que je rencontre.
Rejoindre la Bibliothèque — €29,99 par anRésumé
Questions fréquentes sur le sujet de l'article
L'IA nous rend-elle plus bêtes ?
Qu'est-ce que la décharge cognitive ?
Comment l'IA affecte-t-elle les performances en entretien d'embauche ?
L'IA peut-elle remplacer la pensée critique ?
Articles connexes
Je construis un système d'IA pour prédire le S&P 500. Il tourne sur ma propre machine, utilise des données publiques gratuites — yfinance, FRED, le jeu de données Shiller — et évalue chaque prévision face à la réalité. Cette série documente la construction elle-même : les décisions, la méthodologie, les erreurs. Ce que je partagerai finalement du système en fonctionnement est une question séparée, et honnête.
Hier, je n'arrivais pas à m'arracher à l'ordinateur. Quand j'ai levé la tête, il était huit heures et demie du soir. J'étais resté seul à l'étage pendant environ trois heures.
L'IA va-t-elle prendre mon travail ? Un formateur certifié Google m'a dit en juin 2024 que ma profession cesserait d'exister. Vingt-deux mois plus tard, mon intitulé de poste n'a pas changé — mais quatre-vingt-dix pour cent de ce que je fais dans la journée est différent. J'ai délégué plus de ma réflexion à des agents IA que je ne l'aurais cru possible. Je n'ai pas peur. Voici pourquoi, et ce que cela signifie pour quiconque se pose la même question.
Plus d'articles
Une heure. Cinquante-cinq minutes. Voilà le temps qu'il m'a fallu pour construire ce qu'une société tchèque de logiciels avait chiffré à plus de 50 000 €. Je l'ai construit avec Claude Code. Pas un prototype. Pas une preuve de concept. Un outil fonctionnel — celui dont l'entreprise avait réellement besoin. Le soir même, il tournait sur un environnement de test. Ce n'est pas à propos de Claude Code. C'est à propos de ce que Claude Code met à nu.
Avant d'enseigner quoi que ce soit à l'IA, il faut voir ce qu'elle vous cache.
Dès que d'autres personnes ont eu besoin d'y accéder, le problème a complètement changé. Il ne s'agissait plus de savoir si l'agent pouvait apprendre. Il s'agissait de savoir qui avait le droit de lui enseigner.
Je voulais construire un agent qui ne se contente pas d'assister. Un agent qui agit.
Voici ce que j'ai appris sur l'IA locale versus le cloud, et pourquoi je suis passé à Claude Code.
Je n'ai jamais vu un écart de connaissance aussi profond que celui lié à l'intelligence artificielle.
Cette réaction est très probable.
Quatre jours en Catalogne. Sans ordinateur, sans IA, presque sans réseaux sociaux. J'ai acheté ce carnet pour y noter ce à quoi je penserais et ce que je rencontrerais et apprendrais durant le voyage.
