Richard Golian

Né en 1995. Diplômé de l’Université Charles de Prague. Responsable de la performance chez Mixit. Plus de 10 ans dans le marketing basé sur les données.

#myjourney #myfamily #health #cognition #philosophie #technologie #intelligenceartificielle #darkness #security #finance #politique #slovaquie #banskabystrica #carpathians

English Castellano Slovenčina

Gérer l'abonnement Choisir un abonnement

RSS
Newsletter
Nouveaux articles dans votre boîte mail

L'IA va-t-elle prendre mon travail ?

L'IA va-t-elle prendre mon travail ? Un formateur certifié Google m'a dit en juin 2024 que ma profession cesserait d'exister. Vingt-deux mois plus tard, mon intitulé de poste n'a pas changé — mais quatre-vingt-dix pour cent de ce que je fais dans la journée est différent. J'ai délégué plus de ma réflexion à des agents IA que je ne l'aurais cru possible. Je n'ai pas peur. Voici pourquoi, et ce que cela signifie pour quiconque se pose la même question.
23 avril 2026 168

Devis de 50 000 € vs. deux heures avec Claude Code

Une heure. Cinquante-cinq minutes. Voilà le temps qu'il m'a fallu pour construire ce qu'une société tchèque de logiciels avait chiffré à plus de 50 000 €. Je l'ai construit avec Claude Code. Pas un prototype. Pas une preuve de concept. Un outil fonctionnel — celui dont l'entreprise avait réellement besoin. Le soir même, il tournait sur un environnement de test. Ce n'est pas à propos de Claude Code. C'est à propos de ce que Claude Code met à nu.
18 avril 2026 484

L'IA nous rend-elle plus bêtes ?

J'ai mené environ cent cinquante entretiens pratiques au cours des quatre dernières années. Cinquante pour des postes de spécialistes en données. Une centaine pour des spécialistes en publicité et en marketing de performance. Dans la quasi-totalité des cas, il s'agissait de s'asseoir face à un candidat devant une tâche pratique — quelque chose de proche d'un problème réel que nous devons effectivement résoudre dans l'entreprise. Pas de théorie. Pas de trivialités. De la résolution de problèmes. Avec le temps, j'ai commencé à percevoir un schéma récurrent.
14 avril 2026 403
Richard Golian

Bonjour, je suis Richard. Sur ce blog, je partage des réflexions, des histoires personnelles — et ce sur quoi je travaille. J’espère que cet article vous apportera quelque chose de précieux.

Quand votre agent IA rejoint l'équipe

Contrôle d'accès, mémoire partagée et rôles pour les agents IA

De Richard Golian

De l'apprentissage au contrôle d'accès

Dans mon article précédent, j'ai décrit la construction d'un agent IA qui apprend entre les sessions. Un agent doté d'une mémoire structurée, d'une boucle d'autocorrection et d'un système d'accumulation d'expérience d'une exécution à l'autre.

Dès que d'autres personnes ont eu besoin d'y accéder, le problème a complètement changé. Il ne s'agissait plus de savoir si l'agent pouvait apprendre. Il s'agissait de savoir qui avait le droit de lui enseigner.

Que se passe-t-il quand votre équipe accède à un agent IA

La plupart des articles sur les agents IA se concentrent sur ce que l'agent peut faire. Très peu parlent de ce qui se passe quand quelqu'un d'autre que son créateur commence à l'utiliser.

J'ai construit un bot Slack. L'idée était simple : donner à l'équipe un moyen d'interagir directement avec l'agent — poser des questions, demander des analyses, obtenir des rapports. Pas de terminal. Pas de code. Juste Slack.

Ça a fonctionné immédiatement. Et c'est là que le vrai problème est apparu.

Le chat libre avec un agent IA est une interface puissante. C'est aussi un risque. Si n'importe qui dans l'équipe peut écrire n'importe quoi à l'agent, n'importe qui peut accidentellement écraser sa mémoire, modifier son comportement ou déclencher des actions non prévues. L'agent ne juge pas l'autorité. Il traite les entrées.

La question n'était pas de savoir si l'équipe devait avoir accès. La question était : quel type d'accès ?

Contrôle d'accès basé sur les rôles pour les agents IA

J'ai fini par mettre en place un système de rôles. Trois niveaux : administrateur, analyste, observateur.

L'observateur peut lire les rapports et voir ce que l'agent produit. Rien de plus. Pas de commandes, pas de chat, aucune influence sur le comportement.

L'analyste peut faire davantage. Il peut poser des questions. Il peut exécuter des commandes prédéfinies. Et — c'est le point important — il peut écrire dans la mémoire de l'agent. Mais uniquement via une commande explicite, pas par une conversation libre. Si un analyste tape une instruction de mémorisation dans le bon format, l'agent l'enregistre. S'il essaie de l'écrire comme un message informel, le système l'ignore.

L'administrateur a un accès illimité. Chat libre, commandes directes, écritures en mémoire, modifications de configuration.

Cela ressemble à un modèle de permissions classique. Mais la distinction qui compte n'est pas qui peut lire ou écrire. C'est qui peut enseigner. Parce que chaque entrée en mémoire change ce que l'agent sait. Et ce que l'agent sait façonne chaque production future.

Pourquoi la mémoire d'un agent IA devient une base de connaissances partagée

C'est quelque chose que je n'ai pleinement compris qu'en le voyant en pratique.

Dans l'article précédent, j'ai décrit la couche de mémoire structurée — un fichier que l'agent lit avant chaque exécution, contenant les leçons des sessions passées. Ce que je n'avais pas dit, c'est ce qui se passe quand cette mémoire devient partagée.

Dès que plusieurs personnes contribuent à la mémoire de l'agent, il cesse d'être un outil personnel. Il devient une base de connaissances partagée. Chaque entrée affecte chaque session future — pas seulement pour la personne qui l'a écrite, mais pour tous ceux qui interagissent avec l'agent.

Un accès non contrôlé à cette mémoire est un vrai risque. Non pas parce que les gens ont de mauvaises intentions. Mais parce que l'agent ne fait pas la différence entre un insight méthodologique mûrement réfléchi et une remarque désinvolte tapée sans réfléchir. Il traite les deux comme des vérités équivalentes.

L'accès à la mémoire uniquement par commande pour les analystes était le compromis. On peut contribuer. Mais on le fait délibérément, dans un format structuré, et c'est consigné.

Que se passe-t-il quand l'agent se trompe de méthodologie

Celle-là, je ne l'avais pas vue venir.

Continuer la lecture :

Accès complet à mes pensées, histoires personnelles, observations et ce que j'entends des gens que je rencontre.

Rejoindre la Bibliothèque

Résumé

J'ai construit un agent IA avec une mémoire persistante et donné accès à mon équipe via Slack. Ce qui a suivi a été une leçon inattendue : le plus difficile dans le déploiement d'un agent IA n'est pas de le rendre intelligent — c'est de décider qui a le droit de lui enseigner. Cet article couvre le contrôle d'accès basé sur les rôles pour les agents IA, pourquoi la mémoire partagée devient une base de connaissances, et ce qui se passe quand l'agent se trompe de méthodologie.
Richard Golian

Si vous avez des pensées, des questions ou des retours, n’hésitez pas à m’écrire à mail@richardgolian.com.

Newsletter

Nouveaux articles dans votre boîte mail

Questions fréquentes sur le sujet de l’article

Qu'est-ce que le contrôle d'accès basé sur les rôles pour les agents IA ?
Le contrôle d'accès basé sur les rôles (RBAC) pour les agents IA consiste à attribuer différents niveaux de permissions aux membres de l'équipe selon leur rôle. Dans cet article, trois niveaux sont décrits : observateur (accès en lecture seule aux rapports), analyste (peut poser des questions, exécuter des commandes et écrire dans la mémoire de l'agent uniquement via des commandes explicites), et administrateur (accès illimité incluant le chat libre et les modifications de configuration). La distinction clé n'est pas qui peut utiliser l'agent, mais qui peut lui enseigner — car les entrées en mémoire façonnent de manière permanente toutes les productions futures.
Pourquoi la mémoire d'un agent IA est-elle un risque quand elle est partagée au sein d'une équipe ?
Quand plusieurs personnes peuvent écrire dans la mémoire d'un agent IA, celle-ci devient une base de connaissances partagée. Chaque entrée affecte chaque session future pour tout le monde. Le risque est que l'agent traite toutes les entrées en mémoire comme des vérités équivalentes — il ne peut pas distinguer entre un insight méthodologique mûrement réfléchi et une remarque désinvolte tapée sans réfléchir. Sans contrôle d'accès, un seul message imprudent peut silencieusement modifier le comportement de l'agent pour toute l'équipe.
Les agents IA peuvent-ils se retrouver piégés dans des erreurs logiques ?
Oui. Dans l'article, un agent a produit un résultat confiant qui était faux d'un ordre de grandeur. Quand il a été corrigé, il a accepté le nouveau cadrage mais a reproduit la même erreur structurelle à l'intérieur — passant par cinq rounds de corrections avant que les humains n'identifient la faille fondamentale. Les agents IA acceptent votre cadrage et travaillent à l'intérieur, mais ils peuvent se retrouver piégés en boucle à travers des variations de la même erreur sans reconnaître le problème sous-jacent.
Quelle est la différence entre un agent IA qui se corrige et un agent qui apprend vraiment ?
L'autocorrection se produit au sein d'une seule session — l'agent détecte ses erreurs par rapport à un schéma fixe. L'apprentissage se produit entre les sessions — chaque exécution laisse une trace que la session suivante peut utiliser. Dans cet article, l'agent a appris quand un désaccord méthodologique a été résolu par des humains et que la bonne méthode a été enregistrée en mémoire. L'agent n'a pas découvert la correction lui-même ; ce sont les humains qui l'ont fait. Mais la mémoire a assuré que la leçon se transmette à chaque session future.
Comment déployer un agent IA pour une équipe en toute sécurité ?
L'article décrit une approche pratique : construire une interface bot Slack, implémenter un système de rôles (administrateur, analyste, observateur), et restreindre les écritures en mémoire à des commandes structurées explicites plutôt qu'à une conversation libre. L'insight clé est que donner accès à un agent IA à une équipe n'est pas seulement un déploiement technique — c'est une décision organisationnelle sur qui a le droit de façonner ce que l'agent sait.
Quel est le plus grand défi quand on fait évoluer un agent IA d'un usage solo à un usage en équipe ?
Le plus grand défi n'est pas technique — il est organisationnel. Quand seul le créateur utilise l'agent, la mémoire et le comportement restent cohérents. Quand une équipe obtient l'accès, n'importe qui peut potentiellement changer ce que l'agent sait, introduire des méthodologies incorrectes, ou écraser des patterns établis. L'article soutient que la couche de contrôle d'accès — qui peut interagir avec l'agent et comment — est tout aussi importante que le mécanisme d'apprentissage lui-même.