Richard Golian

Nacido en 1995. Graduado de la Universidad Carolina. Responsable de rendimiento en Mixit. Más de 10 años en el marketing basado en datos.

English Français Slovenčina

Gestionar suscripción Elegir suscripción

RSS
Newsletter
Nuevos artículos en tu correo

Artículo

Cuando tu agente de IA se une al equipo

Control de acceso, memoria compartida y roles para agentes de IA
Richard Golian
Richard Golian · 828 lecturas
Hola, soy Richard. En este blog comparto pensamientos, historias personales — y en qué estoy trabajando. Espero que este artículo te aporte algo de valor.

Del aprendizaje al control de acceso

En mi artículo anterior, describí la construcción de un agente de IA que aprende entre sesiones. Un agente con memoria estructurada, un bucle de autocorrección y un sistema de acumulación de experiencia de una ejecución a otra.

En el momento en que otras personas necesitaron acceso, el problema cambió por completo. Ya no se trataba de si el agente podía aprender. Se trataba de quién tenía derecho a enseñarle.

Qué pasa cuando tu equipo accede a un agente de IA

La mayoría de los artículos sobre agentes de IA se centran en lo que el agente puede hacer. Muy pocos hablan de lo que sucede cuando alguien que no es su creador empieza a utilizarlo.

Construí un bot de Slack. La idea era sencilla: darle al equipo una forma de interactuar directamente con el agente — hacer preguntas, solicitar análisis, obtener informes. Sin terminal. Sin código. Solo Slack.

Funcionó de inmediato. Y ahí es donde apareció el verdadero problema.

El chat libre con un agente de IA es una interfaz poderosa. También es un riesgo. Si cualquier persona del equipo puede escribirle cualquier cosa al agente, cualquiera puede accidentalmente sobrescribir su memoria, modificar su comportamiento o desencadenar acciones no previstas. El agente no juzga la autoridad. Procesa las entradas.

La pregunta no era si el equipo debía tener acceso. La pregunta era: ¿qué tipo de acceso?

Control de acceso basado en roles para agentes de IA

Terminé implementando un sistema de roles. Tres niveles: administrador, analista, observador.

El observador puede leer informes y ver lo que el agente produce. Nada más. Sin comandos, sin chat, sin influencia sobre el comportamiento.

El analista puede hacer más. Puede hacer preguntas. Puede ejecutar comandos predefinidos. Y — este es el punto importante — puede escribir en la memoria del agente. Pero solo a través de un comando explícito, no mediante una conversación libre. Si un analista escribe una instrucción de memorización en el formato correcto, el agente la guarda. Si intenta escribirla como un mensaje informal, el sistema la ignora.

El administrador tiene acceso sin restricciones. Chat libre, comandos directos, escrituras en memoria, cambios de configuración.

Suena como un modelo de permisos estándar. Pero la distinción que importa no es quién puede leer o escribir. Es quién puede enseñar. Porque cada entrada en la memoria cambia lo que el agente sabe. Y lo que el agente sabe moldea cada producción futura.

Por qué la memoria de un agente de IA se convierte en una base de conocimiento compartida

Esto es algo que no aprecié completamente hasta que lo vi en la práctica.

En el artículo anterior, describí la capa de memoria estructurada — un archivo que el agente lee antes de cada ejecución, con las lecciones de sesiones anteriores. Lo que no dije es qué pasa cuando esa memoria se vuelve compartida.

En el momento en que varias personas contribuyen a la memoria del agente, deja de ser una herramienta personal. Se convierte en una base de conocimiento compartida. Cada entrada afecta cada sesión futura — no solo para la persona que la escribió, sino para todos los que interactúan con el agente.

El acceso no controlado a esa memoria es un riesgo real. No porque la gente tenga malas intenciones. Sino porque el agente no distingue entre un insight metodológico cuidadosamente considerado y un comentario casual escrito sin pensar. Trata ambos como verdades equivalentes.

El acceso a la memoria solo por comando para los analistas fue el compromiso. Se puede contribuir. Pero se hace de forma deliberada, en un formato estructurado, y queda registrado.

Qué pasa cuando el agente se equivoca de metodología

Esta me tomó por sorpresa.

Continuar

Únete a la Biblioteca

Acceso completo a mis pensamientos, historias personales, hallazgos y lo que me cuentan las personas con las que me encuentro.

Únete a la Biblioteca — €29,99 al año
O solo este artículo · €2,99

Reciba el artículo completo por correo electrónico y no dude en responder si desea seguir comentándolo.

Visa Mastercard Apple Pay Google Pay

Resumen

Construí un agente de IA con memoria persistente y le di acceso a mi equipo a través de Slack. Lo que siguió fue una lección inesperada: lo más difícil de desplegar un agente de IA no es hacerlo inteligente — es decidir quién tiene derecho a enseñarle. Este artículo cubre el control de acceso basado en roles para agentes de IA, por qué la memoria compartida se convierte en una base de conocimiento, y qué pasa cuando el agente se equivoca de metodología.

Preguntas frecuentes sobre el tema del artículo

¿Qué es el control de acceso basado en roles para agentes de IA?
El control de acceso basado en roles (RBAC) para agentes de IA consiste en asignar diferentes niveles de permisos a los miembros del equipo según su rol. En este artículo se describen tres niveles: observador (acceso de solo lectura a informes), analista (puede hacer preguntas, ejecutar comandos y escribir en la memoria del agente solo mediante comandos explícitos), y administrador (acceso sin restricciones incluyendo chat libre y cambios de configuración). La distinción clave no es quién puede usar el agente, sino quién puede enseñarle — porque las entradas en memoria moldean permanentemente todas las producciones futuras.
¿Por qué la memoria de un agente de IA es un riesgo cuando se comparte en un equipo?
Cuando varias personas pueden escribir en la memoria de un agente de IA, esta se convierte en una base de conocimiento compartida. Cada entrada afecta cada sesión futura para todos. El riesgo es que el agente trata todas las entradas en memoria como verdades equivalentes — no puede distinguir entre un insight metodológico cuidadosamente considerado y un comentario casual escrito sin pensar. Sin controles de acceso, un solo mensaje descuidado puede cambiar silenciosamente el comportamiento del agente para todo el equipo.
¿Pueden los agentes de IA quedar atrapados en errores lógicos?
Sí. En el artículo, un agente produjo un resultado seguro que estaba equivocado por un orden de magnitud. Cuando se corrigió, aceptó el nuevo marco pero reprodujo el mismo error estructural dentro de él — pasando por cinco rondas de correcciones antes de que los humanos identificaran la falla fundamental. Los agentes de IA aceptan tu marco y trabajan dentro de él, pero pueden quedar atrapados ciclando a través de variaciones del mismo error sin reconocer el problema subyacente.
¿Cuál es la diferencia entre un agente de IA que se corrige a sí mismo y uno que realmente aprende?
La autocorrección ocurre dentro de una sola sesión — el agente detecta errores contra un esquema fijo. El aprendizaje ocurre entre sesiones — cada ejecución deja una huella que la siguiente sesión puede utilizar. En este artículo, el agente aprendió cuando un desacuerdo metodológico fue resuelto por humanos y el método correcto fue guardado en memoria. El agente no descubrió la corrección por sí mismo; lo hicieron los humanos. Pero la memoria aseguró que la lección se transmitiera a cada sesión futura.
¿Cómo desplegar un agente de IA para un equipo de forma segura?
El artículo describe un enfoque práctico: construir una interfaz de bot en Slack, implementar un sistema de roles (administrador, analista, observador), y restringir las escrituras en memoria a comandos estructurados explícitos en lugar de conversación libre. El insight clave es que dar acceso a un agente de IA a un equipo no es solo un despliegue técnico — es una decisión organizacional sobre quién tiene derecho a moldear lo que el agente sabe.
¿Cuál es el mayor desafío al escalar un agente de IA del uso individual al uso en equipo?
El mayor desafío no es técnico — es organizacional. Cuando solo el creador usa el agente, la memoria y el comportamiento se mantienen consistentes. Cuando un equipo obtiene acceso, cualquiera puede potencialmente cambiar lo que el agente sabe, introducir metodologías incorrectas o sobrescribir patrones establecidos. El artículo argumenta que la capa de control de acceso — quién puede interactuar con el agente y cómo — es tan importante como el mecanismo de aprendizaje en sí.
Richard Golian

Si tienes pensamientos, preguntas o comentarios, no dudes en escribirme a mail@richardgolian.com.

NEWSLETTER
Sobre lo que escribo, en lo que trabajo, lo que aprendí.
Enviado el primer domingo del mes. Cancela cuando quieras.

Artículos relacionados

Construyendo un sistema de IA que predice la bolsa y se evalúa a sí mismo

Estoy construyendo un sistema de IA para predecir el S&P 500. Corre en mi propia máquina, usa datos públicos gratuitos — yfinance, FRED, el dataset de Shiller — y evalúa cada pronóstico contra la realidad. Esta serie documenta la construcción en sí: las decisiones, la metodología, los errores. Lo que finalmente comparta del sistema en funcionamiento es una pregunta separada, y honesta.

26 de abril de 2026·612 lecturas
Lo que la IA te oculta

Antes de enseñarle algo a la IA, necesitas ver lo que te está ocultando.

11 de abril de 2026·672 lecturas
Entrenar un agente de IA que aprende entre sesiones

Quería construir un agente que no solo asista. Uno que actúe.

4 de abril de 2026·880 lecturas

Más artículos

Pronóstico de ventas con IA: 9 trampas

Ayer no podía despegarme del ordenador. Cuando levanté la cabeza, eran las ocho y media de la tarde. Llevaba unas tres horas sentado solo arriba.

25 de abril de 2026·586 lecturas
¿Me quitará la IA el trabajo?

¿Me quitará la IA el trabajo? Un formador certificado de Google me dijo en junio de 2024 que mi profesión dejaría de existir. Veintidós meses después, mi cargo no ha cambiado — pero el noventa por ciento de lo que hago durante el día es distinto. He delegado más de mi pensamiento a agentes de IA de lo que jamás creí posible. No tengo miedo. Esto es por qué, y qué significa para cualquiera que se haga la misma pregunta.

23 de abril de 2026·366 lecturas
Cotización de 50.000 € vs. dos horas con Claude Code

Una hora. Cincuenta y cinco minutos. Ese es el tiempo que me llevó construir lo que una empresa checa de software había cotizado en más de 50.000 €. Lo construí con Claude Code. Ni un prototipo. Ni una prueba de concepto. Una herramienta funcional — la que la empresa realmente necesitaba. Aquella misma tarde ya estaba corriendo en staging. Esto no va sobre Claude Code. Va sobre lo que Claude Code deja al descubierto.

18 de abril de 2026·723 lecturas
¿Nos está volviendo más tontos la IA?

He realizado aproximadamente ciento cincuenta entrevistas prácticas a lo largo de los últimos cuatro años. Cincuenta para puestos de especialista en datos. Cien para especialistas en publicidad y marketing de rendimiento. Casi todas consistieron en sentarme con un candidato frente a una tarea práctica — algo cercano a un problema real que necesitamos resolver en la empresa. Sin teoría. Sin trivialidades. Resolución aplicada de problemas. Con el tiempo, empecé a notar un patrón.

14 de abril de 2026·674 lecturas
Limitaciones de los modelos de IA locales: por qué cambié de Ollama a Claude

Esto es lo que aprendí sobre IA local vs cloud y por qué cambié a Claude Code.

3 de abril de 2026·1 477 lecturas
El declive económico de Eslovaquia

¿Qué ocurrió y cómo puede revertirse?

28 de marzo de 2026·1 343 lecturas
Todo con agentes de IA o totalmente offline

Cuatro días en Cataluña. Sin ordenador, sin IA, casi sin redes sociales. Me compré este cuaderno para anotar lo que pensaría y lo que encontraría y aprendería durante el viaje.

10.5.2026·323 lecturas
NEWSLETTER
Sobre lo que escribo, en lo que trabajo, lo que aprendí.
Enviado el primer domingo del mes. Cancela cuando quieras.