Richard Golian

Nacido en 1995. Graduado de la Universidad Carolina. Responsable de rendimiento en Mixit. Más de 10 años en el marketing basado en datos.

English Français Slovenčina

Gestionar suscripción Elegir suscripción

RSS
Newsletter
Nuevos artículos en tu correo

Artículo

Compartición Irresponsable de Datos Sensibles con la IA

Seguridad de datos IA, riesgo corporativo
Richard Golian
Richard Golian · 1 981 lecturas
Hola, soy Richard. En este blog comparto pensamientos, historias personales — y en qué estoy trabajando. Espero que este artículo te aporte algo de valor.

En los últimos años, la inteligencia artificial (IA) se ha integrado cada vez más en nuestra vida cotidiana y su influencia sigue creciendo. Los chatbots y asistentes de IA nos ayudan a completar tareas, automatizar procesos y mejorar la eficiencia. Sin embargo, resulta asombroso cómo se comparten datos corporativos y personales con herramientas de IA sin considerar los riesgos.

IA y Filtraciones Irresponsables de Datos Corporativos

Es comprensible la tentación de utilizar IA para agilizar el trabajo, como al subir hojas de cálculo a ChatGPT o Gemini para análisis de datos. El chatbot chino DeepSeek es la última novedad en este campo, con un crecimiento acelerado en su popularidad. Sin embargo, muchos empleados no se detienen a considerar que, al usar estas herramientas, están compartiendo bases de datos de clientes, informes estratégicos internos, información de ventas y otros datos de marketing confidenciales sin saber realmente a dónde terminan y quién puede acceder a ellos.

¿Por qué es un gran problema?

  • Pérdida de Control sobre los Datos – ¿Realmente creemos que la IA simplemente olvida lo que le proporcionamos? Los datos pueden integrarse en su base de conocimiento.
  • Riesgos Geopolíticos – DeepSeek es una IA de origen chino, y todos sabemos cómo funcionan las cosas en China. Las empresas están bajo la supervisión del gobierno, y si crees que tus datos no pueden terminar en las manos equivocadas, es momento de despertar.
  • Violación del RGPD y Otras Regulaciones – Muchos no se dan cuenta de que podrían estar infringiendo el RGPD, exponiendo a su empresa a cuantiosas multas. Un solo descuido puede generar serios problemas.
  • Amenaza Competitiva – Si creemos que nuestros competidores no están buscando formas de acceder a datos valiosos, estamos equivocados.

Los empleados deben reconocer que cada interacción con la IA puede tener consecuencias. Es fundamental que:

  • Reflexionen antes de compartir datos – Antes de subir cualquier información a una herramienta de IA, deberían evaluar si realmente es necesario procesarla de esta manera.
  • Consulten las políticas de la empresa – Las compañías deben tener reglas claras sobre qué datos pueden compartir los empleados con la IA. Si estas políticas no existen, los propios empleados deberían abogar por su creación para evitar problemas que puedan afectar tanto a la empresa como a su propia estabilidad laboral.
  • Utilicen soluciones de IA internas – Siempre que sea posible, deberían priorizar modelos de IA gestionados y controlados por la empresa en lugar de chatbots públicos.
  • Mejoren su alfabetización digital – Cuanto más comprendan los empleados el funcionamiento de la IA, mejor podrán proteger los datos sensibles.

IA y la Compartición Irresponsable de Datos Personales

El uso de la IA no se limita solo a bases de datos y estrategias comerciales. Cada pregunta que hacemos a los chatbots les proporciona información sobre nuestra forma de pensar, intereses y valores. En el futuro, estos datos podrían venderse a empresas para un marketing aún más agresivo o a partidos políticos para manipular la opinión pública.

Además, las interacciones con la IA permiten medir el nivel de conocimiento y habilidades de los usuarios, lo que crea una base de datos global sobre la inteligencia humana. No es difícil imaginar que en algún momento esta información podría utilizarse con fines cuestionables, con graves consecuencias para ciertos grupos de la población.

Este es un problema grave, y es momento de actuar con responsabilidad. No nos dejemos llevar por la comodidad y pensemos que esto no nos afecta. Si no despertamos ahora, pronto podría ser demasiado tarde.

Resumen

Los empleados suben bases de datos de clientes, informes internos y secretos comerciales a chatbots de IA sin pensarlo. El riesgo de perder el control sobre datos sensibles es real y creciente.

Preguntas frecuentes sobre el tema del artículo

¿Por qué es arriesgado compartir datos corporativos con herramientas de IA?
Porque los datos subidos a herramientas de IA públicas como ChatGPT o Gemini pueden usarse para entrenar futuros modelos, retenerse para monitoreo o en algunos casos ser accesibles a través de vulnerabilidades de seguridad. Las investigaciones muestran que el 77% de los empleados han pegado información de la empresa en servicios de IA, con datos sensibles representando más de un tercio de las entradas. En el artículo, la preocupación central es que los empleados suben bases de datos de clientes, informes internos y estrategias de negocio sin idea de dónde terminan estos datos.
¿Cuáles son los riesgos específicos de usar herramientas de IA chinas como DeepSeek?
DeepSeek, que se convirtió en la aplicación más descargada en la App Store de Apple en enero de 2025, opera bajo la Ley de Inteligencia Nacional de China — que requiere que las empresas cooperen con las investigaciones de seguridad del gobierno. En el artículo, esta dimensión geopolítica se destaca: si piensas que tus datos no pueden terminar en las manos equivocadas a través de una herramienta de IA china, es hora de despertar. La combinación de adopción rápida y mínima conciencia del usuario crea un riesgo significativo de exposición de datos.
¿Puede compartir datos con IA violar el RGPD?
Sí. La Junta Europea de Protección de Datos ha confirmado que el RGPD se aplica a los modelos de IA entrenados con datos personales. Italia multó a OpenAI con 15 millones de euros por violaciones del RGPD en diciembre de 2024. En el artículo, la preocupación es que muchos empleados no se dan cuenta de que pueden estar violando regulaciones de protección de datos con una sola acción irreflexiva — exponiendo a su empresa a multas significativas y creando problemas que ponen en peligro tanto a la organización como su propia seguridad laboral.
¿Qué aprenden las herramientas de IA de nuestras interacciones?
Cada pregunta y conversación revela patrones sobre cómo pensamos, qué sabemos, qué problemas intentamos resolver y cómo los abordamos. En el artículo, esto se describe como la creación de una base de datos de la inteligencia de toda la población humana. Estas percepciones van más allá de las consultas individuales — mapean patrones de pensamiento, lagunas de conocimiento y procesos de toma de decisiones que podrían explotarse para segmentación publicitaria, manipulación política o propósitos aún no imaginados.
¿Cómo pueden los empleados proteger datos sensibles al usar IA?
En el artículo se recomiendan cuatro pasos prácticos. Pensar antes de compartir — evaluar si los datos realmente necesitan ser procesados por una IA externa. Consultar las políticas de la empresa — o impulsar su creación si no existen. Usar soluciones de IA internas gestionadas por la empresa en lugar de chatbots públicos siempre que sea posible. Y mejorar la alfabetización digital — cuanto más entiendan los empleados cómo funciona la IA, mejor podrán proteger información sensible.
¿Por qué deberían las personas preocuparse por la privacidad de datos en IA?
Porque los datos no son solo corporativos. En el artículo, las interacciones personales con chatbots se identifican como igualmente preocupantes. Nuestras conversaciones revelan nuestros valores, intereses y patrones cognitivos. La probabilidad de que alguien use esta información contra ciertos grupos de personas en el futuro se describe como muy alta. Si no empezamos a actuar responsablemente ahora, pronto puede ser demasiado tarde.
Richard Golian

Si tienes pensamientos, preguntas o comentarios, no dudes en escribirme a mail@richardgolian.com.

NEWSLETTER
Sobre lo que escribo, en lo que trabajo, lo que aprendí.
Enviado el primer domingo del mes. Cancela cuando quieras.

Artículos relacionados

Investigaciones impulsadas por IA: El futuro de la lucha contra el crimen

Cuanto más pienso en esto, más me doy cuenta de la importancia fundamental de este tema.

16 de marzo de 2025·2 496 lecturas
El miedo es útil: la IA y la robótica como amenaza para nuestra seguridad

¿No es eso razón suficiente para abordar este asunto con mayor precaución?

15 de marzo de 2025·2 672 lecturas
Futuro incierto, preguntas sin respuesta

Cuanto más pienso en el futuro, más me doy cuenta de cuántas preguntas esenciales siguen sin respuesta.

25 de febrero de 2025·2 865 lecturas

Más artículos

Construyendo un sistema de IA que predice la bolsa y se evalúa a sí mismo

Estoy construyendo un sistema de IA para predecir el S&P 500. Corre en mi propia máquina, usa datos públicos gratuitos — yfinance, FRED, el dataset de Shiller — y evalúa cada pronóstico contra la realidad. Esta serie documenta la construcción en sí: las decisiones, la metodología, los errores. Lo que finalmente comparta del sistema en funcionamiento es una pregunta separada, y honesta.

26 de abril de 2026·612 lecturas
Pronóstico de ventas con IA: 9 trampas

Ayer no podía despegarme del ordenador. Cuando levanté la cabeza, eran las ocho y media de la tarde. Llevaba unas tres horas sentado solo arriba.

25 de abril de 2026·585 lecturas
¿Me quitará la IA el trabajo?

¿Me quitará la IA el trabajo? Un formador certificado de Google me dijo en junio de 2024 que mi profesión dejaría de existir. Veintidós meses después, mi cargo no ha cambiado — pero el noventa por ciento de lo que hago durante el día es distinto. He delegado más de mi pensamiento a agentes de IA de lo que jamás creí posible. No tengo miedo. Esto es por qué, y qué significa para cualquiera que se haga la misma pregunta.

23 de abril de 2026·366 lecturas
Cotización de 50.000 € vs. dos horas con Claude Code

Una hora. Cincuenta y cinco minutos. Ese es el tiempo que me llevó construir lo que una empresa checa de software había cotizado en más de 50.000 €. Lo construí con Claude Code. Ni un prototipo. Ni una prueba de concepto. Una herramienta funcional — la que la empresa realmente necesitaba. Aquella misma tarde ya estaba corriendo en staging. Esto no va sobre Claude Code. Va sobre lo que Claude Code deja al descubierto.

18 de abril de 2026·723 lecturas
¿Nos está volviendo más tontos la IA?

He realizado aproximadamente ciento cincuenta entrevistas prácticas a lo largo de los últimos cuatro años. Cincuenta para puestos de especialista en datos. Cien para especialistas en publicidad y marketing de rendimiento. Casi todas consistieron en sentarme con un candidato frente a una tarea práctica — algo cercano a un problema real que necesitamos resolver en la empresa. Sin teoría. Sin trivialidades. Resolución aplicada de problemas. Con el tiempo, empecé a notar un patrón.

14 de abril de 2026·674 lecturas
Lo que la IA te oculta

Antes de enseñarle algo a la IA, necesitas ver lo que te está ocultando.

11 de abril de 2026·672 lecturas
Cuando tu agente de IA se une al equipo

En el momento en que otras personas necesitaron acceso, el problema cambió por completo. Ya no se trataba de si el agente podía aprender. Se trataba de quién tenía derecho a enseñarle.

8 de abril de 2026·827 lecturas
Entrenar un agente de IA que aprende entre sesiones

Quería construir un agente que no solo asista. Uno que actúe.

4 de abril de 2026·880 lecturas
Limitaciones de los modelos de IA locales: por qué cambié de Ollama a Claude

Esto es lo que aprendí sobre IA local vs cloud y por qué cambié a Claude Code.

3 de abril de 2026·1 477 lecturas
El declive económico de Eslovaquia

¿Qué ocurrió y cómo puede revertirse?

28 de marzo de 2026·1 342 lecturas
Todo con agentes de IA o totalmente offline

Cuatro días en Cataluña. Sin ordenador, sin IA, casi sin redes sociales. Me compré este cuaderno para anotar lo que pensaría y lo que encontraría y aprendería durante el viaje.

10.5.2026·323 lecturas
NEWSLETTER
Sobre lo que escribo, en lo que trabajo, lo que aprendí.
Enviado el primer domingo del mes. Cancela cuando quieras.