Richard Golian

Nacido en 1995. Graduado de la Universidad Carolina. Responsable de rendimiento en Mixit. Más de 10 años en el marketing basado en datos.

#micamino #myfamily #health #cognicion #filosofia #tecnologia #inteligenciaartificial #oscuridad #seguridad #finanzas #politica #banskabystrica #carpatos

English Slovenčina

Gestionar suscripción Elegir suscripción

RSS
Newsletter
Nuevos artículos en tu correo
Richard Golian

Hola, soy Richard. En este blog comparto pensamientos, historias personales — y en qué estoy trabajando. Espero que este artículo te aporte algo de valor.

Manipulación de la atención a través de la indignación, la ira y el miedo

Manipulación política, ira, miedo y tácticas

Richard Golian

Lo ves.
Lo oyes.
Lo lees.
Cada día.

Provoca indignación. Ira. O miedo.

Después aparece algo nuevo — aún más fuerte.
Y luego otra vez. Y otra vez. Y otra vez.

Muy a menudo, no es algo aleatorio.

Es un sistema.

Un sistema de trabajo con la atención, construido sobre la comprensión de las debilidades de la naturaleza humana — sobre las que ya he escrito — y sobre datos detallados de cómo nos comportamos y tomamos decisiones.

El objetivo no es hacer que las personas crean algo concreto.

El objetivo es dejarles sin espacio para centrarse en nada.

Esto se utiliza a diario por grupos políticos, económicos y otros grupos de interés, así como por individuos con poder. Se aborda a nivel científico y experto, respaldado por grandes volúmenes de datos.

Es un sistema de manipulación — por más que suene así, no puedo describirlo de otra manera.

Estamos siendo manipulados de forma sistemática.

Manipulación sistemática basada en la ciencia

En los círculos expertos, este mecanismo se describe mediante una combinación de conceptos:

Agenda-setting significa que los medios no determinan lo que pensamos, sino sobre qué pensamos.

Economía de la atención se refiere a un entorno donde la atención humana es el recurso más escaso.

Contenido basado en la indignación es contenido diseñado para provocar reacciones emocionales fuertes — con mayor frecuencia ira o miedo.

Manipulación sistemática basada en datos

Al mismo tiempo, están los datos.

Datos sobre lo que las personas buscan, leen y a lo que reaccionan se recopilan a gran escala, se comercializan y se dividen en segmentos — grupos definidos por intereses, preocupaciones y patrones de comportamiento compartidos.

Estos datos pueden analizarse y utilizarse para segmentar.

Muestran en qué se centran las personas, qué temen y cómo es probable que reaccionen.

La comunicación puede entonces alinearse con estos patrones — no de forma aleatoria, sino basada en datos.

Cómo y por qué funciona la manipulación

Cuando el contenido emocional nuevo sigue llegando, surge un efecto simple: la atención cambia constantemente entre estímulos y no puede centrarse en nada relevante.

Los mismos patrones tienden a repetirse:

  • declaraciones controvertidas que dominan inmediatamente el espacio mediático,
  • cambios rápidos de tema que impiden una discusión más profunda,
  • encuadre emocional fuerte — “amenaza”, “ataque”, “crisis”,
  • desplazamiento de la atención en el momento en que deberían abordarse problemas sistémicos,
  • creación de una sensación constante de conflicto y urgencia.

En estos casos, no se trata solo del contenido.

Se trata del momento, la repetición y la emoción.

Manipulación sin la sensación de ser manipulado

La manipulación más eficaz hoy no trata de lo que pensamos.

Trata de a qué prestamos atención.

Si alguien puede decidir qué temas vemos, en qué orden, con qué carga emocional y durante cuánto tiempo permanecemos en ellos, ya no necesita cambiar directamente nuestras opiniones.

Basta con moldear el entorno en el que las formamos.

Y sentimos como si hubiéramos decidido por nosotros mismos.

Este mecanismo existe y funciona.

Comprenderlo es la primera condición para tener alguna posibilidad frente a él.

Cómo se utilizan los datos en la manipulación: el caso Cambridge Analytica

Cambridge Analytica trabajó con datos de decenas de millones de usuarios de Facebook, que fueron utilizados con fines políticos. La forma en que se recopilaron estos datos fue objeto de investigaciones oficiales — la autoridad británica de protección de datos confirmó que se obtuvieron y procesaron sin consentimiento suficiente, y posteriormente la Comisión Federal de Comercio de EE. UU. impuso a Facebook una multa récord de 5.000 millones de dólares por violaciones de privacidad.

No se trataba solo de datos demográficos básicos.

Eran datos de comportamiento — qué les gusta a las personas, qué comparten y qué contenido consumen.

Las investigaciones han demostrado que estos rastros digitales pueden utilizarse para estimar rasgos de personalidad con una precisión considerable. Es decir, el comportamiento online puede utilizarse para predecir a qué tipo de contenido es probable que responda una persona concreta.

A partir de esto, fue posible crear perfiles psicológicos de individuos y adaptar la comunicación a ellos. Este enfoque, conocido como microtargeting, ha sido documentado, por ejemplo, en informes del Parlamento británico sobre desinformación y publicidad política.

En la práctica, esto significaba que el mismo mensaje político podía existir en múltiples versiones, cada una adaptada a un tipo específico de persona. Diferentes grupos veían versiones distintas — algunas enfatizando la amenaza o el riesgo, otras la pérdida, la injusticia o la identidad.

Cada uno veía algo diferente.

No porque la realidad fuera distinta, sino porque la comunicación estaba adaptada a la reacción esperada.

La clave no era la personalización en sí, sino cómo se optimizaba el contenido.

Según testimonios de antiguos empleados y conclusiones de investigaciones, el contenido se probaba y ajustaba en función de cómo reaccionaban las personas — no según su veracidad o calidad, sino según su capacidad para generar una reacción.

La investigación muestra que el contenido emocionalmente cargado, especialmente el que provoca ira y miedo, se difunde más rápido y genera mayor interacción que el contenido neutral.

Este caso no trata solo de datos o de una empresa.

Es un ejemplo concreto de un mecanismo que conecta datos de comportamiento, modelos psicológicos y plataformas digitales en un sistema que optimiza el contenido para provocar reacción.

La atención humana no puede mantenerse a largo plazo, pero puede capturarse repetidamente — y la forma más fácil de hacerlo es a través de la emoción.

Si alguien sabe qué observa una persona, a qué reacciona y qué teme, puede mostrarle contenido que provoque esa reacción. No una vez, sino repetidamente.

Este sistema no funciona convenciendo a todos de una gran idea.

Funciona mostrando a cada persona algo que le afecta — y capturando así su atención.

Cambridge Analytica no revela solo un problema de privacidad.

Revela algo más fundamental.

El contenido puede diseñarse no para informar, sino para provocar una reacción.

Y si se optimiza para la ira, el miedo y la indignación, se convierte en una herramienta que moldea significativamente nuestra atención — aquello en lo que decidimos centrarnos.

Manipulación de emociones a través del contenido: el experimento de Facebook

En 2014, Facebook realizó un experimento — publicado posteriormente en los Proceedings of the National Academy of Sciences — en el que modificó el contenido mostrado a aproximadamente 700.000 usuarios sin su conocimiento.

No se trataba de cambiar funciones o diseño, sino de cambiar qué tipo de publicaciones veían en su feed. A algunos se les mostraban sistemáticamente menos contenidos negativos, a otros más. El objetivo era comprobar si esto influía en cómo ellos mismos se expresaban y qué emociones manifestaban.

Seguir leyendo:

Acceso completo a mis pensamientos, historias personales, hallazgos y lo que me cuentan las personas con las que me encuentro.

Únete a la Biblioteca
o solo este artículo

Reciba el artículo completo por correo electrónico y no dude en responder si desea seguir comentándolo.

Visa Mastercard Apple Pay Google Pay

Resumen

La manipulación más efectiva no te dice qué pensar. Determina en qué piensas. Este artículo explica cómo los datos conductuales, la segmentación emocional y el contenido optimizado por algoritmos moldean la opinión pública — no por la fuerza, sino controlando el entorno en el que formamos nuestras opiniones.

Fuentes

Multa de 5.000 millones de dólares a Facebook por violaciones de privacidad: Federal Trade Commission (FTC)
Estudio sobre la difusión de contenido moral-emocional en redes sociales: Proceedings of the National Academy of Sciences (PNAS)
Richard Golian

Si tienes pensamientos, preguntas o comentarios, no dudes en escribirme a mail@richardgolian.com.

Newsletter

Nuevos artículos en tu correo

Preguntas frecuentes sobre el tema del artículo

¿Qué es el agenda-setting y cómo se utiliza para manipular la atención pública?
El agenda-setting es un concepto de los estudios de medios según el cual los medios no determinan lo que la gente piensa, sino sobre qué piensa. Al seleccionar qué temas reciben cobertura y con qué prominencia se presentan, los medios y los actores políticos pueden dirigir la atención pública hacia ciertos asuntos y desviarla de otros, sin necesidad de persuadir explícitamente a nadie de un punto de vista concreto.
¿Qué es la economía de la atención?
La economía de la atención describe un entorno en el que la atención humana es el recurso más escaso. En un mundo de contenido infinito, la capacidad de captar y mantener el enfoque de alguien se ha vuelto más valiosa que la propia información. Los actores políticos y comerciales compiten por esta atención, a menudo utilizando contenido emocionalmente cargado porque genera las reacciones más fuertes e inmediatas.
¿Cómo utilizó Cambridge Analytica los datos personales para la manipulación política?
Cambridge Analytica recopiló datos de comportamiento de decenas de millones de usuarios de Facebook — no solo datos demográficos, sino información sobre lo que la gente daba like, compartía y consumía. Estos datos se utilizaron para construir perfiles psicológicos y entregar contenido político dirigido, adaptado a tipos de personalidad individuales. Diferentes grupos veían versiones distintas del mismo mensaje, cada una optimizada para provocar una respuesta emocional específica como miedo, ira o sensación de injusticia.
¿Pueden los algoritmos de las redes sociales influir en nuestras emociones sin que nos demos cuenta?
Sí. Un estudio realizado por Facebook en 2012 y publicado en 2014 en Proceedings of the National Academy of Sciences involucró a aproximadamente 689 000 usuarios cuyos News Feeds fueron modificados para mostrar más o menos publicaciones negativas. Los usuarios expuestos a más contenido negativo comenzaron a publicar de forma más negativa ellos mismos. El estudio demostró que las emociones pueden propagarse únicamente a través de contenido curado algorítmicamente, sin ninguna interacción directa entre personas.
¿Qué es la estrategia firehose of falsehood?
Firehose of falsehood es un enfoque de comunicación estratégica que no se basa en un solo mensaje convincente, sino en un alto volumen de afirmaciones diferentes, a menudo contradictorias, difundidas de forma rápida y repetida. El objetivo no es convencer, sino saturar — desplazar constantemente la atención de una afirmación a otra para que ningún tema pueda examinarse en profundidad. La respuesta al derribo del vuelo MH17 en 2014, cuando aparecieron casi simultáneamente decenas de narrativas mutuamente contradictorias, es un ejemplo bien documentado.
¿Cómo puedo reconocer cuándo mi atención está siendo manipulada?
Los patrones típicos incluyen: declaraciones controvertidas que dominan el espacio mediático de inmediato, cambio rápido de temas que impide un análisis más profundo, un fuerte encuadre emocional con palabras como amenaza o crisis, desvíos de atención en momentos en que deberían abordarse problemas sistémicos, y una sensación constante de conflicto y urgencia. Si nota que su estado emocional cambia rápidamente en respuesta a un flujo de contenido — especialmente hacia la ira o el miedo — puede ser señal de que el contenido está optimizado para provocar una reacción, no para informar.