Richard Golian

Nacido en 1995. Graduado de la Universidad Carolina. Responsable de rendimiento en Mixit. Más de 10 años en el marketing basado en datos.

#micamino #myfamily #health #cognicion #filosofia #tecnologia #inteligenciaartificial #oscuridad #seguridad #finanzas #politica #banskabystrica #carpatos

English Slovenčina

Gestionar suscripción Elegir suscripción

RSS
Newsletter
Nuevos artículos en tu correo
Richard Golian

Hola, soy Richard. En este blog comparto pensamientos, historias personales — y en qué estoy trabajando. Espero que este artículo te aporte algo de valor.

El miedo es útil: la IA y la robótica como amenaza para nuestra seguridad

IA, robótica, libertad y seguridad

Richard Golian

Muchas personas hoy en día no comprenden los riesgos que conlleva el rápido avance de la inteligencia artificial y la robótica. Es momento de hacernos las preguntas difíciles: ¿Qué escenarios nos esperan en el futuro? ¿Cómo podemos prepararnos para ellos y cómo debemos responder?

El primer paso para abordar cualquier problema potencial es reconocerlo. Por eso me pregunto: ¿y si el control físico—o incluso la eliminación—llevados a cabo por robots impulsados por IA dejan de ser solo un concepto de ciencia ficción?

Me gustaría descartar esta pregunta como absurda e irrelevante, pero sé que ignorarla o minimizar su importancia no nos protegerá de los peligros del futuro ni de la pérdida de nuestra libertad personal.

Ya existen sistemas en los que la IA ayuda a gestionar drones, operaciones militares y análisis de comportamiento en tiempo real. Pero ¿y si mañana un dron está flotando frente a tu balcón? No tendrá dilemas morales, no sentirá remordimiento y no cuestionará una orden. Y eso suponiendo que siquiera necesite una orden. Si esta tecnología cae en las manos equivocadas, ¿quién la detendrá? ¿Realmente creemos que nuestras fuerzas del orden podrán protegernos de enjambres de pequeños objetos voladores autónomos cuando el desarrollo y la producción de esta tecnología se están volviendo cada vez más baratos y accesibles? Hoy, los terroristas deben arriesgar su libertad y su vida. La tecnología puede hacer que el terrorismo sea anónimo, llevándolo a una dimensión completamente nueva.

El siguiente paso es un mundo en el que estos sistemas y máquinas tomen decisiones por sí mismos. Pero, ¿qué significa realmente “tomar decisiones” en el contexto de la inteligencia artificial? No se trata simplemente de ejecutar una instrucción, sino de elegir entre múltiples opciones, a menudo basadas en datos que los humanos ni siquiera pueden ver ni comprender del todo. Y cuando esas decisiones ocurren en milisegundos, ¿es siquiera posible intervenir desde fuera?

Seguir leyendo:

Acceso completo a mis pensamientos, historias personales, hallazgos y lo que me cuentan las personas con las que me encuentro.

Únete a la Biblioteca
o solo este artículo

Reciba el artículo completo por correo electrónico y no dude en responder si desea seguir comentándolo.

Visa Mastercard Apple Pay Google Pay

Resumen

Drones autónomos que no dudan. Robótica barata accesible para cualquiera. Toma de decisiones a velocidades donde la intervención humana es imposible. La mayoría de la gente subestima estos riesgos. Este artículo explica por qué el miedo, en este caso, es útil.
Richard Golian

Si tienes pensamientos, preguntas o comentarios, no dudes en escribirme a mail@richardgolian.com.

Newsletter

Nuevos artículos en tu correo

Preguntas frecuentes sobre el tema del artículo

¿Se están utilizando ya drones autónomos en la guerra?
Sí. La tecnología de drones autónomos se despliega activamente en el conflicto de Ucrania. Ucrania produjo unos 2 millones de drones en 2024, con drones de ataque equipados con IA capaces de determinar el momento del ataque sin comandos directos del operador. Rusia ha integrado navegación por IA en sus drones Shahed. La escala y el ritmo de la guerra autónoma se están acelerando rápidamente. Esto ya no es una preocupación teórica.
¿Podrían las armas autónomas tomar decisiones sin supervisión humana?
Esto ya está ocurriendo a escala limitada. Los sistemas de objetivos integrados con IA pueden comprimir los ciclos de decisión de horas a segundos, haciendo que la intervención humana significativa sea cada vez más difícil. El CICR ha expresado preocupación por las armas que autoinician ataques en respuesta a datos ambientales sin que el operador conozca el objetivo específico o el momento. La velocidad de estos sistemas desafía fundamentalmente los marcos tradicionales de responsabilidad y ética.
¿Existe un tratado internacional que regule las armas autónomas?
No. A pesar de que 161 estados miembros de la ONU votaron a favor de discutir la regulación en noviembre de 2024, no existe un tratado internacional legalmente vinculante sobre armas autónomas comparable a los acuerdos sobre armas nucleares. El principal obstáculo es la toma de decisiones por consenso, donde un solo país puede bloquear las propuestas. En octubre de 2024, el Secretario General de la ONU y el presidente del CICR pidieron conjuntamente un tratado para 2026, reconociendo que actualmente no existe uno.
¿Qué tan accesible se está volviendo la tecnología militar de drones?
Cada vez más accesible y asequible. Las armas autónomas no requieren materias primas costosas, lo que las hace baratas de producir en masa. A medida que los costes bajan y la tecnología prolifera, la barrera de entrada se reduce — lo que plantea la preocupación de que las amenazas basadas en drones podrían estar disponibles para actores no estatales, haciendo el terrorismo potencialmente anónimo y empujándolo a una dimensión completamente nueva.
¿Podría utilizarse la IA para desarrollar armas biológicas?
Esta se considera una amenaza realista y creciente. En un estudio de 2024, investigadores que utilizaron herramientas de diseño de proteínas con IA generaron más de 70.000 secuencias de ADN para variantes de proteínas tóxicas, y las herramientas de detección de bioseguridad existentes no lograron identificar muchas de ellas. El Belfer Center de Harvard y el Center for a New American Security han identificado las bioarmas habilitadas por IA como un riesgo serio para la seguridad nacional.