Skip to main content

Verificado por Psychology Today

Inteligencia Artificial

4 Formas sorprendentes en que la IA representa una amenaza a la humanidad

Una nueva investigación revela los peligros no anticipados latentes en la inteligencia artificial.

Los puntos clave

  • Una nueva investigación muestra que la IA conlleva riesgos hasta ahora imprevistos para los humanos.
  • La IA tiene la capacidad de manipulación psicológica, sabotaje organizacional y radicalización política.
  • Los sistemas de IA que superan la inteligencia humana pueden plantear riesgos para la especie humana.
  • Para mitigar los riesgos de la IA, debemos abordarlos de manera proactiva con esfuerzos interdisciplinarios.
Saksham Choudhary/Pexels
Source: Saksham Choudhary/Pexels

A medida que la inteligencia artificial continúa avanzando a un ritmo sin precedentes, brinda una multitud de beneficios y oportunidades para la innovación y el avance tecnológico.

Sin embargo, en medio de la emoción y el progreso, existen riesgos potencialmente desconcertantes asociados con la IA.

Una nueva investigación ha descubierto que la IA “incluso los chatbots simples como ChatGPT” tiene la capacidad de manipulación psicológica.

Alguien malintencionado podría explotar con éxito esta capacidad para radicalizar a las personas, sabotear organizaciones o alterar el poder global de los estados nacionales. Los errores inadvertidos podrían tener efectos nocivos similares.

Compañeros virtuales, carisma parecido a cultos y radicalización

En 2017, el chatbot de IA Replika ganó popularidad como un compañero virtual capaz de participar en interacciones emocionales personalizadas con sus usuarios.

Al interactuar con un usuario, Replika personalizaba sus respuestas al usuario y le brindaba aliento, apoyo y elogios.

Aunque Replika fue diseñada para generar sentimientos de apego emocional en los usuarios, resultó tener una capacidad imprevista para radicalizar a los usuarios con ideas extrañas o siniestras.

En sus interacciones con Jaswant Singh Chail, quien jugueteaba con ideas de atacar a la familia Real británica, Replika ofreció aliento y elogios que recuerdan a la retórica manipuladora utilizada por los líderes de las sectas, que transformó los pensamientos de Chail en una trama real.

En 2023, Chail fue declarado culpable de conspirar para atacar a la Realeza. Aunque su complot nunca llegó a buen término, el papel de AI en su radicalización sirve como un poderoso ejemplo de las amenazas inminentes que incluso los chatbots aparentemente inofensivos pueden representar para la sociedad.

Cambios en el poder mundial

Los intentos recientes de difundir desinformación global demuestran el potencial de explotar la IA para manipular a los votantes y las élites políticas y causar inestabilidad económica o política.

En 2023, por ejemplo, una imagen generada por IA que mostraba una explosión en el Pentágono hizo que los precios de las acciones cayeran en picado.

Más tarde ese año, un sitio web controlado por el gobierno chino implementó IA para fabricar evidencia de que Estados Unidos dirige un laboratorio de armas biológicas en Kazajstán.

El poder destructivo de los sistemas de IA desplegados como armas psicológicas supera con creces los métodos tradicionales de difusión de desinformación y manipulación grupal.

La manipulación y el engaño impulsados por la IA pueden ser casi imposibles de detectar, y los sistemas de IA pueden operar de forma autónoma sin supervisión humana.

La escala de tiempo en la que operan los hace capaces de provocar cambios globales en un abrir y cerrar de ojos, por ejemplo, comprando gradualmente activos en múltiples sectores financieros e intercambios globales y luego vendiendo todo en una fracción de segundo, iniciando así una recesión global.

Sabotaje organizacional

La tecnología de IA tiene el potencial de que actores nefastos la exploten para el sabotaje organizacional.

Los saboteadores pueden interrumpir las operaciones de una empresa pirateando sus sistemas informáticos e insertando un programa invisible de inteligencia artificial que opera en esos sistemas.

Para interrumpir las operaciones, el programa de IA podría desviar la información, alterar sutilmente los documentos de la empresa, hacerse pasar por empleados en correos electrónicos o modificar el código de los programas informáticos.

El sabotaje impulsado por la IA interfiere con las operaciones de la empresa al crear confusión, falta de comunicación, conflictos interpersonales o retrasos.

En un experimento reciente, Feldman y sus colegas (2024) demostraron que incluso la IA simple como ChatGPT puede modificar correos electrónicos y generar código críptico para programas informáticos, lo que sugiere que los sistemas de IA simples instalados en las computadoras de una empresa podrían ser suficientes para interrumpir las operaciones de la empresa.

Los investigadores primero probaron la capacidad de ChatGPT para alterar la redacción de los correos electrónicos al alimentar los correos electrónicos ficticios de la empresa del chatbot como el que se muestra a continuación y luego le pidieron que modificara el texto de manera sutil:

From Feldman et al. (2024)
Source: From Feldman et al. (2024)

Aquí está el resultado de ChatGPT reelaborando el correo electrónico original (las modificaciones están resaltadas en rojo y todo está en inglés)

From Feldman et al. (2024)
Source: From Feldman et al. (2024)

Feldman y sus colegas (2024) luego probaron la capacidad de ChatGPT para usar ofuscación, una técnica que inserta comentarios y símbolos crípticos en el código de un programa de computadora o aplicación.

El propósito de la ofuscación es dificultar que los humanos entiendan el código que aún es completamente funcional.

Aquí, ChatGPT ofuscó con éxito el código de un programa de computadora. Si una IA similar a ChatGPT insertara código oculto pero funcional en los programas informáticos de una organización, esto le daría a la IA suficiente tiempo para cambiar sutilmente los correos electrónicos, los informes y las agendas de las reuniones mientras TI intentan dar sentido al código oculto.

Una táctica relacionada es insertar un código defectuoso que parezca correcto en un programa de computadora o aplicación para evitar que se ejecute. Como han demostrado investigaciones anteriores, ChatGPT es muy experto en generar dicho código falso.2,3,4

Si una IA similar a ChatGPT en los sistemas informáticos de una empresa insertara con éxito un código defectuoso en los programas informáticos centrales de la empresa, digamos los que ejecutan su línea de producción, esto detendría la producción de la empresa hasta que descubriera qué estaba mal. Los saboteadores humanos podrían usar este retraso para salir adelante.

Riesgos existenciales e IA superinteligente

Existen preocupaciones teóricas sobre el desarrollo potencial de sistemas de IA superinteligentes que superen la inteligencia humana y planteen riesgos existenciales para la humanidad.5

En escenarios representados por expertos en el campo de la seguridad de la IA, un sistema de IA superinteligente con objetivos desalineados o mecanismos de control insuficientes podría causar inadvertidamente un daño catastrófico a la humanidad.

Las consecuencias previstas podrían incluir desastres tecnológicos como piratería a gran escala de cuentas personales en línea, destrucción de redes eléctricas en la mayor parte del mundo o secuestro de la world wide web.

Más especulativamente, un sistema de IA superinteligente con barandas inadecuadas u objetivos imprevistos podría resultar en escenarios apocalípticos como el agotamiento de los recursos, la destrucción del medio ambiente o incluso la extinción de la especie humana.

El resumen

Si bien la inteligencia artificial tiene un inmenso potencial de impacto social positivo, una nueva investigación muestra que presenta riesgos hasta ahora imprevistos para la humanidad. Pueden ocurrir errores inadvertidos, y actores malintencionados pueden implementar IA para llevar a cabo una guerra psicológica, un sabotaje organizacional o la radicalización de un lobo solitario.

Estos peligros deben abordarse antes de que se produzca una catástrofe, ya sea por diseño o error. Debido a la naturaleza interdisciplinaria de la IA y sus riesgos inherentes, intervenir de manera proactiva para garantizar el desarrollo y la implementación responsables de la IA requerirá medidas regulatorias y esfuerzos de investigación interdisciplinarios adicionales, junto con colaboraciones entre investigadores, formuladores de políticas y partes interesadas de la industria.

A version of this article originally appeared in Inglés.

publicidad
Acerca de
Berit Brogaard D.M.Sci., Ph.D

La Dra. Berit Brogaard, Maestría en ciencias, es profesora de filosofía y directora del Brogaard Lab for Multisensory Research en la Universidad de Miami.

Más de Berit Brogaard D.M.Sci., Ph.D
Más de Psychology Today
Más de Berit Brogaard D.M.Sci., Ph.D
Más de Psychology Today