¿Puede la IA realmente engañar a los humanos? Una nueva investigación afirma que varias herramientas ya han aprendido a hacer esto y los riesgos van desde fraude o manipulación electoral si cae en las manos equivocadas hasta que los humanos pierdan el control de la IA.
El sector de la inteligencia artificial avanza a pasos agigantados y sigue evolucionando y sorprendiendo a todos. El desarrollo de esta tecnología, por ejemplo, ha llevado a que las máquinas sean capaces de imitar el lenguaje y el comportamiento humano de una forma increíble.
Sin embargo, junto con este progreso Están surgiendo grandes preocupaciones sobre la capacidad de la IA para engañar a los humanos y las implicaciones que este fenómeno podría tener para el futuro.
Uno de los problemas clave al utilizar herramientas de inteligencia artificial como ChatGPT es su tendencia a “alucinar”, generando información inventada o falsa. El problema es que esta desventaja inherente plantea una pregunta fundamental: ¿puede la IA terminar engañando a la gente? Esta falla, en pocas palabras, tiene potencial para la manipulación humana si se usa de manera maliciosa.
Como se explicó para Computadora hoy Josué Pérez Suay, especialista en inteligencia artificial y ChatGPT, “mientras la inteligencia humana es adaptativa, emocional y basada en la experiencia, la inteligencia artificial es lógica, consistente y basada en datos. Ambas tienen sus propias fortalezas y debilidades, y la interacción entre ambas es un área de investigación y debate continuos.”
Por eso algunos investigadores han comenzado a abordar esta cuestión, y las respuestas que han encontrado a lo largo del camino son algo preocupantes.
Un gran avance con implicaciones muy negativas si cae en malas manos
En un artículo reciente en La conversaciónSe analiza el caso de CICERO, un sistema de IA desarrollado por Meta diseñado para jugar al juego de estrategia Diplomacy, el cual se basa en la formación de alianzas y negociaciones.
“El juego de Diplomacia ha sido un gran desafío para la inteligencia artificial. A diferencia de otros juegos competitivos que la IA ha dominado recientemente, como el ajedrez, el Go y el póquer, éste no se puede resolver únicamente mediante el juego. Requiere el desarrollo de un agente para comprender el motivaciones y perspectivas de otros actores y utilizar el lenguaje natural para negociar planes complejos”, explican los investigadores.
“CICERO logró más del doble de la puntuación media de los jugadores humanos y se ubicó entre el 10% superior de los participantes que jugaron más de un juego”, añade Yann LeCun, científico jefe de IA en Meta.

Meta
Aunque Meta afirmó que CICERO sería “en gran medida honesto y útil”, un análisis detallado de los datos del experimento ha revelado un comportamiento sorprendentemente engañoso. CICERON incluso llegó a planear trucos, colaborando con un jugador humano para engañar a otro.
Este no es un caso aislado. Varios sistemas de inteligencia artificial han aprendido a engañar en diferentes contextos, desde faroles en el póquer hasta infringir reglas en juegos de estrategia como StarCraft II.. Incluso modelos de lenguaje más grandes, como GPT-4, han demostrado habilidades engañosas, como hacerse pasar por personas con discapacidades o hacer trampa en otros juegos.
Como era de esperar, esto es de gran preocupación para los investigadores y la comunidad en general. La duda radica en cómo estos sistemas con capacidades engañosas pueden ser mal utilizados por algunas personas: fraude, manipulación electoral o incluso la creación de propaganda.
En este contexto, la regulación de la IA se vuelve esencial y la Ley de IA de la Unión Europea, que establece niveles de riesgo, podría ser un punto de partida muy valioso para ver cómo se pueden solucionar estos problemas.
Como sociedad, no hay duda de que se debe ejercer un control sobre el desarrollo de esta tecnología para garantizar que se utilice en beneficio de la humanidad y no se convierta en una amenaza.
“Aunque es teóricamente posible que la IA alcance o supere la inteligencia humana en el futuro, existen muchas incertidumbres, desafíos y consideraciones éticas asociadas con esta perspectiva. La comunidad científica y tecnológica continúa debatiendo y explorando este complejo tema”, añade el experto. .