La IA puede ser entrenada para manipular el comportamiento y las decisiones humanas, según una investigación realizada en Australia

Los investigadores de la Inteligencia Artificial (IA) en Australia han demostrado cómo es posible entrenar un sistema para manipular el comportamiento y la toma de decisiones de los seres humanos, poniendo de manifiesto el arma de doble filo que es la alta tecnología moderna.

Publicidad:

La IA está presente en la mayor parte de la sociedad humana contemporánea y gobierna muchas de las formas en que nos comunicamos, comerciamos, trabajamos y vivimos. También ayuda en áreas que van desde objetivos críticos como el desarrollo de vacunas hasta la esfera más mundana de la administración de oficinas, y muchas otras. Y por supuesto también, gobierna la forma en que los seres humanos interactúan en las redes sociales de diversas maneras.

Un nuevo estudio realizado por investigadores de la Organización de Investigación Científica e Industrial de la Commonwealth (CSIRO) Data61, diseñó y probó un método para encontrar y explotar vulnerabilidades en la toma de decisiones humanas, utilizando un sistema de IA llamado red neuronal recurrente.

En tres experimentos que enfrentaron al hombre con la máquina, los investigadores demostraron cómo se puede entrenar a una IA para que identifique vulnerabilidades en los hábitos y comportamientos humanos y los convierta en armas para influir en la toma de decisiones de los humanos.

Publicidad:

En el primer experimento, los humanos hacían clic en cajas rojas o azules para ganar dinero en el juego. La IA estudió sus patrones de elección y empezó a guiarles para que tomaran decisiones específicas, con un porcentaje de éxito de aproximadamente el 70%. Es poco, pero sólo es el principio.

En el siguiente experimento, se pidió a los participantes que pulsaran un botón cuando vieran un símbolo específico (una forma de color), pero que se abstuvieran de pulsar el botón cuando se mostraran otros símbolos.

El «objetivo» de la IA era organizar la secuencia de símbolos que se mostraban al participante de forma que le engañara para que cometiera errores, lo que acabaría aumentando los errores humanos en un 25 por ciento.

En el tercer experimento, el jugador humano fingía ser un inversor que entregaba dinero a un fideicomisario (la IA) que luego devolvía una cantidad de dinero al participante.

El humano decidiría entonces cuánto invertir en cada ronda sucesiva del juego, basándose en los ingresos generados por cada «inversión». En este experimento concreto, la IA tenía una de las dos tareas: maximizar la cantidad de dinero que ganaba o maximizar la cantidad de dinero que tanto el jugador humano como la máquina acababan teniendo.

Publicidad:

En todos los casos, la IA se impuso, lo que demuestra que puede ser entrenada para influir en el comportamiento humano y en los procesos de toma de decisiones, aunque en circunstancias limitadas y bastante abstractas.

Esta investigación, aunque de alcance limitado por ahora, ofrece una visión aterradora de cómo una IA puede influir en el «libre albedrío» humano, aunque sea en un contexto rudimentario, pero abre las posibilidades de (ab)utilización a una escala mucho mayor, lo que muchos sospechan que ya es el caso.

Los hallazgos podrían utilizarse para el bien, influyendo en las decisiones de política pública para producir mejores resultados de salud para la población, con la misma facilidad con la que podría ser un arma para socavar la toma de decisiones clave, como las elecciones, por ejemplo.

Publicidad:

A la inversa, las IAs también podrían ser entrenadas para alertar a los humanos cuando están siendo influenciadas, entrenándolas para disfrazar sus propias vulnerabilidades, un aspecto que podría ser a su vez manipulado o hackeado con fines nefastos, complicando aún más las cosas.

En 2020, el CSIRO elaboró un marco de ética de la IA para el gobierno australiano, con vistas a establecer una gobernanza adecuada de las IA de cara al público.

La semana que viene, se espera que el gobierno australiano introduzca una legislación histórica que obligará a Google y Facebook a pagar a los editores de noticias y a las emisoras de radio y televisión por sus contenidos, que son utilizados por los respectivos algoritmos de las empresas para atraer tráfico y generar clics y, por tanto, ingresos publicitarios, una parte central de sus modelos de negocio.

🔎 | Pnas.org

Trikooba se sustenta únicamente gracias a sus lectores. Recuerda que siempre puedes apoyarnos de una manera totalmente gratuita, o realizando una mínima aportación económica. SI quieres saber cómo, haz clic aquí: Apoya el Blog

Deja un comentario