Inteligencia Artificial es capaz de manipular la mente humana 

Inteligencia Artificial es capaz de manipular la mente humana 

Foto: Pixabay

Científicos australianos llevan a cabo una investigación para manipular el comportamiento humano y la toma de decisiones a fin de encontrar y explotar sus vulnerabilidades por medio de la inteligencia artificial (IA), utilizando un sistema llamado “red neuronal recurrente”. 

  

El estudio tiene que ver con el contexto actual de la sociedad humana, ya que está cada vez más rodeada por la IA, que gobierna muchas de las formas en que nos comunicamos, comerciamos, trabajamos y vivimos. Incluso, en áreas que van desde objetivos críticos, como el desarrollo de vacunas hasta la administración de oficinas. 

  

Por ello, investigadores del grupo Data61, brazo tecnológico de CSIRO (Commonwealth Scientific and Industrial Research Organisation), diseñó y probó un método para encontrar y explotar vulnerabilidades en la toma de decisiones humanas, por medio de un sistema de inteligencia artificial llamado “red neuronal recurrente”. 

  

De acuerdo con lo publicado por The Conversation, los científicos llevaron a cabo tres experimentos a fin de enfrentar al hombre con la máquina, y mostraron cómo se entrena una IA para que identifique vulnerabilidades en los hábitos y comportamientos humanos y convertirlos en armas para influir en la toma de decisiones. 

  

En el primer experimento los humanos debían elegir cuadros rojos o azules para ganar dinero en el juego. La IA estudió sus patrones de elección y los guio hacia la toma de decisiones específicas; la tasa de éxito fue casi del 70 %. 

  

El segundo experimento consistía en que los participantes apretasen un botón al ver un símbolo específico (un objeto de color), pero que se abstuvieran de pulsar cuando les mostraran otros símbolos. El "objetivo" de la IA era organizar la secuencia de símbolos mostrados al humano de tal manera que se le engañara para que cometiera errores, lo que aumentaría los errores humanos en un 25 %. 

  

En el último experimento, el humano tuvo que fingir ser un inversor que daba dinero a un fideicomisario (la IA) que luego le devolvería una cantidad de dinero. A continuación, el participante humano decidiría cuánto invertir en cada ronda sucesiva del juego, en función de los ingresos generados por cada “inversión”. En este experimento en particular, a la IA se le asignó una de dos tareas: maximizar la suma que se ganaba o maximizar la cantidad de dinero con la que terminaron tanto el jugador como la máquina. 

  

Tras llevar a cabo estos experimentos, los expertos confirmaron que la IA puede ser entrenada para influir en el comportamiento humano y los procesos de toma de decisiones, aunque en circunstancias limitadas y bastante abstractas, así lo dijeron a The Conversation. En este sentido, el 'libre albedrío' de las personas puede ser afectado, pero los ejemplos expuestos sólo nos dejan imaginar a qué escala llegaría potencialmente el grado de usos o abusos de estas manipulaciones. 

  

En este sentido, la IA podrían implementarse para influir en las decisiones políticas para obtener mejores resultados en materia de salud y más. Por otro lado, se podría entrenar para alertar a los usuarios cuando estén siendo influenciados en línea, ayudarles a moderar su comportamiento y esconder sus vulnerabilidades ante diversas manipulaciones con fines malvados. 

  

Al respecto, la corporación CSIRO conformó el año pasado para el gobierno de Australia unas normas éticas sobre el uso de la IA a fin de establecer una gobernanza adecuada de los múltiples usos de este fenómeno en el desarrollo tecnológico. 

  

Con estos cambios, se espera que las autoridades australianas implementen un proyecto de ley que obligaría a gigantes multinacionales como Google y Facebook a pagar a los editores y emisores de noticias por su contenido, que los algoritmos especiales de estas compañías impulsar el tráfico y generan clics, una práctica que incrementa también los ingresos por publicidad, que son clave para sus modelos de negocios. 

Notas Relacionadas