La inteligencia artificial puede volvernos más deshonestos sin que nos demos cuenta

La inteligencia artificial puede volvernos más deshonestos sin que nos demos cuenta

Foto: NotiPress

La interacción humana con la inteligencia artificial (IA) puede alterar la forma en cómo se asumen las responsabilidades morales. Investigaciones recientes del Instituto Max Planck para el Desarrollo Humano y la Universidad RWTH Aachen muestran cómo los individuos tienden a confiar más en algoritmos en contextos controlados o de riesgo limitado, lo cual modifica su sentido de responsabilidad frente a las consecuencias.

 

Desarrollado por el Instituto Max Planck junto con la Universidad de Duisburg-Essen y la Escuela de Economía de Toulouse, el primer estudio involucró a más de 8,000 participantes. Los investigadores analizaron decisiones monetarias asistidas por algoritmos y observaron un aumento de conductas deshonestas cuando los participantes delegaron las acciones en sistemas automáticos. "El uso de la IA crea una conveniente distancia moral entre las personas y sus acciones; puede inducirlas a solicitar comportamientos que no necesariamente realizarían por sí mismas, ni pedirían a otros humanos", declaró Zoe Rahwan, coautora del trabajo publicado en Nature.

 

Así, los resultados mostraron una relación directa entre la intervención de la IA y la reducción del comportamiento honesto. Sin presencia tecnológica, el 95% de los participantes actuó con veracidad; al introducir decisiones automatizadas, la cifra descendió al 75%. El fenómeno se acentuó cuando los usuarios entrenaron algoritmos o priorizaron objetivos económicos.

 

Paralelamente, la investigación dirigida por Gian Luca Liehner, Philipp Brauner, Anne Kathrin Schaar y Martina Ziefle en la Universidad RWTH Aachen examinó en qué condiciones los individuos ceden control moral a sistemas automatizados. El trabajo, publicado en IEEE Transactions on Technology and Society, situó a los participantes en entornos simulados de distinta naturaleza: industrial, urbano y médico. En cada escenario se evaluó la disposición a delegar tareas con implicaciones éticas o de riesgo.

 

El estudio determinó cómo el contexto y la percepción de riesgo modifican la confianza depositada en la automatización. En promedio, el 72.78% de los sujetos confió en el sistema cuando la tarea no involucraba peligro humano, mientras que solo el 36.40% mantuvo esa confianza ante la posibilidad de causar daño. Los investigadores destacaron que las personas son más propensas a confiar en la tecnología dentro de entornos industriales y menos en contextos médicos, donde el impacto potencial resulta más sensible.

 

Ambos trabajos coinciden en que el entorno condiciona la moralidad aplicada a la tecnología. Los investigadores de RWTH Aachen concluyeron que "la confianza en la automatización varía según el contexto y las posibles consecuencias, lo cual sugiere que la ética de las máquinas no puede considerarse universal ni independiente de la tarea". En la misma línea, el Instituto Max Planck advirtió sobre el riesgo de diluir la responsabilidad personal en decisiones asistidas por algoritmos.

 

Finalmente, los autores recomiendan desarrollar marcos regulatorios y técnicos capaces de mantener la transparencia en la toma de decisiones automatizadas. La investigación conjunta refuerza la necesidad de conservar supervisión humana en toda aplicación que involucre dilemas éticos o consecuencias sociales vinculadas con la inteligencia artificial. (NotiPress)

Notas Relacionadas