Un estudio del Dartmouth College, en Estados Unidos, señala que la IA puede llegar a manipular encuestas en línea sin que detecten que las ha respondido una inteligencia artificial. El equipo de investigadores desarrolló una herramienta de IA con la cual, en 43,000 pruebas, el bot de IA superó el 99.8% de los controles de atención, no cometió errores en los rompecabezas lógicos y logró ocultar que no era un humano. Sean Westwood, autor del estudio, profesor asociado de Gobierno en Dartmouth y director del Polarization Research Lab, señala que «ya no podemos confiar en que las respuestas de las encuestas provengan de personas reales». «Este trabajo demuestra que la suposición fundamental de la investigación con encuestas —que una respuesta coherente es una respuesta humana— ya no es sostenible», asegura.
Un bot muy humano
Según Westwood y su equipo, la IA llegó a ser capaz de ajustar las respuestas en función de la demografía que los investigadores le asignaron: utilizando un lenguaje más culto y elaborado si se le atribuía un nivel educativo elevado y empleando un lenguaje más simple si se suponía que tenía un nivel educativo más bajo. De hecho, Westwood alerta que «no son bots rudimentarios» sino que los bots de IA «razonan cada pregunta y se comportan como personas cuidadosas, haciendo que los datos parezcan totalmente legítimos». El autor del estudio ve un futuro muy oscuro y asegura que “si los datos están contaminados por bots, la IA puede envenenar todo el ecosistema del conocimiento».
«Respuestas internamente consistentes»
«Diseñé y probé un encuestado sintético autónomo capaz de producir datos de encuestas que poseen la coherencia y la plausibilidad de las respuestas humanas. Este agente evade con éxito un conjunto completo de comprobaciones de calidad de datos, incluyendo tareas de seguimiento de instrucciones, rompecabezas lógicos y preguntas de xibboleth inverso diseñadas para detectar actores no humanos», advierte el investigador. «El encuestado sintético genera respuestas internamente consistentes» y, en el extremo más crítico, «puede recibir instrucciones para alterar maliciosamente los resultados de las encuestas». Y, en un supuesto aún más sutil, «puede inferir las hipótesis latentes de un investigador y producir datos que las confirmen artificialmente».

Más de la mitad de los escritores del Reino Unido cree que la IA los sustituirá
Otro estudio elaborado por la Universidad de Cambridge alerta que más de la mitad de los novelistas del Reino Unido (51%) creen que la IA los sustituirá. Además, el 59% de los escritores admiten que han utilizado sus obras para poder entrenar los ‘bots’ de IA y el 33% de los novelistas que ha utilizado la IA en el proceso de escritura, principalmente en «tareas no creativas», como la búsqueda de información que les sea útil para construir sus obras.
