La inteligencia artificial (IA) podría llegar a sustituir los humanos en las ciencias sociales. Que nadie se asuste: los politólogos podrán continuar jugando con los números para acabar sacando las conclusiones que más los convienen por ideología o según quien les paga. El que quiere decir esto es que la recogida de datos puede llegar a prescindir totalmente de las personas, según un nuevo estudio publicado en la revista ‘Science’ y elaborado por investigadores de las universidades de Waterloo y Toronto, en el Canadá; y de Yale y Pensilvania, en los Estados Unidos.
Una manera fácil y rápida de recoger datos
Los autores de este trabajo querían ver como las IAs, y concretamente los grandes modelos lingüísticos (LLM por sus siglas en inglés), pueden cambiar el mundo de la investigación en ciencias sociales y como adaptar los métodos de investigación para sacar el máximo de provecho de esta tecnología. Al fin y al cabo, los LLM son cada vez más capaces de simular respuestas y comportamientos semblantes a los humanos y, por lo tanto, son una oportunidad por probar teorías e hipótesis sobre la condición humana a gran escala y de manera muy fácil y rápida.
Normalmente las ciencias sociales usan una serie de métodos –cuestionarios, macetas de comportamiento, observaciones de estudio, experimentos…– para conseguir una representación generalizada de las características de individuos, grupos o culturas y de sus dinámicas. Con la IA, pero, esta manera de obtener información podría cambiar, puesto que pueden representar una gran variedad de experiencias y perspectivas humanas y se los podría dar más libertad para generar respuestas que en los métodos que requieren la participación humana.

Algunos temores importantes
Así pues, las IA podrían sustituir los participantes humanos en la recogida de datos y, de hecho, ya han demostrado su capacidad de generar respuestas realistas en encuestas sobre comportamiento de los consumidores. Según los autores de este estudio, los LLM pueden revolucionar las predicciones basadas en datos recogidos de humanos durante los próximos 3 años, puesto que no tendrá sentido hacer cálculos probabilísticos en debates políticos serios sin tenerlas en cuenta.
No todo el mundo, está claro, piensa igual, pero incluso en el supuesto de que se tengan reservas se podrían usar estudios con participantes simulados por generar nuevas hipótesis que, después, podrían comprobarse en estudios con poblaciones humanas reales. En todo esto, pero, hay un gran riesgo, que ya es bastante presente a las sociedades actuales pero que, si se usa la IA, podría suponer un gran retroceso en derechos sociales. Los LLM normalmente están entrenados por excluir los sesgos socioculturales de los humanos reales y, por lo tanto, hacer estudios con ellos podría excluir una parte importante de las poblaciones.
Es por eso que los autores de este estudio también dejan claro que hacen falta manuales de buenas prácticas para la gobernanza de los LLM en investigación en ciencias sociales, tanto en cuanto a la calidad de los datos como también a que su uso esté enfocado de forma que sea el máximo de justo posible y que se continúe manteniendo tanto la transparencia como la replicabilitat para que la investigación en ciencias social con ayuda de la IA sea positiva para la humanidad.