MonPlaneta
Expertos de todo el mundo piden que se pare el entrenamiento de IAs

Un grupo de expertos de todo el mundo, entre los cuales hay algunas de las principales eminencias en inteligencia artificial (IA) han publicado una carta abierta donde piden que se pare el entrenamiento de este tipo de programas, que consideren que pueden convertirse en una amenaza para toda la humanidad. La suspensión de las actividades en IAs superiores a la GPT-4 tendría que tener una duración de como mínimo seis meses puesto que, consideran, la carrera para desarrollar estos programas está fuera de control.

Entre los casi 1.400 firmantes que tiene la carta en estos momentos hay el polémico Elon Musk (Twitter, Tesla, SpaceX) pero también el cofundador de Apple, Steve Wozniak; algunos desarrolladores de DeepMind, la filial de IA de Google; y catedráticos de este ámbito de universidades de todo el mundo, incluidos el director del Barcelona Supercomputing Center, Mateo Valero; el profesor de la Universitat de Barcelona (UB), Eduard Salvador-Solé; Jordi Miralda Escudé, de la UB y la Instituto de Ciencias del Cosmos; Francesc Giralt, profesor emérito de la Universitat Rovira i Virgili; o Ramon Carbó-Dorca Carré, profesor emérito de la Universitat de Girona.

inteligencia artificial | Cedida
El desarrollo de IAs se tendría que parar durante como mínimo seis meses | Cedida

«Riesgos profundos para la sociedad y para la humanidad»

La carta, redactada por el Future of Life Institute, pide parar el desarrollo de IAs más avances que GPT-4 y expresa la preocupación por el que podría pasar con sistemas más avanzados: «los sistemas de IA con una inteligencia que puede competir con la de los humanos puede suponer riesgos profundos para la sociedad y para la humanidad». En este sentido, apunta que en los últimos meses los laboratorios de IA han empezado «una carrera sin control para desarrollar y desplegar mentes digitales todavía más poderosa que nadie, ni siquiera sus creadores, puede entender predecir o controlar con seguridad».

Además, la carta también apunta que las IA podrían llenar los canales de información con desinformación y dejar sin trabajo centenares de millones de personas con sus capacidades. Además, y yendo más allá, se pregunta si es buena idea «desarrollar mentes no-humanas que en algún momento podrían superarnos en número y en inteligencia, hacernos obsoletos y sustituirnos».

Inteligencia artificial | Flickr
La carta incluso alerta del riesgo de un régimen autocrático dominado por una IA superintel·ligent | Flickr

«Un régimen autocrático con una superintel·ligència tomando decisiones»

Tal como cita el documento, incluso OpenAI, los desarrolladores de ChatGPT, advirtieron hace poco del peligro de la inteligencia artificial general (AGI) desarrollada sin control: «una AGI superintel·ligent mal alineada podría causar daños terribles en el mundo; un régimen autocrático con una superintel·ligència tomando decisiones podría hacerlo, también».

Piden la intervención de los gobiernos

La carta acaba diciendo que, si los laboratorios no deciden por ellos mismos parar el desarrollo de IAs de gran capacidad, tendrían que ser los gobiernos del mundo quienes decretaran una moratoria y se crearan instituciones por regular las actividades en este campo con el objetivo de proteger toda la humanidad.

Més notícies

Nou comentari

Comparteix

Icona de pantalla completa