El desarrollo de la inteligencia artificial (IA) causa preocupaciones. Tanto es así que los gobiernos de varios países ya impulsan la prohibición de su uso. Incluso hay investigadores que afirman que los humanos podrían extinguirse por no poder controlar la IA. En ese marco, Bill Gates expresó que los llamados a detener el desarrollo del sistema no es la mejor manera de “resolver los retos” que hay por delante.
Durante una entrevista que brindó el 3 de abril a la agencia Reuters, el cofundador de Microsoft explicó que sería mejor centrarse en cómo utilizar los desarrollos de la IA. “No creo que pedirle a un grupo en particular que haga una pausa resuelva los retos. Claramente hay enormes beneficios para estas cosas… Lo que tenemos que hacer es identificar las áreas más complicadas”, explicó.
Tras afirmar que sería difícil cumplir las normas para pausar el avance de la IA, Gates comentó que “realmente” no entiende “quién está diciendo que podría detenerse, si todos los países del mundo estarían de acuerdo y por qué debe detenerse”, y agregó que “hay muchas opiniones diferentes en esta área”.
La entrevista fue realizada días después de que el propio Gates, Elon Musk y más de mil expertos firmaran una carta abierta en la que reclamaban una pausa urgente en el desarrollo de sistemas “más potentes” que el nuevo GPT-4 de OpenAI, respaldado por Microsoft, que es capaz de mantener conversaciones similares a las humanas, componer canciones y resumir documentos extensos.
Esta no fue la primera vez que Gates se refería a las consecuencias de la IA. En febrero pasado ya había asegurado que el chatbot ChatGPT podía cambiar el mundo. “Hasta ahora, la inteligencia artificial podía leer y escribir, pero no podía entender el contenido. Los nuevos programas como ChatGPT harán que muchos trabajos de oficina sean más eficaces mediante ayudas para escribir facturas o cartas. Esto cambiará nuestro mundo”, aseguró.
Varias fueron las advertencias sobre el uso de la IA. Incluso el director ejecutivo de OpenAI, Sam Altman, autor de ChatGPT, admitió que estaba “un poco asustado”. “Tenemos que tener cuidado aquí”, dijo, y agregó que estaba “particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala” y “para ataques cibernéticos ofensivos”.
Por su parte, Tristan Harris y Aza Raskin, dos de los fundadores del Centro para la Tecnología Humana, participaron en un encuentro que tuvo lugar en San Francisco, EE.UU., en el que discutieron sobre los peligros para la humanidad. “El 50 % de los investigadores de IA cree que hay un 10 % o más de posibilidades de que los humanos se extingan debido a nuestra incapacidad para controlar la IA”, advirtió Harris.
En tanto, Eliezer Yudkowsky, cofundador de Apple, afirmó que las propuestas de la carta abierta firmada por los más de mil especialistas no serán suficientes para salvar a la humanidad si “alguien construye una IA demasiado poderosa”. “En las condiciones actuales, creo que todos los miembros de la especie humana y toda la vida biológica de la Tierra morirán poco después”, aseguró, y aclaró que no se trata de una opinión “de muchos investigadores”, ni de una “posibilidad remota”, sino que “eso es lo que obviamente sucedería”.