Un grupo de líderes de la industria advirtió que la inteligencia artificial (IA) que están construyendo podría representar algún día una amenaza existente para la humanidad y debería considerarse un riesgo social a la par de las pandemias y las guerras nucleares.
“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, alertó la declaración del Centro para la Seguridad de la IA, una organización sin fines de lucro.
La carta abierta ha sido firmada por más de 350 ejecutivos, investigadores e ingenieros que trabajan en IA.
Los firmantes incluyeron altos ejecutivos de tres de las principales empresas de inteligencia artificial: Sam Altman, director ejecutivo de OpenAI; Demis Hassabis, CEO de Google DeepMind; y Dario Amodei, CEO de Anthropic.
Geoffrey Hinton y Yoshua Bengio, dos de los tres investigadores que ganaron un Premio Turing por su trabajo pionero en redes neuronales y a menudo se les considera “padrinos” del movimiento moderno de IA, firmaron la declaración, al igual que otros investigadores destacados en el campo.
La declaración llega en un momento de creciente preocupación por los daños potenciales de la IA.
Los avances recientes han generado temores de que la IA pronto podría usarse a gran escala para difundir información errónea y propaganda, o que podría eliminar millones de trabajos administrativos.
Estos temores los comparten muchos líderes de la industria, lo que los pone en una posición inusual de argumentar que una tecnología que están construyendo -y, en muchos casos, en la que compiten furiosamente para construir más rápido que el resto-, representa graves riesgos y debe ser regulada más estrictamente.
Este mes, Altman, Hassabis y Amodei se reunieron con el Presidente Joe Biden y la Vicepresidenta Kamala Harris para hablar sobre la regulación de la IA.
En un testimonio en el Senado después de la reunión, Altman advirtió que los riesgos de los sistemas avanzados de IA eran lo suficientemente graves como para justificar la intervención del Gobierno y pidió la regulación de la IA por sus daños potenciales.
Dan Hendrycks, director ejecutivo del Center for AI Safety, dijo que la carta abierta representaba una salida para algunos líderes de la industria que habían expresado su preocupación, pero solo en privado, sobre los riesgos de la tecnología que estaban desarrollando.
“Hay una idea errónea muy común, incluso en la comunidad de IA, de que solo hay un puñado de fatalistas, dijo Hendrycks. “Pero, de hecho, muchas personas en privado expresan su preocupación por estas cosas”.