Cientos de científicos, investigadores y otras personalidades como Sam Altman, director general de Open AI (fabricante de ChatGPT) y el científico Geoffrey Hinton, considerado el Padrino de la Inteligencia Artificial, firmaron la declaración publicada en el sitio web de Center for AI Safety (Centro de Seguridad de la IA).
Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear.
Los temores de que sistemas de inteligencia artificial se vuelvan más inteligentes que el ser humano y escapen a todo control se han intensificado con la aparición de una nueva generación de chatbots altamente capacitados como ChatGPT.
Dan Hendrycks, director ejecutivo del Centro para la Seguridad de la IA, calificó la situación de “reminiscencia de los científicos atómicos que lanzan advertencias sobre las propias tecnologías que han creado”. Como señaló Robert Oppenheimer, “sabíamos que el mundo no sería el mismo”.
Elon Musk (director de Neuralink, SpaceX y Tesla)
Más de mil investigadores y tecnólogos, entre ellos Elon Musk, han firmado una carta mucho más larga para pedir una pausa de seis meses en el desarrollo de la IA porque crea “profundos riesgos para la sociedad y la humanidad.” Ante ello, países en todo el mundo se apresuran a elaborar regulaciones para el desarrollo de la tecnología.