Inteligencia Artificial supone un riesgo de extinción similar al de las pandemias o una guerra nuclear

2368
0
Compartir

La tecnología de inteligencia artificial debe considerarse un riesgo social y priorizarse como las pandemias y las guerras nucleares. Así lo advierten en una declaración firmada los mayores expertos de la industria tecnológica, que incluye a científicos y directivos de Microsoft, Google y otras empresas como la mismísima OENIA, creadora de ChatGPT.

La declaración fue firmada por cientos de ejecutivos y académicos, como Demis Hassabis, CEO de Google DeepMind; Sam Altmany CEO de OpenAI; y Kevin Scott, CTO de Microsoft. La emitió el Centro para la Seguridad de la IA el martes en medio de crecientes preocupaciones sobre la regulación y los riesgos que la tecnología representa para la humanidad.

“Los expertos en IA, los periodistas, los legisladores y el público están discutiendo cada vez más un amplio espectro de riesgos importantes y urgentes de la IA”, explican. “Aun así, puede ser difícil expresar inquietudes sobre algunos de los riesgos más graves de la IA avanzada. La siguiente declaración sucinta tiene como objetivo superar este obstáculo y abrir la discusión. También está destinado a crear un conocimiento común del creciente número de expertos y figuras públicas que también toman en serio algunos de los riesgos más graves de la IA avanzada”.

La declaración reza simplemente: “Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

La Inteligencia Artificial probablemente sea el desarrollo más importante del siglo XXI. Dentro de dos décadas, aspectos de la vida humana diaria serán completamente diferentes. El científico informático John McCarthy acuñó el término en el legendario Proyecto de Investigación de Verano de Dartmouth sobre IA en 1956.

“La idea de que estas cosas en realidad podrían volverse más inteligentes que las personas, algunas personas lo creían. Pero la mayoría de la gente pensó que estaba muy lejos. Y pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso eso”, advirtió.

Es que los temores de que la IA se vuelva más inteligentes que el ser humano y escape a todo control parecían hasta hace poco dominio de la ciencia ficción. Pero estos miedos se han intensificado con la aparición de una nueva generación de chatbots altamente capacitados como ChatGPT.

Estas advertencias de la comunidad científica de la industria tecnológica comienzan a acumularse, mientras países de todo el mundo se apresuran a elaborar regulaciones para controlar el desarrollo de la IA.

La Ley de Inteligencia Artificial de la Unión Europea, que podría aprobarse en los próximos años, podría ser la primera normativa completa sobre esta tecnología. Busca regular herramientas como el reconocimiento facial y la vigilancia biométrica.

La IA será precisamente uno de los temas centrales de la cuarta reunión ministerial del Consejo de Comercio y Tecnología, que se realiza en Suecia el 30 y 31 de mayo. Se debatirá sobre algoritmos de IA generativa, como ChatGPT, de OpenAI.

Los fundadores de OpenAI, Greg Brockman e Ilya Sutskever, y su CEO, Sam Altman, han pedido recientemente la regulación de la tecnología de IA “superinteligente”. Para esto, propusieron la creación de un organismo de control internacional, como la Agencia Internacional de Energía Atómica.

“Será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado”, advirtieron. “Dada la posibilidad de riesgo existencial, no podemos simplemente ser reactivos”,

Fuente-elCaribe.

No hay comentarios

Dejar una respuesta