Secciones

Más en The Clinic

The Clinic Newsletters
cerrar
Cerrar publicidad
Cerrar publicidad

Tecnología

31 de Mayo de 2023

Como una pandemia o guerra nuclear: creadores de la IA advierten que esta puede ser un “riesgo de extinción” para la humanidad

Gerd Altmann en Pixabay

Mediante una declaración del Centro para la Seguridad de la IA firmada por 350 expertos apuntaron a la necesidad de "superar este obstáculo y abrir la discusión" respecto a los riesgos que la tecnología puede provocar para los humanos.

Por

La inteligencia artificial (IA) ha ayudado a lograr varios avances en distintas áreas. Sin embargo, los riesgos que puede conllevar esta tecnología han despertado varias alarmas. Esta situación generó la preocupación entre los expertos que apuntan a los peligros para los seres humanos.

“Mitigar el riesgo de extinción (para la humanidad) de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, fue la breve pero contundente declaración que publicó el Centro para la Seguridad de la IA.

La misiva la dieron a conocer el martes 30 de mayo y la firmó un grupo de 350 expertos entre académicos, científicos, ejecutivos e ingenieros. Dentro de estos destacan los directores ejecutivos (CEO) de las tres principales compañía dedicadas a la inteligencia artificial: Demis Hassabis (Google DeepMind), Sam Altman (OpenAI) y Dario Amodei (Anthropic).

En la declaración el centro además señala que “los expertos en IA, los periodistas, los legisladores y el público están discutiendo cada vez más un amplio espectro de riesgos importantes y urgentes de la IA”. Pese a esto, afirman que puede “ser difícil expresar inquietudes sobre algunos de los riesgos más graves de la IA avanzada”.

En esta línea es que detallaron que la declaración antes citada tenía el objetivo de buscar “superar este obstáculo y abrir la discusión. También está destinado a crear un conocimiento común del creciente número de expertos y figuras públicas que también toman en serio algunos de los riesgos más graves de la IA avanzada”.

Alarma entre expertos por la inteligencia artificial

Otra de las voces importantes que firmó esta carta fue Geoffrey Hinton, profesor emérito de Ciencias de la Computación, Universidad de Toronto. El académico había hecho noticia luego de dejar su trabajo en Google realizando una serie de advertencias sobre la inteligencia artificial.

En una entrevista a El País había señalado que “por lo que sabemos hasta ahora sobre el funcionamiento del cerebro humano, probablemente nuestro proceso de aprendizaje es menos eficiente que el de los ordenadores”.

Asimismo, advirtió que quedarían “de cinco a 20 años” para que la inteligencia artificial logre superar a la humana. En esta línea sostuvo que “nuestros cerebros son el fruto de la evolución y tienen una serie de metas integradas, como no lastimar el cuerpo, de ahí la noción del daño; comer lo suficiente, de ahí el hambre; y hacer tantas copias de nosotros mismos como sea posible, de ahí el deseo sexual”.

Por otro lado, sostuvo que “las inteligencias sintéticas, en cambio, no han evolucionado: las hemos construido. Por lo tanto, no necesariamente vienen con objetivos innatos. Así que la gran pregunta es, ¿podemos asegurarnos de que tengan metas que nos beneficien a nosotros?”.

Temas relevantes

#ia#inteligencia artificial

Notas relacionadas

Deja tu comentario