Secciones

Más en The Clinic

The Clinic Newsletters
cerrar
Cerrar publicidad
Cerrar publicidad

Tecnología

9 de Junio de 2023

Crecen las alarmas por la IA: “padre” de ChatGPT expresó preocupación por haber creado “algo realmente malo” con esta tecnología

Captura ABC News

Sam Altman expresó que le quitaba el sueño la posibilidad de que el equipo que desarrolló esta aplicación haya pasado por alto "algo difícil y complicado" que podría poner en riesgo a la humanidad.

Por

El desarrollo de la inteligencia artificial (IA) ha generado una profunda preocupación en la comunidad científica e incluso entre los mismos expertos que han creado este tipo de tecnología. Los potenciales riesgos que esta puede llegar a significar para la humanidad han puesto sobre la mesa la necesidad de regular la actividad.

Así lo dejó en claro uno de los considerados como “padres” de la IA, Sam Altman, conocido por ser la mente detrás del popular ChatGPT. El director ejecutivo de OpenAI aseguró en esta línea que le preocupaba haber creado “algo realmente malo”.

“Lo que más me quita el sueño es la idea hipotética de que ya hemos hecho algo realmente malo al lanzar ChatGPT”, añadió al respecto el empresario estadounidense según recogió Business Insider.

En esta línea, apuntó a que su principal preocupación se centraba en el hecho de que tal vez el equipo que trabajó en desarrollar esta tecnología podrían haber pasado por alto “algo difícil y complicado”.

Respecto a medidas que la compañía pueda tomar ante este escenario, afirmó que “vamos a tener un sistema en marcha para que podamos auditar a las personas que lo están haciendo, licenciarlo, tener pruebas de seguridad antes del despliegue”.

Los riesgos de la inteligencia artificial

Los dichos de Sam Altman se dan solo días después de que un grupo de 350 expertos, incluido él, firmaran una carta advirtiendo los riesgos que podría llegar a significar la inteligencia artificial.

El escrito además era apoyado por los directores ejecutivos de las otras dos grandes compañías: Demis Hassabis (Google DeepMind) y Dario Amodei (Anthropic).

La declaración fue publicada por el Centro para la Seguridad de la IA y en esta apuntaban a la necesidad de que “mitigar el riesgo de extinción (para la humanidad) de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.

Por otro lado el profesor emérito de Ciencias de la Computación, Universidad de Toronto, Geoffrey Hinton, quien hizo noticia por renunciar a la empresa de Google también levantó las alarmas al respecto.

Sobre el tema señaló que “nuestro proceso de aprendizaje es menos eficiente que el de los ordenadores”. Producto de este es que advirtió que quedarían “de cinco a 20 años” para que la inteligencia artificial logre superar a la humana. 

Notas relacionadas

Deja tu comentario