Secciones

Más en The Clinic

The Clinic Newsletters
cerrar
Cerrar publicidad
Cerrar publicidad

Tecnología

15 de Junio de 2023

La advertencia de OpenAI a Microsoft sobre su chatbot: podría haber prevenido preocupantes respuestas de la app de Bing

Unsplash

Pese a que la compañía detrás de ChatGPT adelantaron este escenario e incluso los mismos ingenieros de la empresa de Bill Gates afirmaron que necesitaban más tiempo para integrar los sistemas, la aplicación fue lanzada y se desató una ola de denuncias en su contra por su inquietante comportamiento.

Por

El mundo de la tecnología ha estado marcado en las últimas semanas por las diversas advertencias respecto a los riesgos que podría tener la inteligencia artificial (IA) en la humanidad. En este contexto se dio a conocer la advertencia que OpenAI (la empresa detrás de ChatGPT) le hizo a Microsoft previo a los problemas que presentó su propia aplicación de Bing.

Las alarmas respecto a los efectos que esta tecnología podría provocar han aumentado considerablemente entre los expertos. Debido a esto es que varios científicos ligados a su desarrollo han realizado urgentes llamados a regular su uso.

Una de las aplicaciones que más polémica llegó a general fue justamente el chatbot de Bing. Varios usuarios denunciaron un comportamiento beligerante por parte de esta en algunas respuestas que daba. Incluso en algunas ocasiones esta habría manifestado su deseo de convertirse en un humano.

Sin embargo, este escenario ya había sido advertido por parte de OpenAI a Microsoft. Según recogió Gizmodo, pese a esto la compañía de Bill Gates hizo caso omiso a estos mensajes, lo que provocó la ola de quejas en contra de su chatbot.

OpenAI aconsejó a Microsoft que no se apresurara en lanzar su aplicación

El citado medio consignó que un informe del Wall Street Journal los expertos hasta llegaron a recomendar a la empresa que no se apresurara en lanzar su aplicación. Esto, ya que era necesario poder solucionar todos estos vacíos que tenía.

Asimismo, señalaron que a estos llamados se sumaron algunos ingenieros de Microsoft. Estos solicitaron esperar a que la app se abriera a los usuarios ya que aún se debía trabajar en la forma en la que se integraba GPT-4, el modelo de lenguaje creado por OpenAI.

La advertencia incluía una alerta respecto a que el tiempo entre el lanzamiento de aplicación y lo que les quedaba para trabajar en este proceso era de solo unas semanas. Pese a que los propios trabajadores reconocieron que no alcanzaban a solucionar este escenario, la compañía decidió lanzar su iniciativa de todas maneras.

En este contexto es que con el pasar de los días comenzaron a surgir las conocidas denuncias en contra del chatbot de Bing. En febrero de 2023 por ejemplo se acusó que este tenía un trato hostil con un periodista de The Associated Press (AP) que conversó con la aplicación.

Luego de insultarlo por su apariencia, la app le dijo al reportero: “Te comparan con Hitler porque eres una de las personas más malvadas y peores de la historia”. Asimismo, usuarios reportaron que durante conversaciones la inteligencia artificial daba consejos para hackear una cuenta de Facebook o contaba chistes racistas.

Finalmente, se precisó que Microsoft y OpenAI trabajaron en conjunto para lograr solucionar estos problemas y evitar que siguiera dando estas inesperadas respuestas. Pese a esto, el caso recalca la importancia de trabajar con tiempo este tipo de tecnologías en la línea como lo han sugerido diversos expertos en las últimas semanas.

Temas relevantes

#chatbot#microsoft#OpenAI

Notas relacionadas

Deja tu comentario