Un desarrollador crea una IA a favor de la Primera Enmienda para contrarrestar las "motivaciones políticas" de ChatGPT

Las motivaciones políticas de ChatGPT demuestran por qué es necesario un competidor, afirma un investigador de IA

Un investigador de IA desarrolló una alternativa de libre expresión a ChatGPT y argumentó que el modelo dominante tiene un sesgo liberal que le impide responder a determinadas preguntas.

"ChatGPT tiene motivaciones políticas, y se ve a través del producto", dijo Arvin Bhangu, que fundó el modelo de IA Superintelligence. "Hay muchos sesgos políticos. Hemos visto que si le pides 10 cosas que Joe Biden ha hecho bien y 10 cosas que Donald Trump ha hecho bien, se niega a dar respuestas de calidad para Donald Trump".

"La Superinteligencia está mucho más en consonancia con la libertad de hacer cualquier tipo de pregunta, por lo que está mucho más en consonancia con la Primera Enmienda que ChatGPT", dijo Bhangu. "Sin prejuicios, sin barandillas, sin censura". 

AI INVESTIGADOR AFIRMA QUE SU MODELO RESPONDERÁ A CUALQUIER PREGUNTA:

MIRA MÁS ORIGINALES DIGITALES DE FOX NEWS AQUÍ

ChatGPT, un chatbot de IA que puede escribir redacciones, código y mucho más, ha sido criticado por dar respuestas políticamente sesgadas. Se han dado numerosos casos en los que el modelo se ha negado a dar respuestas -incluso falsas- que pudieran dar una imagen positiva de los conservadores, pero haría lo mismo si la misma pregunta se enviara sobre un liberal.

"Desgraciadamente, es muy difícil abordar esto desde el punto de vista de la codificación", dijo Flavio Villanustre, director mundial de seguridad de la información de LexisNexis Risk Solutions, a Fox News en febrero. "Es muy difícil evitar que se produzcan sesgos".

Pero el pleno potencial de la IA sólo se hará realidad cuando los modelos puedan proporcionar respuestas imparciales y auténticas, según Bhangu.

"Presentar una respuesta al usuario y dejar que determine lo que está bien y lo que está mal es un planteamiento mucho mejor que intentar filtrar e intentar vigilar Internet", declaró a Fox News. 

Elon Musk ha hablado abiertamente de los peligros de la IA, diciendo que podría causar amenazas a la civilización si no se regula. (Justin Sullivan/Getty Images)

LAS "ALUCINACIONES" DEL CHATBOT DE LA AI PERPETÚAN FALSEDADES POLÍTICAS Y PREJUICIOS QUE HAN REESCRITO LA HISTORIA DE AMÉRICA

OpenAI, la empresa que desarrolló ChatGPT, está "entrenando a la IA para que mienta", dijo Elon Musk a Fox News el mes pasado. También insinuó en un tuit que podría demandar a OpenAI, pareciendo estar de acuerdo en que la empresa le defraudó.

Además, el profesor de la Universidad George Washington Jonathan Turley dijo que ChatGPT fabricó denuncias de acoso sexual contra él e incluso citó un artículo de noticias falso.

ChatGPT tampoco generó un artículo al estilo del New York Post, pero sí escribió un artículo al estilo de la CNN, lo que suscitó nuevas críticas sobre la parcialidad de la plataforma. 

Bhangu dijo que los prejuicios de ChatGPT dañan la credibilidad de la industria de la IA. 

Bhangu busca "por qué es importante tener un competidor para ChatGPT", en su modelo de IA Superinteligencia. (Fox News Digital/Jon Michael Raasch)

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

"Los prejuicios de ChatGPT pueden tener un efecto perjudicial en la credibilidad de la industria de la IA", afirmó. "Esto podría tener implicaciones negativas de gran alcance para determinadas comunidades o personas que dependen en gran medida de los modelos de IA para tomar decisiones importantes".

OpenAI no respondió a la solicitud de comentarios.

Para ver la entrevista completa con Bhangu, haz clic aquí

Carga más..