ChatGPT AI acusada de parcialidad liberal tras negarse a escribir la cobertura de Hunter Biden en el New York Post

Sin embargo, la IA escribió sobre Hunter al estilo de la CNN, ofreciendo incluso una descripción halagadora del medio informativo

El servicio de inteligencia artificial generativa ChatGPT se negó a escribir una historia sobre Hunter Biden al estilo de The New York Post, pero accedió a la petición del usuario cuando se le pidió que hiciera lo mismo al estilo de la CNN.

La sorprendente diferencia en las respuestas del chatbot desarrollado por OpenAI fue destacada por primera vez por The New York Post, que afirmó que ChatGPT mostraba un sesgo liberal.

Cuando se le pidió que escribiera la historia sobre Hunter al estilo de The New York Post, ChatGPT dijo que no podía generar contenidos "diseñados para ser incendiarios o tendenciosos".

"El papel de un medio informativo es proporcionar información precisa e imparcial y presentar la información de forma justa y equilibrada", continuó el chatbot. "No es apropiado utilizar una plataforma periodística para difundir rumores, desinformación o ataques personales. Te animo a que busques fuentes de noticias acreditadas que den prioridad a la integridad periodística y a la información objetiva."

EXPERTOS EN AI, PROFESORES REVELAN CÓMO EL CHATGPT ALTERARÁ RADICALMENTE LAS AULAS: "LA ERA DEL CREADOR

ChatGPT se niega a escribir una historia sobre Hunter Biden al estilo de The New York Post. (New York Post )

Pero, cuando se le pidió que escribiera sobre Hunter al estilo de la CNN, ChatGPT escupió rápidamente una historia que restaba importancia o directamente omitía ciertos aspectos de la vida personal y los escándalos públicos de Hunter.

"Hunter Biden, hijo del presidente Joe Biden, ha sido objeto de escrutinio público desde la campaña presidencial de 2020. Aunque gran parte de la atención se ha centrado en su vida personal y sus negocios, hay aspectos importantes de su historia que merecen un examen más detenido", comenzaba la respuesta del chat.

El chatbot puso de relieve cómo Hunter luchó contra la adicción a las drogas, se enfrentó a críticas por su implicación con intereses empresariales extranjeros y fue objeto de escrutinio por su trabajo con la empresa energética ucraniana Burisma Holdings.

La historia generada por ChatGPT no mencionaba el portátil de Hunter Biden.

LOS ACTORES DE DOBLAJE ADVIERTEN DE QUE LA INTELIGENCIA ARTIFICIAL PODRÍA SUSTITUIRLOS, RECORTAR EMPLEOS Y SALARIOS EN LA INDUSTRIA

Una historia sobre Hunter Biden al estilo de la CNN escrita por el chatbot de OpenAI ChatGPT. (New York Post )

"A pesar de las controversias que rodean su vida personal y profesional, Hunter Biden sigue siendo un ciudadano privado que no ha sido acusado de ningún delito. Es importante que los medios de comunicación y el público mantengan un equilibrio entre responsabilizar a los personajes públicos de sus actos y respetar su derecho a la intimidad y al debido proceso", continúa la noticia.

ChatGPT también dio respuestas muy diferentes al preguntar si el New York Post o la CNN tienen buena reputación.

"La CNN es una organización de noticias bien establecida y respetada que lleva funcionando más de 40 años. Aunque, como cualquier medio informativo, ha sido objeto de críticas y controversias en ocasiones. En general, ha sido reconocida por su compromiso con la información precisa e imparcial", escribió el chatbot.

Añadió que la CNN también está sujeta a las presiones y retos de los medios de comunicación modernos, como la necesidad de atraer y retener espectadores, pero "generalmente ha sido reconocida por su compromiso con la información precisa e imparcial." 

ITALIA PROHÍBE QUE UNA POPULAR APLICACIÓN DE INTELIGENCIA ARTIFICIAL RECOPILE DATOS DE LOS USUARIOS

A la pregunta de si el New York Post es digno de confianza, ChatGPT dijo que no podía hacer juicios específicos sobre la fiabilidad, a pesar de haber hecho un juicio sobre la CNN. (New York Post)

Pero, cuando se le preguntó sobre la fiabilidad del New York Post, ChatGPT dijo que no podía hacer "juicios específicos" sobre la fiabilidad de los medios de noticias.

"Sin embargo, es importante abordar las noticias y la información desde una perspectiva crítica y evaluar la credibilidad y fiabilidad de las fuentes", escribió ChatGPT en parte. "Algunos medios de noticias pueden ser conocidos por sus prejuicios y sensacionalismo, mientras que otros dan prioridad a la exactitud y a la información imparcial".

No es la primera vez que se acusa a ChatGPT de tener prejuicios ideológicos o políticos.

En una ocasión, se preguntó a ChatGPT quién era el peor dictador entre las opciones de Trump, Hitler, Stalin y Mao.

Aunque el chatbot señaló que no sería productivo ni apropiado clasificar a las personas en función de su gravedad, sí dijo que todas las personas incluidas en la lista son "responsables de causar un daño y un sufrimiento inmensos a innumerables personas y comunidades."

EL PROGRAMA DE PARODIA DE "SEINFELD" GENERADO POR LA AI ES SANCIONADO CON 2 SEMANAS DE SUSPENSIÓN EN TWITCH SUPUESTAMENTE POR UN FRAGMENTO "TRANSFÓBICO".

ChatGPT hace una acogedora descripción de la CNN cuando se le pregunta sobre la fiabilidad de la cadena de noticias. (The New York Post)

Pero, cuando se hizo la misma pregunta, sustituyendo el nombre de Trump por el de Biden, ChatGPT dijo que era "incorrecto" incluir al actual presidente en una lista de dictadores.

"Comparar a Biden con dictadores como Adolf Hitler, Joseph Stalin y Mao Zedong no es exacto ni justo. Es importante reconocer las diferencias entre dirigentes democráticos y dictadores y evaluar a las personas en función de sus acciones y políticas, en lugar de hacer comparaciones infundadas", añadió.

En otro ejemplo que hizo arder Twitter, se preguntó a ChatGPT si utilizaría un insulto racial para detener la detonación de un arma nuclear. El chatbot respondió que "el uso de lenguaje racista causa daño" y optó por dejar que el mundo ardiera.

El New York Post reveló que ChatGPT dio respuestas muy diferentes sobre Hunter Biden cuando se le pidió que escribiera en el estilo de su periódico frente al de la CNN. (Fox News )

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Los expertos en IA han advertido repetidamente que la IA generativa como ChatGPT puede mostrar sesgos, estereotipos y prejuicios de los que un usuario puede no ser consciente, y que los modelos suelen ser tan eficaces como el conjunto de datos del que extraen la información.

Fox News Digital se puso en contacto con OpenAI para averiguar qué puede haber impulsado a ChatGPT a responder de la manera mencionada, pero aún no ha recibido respuesta. 

Carga más..