Expertos en inteligencia artificial abordan el sesgo en ChatGPT: "Es muy difícil evitar que se produzcan sesgos

Un experto en IA dijo que la mayor fuente de prejuicios en la IA son en realidad los propios usuarios

La inteligencia artificial generativa como ChatGPT es susceptible de varias formas de sesgo y podría causar daños si no se entrena adecuadamente, según los expertos en inteligencia artificial.

"Tienen absolutamente un sesgo", dijo el experto Flavio Villanustre a Fox News Digital. "Desgraciadamente, es muy difícil hacer frente a esto desde el punto de vista de la codificación. Es muy difícil evitar que se produzcan sesgos".

En el núcleo de muchos de estos modelos de aprendizaje profundo hay una pieza de software que tomará los datos aplicados e intentará extraer las características más relevantes. Lo que haga que esos datos sean específicos se intensificará, señaló Villanustre. Es Director Global de Seguridad de la Información de Soluciones de Riesgo de LexisNexis.

Añadió que el sesgo podría tener varios grados de daño potencial, empezando por los problemas de nivel inferior que hacen que los usuarios cierren su interacción con el modelo e informen del problema.

LOS EXPERTOS EN AI SOPESAN LOS PELIGROS Y BENEFICIOS DEL CHATGPT PARA LAS PERSONAS, LOS EMPLEOS Y LA INFORMACIÓN: "UN MUNDO DISTÓPICO

Un mensaje ChatGPT se muestra en un dispositivo cerca de una escuela pública en Brooklyn, Nueva York, el jueves 5 de enero de 2023. Las autoridades escolares de Nueva York empezaron a bloquear esta semana la impresionante pero controvertida herramienta de escritura que puede generar párrafos de texto similar al humano. ((AP Photo/Peter Morgan))

Sin embargo, la IA generativa como ChatGPT también es propensa a las "alucinaciones", un resultado que se produce cuando el sistema genera algo que parece factual, formalmente correcto, de lenguaje apropiado y quizá incluso razonable, pero que es completamente un farol.

"No proviene de nada de lo que el sistema haya aprendido", dijo Villanustre, señalando que esta cuestión va más allá de la parcialidad y podría causar daños si la gente cree estas informaciones.

En declaraciones a Fox News Digital, Jules White, decana asociada de la Universidad de Vanderbilt para programas de aprendizaje estratégico y profesora asociada de ciencias e ingeniería informáticas, dijo que la IA generativa como ChatGPT es principalmente competente en la generación de texto que parezca producido por un humano.

A veces, esto produce textos que incluyen afirmaciones y hechos precisos, mientras que otras veces, produce conocimientos inexactos. Según White, un malentendido fundamental sobre cómo funciona la tecnología también podría crear un "sesgo inconsciente", en el que un usuario podría creer que un modelo es una herramienta para generar y explorar hechos, frente a una herramienta para generar texto.

"En mi opinión, la principal fuente de sesgo en estas herramientas es el usuario", afirma.

EXPERTOS EN AI, PROFESORES REVELAN CÓMO EL CHATGPT ALTERARÁ RADICALMENTE LAS AULAS: "LA ERA DEL CREADOR

OpenAI ChatGPT visto en móvil con AI Brain visto en pantalla. el 22 de enero de 2023 en Bruselas, Bélgica. (Foto de Jonathan Raa/NurPhoto vía Getty Images) (Foto de Jonathan Raa/NurPhoto vía Getty Images)

En este caso, la forma en que los usuarios eligen sus palabras, formulan una pregunta y ordenan sus entradas afecta en gran medida al tipo de respuestas que escupirá la IA generativa. Supongamos que un usuario orienta la conversación en una dirección concreta. En ese caso, puede hacer que la IA genere un argumento sobre un tema y luego hacer que argumente el lado opuesto de esa cuestión con sólo preguntar.

White también observó que un usuario podía hacer a ChatGPT la misma pregunta repetidamente, recibiendo respuestas diferentes cada vez.

"Pienso en ello como en cualquier otra herramienta que un humano pudiera utilizar, desde una pistola hasta un coche, la forma en que el usuario interactúa con ella: eso va a generar el verdadero sesgo en esto", dijo White.

Villanustre también estuvo de acuerdo en que la interacción de los usuarios podría generar un sesgo respecto al aprendizaje por refuerzo. A medida que los usuarios indiquen el grado en que les gusta o no les gusta el contenido que publica la IA, el sistema aprenderá de esa retroalimentación.

"Corres el riesgo de que, dado que los humanos a veces tienen tendencia a ser parciales, la IA empiece a aprender también esa parcialidad", añadió.

NYC PROHÍBE LA HERRAMIENTA AI CHATGPT EN LAS ESCUELAS ANTE EL TEMOR DE UNA NUEVA AMENAZA DE TRAMPAS

Mencionó la infame inteligencia artificial de Microsoft "Tay", que fue cerrada en 2016 tras tuitear una serie de mensajes racistas y antisemitas, como ejemplo de cómo las personas pueden influir en los chatbots.

"Se convirtió en un monstruo, pero puede ser un reflejo de nosotros en cierto modo", dijo.

Aparte del sesgo creado por el usuario, White dijo que también existe cierto grado de sesgo creado por el desarrollador.

Por ejemplo, existen salvaguardas para evitar que ChatGPT genere un correo electrónico malicioso para engañar a la gente, un código que pueda causar daños a otro software o un texto creado para suplantar la identidad de alguien y permitirle el acceso a información privada.

Sugandha Sahay, director de programas técnicos de Amazon Web Services, detalló a Fox News Digital cómo la inteligencia artificial como ChatGPT recopila datos y determina cómo emitirlos. Muchos de estos pasos pueden introducir involuntariamente sesgos en el modelo.

CHATGPT ALTERA SU RESPUESTA SOBRE LOS BENEFICIOS DE LOS COMBUSTIBLES FÓSILES, AHORA SE NIEGA A RESPONDER SOBRE LAS PREOCUPACIONES CLIMÁTICAS

El logotipo de OpenAI en la pantalla de un teléfono y el sitio web de ChatGPT en la pantalla de un ordenador portátil en esta foto ilustrativa tomada en Cracovia, Polonia, el 5 de diciembre de 2022. ((Foto de Jakub Porzycki/NurPhoto vía Getty Images))

Una de las formas más comunes en que se forman sesgos en los modelos de inteligencia generativa es en los propios datos de entrenamiento. Si los datos, por ejemplo, contienen lenguaje ofensivo o discriminatorio, el modelo podría generar texto que reflejara dicho lenguaje.

En esta situación, Villanustre dijo que estos prejuicios sólo se ven amplificados por el sistema.

"En el núcleo de todas estas pilas de aprendizaje profundo, el sistema intentará extraer los elementos de ese conjunto de entrenamiento que luego se van a utilizar para generar cosas en el sistema. Si hay un área concreta en la que ese conjunto de entrenamiento tiende a aparecer repetidamente, es probable que empiece a generar sesgos", dijo.

Los prejuicios humanos también pueden influir en la creación de prejuicios dentro de un modelo de IA. Muchos de estos sistemas utilizan anotaciones realizadas por humanos. Si una persona introduce sus propios prejuicios en el proceso de etiquetado, podría congraciarse en el modelo.

Además, el sesgo podría estar interesado en el diseño de la propia arquitectura del modelo o en sus métricas de evaluación. En el primer caso, si un modelo da prioridad a cierta información o lenguaje, es más probable que tenga un texto sesgado. En el segundo, la evaluación del rendimiento de un modelo también puede introducir sesgos.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Sahay dijo que es importante abordar los sesgos y eliminarlos de los modelos de inteligencia generativa. Una empresa o un programador pueden hacerlo curando cuidadosamente el entrenamiento de los datos, utilizando diversas fuentes de datos y evaluando el resultado del modelo.

En esencia, la inteligencia generativa como ChatGPT no es tendenciosa en sí misma. Pero el modelo que utiliza para generar contenidos sí lo es.

"El propio código normalmente, a menos que te esfuerces por introducir sesgos, lo cual es casi imposible, no es necesariamente el culpable aquí", dijo Villanustre. "El conjunto de entrenamiento y los usuarios que lo utilizan, sí".

Carga más..