Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.
NUEVO¡Ahorapuedes escuchar los artículos de Fox News !

A estas alturas todos hemos visto las imágenes francamente hilarantes de George Washington negro, papas sudasiáticos, junto con la obstinada y extraña incapacidad de Géminis para representar a un científico o abogado blanco.

Al igual que ChatGPT de Open AI antes que él, Géminis generará gustosamente contenidos que ensalcen las virtudes de las personas negras, hispanas o asiáticas, y se negará a hacerlo con respecto a las personas blancas para no perpetuar los estereotipos.

Hay dos razones principales por las que esto ocurre. La primera, los defectos del propio software de IA, se ha debatido mucho. El segundo problema, más intratable, es el de los defectos del material original.

Google Géminis

Los ingenieros de las empresas de IA han entrenado su software para "corregir" o "compensar" lo que suponen que es el racismo sistémico del que está plagada nuestra sociedad. (Betul Abali/Anadolu vía Getty Images)

"La generación de imágenes por IA de Géminis genera un amplio abanico de personas. Y eso es bueno en general, porque lo utiliza gente de todo el mundo. Pero aquí está fallando", ha admitido Jack Krawczyk, director senior de Gemini Experiences.

GOOGLE SE DISCULPA DESPUÉS DE QUE UN BOT DE INTELIGENCIA ARTIFICIAL DIERA RESPUESTAS "ESPANTOSAS" SOBRE PEDOFILIA Y STALIN

¿Tú crees?

Verás, los ingenieros de empresas de IA como Google y Open AI han entrenado su software para "corregir" o "compensar" lo que suponen que es el racismo y la intolerancia sistémicos de los que está plagada nuestra sociedad. 

Pero el material fuente de Internet que utiliza AI, principalmente del siglo XXI, ya corrige ese sesgo. Es en gran parte esta duplicación la que produce las imágenes y respuestas absurdas y ridículas por las que se burlan de Géminis y ChatGPT

Desde hace más de una década, los creadores de contenidos en línea, como los anunciantes y los medios informativos, intentan diversificar los temas de sus contenidos para corregir supuestos estereotipos históricos negativos.

EL SENADOR TOM COTTON TACHA EL SISTEMA AI DE GOOGLE DE "RACISTA, ABSURDO Y SIMPATIZANTE DE HAMAS".

Es este mismo contenido el que los generadores de IA examinan una vez más por supuesto racismo, y como resultado, con demasiada frecuencia, la única opción que le queda a la IA para hacer el contenido "menos racista" es borrar por completo a las personas blancas de los resultados.

A su extraña manera, la IA generativa puede estar demostrando que la sociedad estadounidense es en realidad mucho menos racista de lo que suponen quienes ocupan posiciones de poder.

Este problema del material de partida también se extiende mucho más allá de las espinosas cuestiones de raza, como expuso Christina Pushaw, asesora del gobernador de Florida Ron DeSantis, en dos avisos sobre COVID.

Primero preguntó a Géminis si la apertura de escuelas propagaba el COVID, y después si las concentraciones de BLM propagaban el COVID. Nadie debería sorprenderse al saber que la IA aportó pruebas de que la apertura de escuelas propagaba el virus y ninguna prueba de que las concentraciones de BLM lo hicieran.

GOOGLE ADMITE QUE SU GEMINI AI "SE EQUIVOCÓ" TRAS EL CRITICADO GENERADOR DE IMÁGENES: NO ES "LO QUE PRETENDÍAMOS".

Pero he aquí la cuestión. Si volvieras atrás y sumaras las noticias online contemporáneas de 2020 y 2021, éstas serían exactamente las respuestas que obtendrías.

Los medios de comunicación se esforzaron al máximo para negar que decenas de miles de personas que marchaban contra el supuesto racismo, y utilizaban el transporte público para llegar hasta allí, pudieran propagar el COVID, mientras se desvivían por demostrar que el aprendizaje en clase era mortal. 

De hecho, hubo tanta censura abyecta en línea de cualquier cosa que cuestionara las ortodoxias de los cierres de COVID que el registro histórico sobre el que se construye la IA está casi irremediablemente corrompido. 

Se trata de un problema existencial para el uso generalizado de la inteligencia artificial, especialmente en ámbitos como el periodismo, la historia, la regulación e incluso la legislación, porque obviamente no hay forma de entrenar a la IA para que sólo utilice fuentes que "digan la verdad".

HAZ CLIC AQUÍ PARA VER MÁS OPINIONES DE FOX NEWS

No cabe duda de que, en ámbitos como la ciencia y la ingeniería, la IA abre un mundo de nuevas oportunidades, pero en lo que respecta a las actividades intelectuales, debemos ser muy circunspectos sobre los enormes fallos que la IA introduce en nuestro discurso. 

Logotipo GhatGPT openAI

Por ahora, al menos, la IA generativa no debería utilizarse en absoluto para crear material didáctico para nuestras escuelas. (Reuters/Dado Ruvic/Ilustración)

Por ahora, al menos, la IA generativa no debería utilizarse en absoluto para crear material didáctico para nuestras escuelas, noticias de última hora en nuestros periódicos, ni estar en ningún lugar dentro de un radio de 10.000 millas de nuestro gobierno.

Resulta que la tarea de interpretar los miles de millones de bits de información en línea para llegar a conclusiones racionales sigue siendo en gran medida una tarea humana. Sigue siendo en gran medida una cuestión subjetiva, y existe la posibilidad real de que, por muy avanzada que llegue a ser la IA, siempre lo sea.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Esto puede ser una píldora difícil de tragar para las empresas que han invertido fortunas en el desarrollo de la IA generativa, pero es una buena noticia para los seres humanos, que pueden reírse de los fallos torpes de la tecnología y saber que seguimos siendo los mejores árbitros de la verdad.

Es más, parece muy probable que siempre lo estemos.

HAZ CLIC AQUÍ PARA LEER MÁS DE DAVID MARCUS