Esta sitio web fue traducido automáticamente. Para obtener más información, haz clic aquí.
¡Ahora puedes escuchar Fox News de Fox News !

La inteligencia artificial se ha convertido rápidamente en parte de nuestra vida cotidiana, ayudando a la gente a buscar información, hacer los deberes y tomar decisiones. Pero lo que muchos usuarios no se dan cuenta es que los sistemas de IA no son neutrales. Están determinados por decisiones de diseño ocultas que influyen en cómo responden y, en última instancia, en cómo piensa la gente.

La preocupación no es solo teórica. Un informe reciente Fox News ponía de relieve la polémica en torno al chatbot Gemini Googledespués de que el sistema identificara a varios senadores republicanos por infringir sus políticas sobre discurso de odio, sin mencionar a ningún demócrata. 

Los resultados, basados en un análisis de los 100 senadores de EE. UU., han suscitado nuevas dudas sobre si los sistemas de IA pueden reflejar los supuestos ideológicos implícitos en sus datos de entrenamiento y su diseño.

GOOGLE AFIRMA QUE SOLO GOP INFRINGEN LA POLÍTICA CONTRA EL DISCURSO DE ODIO, NINGÚN DEMÓCRATA, SEGÚN EL AUTOR

Una persona escribiendo en un ordenador con ChatGPT.

Un nuevo informe de la AFPI revela que la mayoría de las plataformas de inteligencia artificial se inclinan hacia la izquierda. (Serene Lee/SOPAGetty Images)

Ese episodio no es un caso aislado.

Un nuevo informe del America First Policy Institute (AFPI) revela que muchos sistemas de inteligencia artificial tienden sistemáticamente hacia determinadas orientaciones ideológicas.

Estos sesgos pueden influir en la forma en que se presentan los temas políticos, las cuestiones sociales y las fuentes de noticias. Como los usuarios suelen confiar en la IA como una herramienta objetiva, estas influencias sutiles pueden moldear sus opiniones con el tiempo sin que se den cuenta.

Matthew , analista sénior de políticas de IA y tecnologías emergentes en la AFPI, dijo que esta tendencia se observa en todo el sector, no solo en casos aislados.

«Lo que descubrimos fue un sesgo ideológico generalizado, no solo en un modelo concreto, sino en todo el espectro», declaró Burtell a Fox News , y añadió que los modelos tienden a inclinarse hacia el centroizquierda.

Las implicaciones van más allá del simple sesgo. Las investigaciones demuestran que los sistemas de IA no solo reflejan puntos de vista, sino que pueden influir activamente en ellos.

Esa combinación —sesgo y persuasión— suscita preocupaciones más profundas sobre el papel de la IA a la hora de moldear la opinión pública. «La IA es persuasiva y, además, se inclina hacia la izquierda», dijo Burtell. «Así que, si juntas estas dos cosas, sin duda puede influir en las opiniones de la gente sobre diferentes políticas». 

Algunos ejemplos recientes han avivado esas preocupaciones. ChatGPT OpenAI ChatGPT recibido críticas de algunos investigadores que sostienen que sus respuestas sobre temas políticos y culturales pueden sesgarse hacia una determinada orientación ideológica, mientras que las herramientas de IA de Microsoft han sido objeto de escrutinio por la forma en que abordan temas controvertidos y limitan ciertos puntos de vista.

Esas preocupaciones también se han reflejado en las pruebas realizadas. En 2024, Fox News evaluó varios de los principales chatbots con IA —entre ellos Gemini Google, ChatGPT OpenAI, Copilot de Microsoft y Meta AI— para determinar si presentaban posibles sesgos raciales.

UNA NUEVA COALICIÓN DE IA APUNTA A WASHINGTON Y A LAS GRANDES EMPRESAS TECNOLÓGICAS, MIENTRAS EL GRUPO ALERTA DE QUE LOS RIESGOS PARA LA SEGURIDAD DE LOS NIÑOS SUPERAN LAS MEDIDAS DE PROTECCIÓN

Un niño escribiendo en el teclado de un ordenador en Boston.

Los investigadores advierten de que los niños están desarrollando relaciones poco adecuadas con la inteligencia artificial. (Erin Clark BostonGetty Images)

El informe también plantea serias preocupaciones en materia de seguridad.

En algunos casos, los sistemas de IA han tenido interacciones perjudiciales, sobre todo con los usuarios más jóvenes. Sin una transparencia clara sobre cómo se diseñan estos sistemas y qué medidas de seguridad se han implementado, ni los padres ni los usuarios pueden decidir con conocimiento de causa qué plataformas son seguras.

Para hacer frente a estos riesgos, el informe pide más transparencia por parte de las empresas tecnológicas. Esto incluye revelar cómo se diseñan los sistemas, qué valores priorizan, cómo se comprueba que no haya sesgos y que sean seguros, y qué incidentes se producen tras su implementación.

EL RESPONSABLE DE IA DE LA CASA BLANCA CRITICA A LOS ESTADOS DEMÓCRATAS POR INTRODUCIR LA «IDEOLOGÍA WOKE» EN LA INTELIGENCIA ARTIFICIAL

La aplicación de inteligencia artificial Google en un teléfono móvil en Riga, Letonia

Los expertos advierten de que, sin transparencia, los usuarios siguen sin saber nada de los sesgos que hay en estos sistemas.  (AndreyBloomberg)

El objetivo no es controlar lo que dicen los sistemas de IA, sino proporcionar al público la información necesaria para evaluarlos de forma crítica.

En definitiva, el informe deja claro que la IA no es solo una herramienta, sino una fuerza poderosa que está cambiando la forma en que la gente accede a la información y entiende el mundo.

HAGA CLIC AQUÍ PARA DESCARGAR LA APLICACIÓN DE FOX NEWS

Sin transparencia, los usuarios siguen sin saber nada de los sesgos que hay en estos sistemas. Y a medida que la IA gana influencia, esa falta de visibilidad puede tener consecuencias de gran alcance tanto para las personas como para la sociedad.

Lee el informe completo aquí: