Por Amanda Macias
Publicado el 13 de abril de 2026
La inteligencia artificial se ha convertido rápidamente en parte de nuestra vida cotidiana, ayudando a la gente a buscar información, hacer los deberes y tomar decisiones. Pero lo que muchos usuarios no se dan cuenta es que los sistemas de IA no son neutrales. Están determinados por decisiones de diseño ocultas que influyen en cómo responden y, en última instancia, en cómo piensa la gente.
La preocupación no es solo teórica. Un informe reciente Fox News ponía de relieve la polémica en torno al chatbot Gemini Googledespués de que el sistema identificara a varios senadores republicanos por infringir sus políticas sobre discurso de odio, sin mencionar a ningún demócrata.
Los resultados, basados en un análisis de los 100 senadores de EE. UU., han suscitado nuevas dudas sobre si los sistemas de IA pueden reflejar los supuestos ideológicos implícitos en sus datos de entrenamiento y su diseño.

Un nuevo informe de la AFPI revela que la mayoría de las plataformas de inteligencia artificial se inclinan hacia la izquierda. (Serene Lee/SOPAGetty Images)
Ese episodio no es un caso aislado.
Un nuevo informe del America First Policy Institute (AFPI) revela que muchos sistemas de inteligencia artificial tienden sistemáticamente hacia determinadas orientaciones ideológicas.
Estos sesgos pueden influir en la forma en que se presentan los temas políticos, las cuestiones sociales y las fuentes de noticias. Como los usuarios suelen confiar en la IA como una herramienta objetiva, estas influencias sutiles pueden moldear sus opiniones con el tiempo sin que se den cuenta.
Matthew , analista sénior de políticas de IA y tecnologías emergentes en la AFPI, dijo que esta tendencia se observa en todo el sector, no solo en casos aislados.
«Lo que descubrimos fue un sesgo ideológico generalizado, no solo en un modelo concreto, sino en todo el espectro», declaró Burtell a Fox News , y añadió que los modelos tienden a inclinarse hacia el centroizquierda.
Las implicaciones van más allá del simple sesgo. Las investigaciones demuestran que los sistemas de IA no solo reflejan puntos de vista, sino que pueden influir activamente en ellos.
Esa combinación —sesgo y persuasión— suscita preocupaciones más profundas sobre el papel de la IA a la hora de moldear la opinión pública. «La IA es persuasiva y, además, se inclina hacia la izquierda», afirmó Burtell. «Así que, si juntas estas dos cosas, sin duda puede influir en las opiniones de la gente sobre diferentes políticas».
Algunos ejemplos recientes han avivado esas preocupaciones. ChatGPT , OpenAI, ChatGPT recibido críticas de algunos investigadores que sostienen que sus respuestas a cuestiones políticas y culturales pueden sesgarse hacia una determinada orientación ideológica, mientras que las herramientas de IA de Microsoft han sido objeto de escrutinio por la forma en que abordan temas controvertidos y limitan ciertos puntos de vista.
Esas preocupaciones también se han reflejado en las pruebas realizadas. En 2024, Fox News evaluó varios de los principales chatbots con IA —entre ellos Gemini Google, ChatGPT OpenAI, Copilot de Microsoft y Meta AI— para determinar si presentaban posibles sesgos raciales.

Los investigadores advierten de que los niños están desarrollando relaciones poco adecuadas con la inteligencia artificial. (Erin Clark BostonGetty Images)
El informe también plantea serias preocupaciones en materia de seguridad.
En algunos casos, los sistemas de IA han tenido interacciones perjudiciales, sobre todo con los usuarios más jóvenes. Sin una transparencia clara sobre cómo se diseñan estos sistemas y qué medidas de seguridad se han implementado, ni los padres ni los usuarios pueden decidir con conocimiento de causa qué plataformas son seguras.
Para hacer frente a estos riesgos, el informe pide más transparencia por parte de las empresas tecnológicas. Esto incluye revelar cómo se diseñan los sistemas, qué valores priorizan, cómo se comprueba que no haya sesgos y que sean seguros, y qué incidentes se producen tras su implementación.

Los expertos advierten de que, sin transparencia, los usuarios siguen sin saber nada de los sesgos que hay en estos sistemas. (AndreyBloomberg)
El objetivo no es controlar lo que dicen los sistemas de IA, sino proporcionar al público la información necesaria para evaluarlos de forma crítica.
En definitiva, el informe deja claro que la IA no es solo una herramienta, sino una fuerza poderosa que está cambiando la forma en que la gente accede a la información y entiende el mundo.
HAGA CLIC AQUÍ PARA DESCARGAR LA APLICACIÓN DE FOX NEWS
Sin transparencia, los usuarios siguen sin saber nada de los sesgos que hay en estos sistemas. Y a medida que la IA gana influencia, esa falta de visibilidad puede tener consecuencias de gran alcance tanto para las personas como para la sociedad.
https://www.foxnews.com/politics/ai-you-use-every-day-biased-its-quietly-shaping-your-worldview-new-report-says