Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.
Únete a Fox News para acceder a este contenido
Además de acceso especial a artículos selectos y otros contenidos premium con tu cuenta, de forma gratuita.
Al introducir tu correo electrónico y pulsar continuar, estás aceptando las Condiciones de uso y la Política de privacidad de Fox News', que incluye nuestro Aviso de incentivo económico.
Introduce una dirección de correo electrónico válida.
Al introducir tu correo electrónico y pulsar continuar, estás aceptando las Condiciones de uso y la Política de privacidad de Fox News', que incluye nuestro Aviso de incentivo económico.

Hubo una llamada falsa del presidente Biden diciéndote que no votaras. Y la semana pasada circuló un vídeo falso de Donald Trump con votantes negros. 

Los deepfakes de IA son un problema masivo esta temporada electoral, y es fácil dejarse engañar, especialmente cuando tus noticias y feeds sociales están llenos de esta basura. 

Por cierto, no eres el único al que han engañado. Casi dos tercios de las personas no pueden distinguir entre las imágenes y voces generadas por IA y las reales. Son unas probabilidades terribles. Aquí tienes algunas reglas generales para proteger tu voto.

ENFRENTAMIENTO AI: PONGO A PRUEBA A 3 CHATBOTS

Todos los días envío noticias y consejos tecnológicos inteligentes y prácticos como éste. Únete a 500K personas y recibe la Corriente. ¡Es gratis!

Viral" no significa "verificado".

Casi toda la bazofia generada por la IA en Internet se vende para conseguir clics en las redes sociales, no la publican los principales medios de comunicación. Estas publicaciones siguen teniendo problemas, por supuesto, pero es raro.

cabina electoral

(PAUL J. RICHARDS/AFP vía Getty Images)

Estoy a favor del periodismo ciudadano, pero cuando se trate de nuestras elecciones, cíñete a publicaciones en las que sepas que puedes confiar. Desconfía de las cuentas anónimas que publican sin una persona u organización legítima vinculada a ellas. 

Si se trata de una persona cualquiera de Facebook de la que nunca has oído hablar, haz los deberes antes de darle a compartir.

Busca otras coberturas

Los estafadores pueden montar una imagen o un vídeo convincentes, pero no pueden falsificar el contexto. Cuando Biden o Trump digan algo, te prometo que se informará de ello cien veces y se grabará desde 20 ángulos, sobre todo si es extravagante.

HILLARY CLINTON ADVIERTE QUE LA TECNOLOGÍA DE LA AI HARÁ QUE LA DESINFORMACIÓN DE LAS ELECCIONES DE 2016 "PAREZCA PRIMITIVA

Consejo profesional: Busca palabras clave relacionadas en Google y en plataformas de redes sociales como YouTube, TikTok e Instagram. Si te cuesta encontrar formas de buscar, puedes incluso hacer capturas de pantalla de las partes críticas del vídeo y hacer una búsqueda inversa de imágenes.

Reduce la velocidad

Todos estamos ocupados y tenemos prisa, pero merece la pena ir más despacio, sobre todo si algo te hace sentir algo grande. Los deepfakes suelen crearse con la emoción en mente. El objetivo es enfadarte, entristecerte o asustarte lo suficiente como para compartirlo.

mujer sentada en la cama con portátil

(Fox News)

Cuando se trata de figuras políticas, presta atención a los manierismos. Son tan únicos como las huellas dactilares. El Presidente Obama levantaba la cabeza y fruncía ligeramente el ceño cada vez que decía "Hola a todos" en sus discursos semanales. Si el protagonista de un vídeo parece un imitador, es muy posible que lo sea.

En caso de duda, utiliza esta lista de comprobación de imágenes de IA

Las falsificaciones electorales son especialmente difíciles de detectar porque hay muchas imágenes públicas de políticos hablando delante de fondos similares para copiar. Pero puedes seguir estas pautas para verificar si se trata de IA o no:

  • Fondos: Un fondo impreciso y borroso, superficies lisas o líneas que no coinciden son señales inmediatas de que una imagen está generada por IA.
  • El contexto: Usa la cabeza: si el escenario no coincide con el clima actual, la estación o lo que es físicamente posible, es porque es falso.

LA CASA BLANCA DESVELA NUEVAS NORMAS SOBRE AI PARA LAS AGENCIAS FEDERALES

  • Proporciones: Comprueba si hay objetos que parezcan demasiado grandes o pequeños. Lo mismo ocurre con los rasgos, especialmente las orejas, los dedos y los pies.
  • Ángulo: Las falsificaciones profundas son más convincentes cuando el sujeto mira directamente a la cámara. En cuanto la persona empieza a girarse hacia un lado y a moverse, pueden aparecer fallos.
  • Texto: La IA no sabe deletrear. Busca palabras falsas en letreros y etiquetas.
  • Barbillas: Sí, me has oído. La mitad inferior de la cara es lo que más delata a los candidatos en los vídeos generados por IA. Es sutil, pero comprueba si la barbilla o el cuello se mueven de forma poco natural o exagerada.
  • Dedos y manos: Busca posiciones extrañas, demasiados dedos, dedos extralargos o manos fuera de su sitio.

Si lo detectas, no lo difundas

He votado pegatinas

(Chip Somodevilla/Getty Images)

Entiendo que algunas de estas imágenes y vídeos son chocantes o incluso hilarantes, pero están poniendo en peligro nuestras elecciones. No contribuyas a la "Gran Farsa Americana". Si vas a compartir algo que sabes que está generado por IA, indícalo claramente en tu texto o publicación. En realidad, es mejor que no lo compartas.

Hazte tecnológicamente más inteligente en tu horario

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

La galardonada presentadora Kim Komando es tu arma secreta para navegar por la tecnología.

Copyright 2024, WestStar Multimedia Entertainment. Todos los derechos reservados.