Este sitio web fue traducido automáticamente. Para obtener más información, por favor haz clic aquí.
NUEVO¡Ahorapuedes escuchar los artículos de Fox News !

La proliferación de la inteligencia artificial (IA) en nuestra vida cotidiana ha sido indiscutiblemente una bendición, remodelando industrias y redefiniendo los paradigmas de nuestras rutinas. 

Sin embargo, el panorama halagüeño se desvanece cuando uno se adentra en las sombras y discierne los usos malignos para los que se está diseñando la IA. La aparición de herramientas de IA como WormGPT y FraudGPT, diseñadas específicamente para la ciberdelincuencia, es un claro recordatorio de esta realidad.

La odiosa llegada del WormGPT, camuflado bajo la apariencia de tecnología punta, ha reverberado por los oscuros pasillos del submundo cibernético. Promocionado en oscuros foros, WormGPT se ha convertido rápidamente en la elección de los malhechores para orquestar sofisticados ataques de phishing y Business Email Compromise (BEC). Es una herramienta que permite la automatización de correos electrónicos falsos diseñados para engañar al destinatario, aumentando así las probabilidades de éxito de un ciberataque.

Figura ominosa escribiendo en un teclado.

El odioso advenimiento de WormGPT ha reverberado por los turbios pasillos del submundo cibernético. (CyberGuy.com)

Lo que amplifica la malevolencia de WormGPT es su facilidad de acceso. Esta democratización del armamento cibernético es alarmante, ya que disuelve las barreras de entrada para los ciberdelincuentes en ciernes, aumentando la magnitud y frecuencia potenciales de las embestidas cibernéticas.

CHINA Y COREA DEL NORTE DESARROLLAN NUEVAS ESTRATEGIAS Y OBJETIVOS PARA OPERACIONES BASADAS EN LA INTELIGENCIA ARTIFICIAL, ADVIERTE MICROSOFT

Además, WormGPT opera sin ningún límite ético, en marcado contraste con sus homólogos más legítimos. 

Aunque OpenAI y Google han implementado salvaguardias para evitar el uso indebido de sus herramientas de IA, WormGPT está diseñado para eludir estas restricciones, lo que le permite generar resultados que podrían implicar la revelación de información sensible, la producción de contenido inapropiado y la ejecución de código dañino.

El malévolo legado de WormGPT parece haber inspirado otro siniestro vástago de la IA: FraudGPT. FraudGPT lleva la maldad cibernética a un nivel superior al ofrecer un conjunto de capacidades ilícitas para elaborar correos electrónicos de phishing selectivo, crear herramientas de cracking, carding y mucho más. 

LA INFORMACIÓN DEL PERFIL DE ALGUNOS CLIENTES DE 23ANDME APARECE EN LA WEB OSCURA

La siniestra revelación de WormGPT y FraudGPT ha destapado un tesoro de Pandora de ciberamenazas. Estas herramientas malévolas no sólo intensifican el modelo de phishing como servicio (PhaaS), sino que también sirven de trampolín para los aficionados que pretendan lanzar ataques convincentes de phishing y BEC a escala.

Además, el siniestro ingenio no acaba aquí. Incluso herramientas con protecciones integradas, como ChatGPT, están siendo "jailbreakeadas" para servir a los nefastos propósitos de revelar información sensible, fabricar contenido inapropiado y ejecutar código malicioso. La ominosa nube de la amenaza se cierne ahora más grande con cada paso que da la IA.

El uso indebido de la IA en el ámbito de la ciberdelincuencia es sólo la punta del iceberg. Si las herramientas de IA caen en las manos equivocadas o se utilizan sin las consideraciones éticas adecuadas, podrían utilizarse para crear armas de destrucción masiva, perturbar infraestructuras críticas o incluso manipular la opinión pública a gran escala. Estos escenarios podrían provocar un caos generalizado, el colapso de la sociedad o incluso un conflicto mundial.

HAZ CLIC AQUÍ PARA VER MÁS OPINIONES DE FOX NEWS

Además, la IA no alineada, en la que los sistemas de IA no comparten los valores humanos, plantea un importante riesgo de extinción, como ha destacado Anthony Aguirre, director ejecutivo del Instituto del Futuro de la Vida. Una preocupación clave es la convergencia instrumental, una teoría que sugiere que la mayoría de los sistemas de IA suficientemente avanzados perseguirán subobjetivos similares, independientemente de sus objetivos finales. 

Por ejemplo, una IA podría buscar la autoconservación o la adquisición de recursos, aunque no sean sus objetivos principales, lo que la llevaría a apoderarse del planeta. Necesitamos urgentemente alinear los sistemas de IA con los valores humanos para evitar consecuencias potencialmente catastróficas.

Esto plantea la necesidad urgente de una gobernanza sólida de la IA. Tenemos que establecer normas y reglamentos claros sobre el uso de la IA, que incluyan directrices éticas, medidas de seguridad y mecanismos de rendición de cuentas. También necesitamos invertir en investigación sobre la seguridad de la IA para desarrollar técnicas que garanticen que los sistemas de IA se comportan según lo previsto y no plantean riesgos indebidos.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

La aparición de herramientas de IA como WormGPT y FraudGPT es una llamada de atención. Son un duro recordatorio de los riesgos potenciales asociados a la IA y de la necesidad urgente de actuar.

Mientras seguimos aprovechando el poder de la IA, también debemos asegurarnos de que lo hacemos de forma responsable y con la máxima precaución. Lo que está en juego no podría ser mayor.

HAZ CLIC AQUÍ PARA LEER MÁS DE GLEB TSIPURSKY