Sí, la IA es una amenaza "nuclear" para la ciberseguridad. Por eso las empresas tienen que atreverse a hacerlo

Las empresas deben preocuparse por los ciberdelincuentes y la creciente sofisticación de los ataques

Microsoft acaba de anunciar Security Copilot, su asistente potenciado por IA que revolucionará la defensa de la ciberseguridad aumentando la eficacia y la productividad. La herramienta incorporará la tecnología ChatGPT4 de OpenAI y un modelo propio específico de seguridad creado por Microsoft a partir de todos los datos de que dispone. 

El Copiloto de Seguridad está actualmente disponible para un pequeño número de empresas seleccionadas para su prueba, sin que se conozca aún la fecha oficial de lanzamiento. Sin embargo, los hackers no están esperando y ya han empezado a utilizar herramientas de IA ampliamente disponibles para lanzar ataques. Esperar a este lanzamiento público o a cualquier otra herramienta defensiva de seguridad de IA oficial está dejando a las empresas en desventaja, ya que son objetivos fáciles para los asaltantes aficionados a la nueva tecnología.  

Las empresas están posponiendo la autorización debido a los riesgos potenciales que creen que puede conllevar. Sin embargo, la utilización de la IA en las organizaciones aporta beneficios potenciales que superan con creces los riesgos de no utilizar esta tecnología. 

Para protegerse mejor de los ciberataques y regular el uso que hacen los empleados, las organizaciones deben integrar la IA en sus sistemas de seguridad y de otro tipo, y empezar a cosechar rápidamente los beneficios que puede aportar la IA.

Para protegerse mejor de los ciberataques, al tiempo que necesitan regular el uso que hacen los empleados, las organizaciones deben integrar la IA en sus sistemas de seguridad y de otro tipo, y empezar a cosechar rápidamente los beneficios que puede aportar la IA. 

TUCKER CARLSON: ¿ES LA INTELIGENCIA ARTIFICIAL PELIGROSA PARA LA HUMANIDAD?

Muchas empresas dudan en permitir que los empleados de ciberseguridad utilicen herramientas de IA en su trabajo porque no está regulada y aún está poco desarrollada. Personas influyentes de diversos sectores han escrito una carta abierta exigiendo que se detengan los experimentos de IA más avanzados que ChatGPT4. Algunos incluso dicen que la carta no es suficiente y que la sociedad no está preparada para manejar las ramificaciones de la IA. 

Desgraciadamente, la caja de Pandora ya se ha abierto y quienes pretenden que podemos revertir cualquiera de estas innovaciones son unos ilusos. 

Las empresas deben preocuparse por los ciberdelincuentes y por el avance y la creciente sofisticación de sus ataques. (Silas Stein/picture alliance vía Getty Images)

La IA tampoco es un invento nuevo: Llevamos años interactuando con modelos limitados. ¿Puedes contar las veces que has utilizado el chatbot de un sitio web, el asistente de tu smartphone o un dispositivo doméstico como Alexa? La Inteligencia Artificial se ha infiltrado en nuestras vidas igual que antes lo hicieron Internet, los teléfonos inteligentes y la nube. 

El miedo es justificable, pero las empresas deben preocuparse por los ciberdelincuentes y por el avance y la mayor sofisticación de sus ataques. 

Los hackers que utilizan ChatGPT son más rápidos y sofisticados que antes, y los analistas de ciberseguridad que no tienen acceso a herramientas similares pueden verse superados y burlados muy rápidamente por estos atacantes asistidos por IA. Están utilizando ChatGPT para generar código para correos electrónicos de phishing, malware, herramientas de encriptación e incluso para crear mercados en la web oscura. Las posibilidades de que los hackers utilicen la IA son infinitas y, como resultado, muchos analistas también están recurriendo al uso no autorizado de sistemas de IA para realizar su trabajo. 

LAS HERRAMIENTAS DE AI COMO EL CHATGPT SON LA ÚLTIMA TENDENCIA PARA LAS EMPRESAS, PERO LOS EXPERTOS PIDEN CAUTELA

Según HelpNet Security, el 96% de los profesionales de la seguridad conocen a alguien que utiliza herramientas no autorizadas dentro de su organización y el 80% admite que ellos mismos utilizan herramientas prohibidas. Esto demuestra que la IA ya es un activo muy utilizado en el sector de la ciberseguridad, sobre todo por necesidad. Los participantes en la encuesta llegaron a afirmar que "optarían por herramientas no autorizadas debido a su mejor interfaz de usuario (47%), a sus capacidades más especializadas (46%) y a que permiten un trabajo más eficaz (44%)."

Las empresas están dando tumbos para descifrar la gobernanza en torno a la IA, pero mientras lo hacen, sus empleados están desafiando claramente las normas y posiblemente poniendo en peligro las operaciones de la empresa.  

Según un estudio de Cyberhaven sobre 1,6 millones de trabajadores, el 3,1% introduce información confidencial de la empresa en ChatGPT. Aunque la cifra parece pequeña, el 11% de las preguntas de los usuarios incluyen información privada. Esto puede incluir nombres, números de la Seguridad Social, archivos internos de la empresa y otra información confidencial. 

Cuando se utiliza ChatGPT, aprende de cada conversación y puede regurgitar información del usuario si se sondea correctamente. Esto es un fallo fatal para el uso corporativo, teniendo en cuenta cómo los hackers pueden manipular el sistema para que les proporcione información previamente oculta. Y lo que es más importante, la IA también conocerá los mecanismos de seguridad que tiene la empresa cuando se incorpora a un servidor corporativo. Armado con esa información, cualquier atacante podría obtener y distribuir con éxito información confidencial.

Ya sea la nube o Internet, la integración de nuevas tecnologías siempre ha causado controversia y dudas. Pero detener la innovación es imposible cuando los delincuentes han accedido a herramientas avanzadas que prácticamente hacen el trabajo por ellos. 

Para abordar correctamente esta cuestión en torno a la seguridad de nuestra sociedad, las empresas deben aplicar a la IA las normas de gobierno anteriores. Reutilizar procedimientos históricamente probados permitiría a las empresas ponerse a la altura de sus atacantes y eliminar el desequilibrio de poder. 

Una regulación racionalizada entre los profesionales de la ciberseguridad permitiría a las empresas supervisar qué herramientas utilizan los empleados, cuándo las utilizan y qué información se introduce. Los contratos entre proveedores de tecnología y organizaciones también son habituales para el uso corporativo de la nube y pueden aplicarse a la nebulosa esfera de la IA.

Hemos pasado el punto de no retorno y la adopción crítica es nuestra única solución para vivir en un mundo impulsado por la IA. El aumento de la innovación, la mayor accesibilidad pública y la facilidad de uso han dado a los ciberdelincuentes una ventaja difícil de revertir. Para dar la vuelta a la situación, las empresas deben adoptar la IA en un entorno seguro y controlado. 

HAZ CLIC AQUÍ PARA RECIBIR EL BOLETÍN DE OPINIÓN

La tecnología avanzada es casi incontrolable y los analistas de ciberseguridad tienen que aprender a utilizarla de forma responsable. La formación de los empleados y el desarrollo de herramientas empresariales reforzarían los procedimientos de ciberseguridad hasta que un gigante del sector como Microsoft utilice Security Copilot para transformar el sector. Mientras tanto, las empresas deben dejar de meter la cabeza en la arena esperando que cambie la realidad. 

Las cosas se volverán más distópicas si las organizaciones siguen ignorando los problemas rampantes en lugar de enfrentarse al mundo incómodo que hemos creado.

HAZ CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

Carga más..