La inteligencia artificial, especialmente la generativa, puede desempeñar un papel importante en la lucha contra el cibercrimen. Pero, mientras diversos analistas defienden su uso, su aprovechamiento para perfeccionar los ataques de los ciberdelincuentes crece.
La omnipresente inteligencia artificial (IA), y su creciente adopción en la industria y la sociedad, fue el tema tecnológico del 2023. Y, probablemente, también lo será a lo largo de este 2024.
Aunque todavía no represente un gran porcentaje de las ganancias de las principales firmas tecnológicas, Microsoft, Alphabet, Amazon, Apple y Meta ya reportaron en enero que la monetización por el uso de la IA está creciendo. Hoy, por ejemplo, se estima que el gasto global en IA superará los US$ 500.000 millones para 2027, lo que incluirá capacitación del recurso humano, con un énfasis especial en las medidas de seguridad cibernética. Markets and Markets, por su parte, prevé que la IA crecerá 23,3% anualmente hasta el 2026, generando más de US$ 397.000 millones para inicios de 2028. Dentro de toda esa promesa de cambio, sin embargo, aparecen nubes que oscurecen el horizonte. A la par del avance de su uso en beneficio de las compañías, la IA generativa está tomando un rol cada vez más importante en la complejización de los ciberataques. Y complica cada vez más la detección del phishing, según conclusiones del informe de Tecnologías Digitales para un Nuevo Futuro, elaborado por la CEPAL.
¿Enemiga o aliada?
De alguna forma, la IA generativa se está convirtiendo en la "mejor amiga" de los ciberataques. "Los ciberdelincuentes están empleando la IA para pulir sus técnicas. Ahora, son capaces de encontrar vulnerabilidades en la red más rápido, suplantar identidades de forma más precisa o automatizar los ataques de phishing", afirma Gery Coronel, country manager de Check Point para Chile, Argentina y Perú.
La ironía es que esa misma tecnología es la promesa que ayudará a detectar y repeler estas amenazas, mediante sistemas que aprenden patrones de comportamiento e identifican anomalías de forma más precisa. "Se trata de una herramienta fundamental frente a una intensa era de ciberataques, cada vez más difíciles de manejar a escala humana", advierte Fabiana Ramírez, investigadora de Seguridad Informática de ESET Latinoamérica.
Hoy, los modelos de IA generativa pueden aprender patrones normales en el tráfico de red, el comportamiento de usuarios y otros datos relacionados con la seguridad. "Cuando se detectan desviaciones significativas de estos patrones, se puede identificar la posibilidad de un ataque. Esto implica un gran avance en tanto la identificación de amenazas se convierte en un proceso más rápido y eficiente", complementa Fabiana Ramírez.
Además de la IA generativa, existen varios enfoques dentro de la rama de inteligencia artificial que se utiliZan para abordar la ciberseguridad. Están, por ejemplo, el aprendizaje automático, el machine learning y las redes neuronales que se utilizan para modelar secuencias de datos, como patrones de tráfico de red o secuencias temporales en registros de eventos. "Son útiles para detectar patrones complejos y ataques que pueden evolucionar con el tiempo", enfatiza Ramírez.
Pero encontrar ejemplos de ataques cibernéticos construidos sobre la base de un uso pernicioso de la IA tampoco cuesta mucho.
Durante 2022 y 2023, por ejemplo, se difundieron deepfakes o videos falsos, con imágenes creadas con inteligencia artificial que suplantaban la identidad de personalidades famosas como Elon Musk y Bill Gates, llamando a invertir en proyectos y criptomonedas inexistentes. También se multiplicaron los emails de phishing dirigido, con tasas de éxito de hasta el 70%, exploits —programas o códigos funcionales para encontrar vulnerabilidades— bots maliciosos de chat, construidos y entrenados con IA para engañar a las víctimas.
Modelos entrenados
Para contrarrestarlo, el enfoque más común entre las compañías ha sido entrenar modelos de aprendiaje automático, con grandes conjuntos de datos que incluyan tanto amenazas conocidas y patrones de ataques como comportamientos normales y seguros en los sistemas. De esta manera, la IA puede aprender a distinguir entre lo que es peligroso y lo que no. "Cuando el modelo es entrenado para estos fines, se obtiene como resultado modelos que se despliegan para monitorear en tiempo real y detectar actividades anómalas y patrones
sospechosos que podrían indicar un ataque. Alrededor del 80% de las organizaciones que están adoptando la IA entre sus aplicaciones la usan para detección de anomalías en ciberseguridad", indica Pablo Prieto, gerente de Digital Business de TIVIT, una multinacional tecnológica que aborda los temas de ciberseguridad en la nube para empresas.
Acceda al PDF del Especial de ciberseguridad de la edición de febrero de AméricaEconomía aquí.
El desarrollo e implementación de estas soluciones de IA en ciberseguridad requieren equipos interdisciplinarios con científicos de datos, ingenieros de IA, analistas de ciberseguridad con conocimiento en amenazas y vulnerabilidades, arquitectos de infraestructura de nube, desarrolladores de software y expertos en ética de la IA, entre otros, según Prieto. Pero tal conjunto de profesionales no es sencillo de conseguir y, mucho menos, barato.
Tampoco lo es la inversión estimada para implementar la inteligencia artificial generativa en las compañías. Esta puede variar según varios factores, como el alcance del proyecto, la escala de implementación, la complejidad de las soluciones requeridas y los recursos disponibles, de acuerdo con ESET. A ello se debe sumar la adquisición de hardware potente, especialmente de GPU (Unidades de Procesamiento Gráfico), y también la de herramientas de desarrollo específi cas para la implementación de modelos generativos. La firma de investigaciones Acumen Research estimó que el mercado global por productos de ciberseguridad basados sobre la IA se proyectaba en US$ 135.000 millones hacia 2030.
A nivel micro, la inversión necesaria en soluciones de IA para ciberseguridad también puede variar ampliamente, según la necesidad de cada organización. "Algunas opciones open source con funcionalidades acotadas son de bajo costo, mientras que otras soluciones altamente sofisticadas y especialidadas pueden valorizarse en millones de dólares. Lo que la evidencia nos ha dejado claro es que la inversión en prevención es menor que los costos posteriores a un ataque, tanto desde el punto de vista técnico, como del reputacional y de los impactos directos al negocio", afirma el gerente de TIVIT.
Sin solución única
Hoy, está claro que el camino por recorrer de la IA, tanto general como generativa, en materia de ciberseguridad aún es largo. "Algunas jurisdicciones están explorando regulaciones específicas para la inteligencia artificial. Estas pueden abordar cuestiones éticas, de transparencia y responsabilidad", advierte Rodrigo Stefanini, country manager del Grupo Stefanini para Argentina y Chile.
De hecho, en 2021 la UNESCO emitió unas "Recomendaciones para la ética de la IA", que establece principios y lineamientos para el desarrollo de la tecnología en un contexto internacional y ético. "A partir de este documento, al que se adhirieron alrededor de 140 países, surgieron proyectos y regulaciones en algunos países", destaca Ramírez.
Si bien este documento no es vinculante, hoy los especialistas consultados para este artículo consideran que el uso de la IA en ciberseguridad es valiosa y se recomienda para la detección temprana de amenazas y el análisis de grandes conjuntos de datos. Pero, a la vez, requiere ser integrada a una estructura de estrategias de seguridad holísticas, "que involucren tanto a la inteligencia artificial como a profesionales de seguridad", remarca Rodrigo Stefanini.
Que este año se pueda cumplir la promesa de una IA generativa 100% efectiva en materia de ciberseguridad es una tarea compleja. "Dependerá en gran medida de la clase de implementación específica, qué tipo de modelos sean utilizados, la calidad de los datos y el tipo de amenazas que pretenden detectar", explica Ramírez, de ESET.
En TIVIT, por lo pronto, destacan la existencia de estudios que señalan una precisión real de la IA en ciberseguridad sobre el 99%. Una cifra que va mejorando a medida que aumenta el nivel de entrenamiento y personalización del modelo, además de la participación de equipos multidisciplinarios y capacidades tecnológicas, con resultados de 99% de efectividad. "El margen de error existente en estos modelos, por lo general, obedece a falsos positivos con amenazas nuevas o amenazas del día cero", aclara Prieto.
Lo que está claro es que los usos de la IA generativa dependerán totalmente del entrenamiento y los objetivos para los que se la utilice; ya sea para atacar o defender. "Por eso, es fundamental que exista un marco ético claro que guíe a las personas y empresas vinculadas a estas tecnologías de forma responsable y en beneficio de la sociedad", concluye Prieto.