24 de noviembre de 2024
Escucha este Artículo

En 2024, diversas tendencias en ciberseguridad han dejado su huella, como el incremento del malware como servicio, que ha facilitado la ejecución de ataques a gran escala. Además, el uso de Telegram por cibercriminales y el ransomware se han consolidado como amenazas significativas tanto para empresas como para gobiernos.

A partir de este panorama y teniendo en cuenta los nuevos avances tecnológicos e implementaciones observadas a lo largo del año, el Laboratorio de Investigación de ESET, una empresa líder en detección proactiva de amenazas, presenta las posibles tendencias que serán cruciales en el ámbito de la ciberseguridad para el año próximo.


 
“El 2025 teorizamos que estará marcado por la creciente necesidad de protección de los sistemas OT (Tecnología Operativa), esenciales para infraestructuras críticas. Además, el uso malicioso de la IA generativa planteará nuevas amenazas. Estas cuestiones estarán ligadas a desafíos legales y éticos que plantean la necesidad de regulaciones más claras y efectivas.”, asegura Fabiana Ramirez Cuenca, Investigadora del Laboratorio de ESET Latinoamérica.


 
Usos de la IA Generativa


La inteligencia artificial generativa es actualmente una de las aplicaciones de IA más extendidas, destacando por su habilidad para crear contenido como textos, imágenes, videos, música, voces y más, lo que facilita el aumento de la creatividad y eficiencia en múltiples sectores.

Sin embargo, los ciberdelincuentes también la utilizan con propósitos malintencionados, como la creación de deepfakes y la mejora y automatización de ataques cibernéticos. Este tipo de IA permite el acceso a algoritmos de código abierto, que pueden ser adaptados, modificados y utilizados para diversos objetivos. La capacidad de automatizar tareas, generar o mejorar código malicioso, y planificar campañas hace que esta tecnología resulte atractiva para actores con intenciones dañinas, incluso para aquellos con menos experiencia.

 
Recientemente OpenAI, la compañía detrás de ChatGPT, ha emitido un informe Influence and cyber operations: an update en el que detalla cómo diversos cibercriminales han utilizado sus modelos de IA para realizar tareas de fases intermedias en los ciberataques – luego de haber adquirido algunas herramientas básicas, pero antes de desplegar sus ataques, sean de phishing o distribución de malware, por distintos medios.

En el mismo informe, la empresa identifica que distintos grupos APT (Amenazas Persistentes Avanzadas) han utilizado la tecnología para, por ejemplo, el debugging de código malicioso, la investigación de vulnerabilidades críticas, el perfeccionamiento de phishing, generación de imágenes y comentarios falsos, entre otras.


 
Podríamos esperar para el 2025 la continuidad del uso de la IA generativa para la mejora de campañas que inicien con ingeniería social; el aprovechamiento de los algoritmos para el diseño de códigos maliciosos; el posible abuso de aplicaciones de compañías que usen algoritmos IA open source y, por supuesto, la sofisticación de los deepfakes y la posible interacción con la realidad virtual.”, agrega Ramirez Cuenca.


 
Desafíos Legales y Éticos de la IA



Con el auge de la IA generativa y su posible uso perjudicial, surgen retos legales y éticos que en gran medida no han sido tratados de manera efectiva. Entre estos desafíos se plantean preguntas como quién debe asumir la responsabilidad por las acciones de la IA, qué restricciones deberían aplicarse a su evolución, o qué entidad tiene la autoridad para evaluarlas. Actualmente, hay escasas regulaciones a nivel internacional que traten los problemas emergentes del uso de la IA, y las que están en vigor a menudo son inadecuadas frente al rápido avance de esta tecnología.


 
Entre las regulaciones más importantes está el Acta de IA de la Unión Europea, vigente desde 2023, cuyo objetivo es asegurar la ética, la transparencia y el desarrollo seguro de la inteligencia artificial, además de proteger los derechos humanos. Este acto aborda la IA con un enfoque basado en riesgos, clasificando los algoritmos según su nivel de peligrosidad.

Simultáneamente, en los Estados Unidos existen diversos enfoques, que incluyen una iniciativa nacional de IA, una Orden Ejecutiva para el uso seguro y confiable de la inteligencia artificial, y un proyecto de carta de derechos de la IA que se encuentra en proceso de evaluación.


 
A nivel Latinoamérica no ha habido grandes avances durante el 2024 aunque la mayoría de los países cuentan al menos con decretos, salvo el caso de Perú que cuenta con una ley. Recientemente el PARLATINO ha propuesto una Ley Modelo que quizás inspire legislaciones a nivel interno.


 
“Para el 2025 es probable que a nivel regulatorio haya un mayor escrutinio en Algoritmos y Modelos de IA para garantizar transparencia y explicabilidad -que sus decisiones puedan ser comprendidas por las personas-, esto de la mano de la protección de datos para garantizar la privacidad en el uso de la IA. Veremos la búsqueda de soluciones para los daños generados por la IA y la promoción desde lo regulatorio de la ética en el uso y desarrollo de esta tecnología. También seguirán los avances en regulaciones sobre ciberseguridad aplicadas a la temática y en materia de cooperación internacional.”, comenta la investigadora de ESET Latinoamérica.


 
Sistemas de Control Industrial u OT (Tecnología Operativa)


Los sistemas OT son conjuntos informáticos y dispositivos diseñados para gestionar procesos industriales y físicos en sectores como energía, manufactura, agua y gas, entre otros. Estos sistemas manejan equipos como PLC (Controladores Lógicos Programables) y SCADA (Sistemas de Control Supervisorio y Adquisición de Datos), con el objetivo principal de automatizar procesos.

La creciente digitalización y conectividad de estos sistemas los ha hecho atractivos y vulnerables a ciberamenazas. Ya se han identificado códigos maliciosos dirigidos a estos sistemas, como “Aurora” (una prueba del gobierno de EE.UU. que demostró que un ciberataque podía causar daños físicos a un generador de energía) y “Blackenergy, Industroyer” (empleados en Ucrania para atacar su red eléctrica), aunque estos no son los únicos ejemplos. El NIST (Instituto Nacional de Estándares y Tecnología de EE.UU.) considera que la seguridad en OT es un problema en aumento y ha desarrollado una guía que actualiza regularmente.

Para 2025, se espera que los sistemas OT sean cada vez más importantes en el ámbito de la ciberseguridad por varias razones, incluyendo la mencionada conectividad entre dispositivos OT y la gran cantidad de datos que recopilan. Además, muchos de estos sistemas son esenciales para el funcionamiento de infraestructuras críticas, lo que los convierte en un objetivo atractivo para los criminales, dado su potencial para causar daños significativos.


 
“Estas son las tendencias que teorizamos serán centrales en la ciberseguridad para el próximo año, un escenario desafiante marcado por el crecimiento del uso de la inteligencia artificial generativa por parte del cibercrimen. Esto exigirá adaptar los sistemas de defensa y avanzar en marcos legales que aborden los interrogantes abiertos por estas tecnologías, incluso en sus usos legítimos y beneficiosos. Además, los ataques a infraestructuras críticas seguirán siendo una preocupación. Los sistemas OT serán el objetivo clave, por su interconexión y su rol esencial en sectores estratégicos. Fortalecer su ciberseguridad será prioritario, considerando su vulnerabilidad demostrada en conflictos recientes, donde su explotación ha tenido graves consecuencias para las poblaciones afectadas.”, concluye Ramirez Cuenca, de ESET Latinoamérica.


 
Para conocer más sobre seguridad informática visite el portal de noticias de ESET: https://www.welivesecurity.com/es/informes/tendencias-ciberseguridad-2025-ia-generativa-regulacion-proteccion-ot/