Advierten por nuevas amenazas con inteligencia artificial

🔸 A la par, crece la urgencia de regular la IA para abordar desafíos legales y éticos. ESET prevé una mayor relevancia de la seguridad en sistemas de Tecnología Operativa (OT), esenciales para infraestructuras críticas, frente a la sofisticación de amenazas globales

#TECNOLOGÍA | La empresa de ciberseguridad ESET compartió las posibles tendencias en materia de ciberseguridad para 2025, destacando nuevas amenazas por el uso malicioso de la inteligencia artificial generativa, lo que también provocará la implementación de regulaciones claras y efectivas al respecto.

“El próximo año teorizamos que estará marcado por la creciente necesidad de protección de los sistemas de Tecnología Operativa, esenciales para infraestructuras críticas. Además, el uso malicioso de la IA generativa planteará nuevas amenazas. Estas cuestiones estarán ligadas a desafíos legales y éticos que plantean la necesidad de regulaciones más claras y efectivas”.

Cabe destacar que los pronósticos de los expertos están basados en las tendencias que marcaron el año 2024, por ejemplo:

Crecimiento del malware as a service que facilitó el despliegue de ataques a gran escala
Ransomware como una de las amenazas más preocupantes a nivel empresarial y gubernamental
Uso de Telegram por parte de cibercriminales
Las posibles amenazas por la inteligencia artificial en 2025
A través de la inteligencia artificial generativa se puede acceder a algoritmos de fuentes abiertas, así como adaptarlos, modificarlos y aprovecharlos para distintos fines, según los pronósticos de ESET para 2025.

“La posibilidad de automatizar tareas, generar o perfeccionar código malicioso, planificar campañas, entre otras, hacen atractiva esta tecnología para actores maliciosos, incluso los más inexpertos”.

Por otro lado, Open AI, desarrolladora de ChatGPT, señaló en un informe que los cibercriminales usan sus modelos de IA para realizar tareas intermedias antes de desplegar ataques de phishing o desplegar malware.

En el mismo informe, la empresa identifica que distintos grupos de Amenazas Persistentes Avanzadas (APT, por sus siglas en inglés), han utilizado la tecnología para:

Debugging de código malicioso
Investigación de vulnerabilidades críticas
Perfeccionamiento de phishing
Generación de imágenes y comentarios falsos.
ESET espera que, para el año 2025, continúe el uso de la IA generativa para la mejora de campañas que inicien con ingeniería social y el aprovechamiento de los algoritmos para el diseño de códigos maliciosos, tal como señala Open AI.

También se prevé que se mantenga el posible abuso de apps de compañías que usen algoritmos IA abiertos al público, la sofisticación de los deepfakes y la posible interacción con la realidad virtual.

¿Cuáles son los desafíos legales y éticos a afrontar por la inteligencia artificial?
Frente al crecimiento de la inteligencia artificial generativa y su potencial uso malicioso, los expertos de ciberseguridad reconocen que aparecerán desafíos legales y éticos en 2025, tales como:

Los especialistas de ESET reconocen: “En la actualidad existen muy pocas normas a nivel internacional que aborden las problemáticas emergentes del uso de la IA y aquellas que existen muchas veces resultan insuficientes frente a un panorama de desarrollo acelerado de esta tecnología”.

La empresa destaca la existencia del Acta de Inteligencia Artificial de la Unión Europea desde 2023 que aborda la

Entre las normas más destacadas podríamos mencionar al Acta de IA de la Unión Europea (existente desde 2023) que pretende garantizar la ética y transparencia, así como el desarrollo seguro y protección de derechos humanos, abordando la IA desde un enfoque basado en riesgos, clasificando algoritmos según su peligrosidad.

La iniciativa nacional de inteligencia artificial es una Orden Ejecutiva para el uso seguro y confiable de la IA y un proyecto de carta de derechos de la inteligencia artificial que se encuentra en tratamiento.
En contraparte, ESET critica que en Latinoamérica no ha habido grandes avances, aunque destaca el decreto de Perú, así como la Ley Modelo propuesta por el Parlamento Latinoamericano y Caribeño.

Los pronósticos de la empresa señalan que, para 2025, es probable que, a nivel regulatorio, haya un mayor escrutinio en Algoritmos y Modelos de IA para garantizar transparencia, explicabilidad y protección de datos para garantizar la privacidad en el uso de la inteligencia artificial.

“Veremos la búsqueda de soluciones para los daños generados por la IA y la promoción desde lo regulatorio de la ética en el uso y desarrollo de esta tecnología. También seguirán los avances en regulaciones sobre ciberseguridad aplicadas a la temática y en materia de cooperación internacional”, remata ESET.

Los sistemas de Tecnología Operativa (OT) son sistemas informáticos y dispositivos utilizados para controlar procesos industriales y físicos en diversos sectores, como la energía, manufactura, agua y gas, entre otros.

La digitalización y conectividad de estos sistemas los ha vuelto interesantes y vulnerables a ciberataques.El NIST (Instituto de Estándares y Tecnología, del gobierno de EEUU) considera a la seguridad en OT un problema creciente y ha creado una guía que actualiza con regularidad.

“En 2025, las OT serán cada vez más relevantes en el ámbito de ciberseguridad por varias razones (…) También, muchos de estos sistemas son fundamentales para el funcionamiento de infraestructuras críticas con lo cual es atractivo para los criminales un ataque a esta tecnología, dado que tiene el potencial de causar grandes estragos”.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *