VenezuelaVv

Página Web de Noticias

Uncategorized

Inteligencia Artificial y cibercrimen: Las 5 maneras en las que se unen para crear ataques

ESET analiza cómo esta herramienta, que está revolucionando todos los sectores e industrias, también es aprovechada por el cibercrimen para expandir y mejorar sus tácticas y estrategias.

La Inteligencia Artificial (IA) llegó para revolucionar todo y se convirtió en una herramienta indispensable en muchas disciplinas. Lamentablemente, también es utilizada de diferentes maneras por el cibercrimen para llevar adelante sus ataques y acciones maliciosas. ESET, compañía líder en detección proactiva de amenazas, alerta sobre las 5 maneras en las que se unen para robar información sensible y sacar un rédito económico.

  1. Perfeccionar la suplantación de identidad: Según investigadores de seguridad de IA en ETH Zurich,
    el gran auge de ChatGPT se vio acompañado de un daño colateral muy peligroso: el enorme
    aumento de correos de phishing. La IA generativa se convirtió en la mejor aliada para diagramar
    formas de engañar a las personas para que estas revelen información sensible, ya sea para sacar un
    rédito económico o utilizarla para otras acciones maliciosas. Pero IA no es solo utilizada como una
    herramienta para lograr contenidos cada vez más convincentes, sino que también que se utiliza para traducir mensajes y mejorar la comunicación entre diferentes grupos cibercriminales de todo el mundo.
  2. Optimizar el doxing: El doxing, también conocido como doxxing, es la práctica de publicar
    información personal de terceros con la intención de intimidar, extorsionar o afectar de algún modo.
    Esta práctica se afianzó en 2020 como parte de los ataques de ransomware, en los que los
    cibercriminales, además de secuestrar todos los archivos, roban información de sus víctimas para
    sumar presión a las organizaciones, amenazándolas con publicar toda esa información privada si no
    se paga el rescate.
  3. Hacer más realistas las estafas por audio y deepfake: No es una novedad que la IA generativa
    evolucionó a tal punto que hoy es realmente difícil discernir entre una imagen real y una creada por
    esta herramienta. Un ejemplo que ilustra de manera paradigmática es el de la estafa al empleado
    que perdió 24 millones de dólares tras una reunión con quien supuestamente era el director
    financiero de la compañía y le pedía la transferencia por ese monto importante de dinero.
  4. Esquivar controles de identidad: En la misma línea que los deepfakes, los cibercriminales han
    encontrado la manera de eludir aquellos controles que verifican la identidad de una persona a
    través de una imagen gracias a la Inteligencia Artificial. ¿Cómo lo hacen? Mediante un documento
    de identificación, ya sea falso o robado, logran superponer esa imagen por encima del rostro de la
    persona real -similar a un filtro de la plataforma Instagram- y así engañar al sistema. Si bien de
    momento esta práctica se encuentra en un estado básico, es una metodología que podría seguir
    mejorando y expandiendo su aplicación.
  5. Ofrecer jailbreak como servicio: Las empresas detrás de las herramientas de inteligencia artificial
    implementan varias instancias de protección con el fin de que sus modelos no devuelvan a los usuarios alguna información que pudiera ser peligrosa. Ahora bien, el cibercrimen está optando por contratar servicios de jailbreak, en vez de construir sus propios modelos de IA, algo que les implicaría mucho más tiempo y dinero. Los ciberatacantes pueden modificar el sistema de inteligencia artificial apuntado, y generar respuestas vinculadas a la generación de contenido para correos maliciosos o directamente para escribir código para un ransomware u otro tipo de malware, eludiendo estas limitaciones de las herramientas originales.

Periodista: Enrique Raúl Vivas Pino

CNP: 15.730

Soy Comunicador Social egresado de la UCSAR Mención Comunicación Organizacional