
Los ciberdelincuentes utilizan inteligencia artificial para llevar a cabo estrategias cada vez más elaboradas. Su objetivo es robar todo tipo de información, desde ahorros para la jubilación hasta secretos corporativos, con métodos cada vez más difíciles de detectar.
La misma tecnología que adapta los anuncios a los compradores en línea ahora está siendo utilizada por ciberdelincuentes para recopilar información personal y lanzar estafas personalizadas con gran rapidez. ¡Muy rápida!.
Grandes empresas de inteligencia artificial como Anthropic, OpenAI y Google informan que delincuentes están utilizando sus plataformas para orquestar complejas operaciones de phishing, desarrollar software dañino y ejecutar diversos ataques digitales. Especialistas en seguridad advierten que los delincuentes también están produciendo audios y vídeos falsos de directivos de empresas para engañar a los empleados y conseguir que revelen información confidencial.
Las empresas y las oficinas gubernamentales pronto podrían enfrentarse a enjambres de sistemas impulsados por IA que pueden detectar debilidades en las redes informáticas y luego planificar y ejecutar ataques casi sin ayuda humana.
La tecnología está cambiando la forma en que los delincuentes operan en línea. Alice Marwick, directora de investigación en Data & Society, una organizacióndent de investigación tecnológica, declaró al Wall Street Journal que el mayor cambio se relaciona con el tamaño y el alcance. «El verdadero cambio radica en el alcance y la escala. Las estafas son más grandes, más específicas y más convincentes»
Brian Singer esdent de doctorado en la Universidad Carnegie Mellon. Estudia cómo se utilizan los grandes modelos de lenguaje en ciberataques y defensas. ¿Su estimación? Entre la mitad y tres cuartas partes de los mensajes de spam y phishing a nivel mundial provienen actualmente de sistemas de IA.
Los ataques en sí se han vuelto más creíbles. Los sistemas de IA entrenados en las comunicaciones empresariales pueden producir miles de mensajes que suenan naturales y se ajustan al estilo de la empresa. Copian la forma de escribir de los ejecutivos. Mencionan noticias recientes encontradas en registros públicos.
La tecnología también ayuda a los estafadores extranjeros a ocultar errores de lenguaje que solían hacer evidentes sus intentos. Los delincuentes pueden hacerse pasar por víctimas mediante videos falsos y voces copiadas . Usan la misma dent para atacar a varias personas a la vez.
John Hultquist, analista jefe de Google Threat Intelligence Group, describe el principal cambio como «credibilidad a gran escala»
Los delincuentes también están mejorando su capacidad para elegir objetivos. Utilizan IA para explorar las redes sociales y encontrar a personas que enfrentan dificultades importantes en la vida. Divorcios, fallecimientos familiares, pérdida del trabajo y situaciones que podrían hacer a alguien más vulnerable a engaños románticos, fraudes de inversión u ofertas de trabajo falsas.
La barrera de entrada para la ciberdelincuencia ha disminuido. Los mercados clandestinos ahora venden o alquilan herramientas de IA para trabajos delictivos por tan solo $90 al mes. Nicolas Christin dirige el departamento de software y sistemas sociales de Carnegie Mellon.
Dijo que estas plataformas ofrecen diferentes niveles de precios y soporte al cliente. «Los desarrolladores venden suscripciones para atacar plataformas con precios escalonados y soporte al cliente»
Estos servicios se conocen como WormGPT, FraudGPT y DarkGPT. Pueden crear software dañino y campañas de phishing. Algunos incluso incluyen materiales didácticos sobre técnicas de hacking.
Margaret Cunningham esdent de seguridad y estrategia de IA entrace, una empresa de seguridad. Dice que es sencillo: «No necesitas saber programar, solo saber dónde encontrar la herramienta»
Existe un desarrollo reciente llamado vibe -coding o vibe -hacking. Este podría permitir a los aspirantes a delincuentes usar la IA para crear sus propios programas maliciosos en lugar de comprarlos de fuentes clandestinas. Anthropic reveló a principios de este año que había detenido varios intentos de usar su IA Claude para crear ransomware por parte de "delincuentes con pocas habilidades técnicas".
Las operaciones criminales están cambiando. Según los expertos, la ciberdelincuencia ha funcionado como un mercado comercial durante años. Una operación típica de ransomware involucraba a diferentes grupos: intermediarios de acceso que irrumpían en las redes de las empresas y vendían la entrada; equipos de intrusión que se movían por los sistemas robando datos; y proveedores de ransomware como servicio que distribuyeron el malware, gestionaron las negociaciones y dividieron el dinero.
La IA ha aumentado la velocidad , el tamaño y la disponibilidad de este sistema. El trabajo que antes realizaban personas con conocimientos técnicos ahora puede ejecutarse automáticamente matic Esto permite a estos grupos operar con menos personal, menos riesgo y mayores ganancias. "Considérelo como la siguiente etapa de la industrialización. La IA aumenta el rendimiento sin requerir mano de obra más cualificada", explica Christin.
¿Puede la IA lanzar ataques completamente por sí sola? Todavía no. Los expertos comparan la situación con el impulso hacia los vehículos totalmente autónomos. Se ha alcanzado el 95 % inicial. Pero la parte final, que permitiría a un coche conducir a cualquier lugar y en cualquier momento por sí solo, sigue siendo inalcanzable.
Los investigadores están probando las capacidades de piratería de la IA en entornos de laboratorio. Un equipo de Carnegie Mellon, con el apoyo de Anthropic, recreó la famosa filtración de datos de Equifax utilizando IA a principios de este año. Singer dirigió el trabajo en el Instituto de Seguridad y Privacidad CyLab de Carnegie Mellon. Lo califica de "un gran avance".
Los delincuentes explotan la IA con fines dañinos. Pero las empresas de IA afirman que estas mismas herramientas pueden ayudar a las organizaciones a fortalecer sus defensas digitales.
Anthropic y OpenAI están desarrollando sistemas de IA que pueden examinar continuamente el código de software para localizar vulnerabilidades que los delincuentes podrían explotar. Sin embargo, las personas aún deben aprobar cualquier corrección. Un programa reciente de IA desarrollado por investigadores de Stanford tuvo un mejor rendimiento que algunos evaluadores humanos al buscar problemas de seguridad en una red.
Ni siquiera la IA detendrá todas las brechas de seguridad. Por eso, las organizaciones deben centrarse en crear redes robustas que sigan funcionando durante los ataques, afirma Hultquist.
¿Quieres que tu proyecto esté presente en las mentes más brillantes del mundo de las criptomonedas? Preséntalo en nuestro próximo informe del sector, donde los datos se combinan con el impacto.