Hackers Encuentran Nuevas Formas de Utilizar la IA Para Cometer Delitos

Hacker-01.jpg

La firma de ciberseguridad SlashNext suena la alarma a medida que los exploits se vuelven mucho más sofisticados.

En Resumen

  • La ciberdelincuencia impulsada por inteligencia artificial está creciendo rápidamente, con herramientas como WormGPT y FraudGPT inundando la darkweb.
  • Un nuevo chatbot de IA llamado DarkBert se está desarrollando y se espera que tenga acceso a internet y tecnología de reconocimiento de imágenes de Google.
  • Las empresas deben tomar medidas proactivas en ciberseguridad y mejorar la verificación de correo electrónico para defenderse contra estas amenazas.

La ciberdelincuencia generada por inteligencia artificial está creciendo rápidamente, acelerada por el lanzamiento de varias nuevas herramientas en la darkweb más allá del descubrimiento de WormGPT el mes pasado, según un nuevo informe publicado el martes por la empresa de ciberseguridad SlashNext.

WormGPT y FraudGPT, son solo la punta del iceberg en el desarrollo de herramientas de inteligencia artificial que los ciberdelincuentes pretenden utilizar contra sus víctimas, concluye SlashNext.

FraudGPT solo fue creado con la capacidad de crear páginas web de estafa de phishing, escribir código malicioso, crear herramientas de piratería y escribir cartas de estafa.

Los investigadores de SlashNext dijeron que contactaron a un individuo pseudónimo llamado CanadianKingpin12 a través de Telegram.

«Durante nuestra investigación, asumimos el papel de un posible comprador para profundizar en CanadianKingpin12 y su producto, FraudGPT», dijo SlashNext. «Nuestro objetivo principal era evaluar si FraudGPT superaba a WormGPT en términos de capacidades tecnológicas y efectividad».

El equipo obtuvo más de lo que esperaba, ya que el vendedor, mientras mostraba FraudGPT, mencionó que próximamente llegarán nuevos chatbots de IA llamados DarkBart y DarkBert. Según afirmó CanadianKingpin12, estos chatbots tendrán acceso a internet y podrán integrarse con la tecnología de reconocimiento de imágenes de Google, Google Lens, lo que les permitiría enviar tanto texto como imágenes.

SlashNext señala que DarkBert fue inicialmente diseñado por la empresa de inteligencia de datos S2W como una herramienta legítima para combatir el cibercrimen, pero que los delincuentes claramente han reutilizado la tecnología para cometer cibercrimen en su lugar.

CanadianKingpin12 le dijo a los investigadores que DarkBert incluso puede ayudar en ataques avanzados de ingeniería social, explotar vulnerabilidades en sistemas informáticos y distribuir otro malware, incluido ransomware.

«ChatGPT tiene salvaguardias para protegerse contra casos de uso ilegales o maliciosos», dijo anteriormente David Schwed, director de operaciones de la empresa de seguridad blockchain Halborn, a Decrypt en Telegram. «[WormGPT y FraudGPT] no tienen esas salvaguardias, por lo que puedes pedirle que desarrolle malware para ti».

SlashNext dijo que el vendedor se vio obligado a cambiar las comunicaciones a aplicaciones de mensajería encriptadas después de ser expulsado de un foro debido a violaciones de políticas, específicamente, intentar vender acceso a FraudGPT a través de foros en línea en la «clear net» pública.

La clear net, o web superficial, se refiere a internet en general accesible a través de motores de búsqueda. En contraste, la darknet o web oscura no está indexada por motores de búsqueda y los sitios web de la darknet no suelen encontrarse a través de una búsqueda en Google. Aunque la darknet ha sido vinculada a ciberdelincuentes y mercados ilegales en línea como el Silk Road, muchos usuarios, como periodistas o disidentes políticos, dependen de la darknet para ocultar su identidad y proteger su privacidad.

Para defenderse contra el rápido desarrollo de herramientas de ciberdelincuencia generadas por IA, SlashNext recomienda a las empresas ser proactivas en su capacitación en ciberseguridad e implementar medidas mejoradas de verificación de correo electrónico.

A medida que los ciberdelincuentes recurren a la inteligencia artificial para crear herramientas maliciosas más avanzadas, un informe separado de la empresa de seguridad web Immunefi dijo que los expertos en ciberseguridad no tienen mucho éxito al utilizar la inteligencia artificial para combatir el cibercrimen.

El informe indicó que el 64% de los expertos encuestados afirmaron que el chatbot de OpenAI proporcionaba una «precisión limitada», y el 61% dijo que carecía de conocimientos especializados para identificar exploits.

«Si bien es difícil evaluar con precisión el verdadero impacto de estas capacidades, es razonable esperar que reduzcan las barreras para los aspirantes a ciberdelincuentes», dijo SlashNext. «Además, la rápida progresión de WormGPT a FraudGPT y ahora DarkBERT en menos de un mes subraya la influencia significativa de la inteligencia artificial maliciosa en el panorama de la ciberseguridad y el cibercrimen».

Fuente: Decrypt

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

scroll to top