En la era moderna de la tecnología, los métodos de los ciberdelincuentes y de los malos actores continúan evolucionando. El tema de los ataques deepfake es cada vez más global en el panorama digital. Que un atacante se haga advenir por determinado que conocemos utilizando inteligencia químico ya no es una idea descabellada salida de los medios de ciencia ficción.
Los individuos y las corporaciones enfrentan la amenaza muy auténtico de ataques deepfake a un ritmo cada vez decano. De hecho, en 2021 el FBI emitió una advertencia sobre la creciente amenaza del contenido sintético, que incluye deepfakes. Siguieron esto con la anticipación de que la tecnología sería “utilizada cada vez más por actores cibernéticos criminales y extranjeros para phishing e ingeniería social en una crecimiento del arte operante cibernético”.
¿Cómo podemos protegernos eficazmente de los malos actores que utilizan medios sintéticos en sus ataques?
Cómo los malos actores aprovechan la tecnología Deepfake
La creación de deepfakes se cimiento en el estudios profundo, una rama de la IA que procesa datos y hace predicciones similares a las del cerebro humano. Los avances en IA han legado puesto a resultados cada vez más realistas obtenidos con dicha tecnología. Los malos actores ahora pueden alterar imágenes pregrabadas. Incluso pueden superponer el rostro de un individuo completamente diferente al suyo en tiempo auténtico.
Un ejemplo digno de mención de esto es el ataque de ingeniería social asistido por IA contra una empresa multinacional en Hong Kong. Los malos actores engañaron a un trabajador financiero para que pagara 200 millones de dólares de Hong Kong, unos 25,6 millones de dólares. Lo que comenzó como un mensaje de phishing solicitando la transacción financiera condujo a una videoconferencia en vivo. El trabajador financiero asumió que esta sería una forma segura de validar la solicitud sospechosa. El trabajador de finanzas creía que se estaban comunicando con el director financiero y otros colegas y, por lo tanto, se sentía lo suficientemente cómodo como para cumplir con la solicitud. Sin que el empleado lo supiera en ese momento, TODAS las PERSONAS en la videoconferencia eran completamente falsas.
Encima de los ataques de ingeniería social como el incidente de Hong Kong, los malos actores incluso aprovechan la tecnología deepfake de muchas otras formas maliciosas. Algunos de estos incluyen fraude de identidad, difusión de telediario falsas y, lamentablemente, incluso chantajear a víctimas desprevenidas con pornografía falsa del propio individuo. En verdad, los medios sintéticos han provocado una oleada de nefastos vectores de ataque contra individuos y corporaciones por igual.
Medidas de protección
El uso criminal de contenido sintético lleva a muchos a preguntarse qué medidas pueden tomar para acogerse. Especialmente las corporaciones permanecen en alerta máxima y buscan activamente formas de defenderse contra ataques ultrafalsos como el incidente de Hong Kong.
Indicadores que puedes detectar:
- El FBI insta a apañarse indicadores visuales esencia de que un medio puede contener contenido sintético. Dichos indicadores serían distorsiones, deformaciones, inconsistencias o asimetrías en las fotografías. Por lo universal, se pueden encontrar cerca de de las pupilas y los lóbulos de las orejas en imágenes fijas. Las asimetrías comunes que se encuentran en las imágenes sintéticas serían aretes diferentes en cada costado. O un ojo podría ser un poco más ilustre que el otro. En el caso de las imágenes de cuerpo completo, muchos modelos de imágenes deepfake tienen dificultades para difundir manos. Por lo tanto, puede que valga la pena comprobar el número correcto de dedos, así como el tamaño y realismo de la mano.
- En forma de video, los indicadores esencia serían audio sincronizado incorrectamente con los movimientos de los labios. Puede activo parpadeos o parpadeos antinaturales cerca de de los fanales. Encima, puede activo luces o sombras extrañas y expresiones faciales que no coinciden con el tono emocional del palabra. Cuando se comercio de vídeos que utilizan “métodos de intercambio de caras”, a veces se puede ver dónde la cara de otra persona se ha mezclado con la frente innovador. Pueden notarse diferencias en la textura o el color de la piel, cercano con las inconsistencias en la crencha del guedeja.
Capacitación y mejores prácticas que funcionan
Por supuesto, ni siquiera conocer los indicadores visuales que podemos detectar en este momento es 100% infalible. Con las capacidades cada vez mayores de la inteligencia químico, estas inconsistencias y señales visuales pronto serán casi imposibles de detectar. Oportuno a esto, es imperativo adoptar una buena higiene cibernética como individuos y invertir una capacitación efectiva en concientización sobre la seguridad como corporación.
Esto incluiría:
- Adoptar una “filosofía de confianza cero” y efectuar lo que ves sin aceptar que una persona o individuo en crencha es cierto basándose en la existencia de videos, fotografías o audio.
- Busque múltiples fuentes de información independientes para efectuar a una persona, especialmente si tiene solicitudes extrañas que buscan su información.
- Esté consciente de los posibles vectores de ataque de los malos actores y capacite a los usuarios para identificar y denunciar intentos de ingeniería social que puedan comprometer cuentas personales o corporativas.
- Para contenido y medios personales, incluya huellas digitales o marcas de agua que puedan dificultar que determinado cree contenido sintético a partir de ellos. Algunas aplicaciones incluso agregan ruido a sus fotos para mitigar el aventura de que se utilice para contenido generado por IA.
Prueba. Educar. Proteger.
Al aumentar nuestra conciencia sobre los nuevos ataques que utilizan los malos actores y invertir las mejores prácticas, podemos protegernos eficazmente de ataques Deepfake. Muchas corporaciones optan por promover la capacitación en materia de seguridad para educar a los miembros de su personal. En Social-Engineer LLC, nuestros programas de servicios administrados, Vishing, Phishing, SMiShing y Evaluaciones de seguridad, probarán, educarán y protegerán la primera crencha de defensa de su empresa: sus empleados.
Adyacente con estos programas de concientización en vivo y personalizados, llega nuestro zaguero software, nuestra principal Auditoría de ingeniería social basada en IA. Con nuestro nuevo servicio de vanguardia, ayudamos a su personal a navegar por el futuro de la ciberseguridad utilizando tecnologías avanzadas de deepfake. Estos escenarios hiperrealistas están diseñados para probar y mejorar la vigilancia de su equipo, preparándolos para desafíos del mundo auténtico. Si desea obtener más información sobre este o cualquiera de nuestros otros programas de concientización sobre seguridad, visite Social-Engineer.com.
Escrito por Josten Peña
Analista de Riesgos Humanos para Social-Engineer, LLC