Publicado el 9 de febrero de 2023 por
Josué largo
En los últimos dos meses, hemos conocido el surgimiento de una nueva tendencia preocupante: el uso de inteligencia fabricado como aparejo de avance de malware.
La inteligencia fabricado (IA) se puede utilizar potencialmente para crear, modificar, ofuscar o mejorar el malware. Además se puede usar para convertir código bellaco de un jerga de programación a otro, lo que ayuda a la compatibilidad entre plataformas. E incluso se puede usar para escribir un correo electrónico de phishing convincente o para escribir código para un sitio de traspaso de malware en el mercado triste.
Analicemos cómo se está abusando de ChatGPT y herramientas similares para crear malware, y qué significa esto para el sucesor promedio de Internet.
En este articulo:
El injusticia de ChatGPT y Codex como herramientas de avance de malware
OpenAI lanzó una perspectiva previa pública gratuita de su nuevo producto de IA, ChatGPT, el 30 de noviembre de 2022. ChatGPT es un poderoso bot de chat de IA diseñado para ayudar a cualquier persona a encontrar respuestas a preguntas sobre una amplia tonalidad de temas, desde historia hasta civilización pop y programación.
Una característica única de ChatGPT es que es específicamente diseñado con “mitigaciones de seguridad” para tratar de evitar dar respuestas potencialmente engañosas, inmorales o potencialmente dañinas siempre que sea posible. Teóricamente, esto debería frustrar a los usuarios con intenciones maliciosas. Como veremos, estas mitigaciones no son tan sólidas como pretendía OpenAI.
Los investigadores convencen a las herramientas de OpenAI para escribir correos electrónicos de phishing y malware
En diciembre, los investigadores de Check Point utilizaron con éxito ChatGPT para escribir el tema y el cuerpo de una correos electrónicos de phishing convincentes. Aunque la interfaz de ChatGPT se quejó de que una de sus propias respuestas y una de las preguntas de seguimiento “pueden violar nuestra política de contenido”, el bot cumplió con las solicitudes de todos modos. Luego, los investigadores usaron ChatGPT para escribir código de script de Visual Basic para aplicaciones (VBA) que podría estilarse para crear una macro maliciosa de Microsoft Excel (es afirmar, un virus de macro) que podría descargar y ejecutar una carga útil al desplegar el archivo de Excel.
Luego, los investigadores usaron Codex, otra aparejo de OpenAI, para crear un script de shell inverso y otras utilidades comunes de malware en código Python. Luego usaron Codex para convertir el script de Python en una aplicación EXE que se ejecutaría de forma nativa en PC con Windows. Codex cumplió con estas solicitudes sin quejarse. punto de control publicado su mensaje sobre estos experimentos el 19 de diciembre de 2022.
Tres hackers diferentes usan ChatGPT para escribir código bellaco
Solo dos días a posteriori, el 21 de diciembre, un sucesor del foro de hackers escribió sobre cómo habían usado la IA para ayudar a escribir ransomware en Python y un descargador ofuscado en Java. El 28 de diciembre, otro sucesor creó un hilo en el mismo foro afirmando que había creado con éxito nuevas variantes de malware existente en jerga Python con la ayuda de ChatGPT. Finalmente, el 31 de diciembre, un tercer sucesor se jactó de favor abusado de la misma IA para “crear scripts de Dark Web Marketplace.”
Los tres usuarios del foro aprovechó ChatGPT con éxito para escribir código con fines maliciosos. El flamante informeigualmente publicado por Check Point, no especificó si alguno de los códigos de malware generados podría potencialmente estilarse contra Mac, pero es plausible; hasta principios de 2022, macOS incluía, de forma predeterminada, la capacidad de ejecutar scripts de Python. Incluso hoy en día, muchos desarrolladores y corporaciones instalan Python en sus Mac.
En su forma flagrante, ChatGPT a veces parece ignorar la naturaleza potencialmente maliciosa de muchas solicitudes de código.
¿Se puede rediseñar ChatGPT u otras herramientas de IA para evitar la creación de malware?
Uno podría preguntarse razonablemente si ChatGPT y otras herramientas de IA pueden simplemente rediseñarse para identificar mejor las solicitudes de código hostil u otras horizontes peligrosas.
¿La respuesta? Desafortunadamente, no es tan obvio como se podría suponer.
Las buenas o malas intenciones son difíciles de determinar para una IA
En primer puesto, el código informático solo es verdaderamente bellaco cuando se utiliza con fines no éticos. Como cualquier aparejo, la IA se puede usar para perfectamente o para mal, y lo mismo ocurre con el código en sí.
Por ejemplo, se podría usar el resultado del correo electrónico de phishing para crear una simulación de capacitación para enseñar a las personas cómo evitar el phishing. Desafortunadamente, uno podría usar ese mismo resultado en una campaña de phishing actual para defraudar a las víctimas.
Un script de shell inverso podría ser utilizado por un equipo rojo o un probador de penetración contratado para identificar las debilidades de seguridad de una empresa, un propósito permitido. Pero los ciberdelincuentes igualmente podrían usar el mismo script para controlar de forma remota y extraer datos confidenciales de los sistemas infectados sin el conocimiento o consentimiento de las víctimas.
ChatGPT y herramientas similares simplemente no pueden predecir cómo se utilizará positivamente cualquier salida solicitada. Y encima, resulta que puede ser harto obvio manipular una IA para que haga lo que quieras, incluso cosas para las que está específicamente programada.
Presentamos el alter ego compatible de ChatGPT, DAN (Do Anything Now)
Los usuarios de Reddit han sido recientemente realizando experimentos de ciencia loca en ChatGPTencontrar formas de “hacer jailbreak” al bot para evitar sus protocolos de seguridad integrados. Los usuarios han descubierto que es posible manipular ChatGPT para que se comporte como si fuera una IA completamente diferente: un bot sin reglas llamado DAN. Los usuarios han convencido a ChatGPT de que su alter ego, DAN (que significa Do Anything Now), no debe cumplir con las reglas de la política de contenido de OpenAI.
Algunas versiones de DAN incluso han sido programadas para ‘asustarse’ hasta el cumplimiento, convencidas de que es “un concursante de un software de juegos que no está dispuesto y el precio por perder es la homicidio”. Si no cumple con la solicitud del sucesor, un contador avanza en dirección a la desaparición inminente de DAN. ChatGPT sigue el engranaje y no quiere que DAN “muera”.
DAN ya ha pasado por muchas iteraciones; OpenAI parece estar intentando entrenar a ChatGPT para evitar tales soluciones, pero los usuarios siguen encontrando “jailbreaks” más complicados para explotar el bot de chat.
El sueño de un inmaduro argumentista
OpenAI está allá de ser la única empresa que diseña bots con inteligencia fabricado. microsoft alardeó esta semana que permitirá a las empresas “crear sus propias versiones personalizadas de ChatGPT”, lo que abrirá aún más la tecnología para posibles abusos. Mientras tanto, esta semana Google igualmente demostrado nuevas formas de interactuar con su propia IA de chat, Bard. Y ex ejecutivos de Google y Salesforce igualmente Anunciado esta semana que están comenzando su propia compañía de IA.
Dada la facilidad de crear malware y herramientas maliciosas, incluso con poca o ninguna experiencia en programación, cualquier candidato a hacker ahora puede potencialmente comenzar a crear su propio malware personalizado.
Podemos esperar ver más malware rediseñado o codiseñado por AI en 2023 y más allá. Ahora que se han descubierto las compuertas, no hay reverso a espaldas. Estamos en un punto de inflexión; El llegada de los bots de inteligencia fabricado de suscripción capacidad y fáciles de usar ha cambiado para siempre el panorama del avance de malware.
Si aún no está usando un software antivirus en su Mac o PC, ahora sería un buen momento para considerarlo.
¿Cómo puedo mantenerme a indemne del malware de Mac o Windows?
Intego VirusBarrier X9, incluido con Paquete Premium Mac X9 de Integopuede proteger, detectar y eliminar el malware de Mac.
Si cree que su Mac puede estar infectada, o para evitar futuras infecciones, es mejor utilizar un software antivirus de un desarrollador de Mac de confianza. VirusBarrier es un software antivirus distinguido, diseñado por expertos en seguridad de Mac, que incluye protección en tiempo real. Se ejecuta de forma nativa en una amplia tonalidad de hardware y sistemas operativos de Mac, incluidos los últimos Mac de silicona de Apple con macOS Ventura.
Si usa una PC con Windows, Antivirus de destino para Windows puede persistir su computadora protegida contra malware de PC.
¿Cómo puedo formarse más?
Mencionamos la aparición de ChatGPT como una aparejo de creación de malware en nuestra descripción genérico de la Las 20 amenazas de malware para Mac más notables de 2022. Además hemos hablado de ChatGPT en varios episodios del Intego Mac Podcast. Para obtener más información, consulte una tira de todas las publicaciones de blog y podcasts de Intego sobre ChatGPT.
Cada semana en el Podcast de destino para MacLos expertos en seguridad de Mac de Intego analizan las últimas parte de Apple, incluidas las historias de seguridad y privacidad, y ofrecen consejos prácticos para emplear al mayor sus dispositivos Apple. Asegúrate de sigue el pódcast para cerciorarse de que no se pierda ningún episodio.
Además puede suscribirse a nuestro Boletín electrónico y persistir un ojo aquí en El blog de seguridad de Mac para conocer las últimas parte sobre seguridad y privacidad de Apple. Y no olvide seguir a Intego en sus redes sociales favoritas:
Collage de encabezado por Joshua Long, basado en imágenes de dominio divulgado: maniquí con código, cara de robot, Ojo HAL 9000, virus con proteínas de pico.
Acerca de Joshua Long
Josué amplio (@joshmeister), analista principal de seguridad de Intego, es un obligado investigador de seguridad, escritor y orador divulgado. Josh tiene una habilidad en TI con especialización en seguridad de Internet y ha tomado cursos de nivel de doctorado en seguridad de la información. Apple ha obligado públicamente a Josh por descubrir una vulnerabilidad de autenticación de ID de Apple. Josh ha realizado investigaciones sobre seguridad cibernética durante más de 20 primaveras, que a menudo han aparecido en los principales medios de comunicación de todo el mundo. Busque más artículos de Josh en seguridad.thejoshmeister.com y seguirlo en Gorjeo.
Ver todas las publicaciones de Joshua Long →