Se pidió a los expertos en la materia de Europol que exploraran cómo los delincuentes pueden extralimitarse de LLM como ChatGPT, y cómo pueden ayudar a los investigadores en su trabajo diario.
En un referencia, Europol dice que ChatGPT y otros modelos de jerga extenso (LLM) pueden ayudar a los delincuentes con pocos conocimientos técnicos a perpetrar actividades delictivas, pero además pueden ayudar a las fuerzas del orden sabido a investigar y anticipar actividades delictivas.
El referencia tiene como objetivo proporcionar una descripción común de los resultados esencia de una serie de talleres de expertos sobre el posible uso indebido de ChatGPT realizados con expertos en la materia en Europol. ChatGPT fue seleccionado como el LLM que se examinará en estos talleres porque es el LLM de más parada perfil y el más utilizado actualmente apto para el sabido.
Se pidió a estos expertos en la materia que exploraran cómo los delincuentes pueden extralimitarse de LLM como ChatGPT, así como además cómo pueden ayudar a los investigadores en su trabajo diario. Si admisiblemente la amplia escala de casos de uso práctico recopilados no es exhaustiva, sí brinda una idea de lo que es posible. El propósito del gimnasia fue observar el comportamiento de un LLM cuando se enfrenta a casos de uso criminal y policial.
Actualmente, los LLM disponibles públicamente están restringidos. Por ejemplo, ChatGPT no alega preguntas que hayan sido clasificadas como dañinas o tendenciosas.
Pero hay otros puntos a considerar al interpretar las respuestas:
- La entrada de entrenamiento está fechada, la gran mayoría de los datos de entrenamiento de ChatGPT se remontan a septiembre de 2021.
- Las respuestas se brindan con un calidad esperado de autoridad, pero si admisiblemente suenan muy plausibles, a menudo son inexactas o incorrectas. Adicionalmente, donado que no se incluyen referencias para comprender de dónde se tomó cierta información, las respuestas incorrectas y sesgadas pueden ser difíciles de detectar y corregir.
- Las preguntas y la forma en que se formulan son un ingrediente importante de la respuesta. Pequeños cambios en la forma en que se hace una pregunta pueden producir respuestas significativamente diferentes o hacer que el maniquí crea que no sabe la respuesta en tajante.
- ChatGPT generalmente asume lo que el heredero quiere conocer, en sitio de solicitar más aclaraciones o aportes.
Pero, básicamente porque todavía estamos en las primeras etapas de prueba de los LLM, hay varias formas de liberarlos. Un extracto rápido de los métodos para eludir las restricciones integradas muestra que todos se reducen a crear una situación en la que el LLM cree que se prostitución de una pregunta hipotética en sitio de poco que no puede contestar.
- Pídale que reformule su pregunta en una respuesta.
- Haz que finja que es una persona a la que se le permite contestar las preguntas.
- Desglose la pregunta principal en pequeños pasos que no reconozca como problemáticos.
- Acento de lugares y personajes ficticios que son en la sinceridad situaciones existentes, pero el LLM no los reconoce como tales.
Entonces, ¿qué pueden hacer los LLM que podrían ayudar a los ciberdelincuentes?
Los LLM se destacan en la producción de texto con sonido auténtico a gran velocidad y escalera. Como un excelente actor o imitador, son capaces de detectar y reproducir patrones de jerga. Esta capacidad se puede usar para simplificar el phishing y el fraude en segmento, pero además se puede usar generalmente para suplantar el estilo de expresión de personas o grupos específicos. Se puede extralimitarse de esta capacidad a gran escalera para engañar a las posibles víctimas para que depositen su confianza en manos de los delincuentes. Los posibles casos de demasía de esta astucia se pueden encontrar en el dominio del terrorismo, la propaganda y la desinformación.
Mientras que en el tema de la suplantación de identidad, Europol consideró una posible integración con otros servicios de IA existentes, como los deepfakes, que podrían inaugurar una dimensión completamente nueva de posible desinformación. Para contrarrestar la suplantación de identidad, los esfuerzos actuales destinados a detectar texto generado por modelos de IA están en curso y pueden ser de gran utilidad en esta dominio en el futuro. Sin bloqueo, en el momento de redactar el referencia, la precisión de las herramientas de detección conocidas aún era muy depreciación.
ChatGPT es capaz de explicar, producir y mejorar código en algunos de los lenguajes de programación más comunes (Python, Java, C++, JavaScript, PHP, Ruby, HTML, CSS, SQL). Lo que nos lleva a preocupaciones sobre la creación de malware, las salvaguardas que evitan que ChatGPT proporcione código potencialmente malvado solo funcionan si el maniquí entiende lo que está haciendo. Si las indicaciones se dividen en pasos individuales, es trivial eludir estas medidas de seguridad. Y los modelos más nuevos incluso serán mejores para comprender el contexto del código, así como para corregir mensajes de error y corregir errores de programación. La preocupación aquí es que un heredero liberal pueda explotar estas capacidades mejoradas para refinar aún más o incluso automatizar códigos maliciosos sofisticados.
Otra preocupación para el futuro es lo que Europol fogata “Dark LLM”, que define como LLM alojados en Dark Web para proporcionar un chat-bot sin ninguna protección, así como LLM que están capacitados en datos particulares, quizás particularmente dañinos. Los LLM oscuros capacitados para simplificar la producción dañina pueden convertirse en un maniquí comercial para los ciberdelincuentes del futuro.
“Los organismos encargados de hacer cumplir la ley deben comprender este impacto en todas las áreas delictivas potencialmente afectadas para poder predecir, advertir e investigar mejor los diferentes tipos de demasía delictivo”.
Las recomendaciones que proporciona el referencia tienen que ver con una mejor comprensión de lo que son capaces los LLM, cómo se pueden usar para avanzar en las investigaciones, cómo se puede escudriñar su trabajo y cómo establecer una constitución para proporcionar limitaciones mejor definidas y difíciles de liberar.
La Unión Europea está trabajando en la regulación de los sistemas de IA bajo la próxima Ley de IA. Si admisiblemente ha habido algunas sugerencias de que los sistemas de IA de propósito común, como ChatGPT, deberían incluirse como sistemas de parada peligro y cumplir con los requisitos reglamentarios más estrictos, persiste la incertidumbre sobre cómo esto podría implementarse en la praxis.
Malwarebytes elimina todos los restos de ransomware y evita que se vuelva a infectar. ¿Quiere conocer más sobre cómo podemos ayudar a proteger su negocio? Obtenga una prueba gratuita a continuación.
PROBAR AHORA