Esta semana en el podcast Lock and Code…
El 15 de agosto, la ciudad de San Francisco lanzó una lucha completamente nueva contra el mundo del porno deepfake: demandó a los sitios web que hacen que el material injusto sea tan realizable de crear.
Los “deepfakes”, como se les suele gritar, son imágenes y vídeos falsos que utilizan inteligencia industrial para cambiar el rostro de una persona por el cuerpo de otra. La tecnología se volvió virulento a finales de la lapso de 2010, cuando los editores de cine independientes cambiaban los actores de una película por otra, reemplazando, por ejemplo, a Michael J. Fox en Regreso al futuro por Tom Holland.
Pero muy pronto en el estreno de la tecnología, comenzó a estilarse para crear imágenes pornográficas de actrices, celebridades y, más recientemente, estudiantes de secundaria y universitarios. De guisa similar a la amenaza del “porno de venganza”, en el que los ex abusivos extorsionan a sus parejas anteriores con la posible publicación de fotos y videos sexualmente explícitos, el “porno deepfake” a veces se utiliza para manchar la reputación de cualquiera o avergonzarlo entre amigos y familiares.
Pero el porno deepfake es levemente diferente de la comprensión tradicional del “porno de venganza” en el sentido de que puede crearse sin ninguna relación verdadero con la víctima. Grupos enteros de desconocidos pueden tomar la imagen de una persona y ponerla en el cuerpo de una trabajadora sexual, de una fortuna de cine para adultos o de otra persona que fue filmada teniendo relaciones sexuales o posando desnuda.
La tecnología para crear pornografía deepfake es más accesible que nunca y ha provocado una crisis mundial para las adolescentes.
En octubre de 2023, un montón de más de 30 niñas en una escuela secundaria de Nueva Suéter hizo que sus compañeros de clase utilizaran sus imágenes para hacer deepfakes pornográficos y sexualmente explícitos. En marzo de este año, dos adolescentes fueron arrestados en Miami, Florida, por supuestamente crear desnudos falsos de compañeros de clase masculinos y femeninos que tenían entre 12 y 13 primaveras. Y a principios de septiembre de este mes, la BBC informó que la policía En Corea del Sur estaban investigando redes de pornografía deepfake en dos importantes universidades.
Si perfectamente las escuelas individuales y los departamentos de policía locales en los Estados Unidos están abordando el acoso de la pornografía ultrafalsa a medida que surge (con suspensiones, expulsiones y energía), el proceso es gradual y reactivo.
En parte, es por eso que el fiscal de la ciudad de San Francisco, David Chiu, y su equipo no apuntaron a las personas que crean y difunden pornografía deepfake, sino a los sitios web que lo hacen tan realizable.
Hoy, en el podcast Lock and Code con el presentador David Ruiz, hablamos con el fiscal de la ciudad de San Francisco, David Chiu, sobre la demanda de su equipo contra 16 sitios web de pornografía deepfake, la historia de la ciudad en la protección de los californianos y la importancia del extralimitación que estos sitios web ofrecen como servicio suscripción.
“Al menos uno de estos sitios web promueve específicamente el carácter no consensuado de esto. Simplemente citaré: ‘Imagínate perder el tiempo llevándola a citas cuando puedes usar el sitio web X para conseguir sus desnudos’”.
David Chiu, abogado de la ciudad de San Francisco
Sintonice hoy para ver la conversación completa.
Mostrar notas y créditos:
Música de presentación: “Spellbound” de Kevin MacLeod (incompetech.com)
Graduado bajo Creative Commons: Por abuso Attribution 4.0
http://creativecommons.org/licenses/by/4.0/
Música final: “Good God” de Wowa (unminus.com)
Escuche: Malwarebytes no solo deje de ciberseguridad, sino que la brindamos.
Protéjase de los ataques en partidura que amenazan su identidad, sus archivos, su sistema y su bienestar financiero con nuestra ofrecimiento monopolio para Malwarebytes Premium para oyentes Lock and Code.