La startup Koko ha sido criticada por observar con adultos jóvenes en aventura de hacerse daño. Peor aún, los adultos jóvenes no sabían que eran sujetos de prueba.
A posteriori de meterse en problemas por usar un chatbot de IA para congratular asesoramiento sobre vitalidad mental, la startup sin fines de rendimiento Koko ahora ha sido criticada por observar con adultos jóvenes en aventura de hacerse daño. Peor aún, los adultos jóvenes no sabían que eran sujetos de prueba.
Motherboard informa que el intento tuvo circunscripción entre agosto y septiembre de 2022. Los sujetos en aventura, de 18 a 25 primaveras, fueron dirigidos a un chatbot a posteriori de informar palabras esencia “relacionadas con la crisis” como “depresión” y “deslizamiento de alcantarillado” en Discord, Facebook Messenger , Telegrama y Tumblr. Luego fueron asignados al azar a un especie que recibió una “respuesta de crisis típica” (llame a la recta directa de crisis) o una “intervención de sesión única (SSI) de respuesta de crisis mejorada de un minuto” impulsada por IA.
Rob Morris, cofundador de Koko y profesor de la Universidad de Stony Brook, llevó a extremidad el intento con sus colegas de psicología, Katherine Cohen, Mallory Dobias y Jessica Schleider. El estudio dice que su objetivo es mostrar a las plataformas de redes sociales que señalar a los adultos jóvenes las líneas directas de crisis no es suficiente. Morris dice que quiere demostrar que una intervención de chatbot de IA es más efectiva para ayudar a los adultos jóvenes que luchan con problemas de vitalidad mental.
Sin bloqueo, esto parece solo hallarse proporcionadamente en el papel.
Antiguamente de que Koko realice aquello para lo que fue diseñado, primero presenta su política de privacidad y términos de servicio (ToS), informando a los usuarios que sus datos anónimos pueden compartirse y estilarse para investigación. Aquí radica el primer problema: el consentimiento para participar en el plan se otorga aceptando la política de privacidad y los términos del servicio de Koko. Como todos sabemos, la gran mayoría de las personas en recta normalmente no los lee. Presumiblemente, siquiera es el primer pensamiento para los adultos jóvenes en aventura.
Cuando se le preguntó acerca de las disposiciones para el definitivo consentimiento, Morris dice polímero matriz“Hay muchas situaciones en las que el IRB eximiría a los investigadores de obtener el consentimiento por muy buenas razones porque podría ser poco ético o poco práctico, y esto es especialmente popular para la investigación en Internet. Tiene matices”. Un IRB, o trabazón de revisión institucional, asimismo se denomina comité de ética de la investigación. Esencialmente, son el especie que protege a los sujetos de investigación humanos.
El segundo problema tiene que ver con los datos. La preimpresión revela que los sujetos proporcionaron su perduración, identidad de productos e identidad sexual a los investigadores. Dichos conjuntos de datos pueden ser anónimos, pero los estudios muestran que aún se pueden rastrear hasta individuos específicos con una suscripción precisión del 99,98 por ciento. “La mayoría de los IRB dan un pase a la investigación ‘desidentificada’ ya que afirman que no puede tener daños a la privacidad o la seguridad. Pero, en este caso, están recopilando información demográfica que podría estilarse para identificar a los usuarios”, dijo Eric Perakslis, el director verificado y oficial digital del Duke Clinical Research Institute, polímero matriz informes.
Y el posterior problema, que alarmó y horrorizó a investigadores y psicólogos por igual, fue que el intento se llevó a extremidad como “investigación con sujetos no humanos”. Esto significa que los sujetos han sido despojados de las debidas protecciones relacionadas con la seguridad y la privacidad.
“Completamente, horriblemente poco ético. Aventurar de guisa práctico con intervenciones no probadas en personas potencialmente suicidas es simplemente horrible”, dijo el profesor de bioética de la Universidad de Nueva York, Arthur Caplan, citado por el medio.
“Si esta es la forma en que los empresarios piensan que pueden establecer la IA para las enfermedades y condiciones mentales, tenían un mejor plan para un dispersión repleto de reacciones violentas, demandas, condenas y críticas. Todo lo cual se lo ganó y lo mereció”.
“No he pasado en los últimos primaveras un estudio tan insensiblemente dormido en la rueda ética. Tratar a las personas suicidas de esta guisa es imperdonable”, agregó.
Malwarebytes elimina todos los restos de ransomware y evita que se vuelva a infectar. ¿Quiere enterarse más sobre cómo podemos ayudar a proteger su negocio? Obtenga una prueba gratuita a continuación.
PROBAR AHORA