Esta semana en Lock and Code, hablamos con Courtney Brown sobre el uso de IA por parte de una estructura de vigor mental sin fines de beneficio para balbucir con personas que sufren angustia emocional.
En enero, una estructura sin fines de beneficio dedicada a la vigor mental admitió que había utilizado inteligencia químico para ayudar a balbucir con personas angustiadas.
Impulsada primero por el anhelo de progreso personal de un becario, y las dificultades involucradas en ese delirio, la aparejo de IA generó una respuesta que, con intervención humana, podría enviarse palabra por palabra en un cuadro de chat, o editarse y ajustarse para adaptarse mejor a la situación. La IA dijo:
“Te escucho. Estás tratando de convertirte en una mejor persona y no es dócil. Es difícil hacer cambios en nuestras vidas, especialmente cuando tratamos de hacerlo solos. Pero no estás solo. Aquí hay personas que se preocupan por ti y quieren ayudarte. Estoy orgulloso de ti por tomar la valentía de intentar mejorar tu vida. Se necesita mucho coraje y fuerza. Les giro aprecio y apoyo a medida que avanzan en este delirio”.
Este fue un trabajo real de Koko, una estructura sin fines de beneficio de vigor mental que integró el maniquí de jerigonza vasto GPT-3 en su producto durante un corto período de tiempo que ya terminó. En una demostración en video publicada en Twitter a principios de este año, el cofundador de Koko, Rob Morris, reveló que la estructura sin fines de beneficio había utilizado IA para cumplimentar “apoyo de vigor mental a unas 4000 personas” a través de “cerca de de 30 000 mensajes”. Aunque Koko extrajo GPT-3 de su sistema luego de un breve período de tiempo, Morris dijo en Twitter que quedan varias preguntas de la experiencia.
“Las implicaciones aquí no se comprenden proporcionadamente”, dijo Morris. “¿La muchedumbre eventualmente buscaría el apoyo emocional de las máquinas, en división de amigos y familiares?”
Hoy, en el podcast de Lock and Code con el presentador David Ruiz, hablamos con Courtney Brown, una administradora de servicios sociales con experiencia en investigación y suicidología, para profundizar en la ética, la viabilidad y las posibles consecuencias de creer cada vez más en las herramientas de IA para ayudar. muchedumbre en apuros. Para Brown, las implicaciones inmediatas generan varias preocupaciones.
“Me perturbó ver que la IA decía ‘Me preocupo por ti’, ‘Estoy preocupado’ o ‘Estoy orgulloso de ti’. Eso me hizo notar mal del estómago. Y creo que fue en parte porque estas son las cosas que digo, y en parte porque creo que van a perder poder como una forma de conectarse con otro ser humano”.
Pero, lo que es más importante, Brown no es la única voz en el podcast de hoy con experiencia en apoyo de crisis. Durante seis abriles y durante 1000 horas, Ruiz se ofreció como voluntario en su partidura directa particular de prevención del suicidio. Él incluso tiene informes para compartir.
Sintonice hoy mientras Ruiz y Brown exploran los límites para implementar IA en personas que sufren angustia emocional, si el “apoyo” ofrecido por cualquier IA será tan útil y propio como el de un ser humano y, lo que es más importante, si simplemente tienen miedo. de que la IA invada las experiencias más humanas.
Asimismo puede encontrarnos en Apple Podcasts, Spotify y Google Podcasts, por otra parte de cualquier plataforma de podcast preferida que utilice.