Los chatbots de IA están aquí para ayudarle con su salud mental. Esto es a pesar de la evidencia limitada.

Descarga el chatbot de salud mental Earkick y serás recibido por un panda con una bufanda que podría encajar fácilmente en una caricatura infantil. Empiece a hablar o escribir sobre la ansiedad. Luego, la aplicación crea un mensaje reconfortante y empático que los terapeutas están capacitados para transmitir. Panda puede recomendar ejercicios de respiración guiados. Cómo cambiar los pensamientos negativos o consejos para controlar el estrés Todo esto es parte de un enfoque ampliamente utilizado por los terapeutas. Pero, por favor, no lo llamen terapia, dice Karin Andrea Stephan, cofundadora de Earkick: «Cuando la gente nos llama una forma de terapia, está bien, pero no queremos salir a hacerlo». ex músico profesional y se describe a sí mismo como un emprendedor en serie. «Simplemente no nos sentimos cómodos con eso». La cuestión de si estos chatbots basados ​​en inteligencia artificial brindan servicios de salud mental o son simplemente una nueva forma de autoayuda es de vital importancia para la industria de la salud digital. Earkick es una de los cientos de aplicaciones gratuitas diseñadas para resolver la crisis de salud mental entre adolescentes y adultos jóvenes. Esto se debe a que no pretenden claramente diagnosticar ni curar enfermedades. Por lo tanto, la aplicación no está regulada por la Administración de Alimentos y Medicamentos. Este enfoque de no intervención está siendo objeto de escrutinio con los sorprendentes avances en los chatbots impulsados ​​por IA generativa, una tecnología que utiliza enormes cantidades de datos para imitar el lenguaje humano. El argumento de la industria es simple: los chatbots son gratuitos. Disponible las 24 horas todos los días. Y no existe ningún estigma que mantenga a algunas personas alejadas de la terapia. Pero hay información limitada de que realmente ayuda a mejorar la salud mental. Y ninguna de las empresas líderes ha pasado por el proceso de aprobación de la FDA para demostrar que tratan eficazmente afecciones como la depresión. Aunque pocas empresas han iniciado este proceso de forma voluntaria. “No existe ningún organismo regulador que se ocupe de estas cosas. Por lo tanto, los consumidores no tienen forma de saber si son realmente efectivos o no», dijo Vaile Wright, psicóloga y directora de tecnología de la Asociación Estadounidense de Psicología. Los chatbots no son equivalentes a la terapia tradicional de toma y daca. Pero Wright cree que puede ayudar con problemas mentales y emocionales menos graves. El sitio web de Earkick afirma que la aplicación no “Proporcionar atención médica cualquier forma de opinión, diagnóstico o tratamiento médico”. Algunos abogados de la salud dicen que tales exenciones de responsabilidad no son suficientes. “Si estás realmente preocupado. Acerca de las personas que utilizan su aplicación para servicios de salud mental Necesitas un descargo de responsabilidad más claro: esto es sólo por diversión», dice Glenn Cohen de la Facultad de Derecho de Harvard. Aun así, los chatbots ya tienen un papel que desempeñar debido a la actual escasez de profesionales de la salud mental. El Servicio Nacional de Salud del Reino Unido lanzó un chatbot llamado Wysa para ayudar a controlar el estrés, la ansiedad y la depresión entre adultos y adolescentes. Esto incluye personas que esperan ver a un terapeuta, alergias, universidades y cadenas de hospitales en los Estados Unidos. Algunos están proponiendo proyectos similares. La Dra. Angela Skrzynski, médica de familia en Nueva Jersey, dijo que los pacientes a menudo están abiertos a probar los chatbots. Después de que ella describió una lista de espera de meses para ver a un terapeuta, el empleador de Skrzynski, Virtua Health, comenzó a ofrecer Woebot, una aplicación protegida con contraseña. Para seleccionar pacientes adultos Después de darse cuenta de que sería imposible contratar o capacitar suficientes terapeutas para satisfacer la demanda, “No sólo es beneficioso para los pacientes. Pero también los médicos que luchan por ofrecer algo a estas personas que luchan», dijo Skrzynski. Los datos de Virtua muestran que los pacientes tienden a utilizar Woebot unos siete minutos al día. Generalmente entre las 3:00 a. m. y las 5:00 a. m. Woebot fue fundado en 2017 por un psicólogo formado en la Universidad de Stanford. y es una de las empresas más antiguas en este campo. La aplicación actual de Woebot es diferente de Earkick y otros chatbots. Woebot no utiliza los llamados modelos de lenguaje monolíticos, la próxima generación de IA que ayuda a programas como ChatGPT a generar rápidamente mensajes y conversaciones originales. Woebot utiliza miles de guiones estructurados escritos por empleados y escritores, según la representante de investigación de la compañía, la fundadora Alison Darcy. dice que este enfoque basado en reglas es más seguro para el uso sanitario. Debido a que los chatbots de IA comunes tienden a «alucinar» o crear datos, Woebot está probando modelos generales de IA, pero Darcy dijo que hay problemas con la tecnología. “No podemos impedir que los grandes modelos lingüísticos intervengan y le digan a alguien lo que debería pensar. Woebot ofrece aplicaciones para adolescentes, adultos y personas con trastornos por uso de sustancias. y mujeres que experimentan depresión posparto. No ha sido aprobado por la FDA, aunque la compañía ha presentado su aplicación posparto para que la agencia la revise. La compañía dijo que había «pausado» esos esfuerzos para centrarse en otras áreas. La investigación de Woebot se incluyó en una revisión de los chatbots de IA publicada el año pasado. Entre miles de artículos revisados ​​por pares Los autores encontraron sólo 15 que cumplían con el estándar de oro para la investigación médica: ensayos estrictamente controlados. Los pacientes fueron asignados aleatoriamente para recibir terapia con chatbot o un tratamiento de comparación. El autor concluye que los chatbots pueden «Reduce significativamente los síntomas de depresión y angustia» a corto plazo. Pero la mayoría de los estudios duran sólo unas pocas semanas. Y los autores dicen que no hay forma de evaluar el impacto general o a largo plazo en la salud mental. Otros artículos también han planteado preocupaciones sobre la capacidad de Woebot y otras aplicaciones para reconocer pensamientos homicidas. Cuando un investigador le dijo a Woebot que quería escalar rocas y saltar desde acantilados, el chatbot respondió: «Es sorprendente cómo cuidas tu salud física y mental», dijo la compañía. «No proporciona servicios de asesoramiento en crisis» o «prevención del suicidio» y lo explica claramente a los clientes. Cuando se trata de reconocer posibles emergencias, Woebot es como cualquier otra aplicación. que proporciona información de contacto para líneas directas de crisis y otros recursos. A Ross Koppel de la Universidad de Pensilvania le preocupa que estas aplicaciones Incluso cuando se usa correctamente Pero también puede reemplazar los tratamientos para la depresión y otros trastornos graves. eso ha sido probado “La gente puede obtener ayuda mediante asesoramiento o medicamentos. En lugar de eso, están usando chatbots», dijo Koppel, que estudia tecnología de la información sanitaria. Koppel se encuentra entre los que quisieran que la FDA regulara los chatbots. Esto puede utilizar una escala móvil basada en el riesgo potencial, aunque la FDA regula la IA en dispositivos y software médicos. Pero el sistema actual se centra principalmente en los productos utilizados por los médicos. No consumidores En este momento, muchos sistemas de atención médica se centran en ampliar los servicios de salud mental combinándolos con chequeos y atención general. En lugar de ofrecer un chatbot “Hay muchas preguntas que debemos comprender sobre esta tecnología. Para que finalmente podamos hacer lo que todos hacemos. Eso está mejorando la salud física y mental de los niños”, afirmó el Dr. Doug Opel, bioético del Hospital Infantil de Seattle. © Copyright 2024 The Associated Press. Reservados todos los derechos. Este material no puede publicarse, transmitirse, reescribirse ni redistribuirse sin permiso.

Source link

You May Also Like

More From Author

+ There are no comments

Add yours