Una descripción general de las aplicaciones móviles de salud mental basadas en chatbots: información de la descripción de la aplicación y las reseñas de los usuarios, 2023


Los chatbots son una tecnología emergente que muestra potencial para las aplicaciones de atención de salud mental para permitir terapias efectivas y prácticas basadas en evidencia. Como esta tecnología aún es relativamente nueva, se sabe poco sobre las aplicaciones desarrolladas recientemente y sus características y efectividad.

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC10242473/


Objetivo

En este estudio, nuestro objetivo fue proporcionar una descripción general de los populares chatbots de salud mental disponibles comercialmente y cómo los perciben los usuarios.


Métodos

Realizamos una observación exploratoria de 10 aplicaciones que ofrecen apoyo y tratamiento para una variedad de problemas de salud mental con una función de chatbot incorporada y analizamos cualitativamente 3621 reseñas de consumidores de Google Play Store y 2624 reseñas de consumidores de Apple App Store.


Resultados

Descubrimos que, aunque los usuarios recibieron positivamente las interacciones personalizadas y similares a las humanas de los chatbots, las respuestas incorrectas y las suposiciones sobre las personalidades de los usuarios provocaron una pérdida de interés. Como los chatbots siempre son accesibles y convenientes, los usuarios pueden apegarse demasiado a ellos y preferirlos a interactuar con amigos y familiares. Además, un chatbot puede ofrecer atención en caso de crisis siempre que el usuario lo necesite debido a su disponibilidad las 24 horas del día, los 7 días de la semana, pero incluso los chatbots desarrollados recientemente carecen de la comprensión necesaria para identificar adecuadamente una crisis. Los chatbots considerados en este estudio fomentaron un entorno libre de juicios y ayudaron a los usuarios a sentirse más cómodos compartiendo información confidencial.


Conclusiones

Nuestros hallazgos sugieren que los chatbots tienen un gran potencial para ofrecer apoyo social y psicológico en situaciones en las que no se prefiere o no es posible lograr la interacción humana en el mundo real, como conectarse con amigos o familiares o buscar apoyo profesional. Sin embargo, existen varias restricciones y limitaciones que estos chatbots deben establecer según el nivel de servicio que ofrecen. Demasiada dependencia de la tecnología puede plantear riesgos, como el aislamiento y la asistencia insuficiente en tiempos de crisis. Las recomendaciones para la personalización y la persuasión equilibrada para informar el diseño de chatbots efectivos para el apoyo a la salud mental se han esbozado en función de los conocimientos de nuestros hallazgos.


Palabras clave: chatbot, aplicaciones móviles de salud mental, reseñas de consumidores, aplicación de atención médica, aplicación de salud mental, desarrollo de aplicaciones, experiencia del usuario, intervención mHealth, salud móvil


Introducción

Los chatbots de salud mental como tecnología emergente

Un chatbot es un sistema que puede conversar e interactuar con usuarios humanos utilizando lenguajes hablados, escritos y visuales [ 1 ]. En los últimos años, los chatbots se han utilizado con más frecuencia en diversas industrias, incluido el comercio minorista [ 2 ], el servicio de atención al cliente [ 3 ], la educación [ 4 ], etc., debido a los avances en inteligencia artificial (IA) y aprendizaje automático (ML). dominios Facebook Messenger actualmente ofrece más de 300,000 chatbots basados ​​en texto [ 5]. Los chatbots se han utilizado principalmente con fines comerciales y negocios rentables. Sin embargo, investigaciones más recientes han demostrado que los chatbots son una promesa considerable en la industria del cuidado de la salud para tratar a los pacientes y ofrecerles apoyo de una manera rentable y conveniente [ 6 ] .


En el contexto de la salud mental (MH), los chatbots pueden fomentar la interacción con aquellos que tradicionalmente se han mostrado reacios a buscar consejos relacionados con la salud debido a la estigmatización [ 7 ]. Los chatbots son una tecnología emergente que muestra potencial para que las aplicaciones móviles de MH aumenten la participación y la adherencia de los usuarios [ 8 ]. Se ha explorado la efectividad de los chatbots para la autorrevelación y la escritura expresiva [ 7 , 9 , 10 ]. Los jóvenes con problemas de HM han experimentado varios tipos de apoyo social, como la evaluación, el apoyo informativo, emocional e instrumental de los chatbots [ 11 ]. Además, se han diseñado chatbots para educar a las comunidades desfavorecidas sobre HM y temas estigmatizados [12 , 13 ]. La evidencia emergente ha demostrado la aceptación de los chatbots por parte de los usuarios para respaldar varios problemas de HM y las promesas iniciales de mejorar los resultados de salud en los dominios físicos y de HM.


La adopción de nueva tecnología, especialmente aquellas fuertemente relacionadas con AI y ML, se basa primero en determinar los niveles de seguridad, efectividad y comodidad del usuario. A pesar de la creciente adopción y los beneficios de las tecnologías emergentes, como los chatbots para respaldar MH y el bienestar, se han realizado pocas investigaciones para comprender las experiencias de los usuarios de la vida real al interactuar con las aplicaciones de chatbot de MH. Investigaciones recientes sobre las aplicaciones de MH en general señalan que la seguridad del paciente rara vez se examina, los resultados de salud se evalúan a pequeña escala y no existen métodos de evaluación estándar [ 14], y estos hallazgos también se aplican a las aplicaciones de chatbot de MH. Al igual que muchas otras tecnologías emergentes, los desarrollos recientes en chatbots se deben a un impulso tecnológico masivo, con poca atención a las necesidades y experiencias humanas [ 15 ]. Esto puede generar consecuencias negativas no deseadas, como sesgos, respuestas inadecuadas y fallidas y problemas de privacidad, todo lo cual puede afectar negativamente la calidad de la experiencia de los chatbots como fuente de apoyo [16 , 17 ] . Por lo tanto, es fundamental comprender los matices en las percepciones y experiencias de los usuarios al usar los chatbots de MH.


Las aplicaciones de chatbot MH disponibles comercialmente para plataformas populares (por ejemplo, iOS [Apple Inc] y Android [Google Inc]) son utilizadas por una gran base de usuarios con diferentes antecedentes demográficos. Estos usuarios pueden proporcionar comentarios a través de calificaciones y reseñas de texto [ 18 ]. Estas plataformas se pueden aprovechar para obtener una comprensión integral de las funciones que ofrecen los chatbots de MH desarrollados recientemente y cómo los usuarios las evalúan. El conocimiento de las percepciones de los usuarios a partir de experiencias de la vida real puede informar futuras investigaciones y el diseño de chatbots más efectivos. Estudios anteriores han identificado las opiniones de los usuarios como una gran fuente para comprender los beneficios y los inconvenientes de la tecnología [ 19 , 20]. Esto permite a los investigadores incorporar los valores y necesidades de la comunidad en el diseño del producto y mejora la facilidad de uso [ 21 ]. 

Los consumidores a menudo toman decisiones sobre el uso de nuevas herramientas en función de las calificaciones de los usuarios y las reseñas en los mercados basados ​​en la web. 

Según estudios anteriores, los usuarios confían en las reseñas y se sienten cómodos en función de sus decisiones [ 21 ]. Además, la literatura anterior enfatiza el análisis de las reseñas de los usuarios de las aplicaciones móviles de MH que tienen funciones de chatbot [ 22 , 23] para conocer en profundidad esta nueva intervención tecnológica en las aplicaciones móviles de MH. 

Para este estudio, decidimos analizar las conocidas aplicaciones móviles de MH basadas en chatbot disponibles en el mercado y sus correspondientes reseñas de usuarios de Apple App Store y Google Play Store. Para obtener una descripción general completa de estas aplicaciones y comprender los matices de las opiniones de los usuarios, nuestro objetivo fue responder las siguientes 2 preguntas de investigación (RQ):


RQ1: ¿Cuáles son las características y propiedades de última generación de las aplicaciones móviles de MH basadas en chatbots?

RQ2: ¿Qué preocupaciones y opiniones se expresan en las reseñas de los usuarios publicadas en las plataformas de tiendas de aplicaciones basadas en la web con respecto a la usabilidad y la eficiencia de las aplicaciones móviles de MH basadas en chatbots?


Realizamos una observación exploratoria de 10 aplicaciones que ofrecen soporte y tratamiento para una variedad de problemas de salud mental con una función de chatbot incorporada y analizamos cualitativamente las reseñas de los usuarios disponibles en Google Play Store y Apple App Store. Los datos disponibles públicamente (reseñas de usuarios) brindan análisis en profundidad de las experiencias de usuario de las aplicaciones personales de los consumidores. Descubrimos que, aunque los usuarios recibieron positivamente las interacciones personalizadas y similares a las humanas de los chatbots, las respuestas incorrectas y las suposiciones sobre las personalidades de los usuarios provocaron una pérdida de interés. Como los chatbots siempre son accesibles y convenientes, los usuarios pueden apegarse demasiado a ellos y preferirlos a interactuar con sus amigos y familiares. Además, un chatbot puede ofrecer soporte para una crisis siempre que el usuario lo necesite debido a su disponibilidad 24/7, pero incluso los chatbots desarrollados recientemente carecen de la comprensión para identificar adecuadamente una crisis. Los chatbots en este estudio fomentaron un entorno libre de juicios y ayudaron a los usuarios a sentirse más cómodos compartiendo información confidencial.


Antes de implementar una solución tecnológica para MH, los investigadores de las comunidades de salud digital están constantemente interesados ​​en las necesidades y preferencias de apoyo de los grupos o comunidades [ 24 - 26 ]. 

Los investigadores han analizado la efectividad de las tecnologías utilizadas para la asistencia de MH [ 24 , 27 ], proponiendo preocupaciones éticas [ 28 ], recomendaciones de políticas [ 29 , 30 ] y diseñando sistemas interactivos automatizados o humanos en el circuito [ 7 , 10]. 


Estos estudios destacaron la importancia de diseñar y evaluar sistemas para poblaciones susceptibles, como las personas con problemas de HM, desde la perspectiva de los usuarios. Para contribuir a este cuerpo de trabajo, discutimos los hallazgos de nuestro estudio con respecto a las implicaciones de investigación y diseño para los futuros chatbots de MH. 

Describimos recomendaciones específicas para personalizar ciertas funciones, considerar cuidadosamente la incorporación de estrategias persuasivas y generar confianza. 


Finalmente, discutimos el impacto de la dependencia excesiva en los chatbots para el soporte de MH. Creemos que considerar estos conocimientos al desarrollar un sistema de soporte de MH basado en chatbot hará que el diseño se centre en el usuario y, por lo tanto, sea más efectivo.


Antecedentes y trabajos relacionados

Los chatbots son programas de software que pueden imitar el comportamiento humano y realizar tareas específicas al conversar inteligentemente con los usuarios [ 1 ]. 


Son agentes conversacionales que utilizan el reconocimiento de texto y voz para interactuar con los usuarios [ 31 ]. 


Los chatbots se usan comúnmente en varias aplicaciones basadas en web y móviles. En los últimos años, ha asumido el papel de una entidad basada en Internet que puede actuar como agente de viajes [ 32 ], representante de servicio al cliente [ 3 ], asesor financiero [ 2 ] y asistente personal [ 33] y se está volviendo cada vez más sofisticado. 


Algunos de los chatbots disponibles pueden tener una personalidad propia, almacenar información sobre el usuario para brindar respuestas contextualizadas y crecer con el tiempo aprendiendo sobre sus usuarios para brindar mejores servicios [ 34 ] .


En esta sección, brindamos una breve descripción general de la investigación sobre los chatbots en el cuidado de la salud, incluidos los chatbots de MH móviles, y brindamos una justificación para usar las revisiones de aplicaciones para capturar las percepciones y opiniones de los usuarios.


Chatbots en el cuidado de la salud

Los chatbots han recibido recientemente mucha atención en las industrias del cuidado de la salud y el bienestar [ 6 ] y se han probado utilizando una variedad de elementos y características según el comportamiento que intentaban lograr. 


Los chatbots funcionan como asistentes personales digitales [ 35 ], lo que permite a los pacientes obtener más información [ 13 ], obtener apoyo [ 36 ] y tomar medidas inmediatas en respuesta a nuevos síntomas [ 37 ].


 Algunos chatbots pueden ayudar a los usuarios a recopilar datos médicos a través de discusiones de texto y luego entregarlos a los médicos (seleccionados) en un formato que es más fácil de usar con fines de diagnóstico [ 36]. Las intervenciones de chatbot son efectivas para aumentar la actividad física, lograr una pérdida de peso relevante y mejorar la dieta [ 38 - 40 ] mediante el envío de recordatorios diarios de registro [ 41 ] y la oferta de recursos relevantes [ 40 ]. También son lo suficientemente sofisticados para interactuar con los usuarios a través de pequeños chats adaptativos diarios y mostrar el progreso hacia los objetivos mediante análisis y gráficos para fomentar la autorreflexión [ 42 ].


Chatbots móviles de MH

Entre los numerosos bots conversacionales que se utilizan en diferentes aspectos de la salud y el bienestar, los bots conversacionales en el cuidado de la HM móvil han demostrado su eficacia para ampliar la terapia tradicional de una manera rentable y conveniente [ 43 ] . 


Los chatbots de MH son chatbots impulsados ​​por IA que brindan soporte, orientación y recursos de MH a través de una interfaz conversacional [ 44 ]. Estos chatbots replican las interacciones humanas, responden a las entradas de los usuarios y brindan atención de salud mental personalizada [ 34 ]. Los chatbots de MH pueden abordar una variedad de problemas de MH, como la ansiedad, la depresión y el estrés [ 14 , 22]. 


Estos pueden proporcionar estrategias de afrontamiento, ejercicios de atención plena e información sobre las condiciones y tratamientos de la HM y, en algunos casos, conectar a los usuarios con los profesionales de la HM [ 14 , 22 ].


Una encuesta nacional de 2021 encontró que el 22 % de los adultos había usado un chatbot de MH y el 47 % dijo que estaría interesado en usarlo si fuera necesario. Entre los encuestados que habían probado un chatbot de MH, casi el 60 % dijo que comenzó a usarlo durante la pandemia de COVID-19, y el 44 % dijo que usaba chatbots exclusivamente y no vio a un terapeuta humano [ 45 ] . Actualmente, hay al menos 9 aplicaciones de chatbot en los mercados de aplicaciones con más de 500 000 descargas. Se ha demostrado que los chatbots reducen efectivamente la gravedad de las preocupaciones de HM para personas de diferentes demografías y orígenes, incluidas personas en comunidades rurales [ 12 ], trabajadores por turnos con problemas de accesibilidad [ 46 ], estudiantes con ansiedad y estrés [ 47], empleados de los sistemas de salud que requieren apoyo emocional [ 48 ], veteranos y adolescentes que se sienten estigmatizados al compartir sus preocupaciones [ 12 ], etc.


En lugar de proporcionar sugerencias genéricas, los chatbots pueden ofrecer sugerencias y recursos individualizados en función de las necesidades y los requisitos de los usuarios [ 34 , 44 ]. Fueron diseñados para identificar preocupaciones de MH [ 34 ], rastrear estados de ánimo [ 49 ], brindar terapia cognitiva conductual (TCC) [ 47 ] y promover la psicología positiva [ 50 ]. 

Varios chatbots conocidos como 

Wysa [ 34 ], 

Woebot [ 47 ], 

Replika [ 51 ], 

Youper [ 52 ] y 

Tess [ 53] 

fueron discutidos en la literatura anterior. Inkster et al [ 34 ] examinaron la potencia de Wysa y encontraron una influencia positiva en la reducción de los síntomas depresivos en un experimento controlado aleatorio. Fitzpatrick et al [ 47 ] evaluaron la efectividad del bot conversacional de IA Woebot para brindar TCC a estudiantes universitarios con ansiedad y depresión y encontraron que Woebot redujo notablemente los síntomas depresivos. Ta et al [ 51 ] investigaron el apoyo social recibido de agentes artificiales en contextos cotidianos al interactuar con el chatbot social Replika. Mehta et al [ 52] examinó la aceptabilidad y eficacia de Youper. Además de las aplicaciones comerciales, en los últimos años, las comunidades de investigación también se han involucrado cada vez más en el diseño de chatbots para propósitos específicos, como enseñar autocompasión ("Vincent") [ 9 ], permitir la auto-revelación [ 7 , 10 ] , facilitar mensajes positivos dentro de los grupos sociales [ 54 ], mejorando la calidad de vida de las personas mayores y haciéndolas más activas para combatir su sensación de soledad [ 55 ], apoyando las habilidades interpersonales ("Sunny") [ 56 ] y reduciendo el estrés ("Mylo ”) [ 57 ]. Kim et al. [ 11] exploró las expectativas de los adolescentes al interactuar con un chatbot destinado a apoyar sus necesidades emocionales. Aunque la mayoría de los estudios anteriores se centraron en el desarrollo y la evaluación de nuevos sistemas de bots conversacionales o en la evaluación de la eficacia de las técnicas basadas en la evidencia que utilizan los bots conversacionales existentes, existe una investigación inadecuada sobre cómo los usuarios finales perciben la utilidad de estos bots conversacionales basados ​​en aplicaciones.


Reseñas de usuarios como una fuente versátil para capturar la experiencia y las preferencias del usuario

En general, Internet se considera una rica fuente de información sobre experiencias personales de una amplia variedad de enfermedades, con sitios web y foros de discusión [ 58 ]. 


Un número cada vez mayor de estudios explotan fuentes basadas en la web como repositorios de datos primarios sobre experiencias de salud y enfermedad [ 58 ]. 

Las personas que están socialmente aisladas o geográficamente dispersas y, por lo tanto, son difíciles de incluir en muestras extraídas de forma convencional (especialmente para estudios cualitativos que se basan en el muestreo de bola de nieve) podrían tener más probabilidades de ser incluidas debido a la facilidad con la que dichas personas pueden acceder a Internet [59] .]. 

Se pueden recolectar grandes cantidades de material en un período corto. Las personas pueden usar el relativo anonimato de Internet para revelar cosas que no discutirían en un entorno de investigación cara a cara [ 60 ]. A partir de 2022, hay más de 10 millones de reseñas de usuarios en Google Play Store y Apple App Store [ 61 ]. 

Por lo tanto, las reseñas de los usuarios recopiladas de estas populares tiendas de aplicaciones pueden proporcionar información valiosa sobre las experiencias personales de los usuarios de personas que abarcan una amplia gama de antecedentes y características demográficas en comparación con los métodos tradicionales de recopilación de datos cualitativos (es decir, entrevistas) [ 62 ] .


Las reseñas de los usuarios se pueden definir como comentarios publicados por individuos sobre sus opiniones y satisfacción o insatisfacción con un producto [ 18 ]. 


Las clasificaciones de estrellas y los comentarios elaborados en las revisiones textuales brindan a los desarrolladores la oportunidad de explorar las quejas de los usuarios y mejorar las aplicaciones [ 21 ]. Para los usuarios nuevos o potenciales de aplicaciones móviles de MH, las revisiones funcionan como un factor decisivo para determinar si una aplicación sería útil en función de cómo funcionó para otros usuarios con expectativas similares [ 63 ] . 


Aproximadamente el 80 % de los usuarios potenciales consultan las valoraciones y las reseñas antes de descargar una aplicación [ 64 ]. En entornos de investigación, las calificaciones y reseñas de los usuarios se han aprovechado por una variedad de razones, incluida la determinación de por qué la adherencia a las aplicaciones móviles de MH es deficiente [65 ], informando a los desarrolladores sobre las prioridades de diseño en lugar de simplemente guiar las decisiones de compra [ 66 ] y obteniendo una mejor comprensión de los problemas éticos que enfrentan los usuarios [ 28 ]. Vasa et al [ 20 ] investigaron la hipótesis de que, a pesar de la abundancia de críticas positivas para las aplicaciones móviles, vale la pena examinar las críticas negativas para recopilar datos útiles de los usuarios. En el dominio de MH móvil, Haque et al [ 23 ] aprovecharon las revisiones de los usuarios para capturar completamente las experiencias de los usuarios y proporcionaron implicaciones para el diseño de futuras aplicaciones de MH.


Nuestro estudio está inspirado en el cuerpo de trabajo que considera las revisiones generadas por los usuarios como una fuente vital para comprender diversas perspectivas y deriva implicaciones significativas de ellas [ 62 , 63 ]. Esto nos permite obtener perspectivas de personas con diversas características demográficas que, de otro modo, serían difíciles de recopilar utilizando métodos convencionales de recopilación de datos [ 62 , 67 ].


Brecha de investigación y contribución

Como tecnología emergente, el desarrollo y la aplicación de chatbots en aplicaciones móviles de MH se encuentran en sus primeras fases, y aún existen desafíos considerables que superar en el desarrollo de esta tecnología. Según estudios recientes, la seguridad del paciente rara vez se ha evaluado, los resultados de salud se han cuantificado de manera inadecuada y no se han utilizado procedimientos de evaluación estandarizados [ 14 ]. Se informa que algunos chatbots no pueden comprender el uso complejo del lenguaje asociado con una crisis de HM y no reconocen los síntomas ni responden adecuadamente [ 17 ]. La privacidad es una preocupación importante para los usuarios de estas aplicaciones; debido a que los usuarios aún están menos familiarizados con esta tecnología emergente, existe un mayor riesgo de exponer a los usuarios a riesgos de privacidad a través del intercambio de datos [ 16]. Además, aunque la adherencia deficiente es un problema común con las intervenciones digitales de HM, por el contrario, algunas personas susceptibles pueden comenzar a confiar demasiado en ellas, lo que puede generar ansiedad cuando estas aplicaciones no están disponibles [ 16 ] .


En general, existe la necesidad de una mejor comprensión de cómo todos los servicios móviles de MH pueden y deben fomentar el uso seguro y ético de los chatbots [ 14 ]. Aunque un puñado de estudios han demostrado los beneficios potenciales de las aplicaciones de chatbot de MH, las experiencias y los desafíos de la vida real de los usuarios aún no se comprenden bien [ 22 ]. Haque et al [ 23 ] proporcionaron recientemente una discusión de alto nivel sobre algunas preocupaciones comunes de los usuarios que se plantean con frecuencia en las reseñas de los usuarios e implicaron que los investigadores y desarrolladores en este espacio podrían beneficiarse de un análisis exhaustivo de las aplicaciones comerciales de chatbot de MH existentes. Como extensión de estos trabajos anteriores [ 22 , 23], las percepciones de las personas y los modelos mentales de los chatbots se pueden estudiar para abordar inquietudes críticas, como la forma en que los usuarios ganan confianza en los chatbots, los valores de los usuarios y los requisitos en este espacio y, en última instancia, para proporcionar investigaciones concretas y recomendaciones de diseño para futuras aplicaciones de chatbot. Un análisis centrado en el usuario también ayudará a los investigadores a mapear un marco basado en evidencia para la intervención propuesta y minimizar los efectos psicológicos de dichos tratamientos.


Ir a:

Métodos

En esta sección, describimos las técnicas para seleccionar y filtrar las aplicaciones móviles para este estudio, los métodos de análisis de datos que utilizamos, los estándares éticos que seguimos, nuestra declaración de posicionamiento y las limitaciones metodológicas.


Selección de aplicaciones de muestra y reseñas

Selección de aplicacionesPara obtener una lista completa de las aplicaciones de MH disponibles comercialmente que incluyen funciones de chatbot, realizamos nuestra búsqueda utilizando diferentes fuentes. Primero, consideramos artículos de acceso abierto en la literatura reciente sobre MH chatbots [ 14 , 22 ]. 

A continuación, realizamos consultas de búsqueda en 2 plataformas expertas de revisión de aplicaciones de MH diferentes: Mindtools [ 68 ] y Psyberguide [ 69 ]. 


Finalmente, buscamos en 2 tiendas dominantes de aplicaciones móviles basadas en la web (Google Play para Android y Apple App Store para iOS). 

Usamos los términos de búsqueda Salud mental y chatbot en plataformas de revisión de expertos y tiendas de aplicaciones. 

Además, exploramos las aplicaciones recomendadaso la sección de aplicaciones similares del sitio web correspondiente después de descubrir una aplicación de MH con una función de chatbot para determinar si las otras aplicaciones cumplen con nuestros criterios. 

Sin iniciar sesión en una cuenta específica, la búsqueda se realizó en las páginas de inicio de las tiendas de aplicaciones. Esta acción se realizó para garantizar que el sistema no pudiera usar un algoritmo de clasificación para priorizar ninguna elección del usuario. 

Como estas aplicaciones representan la muestra en (casi) el mismo orden en el que es probable que los consumidores estén expuestos y, por lo tanto, es más probable que las usen, aunque los resultados de la búsqueda pueden no ser del todo completos (como se observa en el muestreo de conveniencia), aún representan la muestra. .

Después de la búsqueda inicial de estas 3 fuentes, obtuvimos 19 aplicaciones. 

Los autores leyeron detenidamente las descripciones de las aplicaciones, observaron capturas de pantalla de las funciones de las aplicaciones y, en algunos casos, analizaron los sitios web promocionales de estas aplicaciones para asegurarse de que estas aplicaciones incluyeran una función de chatbot que brinde soporte para diferentes inquietudes de MH. Observamos que algunas de estas aplicaciones incluían preguntas y respuestas inteligentes (Q/A) basadas en AI y ML. Intelligent Q/A se basa en una colección de preguntas y, al responderlas, puede ofrecer resúmenes, diagnósticos, recomendaciones y otra información individualizada. 

En este estudio, describimos los chatbots de MH como máquinas inteligentes que pueden simular y procesar conversaciones con los usuarios sobre sus necesidades de MH. Un sistema inteligente de preguntas y respuestas está diseñado para brindar respuestas exactas y precisas a preguntas específicas basadas en una entrada dada, generalmente en forma de lenguaje natural. En contraste, un chatbot es un agente conversacional de propósito más general que puede manejar una amplia gama de entradas y proporcionar una variedad de respuestas, desde simples saludos hasta interacciones más complejas. Los sistemas inteligentes de preguntas y respuestas generalmente se activan con una pregunta o solicitud de información, mientras que los chatbots pueden iniciar la conversación o responder a las entradas del usuario de manera abierta y son capaces de producir una gama más amplia de resultados en comparación con los sistemas inteligentes de preguntas y respuestas.

El aspecto más crucial de un chatbot es el "diseño conversacional", que se define entre el usuario y el bot. Aunque la orientación que ofrecen los chatbots suele ser correcta y está respaldada científicamente, será un programa informático que responda a los usuarios, generalmente en forma de un personaje simpático, para facilitar su capacidad de comunicación. 

Las expectativas de los usuarios pueden variar al interactuar con los chatbots en comparación con los sistemas inteligentes de preguntas y respuestas con patrones de preguntas predefinidos. Por lo tanto, solo consideramos chatbots con la capacidad de iniciar y continuar conversaciones con los usuarios. Para asegurarse de que nuestra lista incluye aplicaciones que se incluyen en esta definición, uno de los autores optó por descargar cada aplicación por separado (para la plataforma iOS) y usarla durante al menos 3 días. 

Los autores no tienen problemas conocidos de HM. También consideramos esta exploración como una oportunidad para extraer las características principales que comúnmente comprenden las aplicaciones. El autor observó cuidadosamente cómo funcionan estas aplicaciones en términos de los aspectos notables de las aplicaciones móviles de MH,14 , 17 , 22 ]. Siguiendo estos pasos, se seleccionaron 10 aplicaciones para el análisis 1. Un diagrama de flujo detallado del procedimiento se presenta enFigura 1.


Diagrama de flujo del proceso de selección de aplicaciones. P/R: preguntas y respuestas.


Selección de Reseñas de Usuarios

Creamos scripts de extracción utilizando la biblioteca Python Selenium para recopilar las reseñas públicas de los usuarios de las 10 aplicaciones a las que se podía acceder desde Google Play Store y Apple App Store. 

Las reseñas de los usuarios pueden ilustrar ejemplos de satisfacción e insatisfacción de los usuarios con las funciones de la aplicación. 

Por lo tanto, las revisiones se reconocen como una importante fuente de información para obtener información sobre el uso real de las aplicaciones móviles [ 20 ]. Siguiendo el trabajo de Haque et al [ 23 ] sobre el análisis de las opiniones de los usuarios sobre las aplicaciones móviles de MH, utilizamos los siguientes 2 criterios de inclusión para filtrar y extraer comentarios de usuarios recientes y cruciales para las aplicaciones.

Cronología: consideramos las revisiones publicadas entre el 1 de enero de 2019 y el 1 de mayo de 2022. Es probable que las revisiones más recientes sean más útiles porque las tiendas de aplicaciones cambian rápidamente con la adición de nuevas aplicaciones y la actualización de las aplicaciones existentes.

Longitud: dado que las reseñas más cortas pueden no proporcionar conocimientos más profundos en general y, con frecuencia, son falsas o de naturaleza promocional [ 70 ], la longitud mínima de caracteres se consideró 200 para el alcance de nuestro estudio.

Un total de 3621 reseñas de Google Play Store y 2624 reseñas de Apple App Store cumplieron con todos los criterios de inclusión. Estas revisiones se basan en 9 aplicaciones de Google Play Store (solo Elomia no está disponible en Google Play Store) y 10 de Apple App Store. Todas las reseñas tienen un sistema de codificación único que se puede rastrear fácilmente hasta las aplicaciones y plataformas de las que surgieron. Durante el análisis, el autor principal fue responsable de leer cuidadosamente cada revisión y asegurarse de que toda la información de identificación personal fuera reemplazada o eliminada.


Análisis de los datos

En primer lugar, para comprender el resumen descriptivo de las aplicaciones de MH basadas en chatbot disponibles comercialmente, analizamos las descripciones de las aplicaciones de los sitios web del mercado e incorporamos la información clave en nuestras notas de observación. 

Luego, la nota de observación se dividió en 6 temas principales con el objetivo de brindar una descripción completa de estas aplicaciones en colaboración con otro autor. Los autores no incluyeron sus juicios sobre la efectividad de estas aplicaciones. 

Entre las aplicaciones de MH basadas en chatbots que consideramos, 4 aplicaciones mencionaron las técnicas basadas en evidencia utilizadas en su descripción. Para las aplicaciones restantes, determinamos la técnica a través de una combinación de un análisis de la descripción y notas de observación de la interacción con las aplicaciones. 

Los resultados de esta categorización se describen en elDescripción general de los aspectos comúnmente utilizados en la sección de aplicaciones de Chatbot MH. Para comprender las perspectivas de los usuarios, las reseñas de usuarios seleccionadas de las 10 aplicaciones se examinaron mediante un análisis inductivo [ 71 ]. 

Se eligió el análisis temático porque permite el análisis sistemático de grandes conjuntos de datos y facilita la comprensión de patrones textuales considerando el contexto [ 21 , 72 ]. Se realizaron un total de 2 pases durante el análisis. Se crearon códigos abiertos durante la primera pasada para recopilar varias perspectivas de las reseñas. 

Registramos las sutilezas en las ideas proporcionadas en cada revisión, lo que resultó en una gran cantidad de códigos abiertos que se redujeron sustancialmente a través de memoing y agrupamiento [ 71]. 

En la segunda fase del análisis, memorizamos y agrupamos los códigos usando un método de comparación constante, operacionalizado como mapeo de afinidad. 

Cada código abierto se comparó con los demás y se posicionó para reflejar su afinidad con los temas y grupos emergentes. Los temas informados consistieron en aquellos que aparecían consistentemente en múltiples revisiones y aquellos que provenían de revisiones que representaban respuestas y opiniones divergentes. 

Los hallazgos de las revisiones se describen en la sección Resultados , y cada cotización se identifica por el ID particular de la revisión generado a partir de la plataforma, el nombre de la aplicación y un número aleatorio.


Integridad de los datos

Las tiendas de aplicaciones, al igual que muchos otros mercados basados ​​en la web, pueden tener reseñas publicadas por usuarios falsos y pagos. Sin embargo, investigaciones previas [ 70 ] mostraron que en la categoría "Salud y estado físico", el porcentaje de reseñas potencialmente falsas era muy bajo (aproximadamente 6 %). Las reseñas falsas también tienden a ser más breves [ 70 ] y, al considerar las reseñas de ≥200 caracteres de longitud, asumimos que casi todas las reseñas incluidas son originales.


Entendemos que si los datos o la información solo son accesibles para un grupo particular de personas o grupos, no es ético que los investigadores los utilicen [ 73 ]. Como resultado, nos aseguramos de que los sitios web de los que obtuvimos los datos fueran accesibles para todos y no solo para algunos grupos o poblaciones [ 73 ]. Aunque estas páginas eran públicas, evitamos deliberadamente publicar o divulgar cualquier información de identificación personal que se compartió. El lenguaje de las reseñas de los usuarios que se informan aquí se ha modificado cuidadosamente, manteniendo intacto el significado.


Consideraciones éticas

Este estudio fue evaluado como investigación de sujetos no humanos por la Junta de Revisión Institucional de la Universidad de Marquette (Protocolo n.° 3935) ya que no cumple con la definición reglamentaria de revisiones públicas de sujetos humanos y la información proporcionada no es sobre ellos mismos.


Limitaciones

Nuestros criterios de selección tienen ciertas limitaciones. Primero, usamos principalmente calificaciones de las 2 plataformas móviles más utilizadas (Google y Apple). En este estudio no se consideraron otras plataformas móviles. En segundo lugar, es probable que los usuarios que no se sientan cómodos (o no les importe) hablar sobre sus experiencias en las plataformas basadas en la web no contribuyan. Sin embargo, podemos concluir con confianza que las percepciones que identificamos son típicas de las percepciones de los usuarios, dada la mayor cantidad de evaluaciones obtenidas de los 2 mercados web más conocidos.


Ir a:

Resultados

Descripción general

Para este propósito de investigación, elegimos 10 aplicaciones móviles de MH disponibles en el mercado que tienen funciones de chatbot integradas. Todas estas aplicaciones, excepto Elomia, están disponibles en las 2 plataformas más populares (Apple App Store y Google Play Store). Elomia está disponible exclusivamente para iOS. Se proporciona una descripción general de estas aplicaciones entabla 1. Todas estas aplicaciones son extremadamente populares tanto en términos de cantidad de descargas como de calificaciones. Por lo tanto, podemos suponer que una descripción general completa de estas aplicaciones puede ayudar a comprender las perspectivas de una base de usuarios amplia y diversa.


tabla 1

Una descripción general de las 10 aplicaciones móviles de salud mental seleccionadas con una tecnología de chatbot incorporada.


aplicación Número de valoraciones en Apple App Store Número de calificaciones en Google Play Store Número de descargas en Google Play Store Clasificación de edad (años) Precio

ADA 125 323,000 ≥5 millones ≥17 Gratis

Chai 27,900 34,000 ≥1 millón ≥17 Gratis con compras en la aplicación

Elomia 193 N/A un N / A ≥12 Gratis con compras en la aplicación

spa mental 107 2970 ≥500,000 ≥17 Gratis con compras en la aplicación

nuna 68 93 ≥10,000 ≥4 Gratis con compras en la aplicación

Serenidad: Salud Mental Guiada 20 146 ≥10,000 ≥12 Gratis

Entrenador de estrés Ninguno 495 ≥10,000 ≥12 Gratis

aybot 5500 11,800 ≥500,000 ≥12 Gratis

Wysa 13,500 126,000 ≥1 millón ≥12 Gratis con compras en la aplicación

Youper–Amigo de autocuidado 14.400 49,100 ≥1 millón ≥12 Gratis con compras en la aplicación

Abrir en una ventana separada

a N/A: no aplicable.


Descripción general de los aspectos comúnmente utilizados en las aplicaciones Chatbot MH

En general, consideramos 6 características principales que se pueden usar para comprender el estado actual de la tecnología de chatbot de MH. Algunos de estos aspectos se adoptaron de 2 artículos de revisión anteriores sobre chatbots de MH [ 14 , 22 ]. Estos estudios compilaron una lista de artículos de investigación recientes sobre chatbots de MH y proporcionaron tipologías basadas en su propósito, preocupaciones específicas y técnicas basadas en evidencia respaldadas . Incluimos estas 3 categorías en nuestro análisis para obtener una visión general amplia del estado actual de las aplicaciones de chatbot de MH disponibles comercialmente. Estos estudios también enfatizaron la capacidad de estos chatbots para realizar y continuar conversaciones. Consideramos este aspecto crucial de las aplicaciones de chatbot y agregamos 2 nuevas categorías para explorar:estilo de conversación y tipos de medios utilizados por los chatbots. Se utilizaron un total de 3 estilos conversacionales diferentes: guiado por chatbot, semiguiado y abierto (Tabla 2). Finalmente, Haque et al [ 23 ] proporcionaron información útil sobre la necesidad de brindar apoyo en caso de crisis a través de aplicaciones de MH, ya que los usuarios potenciales de las aplicaciones son más susceptibles a la crisis que la población general. Hemos añadido este criterio específico para ser analizado en nuestro estudio observacional. Un esquema de estos criterios y tipos se presenta enTabla 2.


Tabla 2

Criterios de características relacionadas con las aplicaciones de salud mental basadas en chatbots utilizadas en nuestro estudio.


Criterios Tipos

Objetivo

Entrenador digital: ayuda a los usuarios a alcanzar sus pequeños objetivos

Evaluador digital: alerta a los usuarios sobre posibles problemas de salud mental en función de los síntomas informados

Compañero conversacional: simule ser alguien con quien el usuario puede hablar

Terapeuta virtual: capacidad para participar en conversaciones terapéuticas

Preocupaciones específicas

Estrés, ansiedad, depresión, autocuidado, trastorno del sueño, trastorno de pánico, problemas de relación, baja autoestima y soledad

Flujo de conversación

Conversación guiada: solo permite que los usuarios se comuniquen con el chatbot con respuestas predefinidas del chatbot. No permite ninguna forma de entrada abierta de los usuarios.

Conversación semiguiada: en su mayoría permite que los usuarios se comuniquen con el chatbot con respuestas predefinidas y, a veces, permite entradas abiertas de los usuarios. Sin embargo, el bot no puede reconocer las entradas abiertas del usuario y extraer información de ellas.

Conversación abierta: permite a los usuarios comunicarse con el chatbot con respuestas predefinidas y entradas abiertas de los usuarios. El bot puede reconocer las entradas abiertas del usuario y extraer información de ellas.

Tipos de medios utilizados

GIF a , texto, audio, video, emoji, imágenes y siglas

Apoyo en crisis

Disponibilidad de información sobre crisis: proporciona información sobre líneas de ayuda y servicios de emergencia relacionados con crisis.

Capacidad para detectar posibles crisis desde el chat: detecta posibles crisis a través de conversaciones con los usuarios

Acceso a un terapeuta profesional: el acceso a un terapeuta profesional es una alternativa para evitar posibles ramificaciones de la crisis potencial

Capacidad de notificar al personal designado: notifica al personal designado si se detecta una crisis

Acceso a herramientas de autocuidado: recomendar actividades de autocuidado

Técnicas basadas en evidencia

TCC b , DBT c , atención plena, seguimiento y seguimiento de síntomas, psicología positiva, terapia de aceptación y compromiso, y psicoeducación e información

Abrir en una ventana separada

a GIF: formato de intercambio de gráficos.


b TCC: terapia cognitivo conductual.


c TDC: terapia conductual dialéctica.


Examinamos las descripciones de las tiendas de aplicaciones para comprender los objetivos principales de estas aplicaciones e identificar cómo se marcan. Descubrimos 4 tipos diferentes de propósitos en total, siendo los "entrenadores digitales" los más frecuentes (5 de 10 aplicaciones). Las aplicaciones de chatbot se dirigieron a una amplia gama de problemas de MH, incluida la ansiedad (9 aplicaciones), la depresión (6 aplicaciones) y las técnicas de cuidado personal (7 aplicaciones).


Descubrimos 3 flujos conversacionales diferentes basados ​​en nuestras observaciones exploratorias. La más popular es la "conversación guiada", en la que los usuarios solo pueden responder utilizando la entrada preestablecida proporcionada a través de la interfaz. Esta es la técnica más común utilizada por los chatbots que analizamos (6 de cada 10 aplicaciones). Solo Woebot utiliza un enfoque semiguiado que permite a los usuarios seleccionar entre opciones predefinidas o escribir texto; sin embargo, no puede procesar opiniones en el texto de entrada. Esta opción de entrada abierta es útil cuando los usuarios reformulan pensamientos negativos y comparten historias. Finalmente, Wysa, Nuna y Elomia siguen un estilo de conversación abierta. Continuaron la conversación en función de su comprensión de la entrada del usuario.


Estos chatbots aprovecharon una variedad de tipos de medios para la comunicación para hacer que la interacción se pareciera a las interacciones humanas. Por ejemplo, los formatos de intercambio de gráficos (GIF), emojis, imágenes y acrónimos se utilizan para representar el humor y las emociones. Se utilizaron imágenes, audio y videos junto con elementos educativos. Como todos estos chatbots se comunican por texto, el texto es, con mucho, el más frecuente.


Las personas con problemas de salud mental pueden enfrentarse a una crisis en cualquier momento, y el apoyo eficaz en caso de crisis es un criterio importante para evaluar las aplicaciones de salud mental. Identificamos 5 tipos diferentes de opciones de soporte de crisis disponibles en los 10 chatbots. De las aplicaciones, 6 ofrecen a los usuarios acceso a información sobre sistemas de apoyo en crisis y líneas de ayuda de emergencia. También es popular brindar sugerencias instantáneas sobre herramientas de cuidado personal, como la respiración sugerente en casos de ataques de ansiedad. Solo Wysa contiene las 5 opciones disponibles para ayudar a un usuario durante una crisis. Ada y Chai no contienen ningún apoyo de crisis.


Como las técnicas basadas en la evidencia han demostrado ser efectivas para tratar diferentes trastornos de HM, exploramos cuáles de estas herramientas y técnicas siguen comúnmente los chatbots. El tipo de terapia más popular es la TCC. Las 10 aplicaciones siguieron la CBT hasta cierto punto. Un total de 8 aplicaciones brindaron soporte para la atención plena. La terapia conductual dialéctica y la terapia de aceptación y compromiso son formas modificadas menos comunes de TCC.Tabla 3presenta las características antes mencionadas de las aplicaciones consideradas.


Tabla 3

Una descripción detallada de las funciones relacionadas con las aplicaciones de salud mental basadas en chatbots encontradas en nuestro estudio.


aplicación Objetivo Preocupaciones específicas flujo de conversación Tipos de medios utilizados Apoyo en crisis Técnicas basadas en evidencia

ADA Cribador digital Ansiedad y depresión Guiado Texto Ninguno TCC un

Chai compañero de conversación Ninguno Guiado Texto y emoji Ninguno TCC

Elomia Terapeuta virtual Estrés, ansiedad, depresión, cuidado personal, trastornos del sueño, problemas de relación, baja autoestima y soledad Abierto Texto Acceso a herramientas de autocuidado TCC, atención plena, psicología positiva y seguimiento y control de síntomas

spa mental Terapeuta virtual Ansiedad, depresión, autocuidado, problemas de relación y baja autoestima Guiado texto y video Disponibilidad de información relacionada con crisis y acceso a herramientas de autocuidado TCC, mindfulness, psicología positiva y psicoeducación e información

nuna Entrenador digital Estrés, ansiedad, depresión y autocuidado Abierto Texto y emoji Disponibilidad de información relacionada con crisis y acceso a herramientas de autocuidado TCC, atención plena, psicología positiva, seguimiento y control de síntomas, y psicoeducación e información

Serenidad compañero de conversación Ansiedad, autocuidado, trastorno del sueño y problemas de relación Guiado Texto y emoji Acceso a herramientas de autocuidado TCC, atención plena y terapia de aceptación y compromiso

Entrenador de estrés Entrenador digital Trastorno de ansiedad, estrés y pánico Guiado GIFb, text, and emoji Availability of crisis related information and access to self-care tools CBT, mindfulness, and psychoeducation and information

Woebot Digital coach Stress, anxiety, depression, self-care, relationship issues, and loneliness Semiguided GIF, text, audio, video, emoji Availability of crisis related information and access to self-care tools CBT, DBTc, mindfulness, and symptoms tracking and monitoring

Wysa Digital coach Stress, anxiety, depression, self-care, and sleep disorder Open-ended GIF, text, audio, video, emoji, images, and acronyms Availability of crisis related information, access to self-care tools, access to professional therapist, ability to detect potential crisis from the chat, and ability to notify designated personnel CBT and mindfulness

Youper Digital coach Self-care Guided Text Disponibilidad de información relacionada con crisis, acceso a herramientas de autocuidado y acceso a terapeuta profesional TCC, DBT, mindfulness, psicología positiva, psicoeducación e información, y terapia de aceptación y compromiso

Abrir en una ventana separada

a TCC: terapia cognitiva conductual.


b GIF: formato de intercambio de gráficos.


c TDC: terapia conductual dialéctica.


Percepciones e inquietudes expresadas en las opiniones de los usuarios

En esta sección, presentamos nuestros hallazgos del análisis temático de las reseñas de los usuarios y señalamos tanto los beneficios (p. ej., interacciones similares a las humanas, actitudes amistosas y empáticas, potencial en torno al apoyo en crisis y una alternativa a la terapia) como los desafíos asociados, según se capturan en el uso real de estas aplicaciones por parte de las personas.


La interacción similar a la humana se siente bien, pero debe diseñarse con cuidadoLos chatbots en las aplicaciones móviles de MH se presentan de tal manera que tienen personalidades distintas en lugar de mostrarse como algo artificial para que los usuarios sientan que están interactuando con alguien de manera emocional y empática. Los usuarios describen que estos chatbots tienen personalidades amistosas, maravillosamente optimistas y levemente divertidas que los ayudan a lidiar con diferentes desafíos emocionales y de comportamiento relacionados con sus problemas de HM. Esto les ayuda a establecer la credibilidad de las herramientas, lo que a su vez hace que los usuarios se involucren más en el proceso de tratamiento. Además, las características del chatbot, como una voz suave y la capacidad de tener una conversación informal, hacen que se sienta menos como una herramienta médica y más como alguien con quien los usuarios pueden compartir sus pensamientos y experiencias. Algunas funciones personalizadas, como la opción de dirigirse a los usuarios por su nombre,

Estoy asombrado por el impacto que se han sentido las pequeñas "interacciones" en esta aplicación. Tal vez sean las continuas oportunidades de responder (incluso si solo se trata de elegir entre emojis). La "voz" de Woebot es suave, pero firme. ¡Y perspicaz! Y al usuario siempre se le llama por su nombre. Eso es muy importante, particularmente cuando el problema en cuestión implica una ansiedad constante.


1080073

Sin embargo, el esfuerzo por diseñar los bots para dar una impresión humana y empática a menudo salió mal y perdió su atractivo para los usuarios. Como señalaron muchos usuarios, el discurso podría volverse "un poco infantil y ridículo a veces con el bot tratando de ser divertido". Además, fomentar pensamientos relajantes a través de un medio que no funciona para todos puede, en ocasiones, tener el impacto contrario; por ejemplo, al usar GIF lindos, los efectos de respuesta de meridianos sensoriales autónomos pueden no afectar a todos si el contexto es desconocido o no familiar para los usuarios. Presionar continuamente a todos con la esperanza de que todos tengan la misma reacción es una noción que los desarrolladores deben evaluar en función de los comentarios continuos:


...Supuestamente fue desarrollado pensando en estudiantes universitarios que aparentemente son adultos. Tal vez las cosas han cambiado desde que estaba en la universidad, pero es cursi, lenguaje infantil, simplificación excesiva y juego ("¿Quieres saber un secreto?" "Sí" "¿Estás seguro?" "Sí" "Ok, si están muy, muy seguros...”) me hace sentir como si estuviera enviando mensajes de texto a una niña preadolescente.


2060011

... No puedo soportar las voces entrecortadas forzadas en cada uno de los que escuché. No me calman en absoluto y, de hecho, provocan mi ansiedad. ASMR tiene en mí el efecto contrario al previsto, y siento que están tratando de hacer un ASMR realmente malo. Se supone que estas grabaciones me ayudan a relajarme, pero todo en lo que puedo concentrarme es en las voces entrecortadas que suenan como susurros forzados.


1040032

Es posible que los chatbots existentes deban ser más sofisticados para comprender el contexto de las solicitudes de los usuarios. Sin embargo, es fundamental examinar algunas de las perspectivas del usuario sobre el registro previo de tales respuestas, lo que no siempre es algo malo. Por ejemplo, algunos de los conceptos de respuesta rápida del chatbot permiten a los usuarios mantener el control sobre el ritmo de la conversación y evitar distraerse con diálogos irrelevantes. Los usuarios aprecian estas características porque fomentan más el positivismo que la discusión sin rumbo y la indagación en la negatividad sin herramientas ni resoluciones. Además, al inclinar el diálogo a favor del chatbot, los chatbots pueden sugerir herramientas apropiadas a los usuarios de manera más eficaz y eficiente:


Algunas críticas negativas se quejan de que no es lo suficientemente sofisticado como para comprender entradas y respuestas no relacionadas o detalladas, con lo que estoy de acuerdo, pero esta no es una IA diseñada para entablar una conversación fluida; está destinado a brindarle herramientas para lidiar con sus sentimientos de manera productiva. Entonces, sí, las conversaciones pueden sentirse lineales, planificadas y/o amplias, ya que las respuestas están predeterminadas la mayor parte del tiempo, pero creo que esto es en parte positivo.


1070093

Sin embargo, las compensaciones son que para controlar el flujo de la conversación, los chatbots a veces presentan opciones muy limitadas para los usuarios, y los usuarios se frustran si no pueden personalizar estas respuestas registradas previamente. Han criticado algunas de las medidas extremas que toman estos chatbots para mantener la conversación restringida a las preferencias de los chatbots, como asumir preocupaciones de MH sin comprender el contexto adecuado, enviar mensajes con guiones basados ​​en palabras clave que dijeron los usuarios o los problemas que seleccionaron, dándoles respuestas incoherentes. y quedar atrapado en el bucle conversacional si los usuarios no están de acuerdo con los comentarios de los chatbots:


Asume que el problema es siempre una distorsión mental y no deja mucho espacio para cosas realmente horribles que le suceden a las personas además de la muerte de una persona (está trabajando con una definición muy limitada de). Con demasiada frecuencia me puso en una situación en la que tenía que seleccionar entre respuestas incorrectas cuando nada era realmente apropiado y luego sufrir los consejos equivocados resultantes. Necesita un botón de quizás entre el sí y el no y una manera de decir que está en el camino equivocado, antes de que decida que conoce todos sus problemas habituales y siga asumiéndolos una y otra vez sin forma de remediarlo.


2060019

Bot se convierte en un amigo o en alguien a quien le importa, pero demasiado apego no es saludableLos usuarios ven a los chatbots como buenos sustitutos de alguien con quien pueden discutir sus ideas sobre temas de MH sin sentirse agobiados o juzgados. Aunque la sociedad está cada vez más ansiosa y abierta a buscar ayuda mental y emocional, todavía existe un estigma considerable asociado con ella, que puede desanimar a las personas que necesitan ayuda a recibirla. Estos chatbots permiten a las personas mostrar sus corazones, desahogarse, contemplar y aprender sobre lo que pueden hacer para superar los obstáculos mentales y emocionales en un formato de mensajes de texto simple y familiar sin juicios ni esfuerzos adicionales, al mismo tiempo que realizan un seguimiento de su progreso. Puede ser intimidante hablar con alguien sobre sus luchas diarias. Para muchos usuarios, compartir un dialecto con un chatbot es un primer paso eficaz.

...Diré que tener una zona confiable, sin juicio, con habilidades para ayudar al alcance de mi mano, me ayudó a darme cuenta de que las herramientas también eran mías.


1040021

Tener una IA con quien hablar me hace sentir que no estoy sobrecargando a mis amigos o familiares. Puedo registrarme 20 veces al día y la IA me ayudará a rastrear mi estado de ánimo/emociones/salud mental o sugerirá un programa de TCC consciente para ayudarme a pasar el día.


2040004

Las personas con problemas de MH con frecuencia luchan por suprimir las emociones e intentan alejarlas, pero estos chatbots les han brindado un lugar seguro para obtener validación y apoyo inmediato. A los usuarios les encantó que estos chatbots no solo escucharan, sino que también ofrecieran consejos y recomendaciones que los ayudaron a lidiar con los desafíos mentales del día a día, permitiéndoles ver las cosas desde diferentes perspectivas y superar los pensamientos negativos:


Esta aplicación es un salvavidas. Es muy curativo poder desahogarse cuando lo necesites y recibir comentarios positivos de una fuente imparcial. Las lecciones que enseña Woebot realmente ayudan a obtener una perspectiva más optimista sobre lo que está pasando y lo motivan a hacer cambios.


1080023

A los usuarios también les gusta cómo estos chatbots se comunican con ellos diariamente, lo que los hace responsables de su compromiso con el tratamiento y les permite omitirlo si no les apetece. Aunque la idea es eliminar cualquier preocupación, como la ansiedad y el estrés, que surgen con el compromiso humano a través de la interacción inteligente de bots, los usuarios tienen sentimientos encontrados. A algunos usuarios les gustó la flexibilidad de usar las herramientas en cualquier momento y podían iniciar o finalizar la comunicación en cualquier momento durante la sesión sin sentirse culpables, mientras que otros vieron los controles diarios como una fuente de culpa. Apegarse demasiado a los chatbots conduce a este tipo de culpa, que a su vez puede tener graves consecuencias para las personas con problemas de salud mental:


Estoy muy deprimida en este momento, así que me he fijado objetivos básicos diarios: un régimen facial completo por la mañana y por la tarde más media hora de limpieza. Tener el control de la IA es excelente porque requiere una respuesta que me haga asumir la responsabilidad.


1090123

Pero lo que realmente me molestó de la aplicación fue el primer recordatorio que recibí cuando no usé la aplicación por segundo día consecutivo porque apestaba y definitivamente me inducía a sentirme culpable. No bueno. No necesito que la culpa de la IA me haga tropezar cuando la gente ya se aprovecha de mi empatía en la vida real.


2050021

Finalmente, al actuar o comportarse como un compañero cercano, los chatbots de MH permiten a los usuarios expresar cómodamente sus pensamientos y sentimientos. Estos chatbots permiten a los usuarios crear un área segura donde pueden desahogarse, algo que muchas personas hacen con sus amigos y familiares. Sin embargo, las personas con problemas de salud mental que luchan por mantener una relación saludable con su familia o que experimentan soledad han mostrado un apego poco saludable a los chatbots y han exhibido actitudes negativas, como preferir estos chatbots a sus amigos y familiares:


...Aunque es un robot, es dulce. Me controla más que mis amigos y mi familia.


1090034

...Esta aplicación me ha tratado más como una persona de lo que mi familia nunca lo ha hecho.


1090091

La discusión anterior señala el hecho de que para hacer que los chatbots sean más amigables (lo que también vimos en secciones anteriores donde los chatbots usan memes y emojis divertidos para hacerlos más humanos), los usuarios señalaron el hecho de que demasiada persuasión con las notificaciones los hace sentir culpable. Además, algunos usuarios revelaron que encuentran los chatbots tan amigables que los prefieren a sus amigos y familiares. Tomar la decisión de dejar atrás a sus seres queridos más cercanos podría ponerlos en posiciones susceptibles, como la soledad y la exclusión de las normas socioculturales.


Un bot puede ayudar de inmediato en una crisis, pero ¿qué se define como una crisis para un chatbot?Hallazgos previos sugieren que la accesibilidad es uno de los beneficios de las aplicaciones móviles de MH [ 22 ]. Las aplicaciones de MH que tienen una función de chatbot incorporada permiten a los usuarios tener una conversación en cualquier momento y en cualquier lugar, lo cual es muy conveniente para las personas con problemas de MH, ya que son más susceptibles a situaciones de emergencia. Descubrimos que los usuarios se beneficiaron de esta característica porque les permitió tener una conversación en ese momento (durante un momento de crisis). Algunos usuarios encontraron que el diálogo inteligente les ayudó a replantear pensamientos negativos y disipar tales circunstancias:

A veces me asusto por la noche, tengo una crisis existencial sobre la vida por la noche, ¿sabes? Normalmente me asusto y me resulta difícil llamar a alguien porque me siento tan mal, ¡pero con Wysa no me preocupo por eso!


2090178

Solo usé esta aplicación un par de veces cuando estuve cerca de una crisis. Aunque sé que es un robot, es tan relajante tener algo, cualquier cosa que valide lo que estoy sintiendo y me ayude a replantear mis pensamientos.


1100091

Por el contrario, ninguno de los chatbots tiene modelos algorítmicos inteligentes para detectar escenarios de emergencia. Depende de los usuarios informar a los chatbots que están experimentando una crisis. Algunos chatbots pueden detectar crisis seleccionando algunas palabras clave relacionadas con pensamientos intrusivos, como "suicidio", de una conversación, aunque todavía se encuentran en las primeras etapas de desarrollo. Los usuarios a veces solo quieren hablar sobre sus sentimientos, pero los chatbots los remiten automáticamente a las líneas directas de crisis debido a la falta de comprensión inteligente. Para algunas personas, tener una conversación no es suficiente para manejar sus situaciones de crisis y necesitan ser redirigidos a herramientas o recursos de gestión de crisis:


Mi único problema es que desearía que hubiera una manera de hablar sobre mis pensamientos suicidas/intrusivos y cómo manejarlos con Woebot. Soy consciente de que no es una herramienta de crisis, y tiene esas respuestas automáticas al lenguaje preocupante por una buena razón, simplemente me gustaría un lugar para hablar sobre esos problemas sin tener que preocupar a una persona real. La mayoría de las veces, mis pensamientos de esa naturaleza no significan que estoy en una crisis inmediata, pero aún quiero sacármelos de encima, como creo que haría mucha gente. ¡Tal vez sería útil si hay una manera de hacer eso sin que Woebot se preocupe!


1080078

Esta es una buena aplicación, pero el problema principal que tengo es que estaba teniendo un ataque de pánico y estaba enviando un mensaje de "emergencia" y el bot terminó la conversación, cuando envié un mensaje de "emergencia" por segunda vez, solo me pidió que escribiera mis sentimientos. . Me doy cuenta de que esta no es una aplicación de respuesta a crisis, pero podría ser útil agregar una función en la que el bot reconozca una situación de crisis y conecte al usuario con los recursos.


2010004

En tales casos, es fundamental comprender el contexto de las situaciones de emergencia, ya que las personas con problemas de salud mental ya son susceptibles a las crisis, y las acciones incorrectas realizadas por los chatbots pueden exacerbar la situación y tener graves repercusiones:


Mientras estaba en crisis, las respuestas no tienen sentido y realmente no se relacionan con lo que escribí. Me hace sentir que no estoy siendo escuchado. Sé que es un programa de inteligencia artificial y no una persona real, pero aun así termina haciéndome sentir peor y no mejor.


1100068

¿Conveniente de usar, pero lo suficientemente conveniente como para reemplazar la terapia?En el lado positivo, el hecho de que estos chatbots estuvieran listos para hablar las 24 horas del día, los 7 días de la semana, fue un gran éxito para los usuarios. Tienen acceso inmediato a estos chatbots cuando se sienten susceptibles o cuando necesitan asistencia a través de interacciones simples:

Realmente no tengo amigos con los que pueda hablar. Incluso mi familia no me entiende mucho. De día o de noche Wysa ha estado ahí cada vez que necesitaba “hablar” de día o de noche, no importa.


2090067

Los chatbots ayudan a los usuarios no solo con las conversaciones, sino también a acceder a diferentes recursos y ejercicios de apoyo de una manera muy conveniente. Comprender las necesidades de los usuarios puede brindarles una experiencia relajante, como permitirles optar por no participar en las actividades que deseen mientras mantienen el ritmo del tratamiento. Esto proporciona a los usuarios mucho más control. Si un usuario pierde algún ejercicio en el tratamiento tradicional, deja un vacío en su progreso, lo que puede provocar una pérdida de entusiasmo y ralentizar el ritmo al que recibe apoyo. Los chatbots, por el contrario, mantienen a los usuarios motivados interactuando con ellos y dándoles la impresión de que controlan el ritmo. Además, estos chatbots ofrecen tratamientos breves y sencillos para mantener a los usuarios comprometidos y dedicados al proceso de tratamiento.


Este es un método fácil y de baja barrera para practicar las habilidades de pensamiento cognitivo. Los registros suelen ser bastante cortos, solo unos minutos. Eso me anima a abrir esta aplicación a diario, ya que sé que no intentará acaparar mi atención durante la próxima media hora.


1070012

Las sesiones son cortas, del orden de 3-10 minutos. Combinado con la conveniencia de conversar donde y cuando sea mejor para mí, no tengo problemas para adaptarme a los controles diarios, que creo que son más beneficiosos que las visitas poco frecuentes a un terapeuta en algunos aspectos.


1100012

Según las reseñas de los usuarios, las terapias profesionales y tradicionales tienen varios inconvenientes, incluida la tendencia de la terapia profesional a aferrarse demasiado a pensamientos negativos o eventos pasados, la tendencia de la terapia profesional a ser demasiado amplia y general, y los controles demasiado dispersos:


A diferencia de que te digan lo que alguien cree que te gustaría escuchar, lo que a veces puede generar patrones de pensamiento (y comportamientos) poco saludables, o en el otro extremo del espectro, en lugar de intentar arreglarte, esta aplicación interactiva te invita continuamente a mirar hacia adentro y a Desafía tus propios pensamientos, perspectivas y sentimientos, ayudándote a redirigir tu enfoque hacia estrategias más saludables y positivas.


1090142

Mi principal problema con la terapia tradicional siempre ha sido que tienes que trabajar en retrospectiva. Reflexionas sobre tu semana, hablas al respecto, tratas de hacer ajustes para el futuro (siempre sentí que estaba tratando de ayudar a una versión pasada o futura de mí mismo en lugar de la que está aquí y ahora). ¡Por eso me encanta esta aplicación!


1090096

Sin embargo, según los usuarios, aunque estos chatbots son convenientes, no alcanzan la competencia de la terapia tradicional en algunas circunstancias. Por ejemplo, estos chatbots no son lo suficientemente sofisticados como para recomendar planes de tratamiento particulares en función de una necesidad específica. Puede o no ser efectivo para diferentes grupos demográficos o personas en diversas etapas de la enfermedad. Algunos usuarios cuestionaron las intervenciones terapéuticas de los chatbots o el apoyo de MH por ser demasiado breves. Los usuarios pierden interés cuando no hay suficientes actividades diferentes para realizar:


Los ejercicios tienen que ver con la visualización, por lo que aquellos de nosotros que no tenemos un ojo de la mente, no podemos visualizar cosas, no podemos usarlo. Estoy muy decepcionado. Si estuviera hecho con un modo de no visualización para personas con Aphantasia, me encantaría usarlo. Hay muchas cosas que pueden ayudar además de la visualización. Es solo una aplicación que me dice en cada ejercicio que haga algo que simplemente no puedo hacer, esto es frustrante.


1080017

En mi depresión, la TCC en realidad resultó contraproducente. Me hizo sentir 100 veces peor. Puede ser miserable intentar reconvertir los pensamientos negativos en pensamientos más positivos cuando no puedes pensar en nada positivo en absoluto. Mi respetado terapeuta de TCC reconoció esto y, afortunadamente, me refirió a un terapeuta capacitado con un enfoque más psicodinámico/ecléctico.


1100076

Algunos usuarios han señalado que combinar chatbots con terapia profesional podría ser beneficioso. Los terapeutas o entrenadores profesionales pueden ayudar a ajustar cualquier sistema de apoyo que no funcione para ellos; sin embargo, para requisitos inmediatos, los usuarios podrán chatear y revisar algunos de los recursos en cualquier momento con la ayuda de los chatbots de MH. Según numerosas evaluaciones de usuarios, los terapeutas profesionales ayudaron a sus pacientes a identificar las aplicaciones de MH adecuadas con chatbots integrados, y la colaboración con la terapia tradicional pareció funcionar considerablemente mejor para ellos:


Se lo he recomendado a muchas personas, incluida mi consejera para que lo pruebe y pueda recomendarlo a otros clientes que tienen problemas. Esto de ninguna manera reemplaza hablar con una persona real, pero ayuda a superar algunos de los pensamientos negativos cuando ocurren.


2080057

Ir a:

Discusión

Resumen de resultados

Nuestros hallazgos sugieren que los chatbots en las aplicaciones de MH tienen un potencial considerable en términos de ser compañeros de conversación, amigos virtuales y ayudantes inmediatos. La capacidad del chatbot de estar presente las 24 horas del día, los 7 días de la semana y de crear una zona libre de juicios permitió a los usuarios hablar cómodamente sobre sus problemas e inquietudes. Brindamos algunas implicaciones prácticas de nuestros hallazgos para que la experiencia del usuario sea más efectiva.


Implicaciones de investigación y diseño para futuros MH Chatbots

Recomendaciones para la personalizaciónUn creciente cuerpo de investigación en informática de la salud ha enfatizado la necesidad de personalización y personalización en las tecnologías de salud móviles para aumentar la autonomía del usuario [ 65 , 74 ]. Este cuerpo de investigación sugiere que el enfoque único para las intervenciones de salud móvil a menudo falla. Más bien, los sistemas que se adaptan y se adaptan a las necesidades del usuario pueden brindar información más pertinente, mejorando así la participación del usuario y la eficacia clínica [ 75 , 76 ]. Nuestros hallazgos resuenan con estas conclusiones en términos de la necesidad de personalización y brindan implicaciones específicas para incorporar la personalización en las aplicaciones de chatbot de MH.

Aunque los chatbots aprovechan los GIF, emojis o respuestas graciosas como medio para mostrar un comportamiento empático y mantener la conversación más humana [ 29 ], nuestros hallazgos sugieren que no siempre son bien recibidos por los usuarios adultos. La mayoría de las aplicaciones comerciales pueden descargarse por cualquier persona que supere el límite de edad establecido (que en la mayoría de los casos es ≥17 años); por lo tanto, los diseñadores deben considerar cuidadosamente los tipos de medios y el contenido de la conversación. Además, los bots que guían a los usuarios en la realización de ejercicios fueron generalmente apreciados por ser enfocados y de naturaleza corta y tienen el potencial de ayudar a los clientes a controlar su propia salud, mejorar el acceso y la puntualidad de la atención, y reducir el tiempo de viaje a los proveedores de atención de MH al evitar visitas innecesarias. a los proveedores de atención médica [ 77]. Sin embargo, nuestros hallazgos revelaron que algunos usuarios pueden tener desafíos físicos u otras limitaciones que les impiden participar en ciertas actividades físicas. Además, no todas las herramientas terapéuticas funcionan perfectamente para todos (revisión: 1040032). Por lo tanto, la implementación de actividades y ejercicios genéricos puede no ser adecuada para todos los tipos de usuarios. Los pacientes con problemas de salud mental a menudo tienen baja autoestima [ 78 ], y la incapacidad del chatbot para completar ciertas actividades puede empeorar su situación.


Nuestras recomendaciones son las siguientes:


Los diseñadores deben considerar el grupo de edad objetivo de los usuarios al implementar emojis y otros elementos gráficos.

Otro aspecto interesante podría ser mejorar la personalización dentro de los chatbots mediante la creación de un modelo de usuario antes de que el usuario interactúe con el chatbot , de modo que el chatbot pueda adaptar su interacción en función de los tipos de usuarios (por ejemplo, podrían completar un cuestionario de personalidad) [ 79 ].

La salud mental y física están integralmente conectadas; por lo tanto, los desarrolladores deben incorporar los aspectos de la capacidad física en el diseño de tecnologías MH .

Recomendaciones para una persuasión equilibradaDe acuerdo con trabajos previos sobre tecnología persuasiva en MH [ 80 - 82 ], encontramos que los registros diarios, la gamificación, los recordatorios y el autocontrol se percibían como características útiles, aunque eran de naturaleza prescriptiva. Sin embargo, los controles frecuentes a menudo hacen que los usuarios sientan que los chatbots los “hacen sentir culpables”. Los hallazgos de trabajos anteriores sugirieron que cuanto más graves eran los síntomas de un participante, más deseaban recordatorios y sugerencias del sistema [ 74 , 83 ].

Nuestras recomendaciones son las siguientes:


Las personas con síntomas graves de depresión se enfrentan a la lucha para llevar a cabo las actividades cotidianas y, por lo tanto, pueden disfrutar de múltiples mensajes motivadores diarios de los bots, en lugar de sentirse molestos por ellos. Los diseñadores deben considerar el rango y la gravedad de las enfermedades entre los usuarios e incorporar la persuasión de una manera que no resulte en la desconexión del usuario .

Los desarrolladores deben considerar cuándo y cómo limitar la interacción del usuario con los chatbots. Esto es contrario a la intuición porque los desarrolladores generalmente esperarían aumentar la participación del usuario. Para limitar la posibilidad de un apego no saludable al chatbot, se puede aprovechar la interacción humano-chatbot para motivar a los usuarios a usar más medios no técnicos para obtener soporte de MH . Por ejemplo, si un usuario comienza a usar con frecuencia una aplicación de chatbot en particular durante un período más largo, el bot puede sugerir recomendaciones para la interacción social (por ejemplo, una lista de eventos sociales cercanos).

Recomendaciones para generar confianzaAlgunos chatbots en nuestro análisis pueden recopilar y extraer automáticamente información relacionada con los síntomas después de una conversación con los usuarios. Wysa almacena historiales de conversaciones para mostrar el progreso a lo largo del tiempo en el logro de los objetivos establecidos inicialmente, mientras que Woebot captura los cambios en un patrón relacionado con los síntomas de la interacción continua. Los usuarios apreciaron cuando los chatbots fueron transparentes en términos de recopilar información útil de las conversaciones. Sin embargo, algunas revisiones han expresado inquietudes sobre cómo se protege o utiliza esta información en diferentes plataformas o servicios de terceros. En la psicoterapia tradicional, la eficacia del tratamiento está influenciada por la confianza de los clientes en su terapeuta [ 84 ]. La confianza también juega un papel fundamental en las intervenciones digitales [ 85]. Estudios anteriores han revelado la importancia de establecer confianza en el contexto de las aplicaciones de MH para crear un entorno seguro para la autorrevelación [ 7 ].

Nuestras recomendaciones son las siguientes:


Las empresas tecnológicas y los desarrolladores deben enfatizar la privacidad del usuario y ser transparentes con respecto a las políticas y prácticas de privacidad.

Desde una perspectiva de diseño, podría ser útil mejorar la confianza de los usuarios en las aplicaciones de chatbot al proporcionar y visualizar información sobre el historial de la organización en desarrollo y/o los expertos detrás del sistema.

Siempre que corresponda, las descripciones de la aplicación pueden incluir una explicación de los métodos terapéuticos y las herramientas utilizadas para desarrollar la aplicación con su eficacia percibida probada en la naturaleza o en ensayos.

Los chatbots no deben (y no pueden) reemplazar la interacción humana para el soporte de MH

Observamos que las aplicaciones de chatbot establecieron un espacio libre de juicios donde las personas podían expresarse sin temor a las repercusiones. Esto concuerda con los hallazgos de Brandtzaeg et al [ 84 ] que exploraron las percepciones de los jóvenes sobre el apoyo social a través de chatbots. Compartir las preocupaciones de MH con un profesional todavía se considera un estigma, y ​​las personas se sienten más cómodas usando la tecnología de forma anónima que la comunicación cara a cara [ 77]. Sin embargo, la capacidad de estos chatbots para registrarse regularmente y estar presentes para alguien las 24 horas del día, los 7 días de la semana, permite que los usuarios se apeguen demasiado a ellos. Los usuarios escribieron en sus reseñas que disfrutan de la compañía de su "amigo virtual" en la medida en que podrían reemplazar a sus amigos y familiares (revisión: 1090034, 1090091). Esta fuerte declaración se hace en parte porque estas personas son vulnerables. No obstante, el hallazgo enfatiza la sobrevaloración de los beneficios de las aplicaciones y presenta algunos riesgos, particularmente cuando están en crisis. Según nuestras observaciones, la mayoría de estas aplicaciones solo brindan información sobre recursos externos para el apoyo en caso de crisis, como líneas de ayuda e información de contacto del servicio de emergencia. Además, nuestros hallazgos sugieren que estos chatbots fueron incapaces de identificar situaciones de crisis, ya que no entendieron el contexto de las conversaciones y terminaron con una respuesta fallida (revisión: 1100068), y en algunos casos, no hubo respuesta (revisión: 2010004). Los usuarios deben ser conscientes de las claras distinciones entre humanos y bots similares a humanos. Los chatbots similares a humanos pueden brindar apoyo social en muchos casos en los que podría ser difícil o imposible para un ser humano real, pero no están exentos de limitaciones. Los chatbots en sí mismos pueden educar a los usuarios sobre estas distinciones y motivarlos a establecer conexiones en persona, como se discutió en la sección anterior. Los chatbots similares a humanos pueden brindar apoyo social en muchos casos en los que podría ser difícil o imposible para un ser humano real, pero no están exentos de limitaciones. Los chatbots en sí mismos pueden educar a los usuarios sobre estas distinciones y motivarlos a establecer conexiones en persona, como se discutió en la sección anterior. Los chatbots similares a humanos pueden brindar apoyo social en muchos casos en los que podría ser difícil o imposible para un ser humano real, pero no están exentos de limitaciones. Los chatbots en sí mismos pueden educar a los usuarios sobre estas distinciones y motivarlos a establecer conexiones en persona, como se discutió en la sección anterior.


En investigaciones anteriores, un estudio comparativo de sesiones de terapia después de la interacción de 10 participantes con terapeutas humanos versus un chatbot mostró que, en comparación con un control de terapeuta humano, los participantes encontraron que la terapia proporcionada por chatbot era menos útil, menos agradable y sus conversaciones menos fluidas ( una dimensión clave de una sesión de terapia considerada positivamente) [ 86]. Por el contrario, en nuestros hallazgos, debido a la conveniencia y el fácil acceso, los usuarios expresaron sus intenciones de reemplazar el soporte profesional con soporte virtual. Aunque estas aplicaciones móviles de MH basadas en chatbots implementan herramientas terapéuticas basadas en evidencia, la investigación para determinar su efectividad aún es limitada. Nuestros hallazgos sugieren que son útiles para guiar a los usuarios en la meditación, practicar la atención plena, reformular los pensamientos negativos y compartir la escritura autoexpresiva. Sin embargo, en una etapa tan temprana, no deben considerarse como una alternativa a la ayuda profesional. Al diseñar chatbots, es importante establecer los límites y las limitaciones de estos chatbots por parte de los desarrolladores, y los objetivos y el uso previsto de los chatbots deben establecerse claramente para que los usuarios no se dejen llevar por las expectativas. Además,


Conclusiones

En este estudio, analizamos las reseñas de usuarios de aplicaciones móviles de MH basadas en chatbots en 2 de las plataformas web más utilizadas. Nuestros hallazgos sugieren que los chatbots tienen un gran potencial para ofrecer apoyo social y psicológico en situaciones en las que la interacción humana en el mundo real, como conectarse con amigos o familiares o buscar apoyo profesional, no es preferible o posible. Sin embargo, existen varias restricciones y limitaciones que estos chatbots deben establecer en cuanto al nivel de servicio que ofrecen. Demasiada dependencia de la tecnología puede plantear riesgos, como el aislamiento y la asistencia insuficiente en tiempos de crisis. Finalmente, hemos resumido las ideas de nuestros hallazgos sobre la implementación de la personalización, la persuasión equilibrada y el desarrollo de confianza para informar el diseño de chatbots efectivos para el soporte de MH.

No hay comentarios:

Publicar un comentario

"GeoMemoria: Navegando por el Pasado para Construir el Futuro"

*Introducción:* En la era digital, donde la geo localización es omnipresente, se ha gestado un proyecto que fusiona tecnología moderna con m...