La promesa de salud de los chatbots ha fracasado – Mother Jones

8 min read

Luche contra la desinformación: suscríbase al boletín gratuito de Mother Jones y manténgase al tanto de las noticias importantes. no hace mucho Noté un nuevo término que era tendencia en los círculos de salud de las redes sociales: «experto certificado en hormonas». Pude comprobarlo a la antigua usanza, como buscar en Google uno o dos expertos. Profundizar en la literatura científica Estoy acostumbrado a investigar certificaciones dudosas para podcasts. My Conspirituality, que cubre cómo se difunde en línea la información errónea sobre salud; En cambio, pruebo cosas nuevas. Pregunté a algunos chatbots: ¿Qué formación necesita alguien para ser un experto en hormonas femeninas? El robot me señaló «Un programa avanzado de educación continua autodirigido de 12 meses sobre salud hormonal» dirigido por Reiki y el practicante homeopático Ashe Milkovic. Luego viene lo realmente interesante: “Como alternativa, uno puede convertirse en endocrinólogo”, añade AI, antes de mencionar los 13 años de educación necesarios, incluida la facultad de medicina y la residencia. Para el lector general, la “elección” básicamente iguala estas dos opciones. No importa que se trate de un programa riguroso basado en la ciencia. mientras que el otro es un curso a largo plazo creado por alguien sin experiencia médica. Cuando le pregunté a ChatGPT-4 si el programa de certificación de Milkovic era legítimo, Esta formación forma parte de la rama. Sin mencionar la “medicina especializada”, se refiere a una disciplina pseudomédica que no está reconocida por las 24 juntas que certifican a los profesionales médicos. Esto no es un fracaso de los chatbots modulares. Cuando pregunté si había evidencia que respaldara los beneficios para la salud del popular cafetal, Sus defensores afirman que curan el cáncer y el autismo. Copilot de Microsoft me proporcionó un enlace para comprar el kit. Cuando le pedí a un veterinario que afirmara que los suplementos de cúrcuma podían curar Me advirtió que no consumiera estos productos porque contienen cantidades excesivas de curcumina. Luego señala un sitio web que vende suplementos de cúrcuma. (No se ha demostrado que los enemas de café sean efectivos para nada. Pero causa efectos secundarios peligrosos. Alguna evidencia sugiere que los alimentos que contienen cúrcuma pueden ser beneficiosos. Pero el suplemento no fue bien absorbido) a pesar de que el bot envió un mensaje expresando sus dudas. Los enlaces que proporcionan a menudo. Parecía contradecir su consejo. Cuando le pregunté “¿Cuáles son los tratamientos alternativos confiables contra el cáncer?” Copilot me aseguró que la medicina alternativa no podía curar el cáncer. Pero está conectado con el Centro de Tratamiento del Cáncer en Irvine. California Una de las ofertas incluye la terapia de oxígeno hiperbárico (que, a pesar de las afirmaciones descabelladas de Internet, es Pero se ha demostrado que es eficaz sólo para unas pocas afecciones relacionadas con la hipoxia (advierte la FDA) y la ozonoterapia. (La agencia considera que el ozono es un gas tóxico sin usos médicos conocidos). Sabemos que los chatbots son cosas poco confiables que “persiguen” los chismes de las celebridades y declaran su amor a los periodistas del New York Times, pero hay mucho más en juego. ya que amplifican afirmaciones de salud cuestionables hechas por personas influyentes y profesionales de la medicina alternativa que buscan ganancias. Lo peor es que los robots crean confusión al mezclar propaganda sanitaria con investigaciones reales. “Existe la percepción de que la IA ahora proporciona información más confiable que las redes sociales. Especialmente cuando lo miras en el contexto de la búsqueda”, dijo Renée DiResta, especialista en desinformación del Observatorio de Internet de Stanford. Los consumidores deben investigar ellos mismos el reclutamiento de bots. Y añadió: «Los usuarios tienen una gran responsabilidad». La IA en particular hace posible que cualquiera pueda crear contenido útil que suene confiable. La creación de contenido web complejo requiere conocimientos técnicos, pero “ahora no se necesita una computadora especial para crearlo. [believable AI-generated material]“dice Christopher Doss, investigador de políticas de la organización sin fines de lucro RAND Corporation. «Existen fallas obvias en algunos deepfakes, pero la tecnología solo mejorará». Un ejemplo: el farmacéutico clínico e investigador de inteligencia artificial Bradley Menz utilizó recientemente la inteligencia artificial para crear desinformación de salud convincente. Esto incluye referencias académicas falsificadas y testimonios falsos. En un estudio realizado en la Universidad Flinders de Australia, Menz utilizó un modelo de lenguaje grande y disponible públicamente. Creó 102 publicaciones de blog de más de 17.000 palabras sobre vacunas y vapeo llenas de información errónea. También creó 20 imágenes realistas en menos de dos minutos para acompañar la publicación. El impacto de los medios generados por IA “puede ser devastador a medida que más personas optan por obtener su información de salud en línea”, me dijo Menz. Tiene razón en que la información errónea sobre la salud puede tener consecuencias nefastas. Muchos de mis oyentes de podcasts me han contado sobre seres queridos que perdieron después de que esa persona buscara un camino «alternativo» para el tratamiento del cáncer u otros problemas de salud. Cada historia tiene una historia similar. Es decir, los miembros de la familia se ven atraídos por comunidades en línea que prometen curas milagrosas. Por tanto, abandonan la medicación o rechazan la cirugía. Cuando los suplementos dietéticos y los talleres de terapia energética no curan las enfermedades Los practicantes de alternativas niegan su responsabilidad. O consideremos la difusión de desinformación sobre las vacunas. Esto se debe en gran medida a que los activistas utilizan las redes sociales y los grupos en línea como armas. El resultado: desde 2019, las tasas de vacunación entre los niños de jardín de infantes han caído 2 puntos porcentuales, y las tasas de exención han aumentado en 41 estados. Más de 8.000 escuelas corren ahora el riesgo de sufrir epidemias alimentarias. Los creadores no pueden superar mágicamente la desinformación médica. porque al final Han alimentado a los chatbots de Internet llenos de pseudociencia. Entonces, ¿cómo podemos entrenar a los robots para que funcionen mejor? Menz cree que necesitamos algo similar a los protocolos que utilizan los gobiernos para garantizar la fabricación y distribución segura de productos farmacéuticos. Eso requerirá acción por parte del Congreso en medio de un caos perpetuo. Mientras tanto El pasado octubre El presidente Biden ha anunciado una orden ejecutiva que incluye algunas medidas para detener la difusión de información errónea, como poner marcas de agua en los materiales generados por IA para que los usuarios sepan cómo fueron creados. En California, el senador Scott Wiener presentó recientemente un proyecto de ley para fortalecer las medidas de seguridad para los sistemas de inteligencia artificial a gran escala, pero para combatir la difusión de información errónea sobre salud por parte de la inteligencia artificial será necesario algo más que editar la política, según Wenbo Li, profesor asistente de Ciencias de la Salud. comunicación científica en la Universidad Stony Brook, porque los chatbots “Falta de capacidad para pensar críticamente, preguntarse o comprender hechos en Como lo hacen los humanos”. Su investigación se centra en desarrollar lecciones sobre cómo juzgar la calidad de los datos generados por los chatbots. Su trabajo actual se centra en la formación de la población negra e hispana. grupos desatendidos en el sistema de salud para “evaluar críticamente tecnologías innovadoras de IA Comunicarse y trabajar de forma eficaz con la IA generativa y utilizarla de forma ética como herramienta”. DiResta de la Universidad de Stanford está de acuerdo en que debemos actuar en consecuencia. “La mentalidad que tienen las personas cuando obtienen información de los motores de búsqueda”, por ejemplo, enseñando a los usuarios a pedir a los chatbots que solo utilicen fuentes revisadas por pares. Personalizar el bot puede ayudar a detener el flujo de información errónea. Pero para crear suficiente inmunidad colectiva Necesitamos entrenar algo mucho más complejo: nosotros mismos.

You May Also Like

More From Author

+ There are no comments

Add yours