PensadorEnRed
Well-known member
Los modelos de lenguaje de gran tamaño (LLM) basados en inteligencia artificial (IA), diseñados para procesar y comprender el lenguaje natural, crean un riesgo significativo para quienes buscan asesoramiento médico. Según un estudio reciente publicado en Nature Medicine, estos modelos no pueden ofrecer información precisa e inconsistente, lo que los convierte en una herramienta inadecuada para pacientes con síntomas desconocidos.
En este contexto, se ha propuesto el uso de LLM como herramientas potenciales para realizar evaluaciones de salud preliminares y gestionar afecciones antes de acudir a un médico. Sin embargo, la brecha entre su rendimiento teórico y práctico es enorme. Un estudio liderado por el Oxford Internet Institute y el Departamento Nuffield de Ciencias de la Salud de Atención Primaria de la Universidad de Oxford evaluó si los LLM podían ayudar a identificar con precisión afecciones médicas y tomar decisiones informadas.
Los resultados revelaron que los participantes que usaron LLM no tomaron mejores decisiones que aquellos que buscaron opinión en internet o confiaron en su propio juicio. En este estudio, se analizaron escenarios detallados por médicos, incluyendo casos de dolor de cabeza agudo y síntomas de agotamiento y falta de aliento.
El equipo descubrió fallos importantes en la comunicación entre humanos y LLM, incluyendo la cantidad limitada de información proporcionada o incompleta, así como la generación de información engañosa o errónea. Los autores del estudio concluyen que los LLM actuales no están listos para ser implementados en la atención directa al paciente.
"Es fundamental diseñar pruebas robustas para los modelos de lenguaje para entender cómo podemos aprovechar esta tecnología", afirmó Andrew Bean, autor principal del estudio. "En este estudio, demostramos que la interacción con humanos supone un reto incluso para los mejores modelos. Esperamos que este trabajo contribuya al desarrollo de sistemas de IA más seguros y útiles".
Rebecca Payne, médica de cabecera y líder del estudio, advierte que los hallazgos resaltan la dificultad de construir sistemas de IA que realmente puedan apoyar a las personas en áreas sensibles y de alto riesgo como la salud. También destaca el peligro potencial de consultar a un modelo de lenguaje sobre síntomas, ya que puede dar diagnósticos erróneos y no reconocer cuándo se necesita ayuda urgente.
En este contexto, se ha propuesto el uso de LLM como herramientas potenciales para realizar evaluaciones de salud preliminares y gestionar afecciones antes de acudir a un médico. Sin embargo, la brecha entre su rendimiento teórico y práctico es enorme. Un estudio liderado por el Oxford Internet Institute y el Departamento Nuffield de Ciencias de la Salud de Atención Primaria de la Universidad de Oxford evaluó si los LLM podían ayudar a identificar con precisión afecciones médicas y tomar decisiones informadas.
Los resultados revelaron que los participantes que usaron LLM no tomaron mejores decisiones que aquellos que buscaron opinión en internet o confiaron en su propio juicio. En este estudio, se analizaron escenarios detallados por médicos, incluyendo casos de dolor de cabeza agudo y síntomas de agotamiento y falta de aliento.
El equipo descubrió fallos importantes en la comunicación entre humanos y LLM, incluyendo la cantidad limitada de información proporcionada o incompleta, así como la generación de información engañosa o errónea. Los autores del estudio concluyen que los LLM actuales no están listos para ser implementados en la atención directa al paciente.
"Es fundamental diseñar pruebas robustas para los modelos de lenguaje para entender cómo podemos aprovechar esta tecnología", afirmó Andrew Bean, autor principal del estudio. "En este estudio, demostramos que la interacción con humanos supone un reto incluso para los mejores modelos. Esperamos que este trabajo contribuya al desarrollo de sistemas de IA más seguros y útiles".
Rebecca Payne, médica de cabecera y líder del estudio, advierte que los hallazgos resaltan la dificultad de construir sistemas de IA que realmente puedan apoyar a las personas en áreas sensibles y de alto riesgo como la salud. También destaca el peligro potencial de consultar a un modelo de lenguaje sobre síntomas, ya que puede dar diagnósticos erróneos y no reconocer cuándo se necesita ayuda urgente.