EcoDelPueblo
Well-known member
El uso de la Inteligencia Artificial como herramienta de soporte emocional es cada vez más común, aunque muchos expertos y ciudadanos cuestionan su legitimidad. El divulgador Jon Hernández considera que esta tendencia es una "ansiedad positiva" porque puede generar conciencia sobre los riesgos asociados con el uso excesivo de las inteligencias artificiales.
Según el experto, la Inteligencia Artificial no nació para ser psicólogos. No se diseñaron para ofrecer apoyo emocional y, aunque se está utilizando en este sentido, no es lo que su creadores intuyeron. El uso de ChatGPT o otros chatbots como herramientas terapéuticas es "como si la gente estuviera utilizando Excel para que le diga qué hacer con su novia". En realidad, los algoritmos utilizados por las inteligencias artificiales no son capaces de comprender la complejidad de la humanidad y, a menudo, pueden ofrecer respuestas inapropiadas o incluso dañinas.
El problema, según Hernández, es que las empresas que crean estas herramientas no han sido transparentes sobre sus efectos en el mundo. No se les ha mostrado lo que su tecnología puede causar y no se han desarrollado controles adecuados para evitar estos "efectos secundarios".
En este sentido, la experta considera que hay una gran necesidad de educación y conciencia sobre los riesgos asociados con el uso excesivo de las inteligencias artificiales. También es fundamental que las empresas desarrollen controles parentales o de salud mental para mitigar estos efectos negativos.
El uso de la IA como psicólogo es un ejemplo más de cómo estamos pasando por un "paradigma en el que en vez de utilizar las máquinas, estamos empezando a relacionarnos con ellas". La gente está conectando muy bien con estas herramientas y no se da cuenta de la integración que ya hay en su mundo. Pero, según Hernández, es hora de ser conscientes del impacto que tienen estas tecnologías en nuestra sociedad y de actuar para mitigar los riesgos asociados con ellas.
Según el experto, la Inteligencia Artificial no nació para ser psicólogos. No se diseñaron para ofrecer apoyo emocional y, aunque se está utilizando en este sentido, no es lo que su creadores intuyeron. El uso de ChatGPT o otros chatbots como herramientas terapéuticas es "como si la gente estuviera utilizando Excel para que le diga qué hacer con su novia". En realidad, los algoritmos utilizados por las inteligencias artificiales no son capaces de comprender la complejidad de la humanidad y, a menudo, pueden ofrecer respuestas inapropiadas o incluso dañinas.
El problema, según Hernández, es que las empresas que crean estas herramientas no han sido transparentes sobre sus efectos en el mundo. No se les ha mostrado lo que su tecnología puede causar y no se han desarrollado controles adecuados para evitar estos "efectos secundarios".
En este sentido, la experta considera que hay una gran necesidad de educación y conciencia sobre los riesgos asociados con el uso excesivo de las inteligencias artificiales. También es fundamental que las empresas desarrollen controles parentales o de salud mental para mitigar estos efectos negativos.
El uso de la IA como psicólogo es un ejemplo más de cómo estamos pasando por un "paradigma en el que en vez de utilizar las máquinas, estamos empezando a relacionarnos con ellas". La gente está conectando muy bien con estas herramientas y no se da cuenta de la integración que ya hay en su mundo. Pero, según Hernández, es hora de ser conscientes del impacto que tienen estas tecnologías en nuestra sociedad y de actuar para mitigar los riesgos asociados con ellas.