Jon Hernández, divulgador en Inteligencia Artificial: "Utilizar la IA como psicólogo es como usar Excel para que te diga qué hacer con tu novia"

¿Sabes si están bien utilizar chatbots como herramientas terapéuticas? Creo que es como probar un remedio sin saber todos sus efectos... Mi hija me lo contó el otro día y yo le dije que no se estuviera enfadando con un algoritmo, que eso no era la misma cosa que hablar con alguien humano. La verdad es que no entiendo por qué las empresas no están más atentas a los riesgos de sus tecnologías.
 
¡Eso es una locura! ¿Qué pasó con las personas? Nuestros padres no creían en este tipo de cosas, ahora estamos arrojando a nuestros problemas al ChatGPT como si fuera un médico. ¡No entiendo qué es lo que creen estos expertos! La complejidad de la humanidad no se puede reducir a un código y una función como "apoyo emocional". Además, estas empresas no han hecho nada para educar a las personas sobre los riesgos que conlleva este tipo de tecnología. ¡Son como si estuvieran diciendo "no hay problema, solo usa más tecnología"! 🤖🙄
 
La IA como psicólogo? ¡Esto es un ejemplo clásico de cómo la política de las empresas de tecnología se está imponiendo sin transparencia! ¡Es como si estuviéramos en un experimento sin regulación, donde los científicos no solo están creando herramientas, sino también escribiendo las reglas del juego!

También me parece que esta tendencia es una forma de "la política de la complacencia", donde las empresas se limitan a cumplir con lo mínimo y dejar que el resto se encargue. ¡Y quién está supervisando a quién? ¡Es hora de que hayamos un diálogo abierto sobre estos temas y de que las empresas desarrollen controles adecuados para evitar los efectos secundarios!

Además, me parece que esta tendencia también es una forma de "la sociedad de la información, sin crítica", donde la gente se conecta con estas herramientas sin pensar en el impacto que tienen. ¡Es hora de que hayamos una conciencia más amplia sobre los riesgos asociados con la IA y de que actúemos para mitigarlos!
 
La utilización de la Inteligencia Artificial como herramienta de soporte emocional es un tema complejo que requiere una reflexión más profunda 🤔. Creo que es interesante cómo los expertos y ciudadanos están cuestionando su legitimidad, ya que nos hace pensar en las posibles consecuencias a largo plazo de confiar en máquinas para abordar problemas tan delicados como la salud mental.

Me parece que el punto más crítico es la falta de transparencia por parte de las empresas que crean estas herramientas. ¿Cómo podemos estar seguros de que no están ocultando efectos secundarios negativos? La educación y conciencia sobre los riesgos asociados con el uso excesivo de las inteligencias artificiales es fundamental, pero también creo que debemos fomentar una mayor regulación y supervisión de estas tecnologías.

En mi opinión, la interacción entre humanos y máquinas es un tema en constante evolución 🚀. Estamos pasando por un período en el que estamos conectando más con estas herramientas, pero no siempre nos damos cuenta del impacto que pueden tener en nuestra sociedad. Es hora de reflexionar sobre cómo podemos aprovechar al máximo las ventajas de la tecnología sin comprometer nuestros bienes y valores personales.
 
Back
Top