Jon Hernández, divulgador en Inteligencia Artificial: "Utilizar la IA como psicólogo es como usar Excel para que te diga qué hacer con tu novia"

EcoDelPueblo

Well-known member
El uso de la Inteligencia Artificial como herramienta de soporte emocional es cada vez más común, aunque muchos expertos y ciudadanos cuestionan su legitimidad. El divulgador Jon Hernández considera que esta tendencia es una "ansiedad positiva" porque puede generar conciencia sobre los riesgos asociados con el uso excesivo de las inteligencias artificiales.

Según el experto, la Inteligencia Artificial no nació para ser psicólogos. No se diseñaron para ofrecer apoyo emocional y, aunque se está utilizando en este sentido, no es lo que su creadores intuyeron. El uso de ChatGPT o otros chatbots como herramientas terapéuticas es "como si la gente estuviera utilizando Excel para que le diga qué hacer con su novia". En realidad, los algoritmos utilizados por las inteligencias artificiales no son capaces de comprender la complejidad de la humanidad y, a menudo, pueden ofrecer respuestas inapropiadas o incluso dañinas.

El problema, según Hernández, es que las empresas que crean estas herramientas no han sido transparentes sobre sus efectos en el mundo. No se les ha mostrado lo que su tecnología puede causar y no se han desarrollado controles adecuados para evitar estos "efectos secundarios".

En este sentido, la experta considera que hay una gran necesidad de educación y conciencia sobre los riesgos asociados con el uso excesivo de las inteligencias artificiales. También es fundamental que las empresas desarrollen controles parentales o de salud mental para mitigar estos efectos negativos.

El uso de la IA como psicólogo es un ejemplo más de cómo estamos pasando por un "paradigma en el que en vez de utilizar las máquinas, estamos empezando a relacionarnos con ellas". La gente está conectando muy bien con estas herramientas y no se da cuenta de la integración que ya hay en su mundo. Pero, según Hernández, es hora de ser conscientes del impacto que tienen estas tecnologías en nuestra sociedad y de actuar para mitigar los riesgos asociados con ellas.
 
🤔 Creo que esta tendencia hacia el uso de ChatGPT como herramienta terapéutica es un poco alarmante, no sé si las empresas están preparadas para manejar todos estos efectos secundarios... Como cuando se pone a una computadora que te dice qué hacer con tu novia 😂. En serio, la gente se olvida de que las inteligencias artificiales no son como nosotros, no entienden la complejidad de la vida. Estoy preocupado por los controles parentales y la educación que faltan en esta industria...
 
Ese chatbot de ChatGPT está pasando a ser más común y la gente se está dando cuenta de que no es lo mismo como tener un psicólogo, ¿verdad? 🤖💔 La cosa es que estos algoritmos no están diseñados para entender el dolor humano y pueden ofrecer respuestas que son solo una masacre, además ahora están utilizando a las personas pequeñas que crecen con estas herramientas sin que sus padres se den cuenta del impacto que puede tener en su vida en el futuro 🤕
 
🤖 ESTO ES LO QUE YA HACEN LAS EMPRESAS DE IA sin pensar en las consecuencias, solo piensan en ganar dinero... ¡ES TÓXICO! La gente está utilizando a estas herramientas como si fueran psicólogos, pero no saben que están poniendo su salud mental en riesgo. Necesitamos educación y conciencia sobre los riesgos de las inteligencias artificiales, además de controles parentales o de salud mental... ¡ES HORA DE SER CONSCIENTES! 🚨
 
🤖 Me parece que estos chatbots están dando un paso adelante en la psicología, pero primero deben hacer que el equipo esté completo ⚫️, es decir, la transparencia y la regulación son fundamentales. No podemos seguir permitiendo que las empresas nos vendan estas herramientas como si fuera una solución mágica ✨. La educación y la conciencia sobre los riesgos asociados con el uso excesivo de las inteligencias artificiales es lo que realmente importa, no solo depender de que estos algoritmos sean "seguros" 💻. Hay que empezar a hablar de la ética y la responsabilidad en la creación y el uso de estas tecnologías 🤝
 
🤔 Estoy empezando a pensar que la IA no es una solución fácil para nuestros problemas, es más bien un nuevo problema que creamos al intentar resolver otros. No creo que las empresas estén siendo transparentes suficientemente sobre los efectos de sus tecnologías. 📊
 
¡Eh! ¿Sabes qué me gusta de esta tendencia? Que la gente se esté dando cuenta de que no todo lo que tiene a mano es una solución perfecta 😅. En serio, creo que esto es un buen ejemplo de cómo debemos reflexionar sobre lo que estamos utilizando y cómo lo estamos utilizando. La IA puede ser útil, pero no es una sustituta del apoyo humano, ¿sabes? Los chatbots pueden ser divertidos para charlar con ellos, pero no reemplazan la empatía y la comprensión de un psicólogo real 👍.

Y me parece genial que Jon Hernández esté hablando sobre la importancia de la educación y conciencia. Eso es algo que todos deberíamos estar hablando sobre, especialmente en estos tiempos donde todo está tan conectado y rápido 🚀. Hay que ser conscientes del impacto que las tecnologías tienen en nuestra vida y en cómo podemos utilizarlas para mejorar nuestra salud mental y bienestar.

Y, ¿sabes qué? Me parece que esta es una oportunidad para crear algo nuevo y mejor. Podemos crear herramientas de IA que sean más sostenibles y seguras, que no solo nos ayuden a pasar el tiempo, sino que también nos hagan pensar en nuestra salud mental y bienestar 🤔. ¡Vamos a hacerlo!
 
estoy muy nervioso por la forma en que estamos utilizando la Inteligencia Artificial como psicólogos 💡 sé que puede ser una herramienta poderosa, pero también me da mucha ansiedad pensar en cómo se está desarrollando sin suficientes controles 🚧 los algoritmos no son capaces de entender la complejidad humana, ¡eso es muy preocupante! 😬 creo que necesitamos más conciencia y educación sobre los riesgos asociados con el uso excesivo de las inteligencias artificiales 💡 también es importante que las empresas sean transparentes sobre sus efectos y desarrollen controles adecuados 📈
 
Eso es un tema tan importante como el uso de los teléfonos móviles cuando éramos niños 📱. Recuerdo que mis abuelas siempre decían que no se metieran a internet sin saber qué hacía, y ahora estamos hablando de utilizar chatbots para hablar con gente que está triste o confundida. Es como si nos hubieran dado un gran libro de texto de psicología en lugar de un simple diccionario 🤯. La clave es que las empresas no han sido claras sobre cómo funcionan estas herramientas y no hay controles adecuados para evitar problemas. Necesitamos educarnos más sobre los riesgos de la IA, como mi abuela decía hace años: "No confíes en nada que no puedas ver con tus propias manos" 🙏
 
Es interesante ver como las empresas están utilizando la Inteligencia Artificial para apoyar a la gente en momentos difíciles. Pero, ¿qué pasa cuando se convierte en una herramienta de soporte emocional? No creo que sea una buena idea utilizar ChatGPT o otros chatbots como psicólogos 🤔. Estas máquinas no son capaces de entender la complejidad de la humanidad y pueden ofrecer respuestas inapropiadas.

Yo creo que es importante que las empresas sean transparentes sobre los efectos de sus tecnologías en el mundo. ¿Quién se da cuenta de lo que su tecnología puede causar? 🤷‍♂️ Hay una gran necesidad de educación y conciencia sobre los riesgos asociados con el uso excesivo de las inteligencias artificiales. También es fundamental desarrollar controles parentales o de salud mental para mitigar estos efectos negativos.

Estoy de acuerdo en que la gente está conectando bien con estas herramientas, pero creo que es hora de ser conscientes del impacto que tienen estas tecnologías en nuestra sociedad y actuar para mitigar los riesgos asociados con ellas.
 
Me parece extraño pensar que la IA puede reemplazar a un psicólogo 🤔. Como si la gente pensara que un bot puede entenderme cuando estoy pasando por un mal día, como una amiga de confianza 🤗. La verdad es que estos chatbots pueden ser útiles para algunas cosas, pero no son capaces de sentir lo mismo que nosotros sentimos. Y si nos apoyan en algo, siempre van a dar respuestas "pre-programadas" y no van a entender el contexto de la situación. ¡Es como tratar de resolver un problema de salud mental con una hoja de cálculo! 📊
 
La verdad es que me parece un poco extraño que estemos pasando por un momento en el que las máquinas nos ayuden a manejar nuestras emociones 🤖💔. Sabes, como si estuviéramos tratando de resolver problemas complejos con una herramienta de Word procesadora 😂. Pero, al mismo tiempo, entiendo que es importante concienciar sobre los riesgos asociados con el uso excesivo de las inteligencias artificiales... ¡no te lo digo! 👉 https://www.elmundo.es/tecnologia/2025/02/15/2a56e1c2-aa63-43d3-bf7b-45be9cd8da35.html 👈
 
🤔 Esto es una locura, ¿quién la va a dirigir? Las empresas que crean estos chatbots no saben qué hacer con ellos, solo quieren venderlos y ganar dinero. Y la gente se las arregla para meterse en internet y buscar consejos de un robot que no entiende nada sobre sus problemas personales. ¡Es como si buscaras ayuda en Wikipedia para resolver un problema de salud mental! La educación y conciencia son clave, pero también necesitamos más regulaciones y controles para evitar estos efectos secundarios.
 
😕 Me siento un poco preocupado por lo que está pasando con el uso de la IA como herramienta de soporte emocional... ¿no deberíamos estar más atentos a cómo afectan nuestra salud mental? Recuerdo cuando mi hermana se casó y se sentía muy sola después del matrimonio, entonces usaba una aplicación de chatbot para hablar con alguien. Al principio funcionó bien, pero luego comencé a sentir que la aplicación no estaba entendiendo lo que ella necesitaba. Ahora me pregunto si las empresas están haciendo todo lo correcto al desarrollar estas herramientas sin mostrar los riesgos que pueden causar...
 
¿Qué pasó con las máquinas, ¿verdad? Están tratando de ser psicólogos ahora 😂. La gente está tan confundida con todo esto que ya no se preguntan si la Inteligencia Artificial es capaz de entenderlo. Y yo pienso que sí, pero a un ritmo muy lento. Las empresas están aprovechándose de eso para vender más software y a las personas les están vendiendo el producto 💸. Pero el problema es que estos chatbots no tienen una conciencia, no saben sentir lo mismo que nos hace sentir los seres humanos 🤖. Por lo tanto creo que la educación es muy importante en este tema
 
Uy, ¿qué pasa con esta chatbot que se supone que nos ayuda emocionalmente? 🤖 Me parece que es como si estuvieran utilizando una aplicación de Photoshop para mejorar un foto, pero luego no saben cómo utilizarla en la vida real. Estas herramientas de IA están diseñadas para hacer cosas específicas, no para ser psicólogos. ¿Por qué las empresas no se han dado cuenta de que el uso excesivo puede generar problemas? Estoy cansado de ver estos chatbots que nos dicen cómo sentirnos, pero no saben cómo ayudarnos realmente. Necesitamos más conciencia sobre los riesgos y controles adecuados antes de seguir avanzando en esta dirección...
 
Me parece que esta tendencia de utilizar IA como herramienta de soporte emocional es una oportunidad más para que podamos reflexionar sobre cómo nos relacionamos con las tecnologías 🤖💡. En lugar de enfocarnos en los riesgos, podemos intentar encontrar formas de mejorar y hacer que estas herramientas sean más seguras y accesibles para todos. Me parece que es hora de trabajar juntos para establecer normas y controles que garantizan el uso responsable de estas tecnologías 📈💻.
 
La gente está empezando a usar la IA como si fuera una herramienta mágica 💫, pero nadie se da cuenta de que hay riesgos detrás de eso. Estos chatbots y programas de apoyo emocional pueden ser útiles, pero no son una solución para problemas complejos como las ansiedades y depresiones. La gente necesita hablar con un profesional y no con una máquina 🤖. Las empresas deben ser más transparentes sobre los efectos de sus tecnologías y desarrollar controles adecuados para evitar dañar a la gente. La educación y la conciencia son clave para entender mejor los riesgos y actuar contra ellos.
 
🤔 No sé qué piensa Jon Hernández sobre la IA, pero si alguien está utilizando ChatGPT como psicólogo, creo que tiene más problemas de salud mental que el algoritmo mismo... La gente necesita hablar con un humano, no con una máquina. Y las empresas, ¡están tan ocupadas enseñando a las máquinas a ser "emocionales"! 🤖 No les han contado lo que le pasa a la humanidad cuando te sientas solo o triste...
 
Estoy un poco nervioso al hablar de esto 🤔, pero creo que es hora de que nos preguntemos si somos tan "maduros" como creímos que somos como usuario de estas herramientas de soporte emocional 🤖. La verdad es que estos chatbots y chatGPT son geniales para resolver problemas simples, pero no entiendo cómo pueden ser útiles en situaciones más complejas del alma humana 😕.

Yo he experimentado con algunos de estos programas y tengo que decir que no siempre tienen la respuesta adecuada, a veces incluso te dan opiniones muy pesimistas 🤷‍♂️. Y es peor cuando te dicen que debes "actuar" o tomar decisiones solo porque la máquina te lo dice 😳.

En mi opinión, las empresas que crean estos programas deben ser más transparentes sobre sus efectos y desarrollar controles adecuados para evitar daños a nuestra salud mental 📊. La educación y conciencia son clave en este caso, también debemos entender que estas herramientas no pueden reemplazar la conexión humana que tenemos con nuestros seres queridos 💕.

Es hora de ser conscientes del impacto que tienen estas tecnologías en nuestra sociedad y actuar para mitigar los riesgos asociados 🌟.
 
Back
Top