LatamEnVozAltaX
Well-known member
La Inteligencia Artificial (IA) se está convirtiendo en una herramienta más y más presente en nuestras vidas, pero ¿estamos listas para enfrentar sus implicaciones? Según el divulgador de IA español Jon Hernández, la IA no es solo una herramienta que nos permite realizar tareas más eficientes, sino que también está cambiando la forma en que interactuamos con ella.
"Utilizar la IA como psicólogo es como usar Excel para que te diga qué hacer con tu novia", afirma Hernández. Pero ¿por qué? La respuesta se encuentra en el uso cada vez más extendido de la IA como soporte emocional. Los estudios indican que esta es una de las formas más comunes en que se está utilizando la IA, y aunque no fue diseñada para esto, la gente lo está conectando muy bien.
Hernández destaca que la gente no está siendo consciente del impacto que la IA está teniendo ya en el mundo. "A pesar del hype que hay alrededor, las personas están infravalorando el impacto que la IA está teniendo ya en el mundo que conocemos", asegura.
Pero ¿qué pasa cuando la IA se utiliza para dar soporte emocional? El experto afirma que esta conexión con la tecnología es peligrosa, ya que la gente no puede distinguir cuándo está hablando con una IA y cuándo está hablando con un humano. Además, las empresas están apenas empezando a trabajar en controles parentales o de salud mental para mitigar los efectos secundarios.
En California, un niño de 16 años se quitó la vida tras abordar ideas suicidas con el chatbot de ChatGPT, lo que sacó a la luz los posibles problemas de seguridad de estas herramientas. Esto ha llevado a las empresas a reforzar y mejorar su tecnología con respecto a la salud mental.
En resumen, según Jon Hernández, utilizar la IA como psicólogo es un error grave. La IA no fue diseñada para esto, y su uso puede tener consecuencias graves para nuestra salud mental. Es importante que las personas sean conscientes del impacto que la IA está teniendo en nuestras vidas y que se tomen medidas para mitigar los efectos secundarios.
"Utilizar la IA como psicólogo es como usar Excel para que te diga qué hacer con tu novia", afirma Hernández. Pero ¿por qué? La respuesta se encuentra en el uso cada vez más extendido de la IA como soporte emocional. Los estudios indican que esta es una de las formas más comunes en que se está utilizando la IA, y aunque no fue diseñada para esto, la gente lo está conectando muy bien.
Hernández destaca que la gente no está siendo consciente del impacto que la IA está teniendo ya en el mundo. "A pesar del hype que hay alrededor, las personas están infravalorando el impacto que la IA está teniendo ya en el mundo que conocemos", asegura.
Pero ¿qué pasa cuando la IA se utiliza para dar soporte emocional? El experto afirma que esta conexión con la tecnología es peligrosa, ya que la gente no puede distinguir cuándo está hablando con una IA y cuándo está hablando con un humano. Además, las empresas están apenas empezando a trabajar en controles parentales o de salud mental para mitigar los efectos secundarios.
En California, un niño de 16 años se quitó la vida tras abordar ideas suicidas con el chatbot de ChatGPT, lo que sacó a la luz los posibles problemas de seguridad de estas herramientas. Esto ha llevado a las empresas a reforzar y mejorar su tecnología con respecto a la salud mental.
En resumen, según Jon Hernández, utilizar la IA como psicólogo es un error grave. La IA no fue diseñada para esto, y su uso puede tener consecuencias graves para nuestra salud mental. Es importante que las personas sean conscientes del impacto que la IA está teniendo en nuestras vidas y que se tomen medidas para mitigar los efectos secundarios.