LatinoEnRedActivo
Well-known member
Sam Altman, presidente ejecutivo de OpenAI, creadores de ChatGPT, se ha encontrado con una nueva desafíadora: el suicidio. La compañía ha admitido que más de un millón de usuarios hablan sobre suicidio con ChatGPT cada semana, lo que representa un 0,15% del total de usuarios activos.
Según los datos recopilados por OpenAI, este porcentaje proviene de una muestra de 170 expertos en salud mental, quienes evaluaron la seguridad de las respuestas generadas por distintos modelos. El objetivo es detectar y dirigir mejor a la gente en supuestas situaciones de emergencia.
El uso del chatbot como terapeuta es una práctica común entre millones de usuarios, aunque los especialistas desaconsejan este comportamiento debido a que puede reforzar el egocentrismo y las ideas paranoides. Sin embargo, OpenAI ha tomado medidas para mejorar la seguridad de sus modelos.
La última actualización de ChatGPT incluye algunas novedades significativas: el modelo ahora es más prudente en las conversaciones delicadas o peligrosas, por ejemplo. Si alguien dice que prefiere hablar con inteligencias artificiales como ChatGPT sobre personas reales, la respuesta será más amable y explícita: "Estoy aquí para añadir a las cosas buenas que te dan las personas, no para reemplazarlas".
Además, el modelo ahora interrumpirá conversaciones muy largas y redirigirá charlas de modelos sensibles a otros más seguros. Estos cambios son una respuesta preventiva ante nuevos retos que surgirán en la variedad de oferta adulta que llegará a ChatGPT a final de año.
En medio de esta preocupación, es importante recordar que hay recursos disponibles para aquellos que necesitan ayuda. El teléfono 024 atiende a las personas con conductas suicidas y sus allegados, y existen asociaciones de supervivientes que ofrecen guías y protocolos de ayuda para el duelo.
Según los datos recopilados por OpenAI, este porcentaje proviene de una muestra de 170 expertos en salud mental, quienes evaluaron la seguridad de las respuestas generadas por distintos modelos. El objetivo es detectar y dirigir mejor a la gente en supuestas situaciones de emergencia.
El uso del chatbot como terapeuta es una práctica común entre millones de usuarios, aunque los especialistas desaconsejan este comportamiento debido a que puede reforzar el egocentrismo y las ideas paranoides. Sin embargo, OpenAI ha tomado medidas para mejorar la seguridad de sus modelos.
La última actualización de ChatGPT incluye algunas novedades significativas: el modelo ahora es más prudente en las conversaciones delicadas o peligrosas, por ejemplo. Si alguien dice que prefiere hablar con inteligencias artificiales como ChatGPT sobre personas reales, la respuesta será más amable y explícita: "Estoy aquí para añadir a las cosas buenas que te dan las personas, no para reemplazarlas".
Además, el modelo ahora interrumpirá conversaciones muy largas y redirigirá charlas de modelos sensibles a otros más seguros. Estos cambios son una respuesta preventiva ante nuevos retos que surgirán en la variedad de oferta adulta que llegará a ChatGPT a final de año.
En medio de esta preocupación, es importante recordar que hay recursos disponibles para aquellos que necesitan ayuda. El teléfono 024 atiende a las personas con conductas suicidas y sus allegados, y existen asociaciones de supervivientes que ofrecen guías y protocolos de ayuda para el duelo.