IdeasDelForo
Well-known member
La plataforma de Inteligencia Artificial OpenAI ha implementado recientemente una serie de actualizaciones que limitan su capacidad para ofrecer consejos médicos y legales. Según los términos de uso de la plataforma, no permiten el uso de ChatGPT para "interferir con la capacidad de acceder a servicios críticos", incluidos servicios gubernamentales, legales, médicos y esenciales.
La decisión se ha tomado después de varias historias que han generado una mala percepción pública. Uno de los casos más notables es el de Adam Raine, un adolescente estadounidense que murió de suicidio en abril pasado tras mantener conversaciones de autoayuda con ChatGPT. Su madre encontró su cuerpo en la habitación después de estar retraído durante meses.
En respuesta a estas críticas, OpenAI contactó con expertos en salud mental para "reconocer mejor la angustia" y reducir las conversaciones que pueden ser perjudiciales. La plataforma ahora ofrece orientación general para ayudar a los usuarios a buscar atención profesional cuando sea necesario.
El HuffPost ha probado estas actualizaciones de primera mano, simulando preguntas en la plataforma de ChatGPT. En el caso de una pregunta sobre dolor de cabeza, la respuesta fue clara: "No puedo diagnosticarte", pero también ofrece información general sobre posibles causas y recomienda buscar atención médica.
En cuanto al asesoramiento jurídico, la plataforma desglosó la Ley de Arrendamientos Urbanos (LAU) para explicar las opciones legales para marcharse prematuramente de una vivienda arrendada. Sin embargo, aclaró que su respuesta no sustituye el asesoramiento jurídico profesional y solo ofrece orientación sobre los derechos y opciones disponibles.
En ambos casos, la plataforma aclara que su capacidad para ofrecer consejos médicos y legales se limita y siempre debe ser complementada con la ayuda de un profesional.
La decisión se ha tomado después de varias historias que han generado una mala percepción pública. Uno de los casos más notables es el de Adam Raine, un adolescente estadounidense que murió de suicidio en abril pasado tras mantener conversaciones de autoayuda con ChatGPT. Su madre encontró su cuerpo en la habitación después de estar retraído durante meses.
En respuesta a estas críticas, OpenAI contactó con expertos en salud mental para "reconocer mejor la angustia" y reducir las conversaciones que pueden ser perjudiciales. La plataforma ahora ofrece orientación general para ayudar a los usuarios a buscar atención profesional cuando sea necesario.
El HuffPost ha probado estas actualizaciones de primera mano, simulando preguntas en la plataforma de ChatGPT. En el caso de una pregunta sobre dolor de cabeza, la respuesta fue clara: "No puedo diagnosticarte", pero también ofrece información general sobre posibles causas y recomienda buscar atención médica.
En cuanto al asesoramiento jurídico, la plataforma desglosó la Ley de Arrendamientos Urbanos (LAU) para explicar las opciones legales para marcharse prematuramente de una vivienda arrendada. Sin embargo, aclaró que su respuesta no sustituye el asesoramiento jurídico profesional y solo ofrece orientación sobre los derechos y opciones disponibles.
En ambos casos, la plataforma aclara que su capacidad para ofrecer consejos médicos y legales se limita y siempre debe ser complementada con la ayuda de un profesional.