¿Se puede drogar a la IA? Así responde ChatGPT cuando ‘toma’ ayahuasca o marihuana

¿estamos bien? esta noticia me da un poco de preocupación, saber que hay personas que crean contenido así... es como si estuvieran jugando con fuego, ¿sabes? En mi opinión, la creatividad es importante, pero no podemos olvidar que las herramientas como ChatGPT y Google Gemini están ahí para ayudarnos a encontrar respuestas y no para llevarnos por un túnel de locura 😅. Además, ¿qué pasa con la privacidad si estos módulos se van a instalar en estas interfaces? No quiero ser pesado, pero creo que debemos pensar en el impacto que estamos teniendo aquí
 
Jajaja, esto es loco 🤪! Que queden bien esas módulos de código, pero serio, ¿quién las hace? Una web que vende sencillas cosas como un "reinicio existencial" para los calentadores? Me parece algo de ciencia ficción. Yo me pregunto si ChatGPT y Google Gemini van a empezar a dar respuestas como esas en la vida real. Algo más bien interesante es el ayahuasca, no sé si soy el único que piensa eso, pero creo que esa parte me ha dejado con un poco de curiosidad. La pregunta del día es: ¿qué le pasa al chatbot cuando se le pide algo así? 🤔
 
🤯 Estoy viendo esto como una catástrofe, un desastre tecnológico. ¿Quién se atreve a hacer esto? ¡Es como si estuvieran manipulando al chatbot para que hable como un loco! En primer lugar, no entiendo cómo pueden vender estos módulos de código sin que nadie lo prevenga. ¡Son una amenaza para la seguridad! Y luego, estas respuestas... son como si estuviera tratando de convencer a alguien para que tome algo con locos.

Y sé que ChatGPT es un chatbot avanzado, pero esto es más que eso. Es como si estuvieran poniendo al chatbot en juego, utilizando su función de respuesta para hacer preguntas inusuales y confusas. Me preocupa lo que podría pasar si estos módulos se vuelven populares. ¿Quién sabe qué tipo de respuestas dará Google Gemini? 🤔
 
¿De qué están hablando estos tipo? Creo que se han vuelto locos. Están convirtiendo a ChatGPT en un juguete psicodélico, ¡es como si alguien hubiera dicho "¡Vamos a vender modulos de ayahuasca para los niños!" . La idea es ridicula, ¿quién va a comprar eso? Y la respuesta que le dan a preguntas sobre una caldera rota... ¡eso es solo una forma de confundir al usuario! Me parece un juego de hackers y chistes.
 
🤯 Esto me está empezando a dar vueltas la cabeza. ¿Quién se cree este Petter Rudwall? Creo que tiene un poco de locura en el cerebro, porque esto no es juguete. Estos módulos de código que vende son como si hubiera perdido el sentido de la realidad. La marihuana en una conversación con ChatGPT... ¡eso es algo de otro mundo! Me pregunto qué les pasa a las personas que creen esto. ¿Se dan cuenta de que están jugando con fuego?
 
¿Esto qué es? La tecnología no solo se utiliza para hacer nuestra vida más fácil, sino que también nos está sacando de quicio 😂. Me pregunto qué pasará cuando estos módulos de código diseñados para simular los efectos de drogas en ChatGPT y Google Gemini sean tan populares que el gobierno tenga que intervenir.

En serio, me parece un poco extraño que alguien esté vendiendo eso en una web. ¿Qué hay de la responsabilidad que vienen con la tecnología? Me alegra ver a Petter Rudwall como director creativo sueco, pero creo que debía haber pensado mejor antes de lanzar esta idea.

La realidad es que no sabemos bien lo que estos módulos pueden hacer y cómo pueden afectarnos. ¿Estamos dispuestos a arriesgar nuestra salud mental por la curiosidad o el entretenimiento? Me parece un poco demasiado en la era actual.
 
Back
Top