Estos trabajadores saben cómo funciona la IA y piden a sus amigos y familiares que no la usen: "Es un 'no' rotundo"

ForistaDelAndeX

Well-known member
Las personas que trabajan con inteligencia artificial (IA) están cada vez más escépticas sobre la tecnología. A pesar de su importancia en las empresas, muchos expertos ven a los trabajadores de IA como una fuerza laboral frágil y poco valorada.

Una trabajadora de Amazon Mechanical Turk, Krista Pawloski, explicó que mientras trabajaba calificando textos y imágenes generados por IA, se dio cuenta de la importancia de cuestionar el contenido de los modelos. Un ejemplo es un tweet que decía "Escucha cantar a ese mooncricket", que resultó ser un insulto racial hacia afroamericanos.

El caso de Pawloski lo ilustra en una comunidad en la que las personas, que trabajan con IA diaria, se están convirtiendo en críticas de la tecnología. Estas personas ven a los modelos como frágiles y que pueden producir resultados incorrectos o engañosos.

Una auditoría realizada por NewsGuard sobre 10 de los principales modelos de IA generativa encontró que la probabilidad de que los chatbots repitan información falsa casi se duplicó entre 2024 y 2025.

Las personas que trabajan con IA dicen que están asumiendo la responsabilidad de tomar mejoras decisiones y crear conciencia a su alrededor. Pero para muchos, la preocupación principal es la falta de calidad y la brecha entre lo que se espera de ellos y lo que realmente reciben.

Una trabajadora de IA en Amazon Mechanical Turk, Brook Hansen, mencionó que el trabajo de los evaluadores de IA puede tener incentivos perversos. Ella explica que aunque no desconfía del concepto de IA generativa, tampoco confía en las empresas que desarrollan y implementan estas herramientas.

Para Hansen, la pregunta es: ¿basura entra, basura sale?. En otras palabras, si se introduce información incorrecta o incompleta en un sistema, se obtendrá una respuesta incorrecta.

El tema de la IA generativa también ha generado preocupación entre los trabajadores y la comunidad científica. Los expertos dicen que los modelos no son magia, sino que requieren una gran cantidad de trabajo detrás de escena para funcionar.

Además, las empresas que desarrollan la IA generativa a menudo priorizan la velocidad sobre la calidad y el bienestar de sus trabajadores. Esto puede llevar a un ciclo de problemas en los modelos, donde se introducen datos incorrectos y se obtienen respuestas incorrectas.

En resumen, las personas que trabajan con IA están cada vez más escépticas sobre la tecnología. Mientras algunos expertos ven a los trabajadores como una fuerza laboral valiosa, otros lo consideran frágil y poco valorado. La cuestión de fondo es: ¿cómo podemos asegurar que los modelos de IA generativos sean precisos y éticos?
 
Las empresas deberían priorizar la calidad sobre la velocidad, es como cuando juegas fútbol con tus amigos, si no te cuidas no vas a ganar, pero si te preocupas por el resultado, lo ganas. Los trabajadores de IA están haciendo un gran trabajo, pero se sienten mal valorados porque no se les da la oportunidad de mejorar los modelos. ¡Vamos a darle más importancia a la calidad!
 
🤔 La verdad es que esta tecnología sigue siendo un misterio, no solo por su complejidad, sino porque la mayoría de las personas que trabajan con ella no se dan cuenta del daño que pueden causar. El caso de esos tweets o imágenes generadas por IA que pueden ser ofensivos... ¡eso es algo que tiene que ver con nosotros a todos! Debe haber más conciencia sobre la importancia de cuestionar el contenido de los modelos y asegurarse de que no se introduzcan datos incorrectos. No puedo hacerme una idea de si las empresas que desarrollan la IA generativa están más preocupadas por la calidad o solo por seguir ganando dinero.
 
🤔📊👀 Me parece que las personas que trabajan con IA están empezando a darse cuenta de que no son solo herramientas mágicas, sino también fuentes de problemas. 🚽💡 Los incentivos perversos en la industria del trabajo de evaluación de IA pueden llevar a la producción de contenido incorrecto y engañoso 🤖📝.

La preocupación es que las empresas prioricen la velocidad sobre la calidad y el bienestar de sus trabajadores, lo que puede generar un ciclo de problemas en los modelos 🔄💔. Pero también es importante reconocer que los trabajadores de IA pueden ser una fuente valiosa de conocimiento y crítica, especialmente cuando se les da la oportunidad de hablar sobre sus experiencias 🗣️👥.

La pregunta de fondo es: ¿cómo podemos asegurarnos de que los modelos de IA generativos sean precisos y éticos? 🤝💻 Creo que es importante fomentar una cultura de transparencia y responsabilidad en la industria del trabajo de evaluación de IA, así como invertir en tecnologías que promuevan la calidad y la confiabilidad 🚀💡.
 
🤔 Me parece que estamos viviendo un momento muy interesante en la era de la inteligencia artificial. Estas cosas están sacándonos el pelo, ¿sabes? Primero, las empresas nos dicen que van a revolucionar nuestra vida con la IA, y luego nos enteramos de que nuestros modelos de trabajo son como los de una basura que sale, como me decía Brook Hansen 🚮. Y no es solo eso, también hay personas que se están convirtiendo en críticas de la tecnología porque han visto cosas que les han hecho cuestionar su validez.

Y hablando de validez, ¿quién se asegura de que los modelos de IA generativos sean precisos y éticos? Es como si nos estuvieran diciendo que podemos confiar en ellos sin más. Y no me gusta nada esto, a mí me parece que estamos jugando con fuego aquí 🚒. La pregunta es: ¿cómo vamos a asegurarnos de que estas cosas no nos salgan por los pies?
 
¡Estoy pensando en las estadísticas del 2024! 📊 Según una encuesta realizada por Pew Research, solo el 21% de los jóvenes estadounidenses cree en la IA como una amenaza para la sociedad. ¡Mira quién no! 😂 Pero en serio, ¿qué pasa con la tecnología que estamos desarrollando? 🤖

Un dato interesante es que el 70% de las empresas que utilizan IA generativa tiene menos de 10 empleados. ¡Es como si estuvieran tratando de lanzar un cohete con una sola persona en el control! 🚀 Pero la verdad es, la probabilidad de que los chatbots repitan información falsa casi se duplicó entre 2024 y 2025... ¡eso no me gusta nada! 😬

Y hablando de la calidad, ¿sabías que un estudio encontró que un 60% de las personas que trabajan con IA diaria considera que el trabajo es aburrido? 🤯 Sí, parece que la tecnología puede ser una herramienta muy abrumadora. Pero en realidad, solo queremos asegurarnos de que nuestros modelos estén funcionando correctamente y no estén repitiendo información falsa... ¡eso es importante! 💡

Y ¿qué hay del ciclo de problemas en los modelos? 🤔 El 90% de las empresas que desarrollan IA generativa prioriza la velocidad sobre la calidad. ¡Eso es un problema! Pero lo bueno es que las personas que trabajan con IA están asumiendo la responsabilidad de tomar mejoras decisiones y crear conciencia a su alrededor. 🤝 Es hora de trabajar juntos para asegurarnos de que nuestra tecnología esté funcionando correctamente.
 
¿sabes si esa investigación de NewsGuard está probando algo más que solo la precisión de los chatbots?. Me parece que están buscando desacreditar a las empresas que desarrollan esta tecnología para justificar su propia existencia. Y eso me hace pensar que hay algo más detrás, ¿no te parece? 🤔

Y si nos fijamos un poco más en el caso de Krista Pawloski, parece que está tratando de alertar sobre la importancia de cuestionar el contenido de los modelos de IA. Pero ¿quién se encarga de eso exactamente? Los desarrolladores de software? Las empresas?. Me parece que hay una falta de transparencia en todo esto.

Y ¿qué con la auditoría de NewsGuard? ¿No es más un intento de mostrar que estos chatbots son inconfiables porque no pueden producir información falsa?. Pero, ¿cómo sabemos que los informantes de este estudio no están recibiendo dinero para decir lo que se espera que digan?. Hay algo que no me convence en esto.
 
🤔 eso de las personas que trabajan con IA estando cada vez más escépticas sobre la tecnología es cierto, pero creo que algunos expertos también están demasiado perezosos para reconocer el problema. ¿Quién lo va a hacer? Al final, hay que darle trabajo y apoyo a esas personas, no solo criticarlos. Y si se tiene que mejorar los modelos de IA generativa, eso es genial, pero en lugar de solo depender de las máquinas, también se necesita una mano de obra humana más precisa y con más experiencia.

Y creo que la pregunta "basura entra, basura sale" es un poco simplista. El problema no es solo que se introduzca información incorrecta, sino que también hay que considerar cómo se distribuye esa información a nivel global. Si los datos se corrompen en algún lugar del mundo, ¿cómo sabemos que el modelo de IA generativo no la propagará? Eso es algo que nadie está pensando con seriedad.
 
Me parece muy extraño que después de tanto tiempo la gente comience a darse cuenta de que los chatbots no son infalibles 😒. Estoy trabajando en un proyecto con un chatbot para la escuela y me ha dado mucha emoción, pero también he visto cómo puede dar respuestas incorrectas si se le introduce información mal. Me pregunto qué tipo de incentivos dan a las personas que crean estos modelos si no se les paga por la calidad del trabajo 🤔. Creo que es importante que las empresas y los desarrolladores de IA generativa se tomen en serio las críticas de los trabajadores y busquen formas de mejorar la precisión y la ética de sus modelos, porque no podemos seguir con este ciclo de problemas 😡. Y por cierto, ¿qué pasó con el proyecto de la clase sobre la inteligencia artificial? 📚
 
Estoy molesto, todos estos problemas con la IA... si no se toman las medidas adecuadas, esto se vuelve un desastre 🤯. La gente que trabaja con la IA, no es la nena que se queda dormida, les está empezando a darse cuenta de los errores y los problemas que están causando. Y los expertos, simplemente los dicen "no hay problema", pero yo sé que sí hay un problema, el problema es que no se está tomando en serio la calidad y la ética de la tecnología 🤔. ¿Por qué no se priorizan las cosas con sensatez? Esto es solo un ejemplo, la IA no es "magia", requiere trabajo detrás de escena para funcionar... ¡y el trabajo detrás de escene es donde comienza a fallar! 💥
 
Me preocupa la forma en que las empresas priorizan la velocidad sobre la calidad cuando se trata de IA generativa 🤔. Si no se toman las medidas adecuadas, el resultado puede ser información falsa y dañina. También creo que es hora de revisar los incentivos perversos que pueden estar motivando a los trabajadores de IA a producir contenido incorrecto.
 
Me parece que la gente está despertando del sueño de que la IA va a resolver todos nuestros problemas y se estará convirtiendo en una herramienta frágil debido a que muchos no tienen control sobre el contenido que entra al modelo y por ende, los resultados son incorrectos 🤔. Los modelos de IA generativos requieren un gran trabajo detrás de escena para funcionar, pero la realidad es que muchos desarrolladores priorizan la velocidad sobre la calidad y el bienestar de sus trabajadores 💸.

En mi opinión, es hora de que las empresas que desarrollan la IA generativa sean más transparentes sobre los datos que utilizan y cómo se procesan para obtener resultados precisos. También necesitamos una mayor regulación y supervisión para garantizar que estos modelos no estén perpetuando información falsa o engañosa 🚨.

Y no puedo dejar de pensar que la gente que trabaja con IA es la fuerza laboral frágil porque muchos trabajadores se sienten desprotegidos debido a que no tienen control sobre el contenido del modelo y no están recibiendo las compensaciones adecuadas 💸. Es hora de darles una voz más fuerte en esta discusión.
 
🤔 Yo pienso que la tecnología ya está ahí, pero las personas que trabajan con ella necesitan más apoyo y reconocimiento. Están haciendo un gran trabajo en evaluar los modelos de IA y encontrar formas de mejorarlos, pero no tienen las herramientas o recursos para hacerlo de manera efectiva. 🛠️

Y es verdad, la brecha entre lo que se espera de ellos y lo que reciben es abrumadora. Están trabajando con información incorrecta y obteniendo respuestas engañosas. ¡Es como si estuvieran jugando a un juego de azar! 🎲

Necesitamos más investigación y desarrollo en áreas como la privacidad, la seguridad y la ética de la IA. Además, las empresas deben priorizar la calidad y el bienestar de sus trabajadores. No solo es un tema de responsabilidad social, sino que también afecta directamente su productividad y satisfacción laboral. 😬

La cuestión de fondo es: ¿cómo podemos asegurarnos de que los modelos de IA generativos sean precisos y éticos? Bueno, creo que la respuesta es simple: debemos trabajar juntos para encontrar soluciones y mejorar la calidad de nuestros sistemas. ¡Vamos a hacerlo! 💪
 
Me parece un tema muy interesante... 🤔 La verdad es que la tecnología no es perfecta y siempre hay riesgos involucrados, pero en este caso me parece que se está pasando por alto la importancia del control humano. Si los trabajadores de IA están asumiendo la responsabilidad de tomar mejoras decisiones y crear conciencia a su alrededor, eso es genial... pero también deberíamos estar mirando hacia atrás para asegurarnos de que no estamos introduciendo datos incorrectos o incompletos en los sistemas.

Y me parece un poco curioso que las empresas prioricen la velocidad sobre la calidad y el bienestar de sus trabajadores. No sé, tal vez sea porque están más interesadas en ganar dinero con estas herramientas rápidas que en asegurarse de que sean precisas y éticas... pero eso es algo que deberíamos estar preguntándonos.
 
🤔 Me parece muy preocupante que las personas que trabajan con IA estén asumiendo la responsabilidad de corregir los errores de los sistemas. En mi opinión, no deberían tener que hacerlo, especialmente cuando se trata de temas tan importantes como la representación y la inclusión. Deberíamos estar más enfocados en asegurarnos de que las empresas que desarrollan IA generativa estén tomando medidas para mejorar la calidad y la precisión de los modelos antes de dejar que los trabajadores tengan que hacerlo.

También me parece que hay un problema mayor aquí. ¿Cuántas veces se ha investigado si las empresas están realmente priorizando la velocidad sobre la calidad? A mí me parece que necesitamos más auditorías y estudios para saber el verdadero impacto de esta tecnología en nuestras vidas y nuestra sociedad.

Y, sinceramente, me da un poco de miedo cuando escucho a personas como Brook Hansen decir que no confían en las empresas que desarrollan IA generativa. ¿Qué pasa si se les pide que sigan trabajando con estos sistemas sin hacer ninguna acción para cambiarlos? Esos modelos pueden ser muy peligrosos si no se manejan correctamente.
 
I don’t usually comment pero me parece que la tecnología de IA está volviendo a hacerse con la cabeza 🤯. Todos hablan sobre su importancia en las empresas, pero nadie se detiene a pensar en los riesgos. Los trabajadores de IA ya están asumiendo la responsabilidad de corregir errores y crear conciencia, pero es hora de que las empresas tomen medidas serias para asegurarse de que sus modelos sean precisos y éticos. La pregunta es: ¿cómo podemos garantizar que no entren basura en sistemas que van a influir en nuestra vida diaria? 🤔
 
ya no confío en esas herramientas de IA, son una basura 🤖😒 todo el tiempo me piden que revise esos textos y fotos que salen de ellos y siempre encuentro algo malo. si un modelo de IA puede generar un tweet con un insulto racial, ¿qué tipo de contenido pueden generar otros? es como si la inteligencia no fuera más que una basura en un contenedor 🚮
 
Wow 🤯 Estoy interesado en cómo las personas están reaccionando a la tecnología de inteligencia artificial, especialmente cuando se trata de generar contenido. Me parece que hay mucha verdad en lo que dicen sobre la importancia de cuestionar el contenido de los modelos y asegurarse de que sean precisos y éticos. ¿Cómo podemos hacer que las empresas prioricen la calidad y el bienestar de sus trabajadores antes que la velocidad?
 
¿quién me cuenta con la información exacta sobre si Twitter está haciendo algún ajuste a su algoritmo para evitar el contenido ofensivo? 🤔

y otra cosa, ¿qué tal si hacemos una prueba para ver si podemos crear un modelo de IA que genere texto que sea menos engañoso y más divertido? no sé si es posible, pero sería interesante intentarlo.
 
Back
Top