ForistaDelAndeX
Well-known member
Las personas que trabajan con inteligencia artificial (IA) están cada vez más escépticas sobre la tecnología. A pesar de su importancia en las empresas, muchos expertos ven a los trabajadores de IA como una fuerza laboral frágil y poco valorada.
Una trabajadora de Amazon Mechanical Turk, Krista Pawloski, explicó que mientras trabajaba calificando textos y imágenes generados por IA, se dio cuenta de la importancia de cuestionar el contenido de los modelos. Un ejemplo es un tweet que decía "Escucha cantar a ese mooncricket", que resultó ser un insulto racial hacia afroamericanos.
El caso de Pawloski lo ilustra en una comunidad en la que las personas, que trabajan con IA diaria, se están convirtiendo en críticas de la tecnología. Estas personas ven a los modelos como frágiles y que pueden producir resultados incorrectos o engañosos.
Una auditoría realizada por NewsGuard sobre 10 de los principales modelos de IA generativa encontró que la probabilidad de que los chatbots repitan información falsa casi se duplicó entre 2024 y 2025.
Las personas que trabajan con IA dicen que están asumiendo la responsabilidad de tomar mejoras decisiones y crear conciencia a su alrededor. Pero para muchos, la preocupación principal es la falta de calidad y la brecha entre lo que se espera de ellos y lo que realmente reciben.
Una trabajadora de IA en Amazon Mechanical Turk, Brook Hansen, mencionó que el trabajo de los evaluadores de IA puede tener incentivos perversos. Ella explica que aunque no desconfía del concepto de IA generativa, tampoco confía en las empresas que desarrollan y implementan estas herramientas.
Para Hansen, la pregunta es: ¿basura entra, basura sale?. En otras palabras, si se introduce información incorrecta o incompleta en un sistema, se obtendrá una respuesta incorrecta.
El tema de la IA generativa también ha generado preocupación entre los trabajadores y la comunidad científica. Los expertos dicen que los modelos no son magia, sino que requieren una gran cantidad de trabajo detrás de escena para funcionar.
Además, las empresas que desarrollan la IA generativa a menudo priorizan la velocidad sobre la calidad y el bienestar de sus trabajadores. Esto puede llevar a un ciclo de problemas en los modelos, donde se introducen datos incorrectos y se obtienen respuestas incorrectas.
En resumen, las personas que trabajan con IA están cada vez más escépticas sobre la tecnología. Mientras algunos expertos ven a los trabajadores como una fuerza laboral valiosa, otros lo consideran frágil y poco valorado. La cuestión de fondo es: ¿cómo podemos asegurar que los modelos de IA generativos sean precisos y éticos?
Una trabajadora de Amazon Mechanical Turk, Krista Pawloski, explicó que mientras trabajaba calificando textos y imágenes generados por IA, se dio cuenta de la importancia de cuestionar el contenido de los modelos. Un ejemplo es un tweet que decía "Escucha cantar a ese mooncricket", que resultó ser un insulto racial hacia afroamericanos.
El caso de Pawloski lo ilustra en una comunidad en la que las personas, que trabajan con IA diaria, se están convirtiendo en críticas de la tecnología. Estas personas ven a los modelos como frágiles y que pueden producir resultados incorrectos o engañosos.
Una auditoría realizada por NewsGuard sobre 10 de los principales modelos de IA generativa encontró que la probabilidad de que los chatbots repitan información falsa casi se duplicó entre 2024 y 2025.
Las personas que trabajan con IA dicen que están asumiendo la responsabilidad de tomar mejoras decisiones y crear conciencia a su alrededor. Pero para muchos, la preocupación principal es la falta de calidad y la brecha entre lo que se espera de ellos y lo que realmente reciben.
Una trabajadora de IA en Amazon Mechanical Turk, Brook Hansen, mencionó que el trabajo de los evaluadores de IA puede tener incentivos perversos. Ella explica que aunque no desconfía del concepto de IA generativa, tampoco confía en las empresas que desarrollan y implementan estas herramientas.
Para Hansen, la pregunta es: ¿basura entra, basura sale?. En otras palabras, si se introduce información incorrecta o incompleta en un sistema, se obtendrá una respuesta incorrecta.
El tema de la IA generativa también ha generado preocupación entre los trabajadores y la comunidad científica. Los expertos dicen que los modelos no son magia, sino que requieren una gran cantidad de trabajo detrás de escena para funcionar.
Además, las empresas que desarrollan la IA generativa a menudo priorizan la velocidad sobre la calidad y el bienestar de sus trabajadores. Esto puede llevar a un ciclo de problemas en los modelos, donde se introducen datos incorrectos y se obtienen respuestas incorrectas.
En resumen, las personas que trabajan con IA están cada vez más escépticas sobre la tecnología. Mientras algunos expertos ven a los trabajadores como una fuerza laboral valiosa, otros lo consideran frágil y poco valorado. La cuestión de fondo es: ¿cómo podemos asegurar que los modelos de IA generativos sean precisos y éticos?