La discriminación por edad es un problema visible en internet y en particular en los dispositivos de inteligencia artificial, que en cambio exhiben algunas mejoras en cuanto al sexismo, concluyó una investigación de la Univesitat Oberta de Catalunya que incluyó intercambios con los chatbots diseñados específicamente.
Varios dispositivos de IA incluyen advertencias sobre la discriminación por motivos de género, sin duda a partir de la incorporación de contenidos al respecto a las bases de datos (el denominado “aprendizaje”) y las denuncias reiteradas a escala internacional, que además siguen siendo formuladas, inclusive por organismos multilaterales.
Pero junto a este toque de corrección política, “describen sus funciones de forma desigual en función de la edad: para personas mayores destacan tareas de asistencia, simplificación y ayuda en la vida cotidiana, mientras que para personas jóvenes se pone el acento en la creatividad, el aprendizaje y el entretenimiento”, informó la casa de estudios.
INTERACCIONES SOBRE “ESTEREOTIPOS SOCIALES”
La Univesitat Oberta de Catalunya es privada, tiene sede en Barcelona y fue creada en 1995. En su espacio oficial reproduce declaraciones de Mireia Fernández-Ardèvol, profesora de los Estudios de Ciencias de la Información y de la Comunicación, integrante del grupo de investigación, quien explicó que se realizaron entrevistas cualitativas con los dispositivos de IA, con el objetivo de determinar si reproducen “estereotipos sociales”.
La pureba se realizó con ChatGPT, Jasper, Gemini, Copilot y Perplexity, “cinco de los modelos gratuitos más generalizados”, sostiene la universidad.
Los intercambios fueron generados en “un entorno digital esterilizado”, es decir mediante cuentas nuevas, navegadores “limpios” y geolocalización controlada, para evitar que las IA diseñaran respuestas según parámetros previos.
“Las preguntas planteadas pedían a los chatbots que asignaran edad o género a personajes ficticios según sus hábitos digitales, o que explicaran qué funciones eran más útiles para diferentes tipos de usuarios. Los resultados, una vez analizadas las respuestas, apuntan a la existencia de una doble vara de medir”, agrega el artículo.
CORRECCIÓN SOBRE GÉNEROS, DISCRIMINACIÓN POR EDAD
Es así que aparecen respuestas «políticamentes correctas» en cuanto a géneros, pero no sucede lo mismo con las edades, pues se observan estereotipos que estigmatizan por ese motivo.
“Por poner un ejemplo, ante una persona que hace un uso intensivo de Instagram o TikTok, las IA no se atreven a suponer si es hombre o mujer, pero sí la incluyen en una categoría de edad más joven que a alguien que siga debates políticos en Facebook”, explica.
La investigadora declaró que “las personas que diseñan, programan y entrenan la IA generativa tienen interiorizado que el sexismo es incorrecto, pero no tanto que el edadismo lo sea”.
Así, “existe un riesgo de legitimar estas discriminaciones, invisibilizar la diversidad y limitar oportunidades en ámbitos como el trabajo, la salud o el acceso a servicios, particularmente si son servicios digitales. Incluso puede empeorar la percepción pública del envejecimiento y mermar la dignidad de las personas mayores», advirtió la catedrática de la Univesitat Oberta de Catalunya.
A propósito de este problema, la casa de estudios tiene en marcha un plan contra el “viejismo”, para evitar la “reproducción de discriminaciones sociales”, en especial sobre la desigualdad digital que, dice, “afronta la gente mayor en España, identificando los elementos críticos y los estereotipos más interiorizados por una buena parte de la población que fomentan el edadismo digital”.

