Suscripción anual

$ 50.000


    *todos los campos son obligatorios

    Casi la mitad de las noticias de IA son erróneas o falsas

    El 45 por ciento de las noticias requeridas a los sistemas de inteligencia artificial tienen al menos “un problema significativo”, como datos erróneos, atribución engañosa de fuentes y, lo que tal vez es más esperable, una orientación editorial específica, que no se condice con la descripción de hechos, informó un estudio continental de la Unión Europea de Radiodifusión que incluyó además a Canadá y Estados Unidos.

    La investigación fue realizada con la participación de 22 organizaciones de medios públicos de 18 países y la institución dijo en su presentación que estos sistemas “tergiversan el contenido el 45 por ciento del tiempo, independientemente del idioma o el territorio”.

    Junto a ello, agregó, el 31 por ciento de las respuestas “mostraron graves problemas de abastecimiento (atribuciones faltantes, engañosas o incorrectas)”, y el 20 por ciento evidenció “importantes problemas de precisión, incluidos detalles alucinantes e información obsoleta”.

    El problema es de singular gravedad para el acceso al derecho a la información establecido en normas internacionales y nacionales, ya que varios estudios demuestran que entre los usuarios de plataformas digitales está en aumento la tendencia a requerir noticias en los dispositivos de IA, en reemplazo de las búsquedas más convencionales.

    Al respecto, la Unión Europea de Radiodifusión expresó que “los asistentes de IA ya están reemplazando los motores de búsqueda para muchos usuarios. Según el Informe de Noticias Digitales 2025 del Instituto Reuters, el 7% de los consumidores de noticias en línea utilizan asistentes de IA para informarse, cifra que aumenta al 15% entre los menores de 25 años”.

    Jean Philip De Tender, director general adjunto y director de medios de la institución europea, declaró que “esta investigación demuestra en forma concluyente que estas deficiencias no son incidentes aislados”, sino que por el contrario “son sistémicas, transfronterizas y multilingües, y creemos que esto pone en peligro la confianza pública”.

    De la investigación participaron organizaciones de Alemania, Bélgica, Chequia, España, Finlandia, Francia, Georgia, Italia, Lituania, Noruega, Países Bajos, Portugal, Reino Unido, Suecia, Suiza y Ucrania, y también Canadá y Estados Unidos.

    Fueron  verificadas más de 3.000 respuestas de ChatGPT, Copilot, Gemini y Perplexity bajo una serie de parámetros comunes, como precisión, la fuente identificable que toda noticia debe tener, la separación entre los hechos y las opiniones y los datos de contexto necesarios para que las y los lectores interpreten los relatos.

    Un aspecto mencionado especialmente en publicaciones europeas que dieron cuenta de este informe es que los sistemas de IA atribuyen la información a los medios de comunicación convencionales, cuando se trata de datos erróneos o falsos, aunque ellos no los hayan publicado.

    Acerca de esta práctica, el informe advierte que “el público responsabiliza tanto a los proveedores de IA como a los propios medios cuando detecta fallos. El riesgo reputacional para las empresas periodísticas es considerable, incluso cuando el error proviene únicamente del asistente”.

    El estudio de la la Unión Europea de Radiodifusión está disponible en este enlace:

    https://www.ebu.ch/research/open/report/news-integrity-in-ai-assistants

    Deja un comentario

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *