Un proyecto financiado por la Unión Europea hará posible que las universidades públicas trabajen junto a sindicados y representantes de las industrias culturales argentinas para crear un «ecosistema» colaborativo que defina criterios comunes éticos para el uso de la Inteligencia Artificial (IA) en el periodismo, la radiodifusión, la industria publicitaria y editorial.
El proyecto “Transformación Digital y gobernanza ética de la Inteligencia Artificial en las Industrias Culturales de Argentina” es una iniciativa de la Universidad Nacional de Quilmes, con participación de la Universidad de Buenos Aires (UBA) y otras universidades públicas. Se intenta la construcción de acuerdos colectivos que protejan los/as trabajadores/as de las industrias culturales y aseguren la compatibilidad de las herramientas de inteligencia artificial con los «principios de derechos humanos, la democracia y el estado de derecho”. Para esto unen fuerzas distintas carreras universitarias, científicas/os, el Sindicato de Prensa de la Ciudad de Buenos Aires (Sipreba), el Foro de Radios Comunitarias (ARCO), la Red de Medios Digitales y otras entidades del mundo cultural y tendrá financiamiento de un fondo de la Unión Europea.
El impacto de la IA en la comunicación está siendo estudiado desde distintas disciplinas y es motivo de preocupación de los gobiernos, las universidades, los pequeños y medianos empresarios y también los medios tradicionales.
En la Facultad de Ciencias Sociales de la UBA se está trabajando desde el Observatorio de Tecnología Sociedad y Ecosistemas Digitales que encabeza Flavia Costa y coordina Luis Lozano, Licenciado en Ciencias de la Comunicación (UBA), especialista en Derechos Humanos y Comunicación (UEDH), investigador y profesor adjunto de Políticas Internacionales de Comunicación (CCOM-UBA). La Comunicación hace Clic (LCHC) dialogó con Lozano (LL) y a continuación se reproduce parte del diálogo.

LCHC: Contanos ¿cómo surge el Observatorio?
LL: El Observatorio es un instrumento que acabamos de aprobar en el Consejo Directivo de la Facultad hace un par de meses. En 2023 empezamos a generar un estado de la cuestión de la IA en el campo comunicacional, en 2024 hicimos una jornadas que fueron muy exitosas, con gran convocatoria y este año hicimos una propuesta de formación profesional en el tema y también tuvo mucha aceptación. En paralelo creamos este observatorio y el año que viene impulsaremos una propuesta de formación profesional que se va a convertir en una Diplomatura.
LCHC: ¿Cuáles son los primeros pasos que dieron para empezar a analizar reglas para el uso de la IA en las industrias culturales?
LL: Es un desafío poder avanzar en los tiempos que el proyecto plantea, que es un año estricto y ese año ya empezó a contar desde octubre. Empezamos a construir un «estado del arte» ( investigación documental que evalúa y sistematiza el conocimiento acumulado sobre un tema específico). Ese es el primer paso y luego iniciaremos un relevamiento del entorno argentino. En relación a la experiencia de la estamos teniendo una reunión ahora y seis con una experta que María Cantero. Ellos tienen un enfoque muy novedoso, de regulación basada en riesgos, y, si bien, para nosotros no es transportable directamente a nuestra región, no deja de ser un faro para enfocar los problemas que estamos teniendo.
LCHC: Las normativas europeas resuelven bastante bien, si no es así corregime, el «choque» entre la libertad de expresión y las limitaciones a la IA, a través de una evaluación de riesgos, básicamente.
LL: Exacto, la novedad es la posibilidad de introducir una clasificación respecto al riesgo que entraña en las distintas tecnologías, y que esto esté muy ajustado a parámetros técnicos y a una evaluación permanente. Y esa categorización va desde el máximo riesgo, donde no se permite la aplicación de Inteligencia artificial, por ejemplo para decisiones que involucran las armas de destrucción masiva o cuestiones criminales, y otros casos donde sí se puede utilizar, con diferentes regulaciones.
¿Cuando se regula y cuándo no?
LCHC: ¿Cómo determinar cuando sí se usa, cuando no, y hasta dónde? Es muy difícil ¿no? La línea es muy fina.
LL: Estamos todo el tiempo en esa tensión. Nosotros en el proyecto no tenemos una mirada apocalíptica de la Inteligencia artificial: trae enormes oportunidades, pero también enormes riesgos o desafíos que hay que abordar a un ritmo que es el que impone la industria y en el que vemos que las investigaciones y la regulación, el rol de los Estados se está quedando muy desfasado.
LCHC: Ustedes están relevando también lo regional, los marcos, las normas de los distintos países, provincias, estados o municipios. En Argentina se aprobó un dictamen en comisión en la Cámara de Diputados que regula algunos aspectos del uso de la IA. ¿Cómo evalúan ustedes esa iniciativa, por ejemplo?
LL: Si es el proyecto de Daniel Gollán, un proyecto que resume o incorpora gran parte de lo que estaba dando vuelta en otros proyectos y, hasta donde sé, no tengo un análisis detallado, pero creo que se inspira o toma bastantes cosas del modelo europeo. Hay una ley en Brasil que tiene media sanción también con esta misma impronta. El avance en este tipo de regulaciones generales, de cualquier modo, es un paso importante fundamental.
LCHC: ¿Si vamos específicamente a las industrias culturales?
LL: Lo que vemos es que los Estados van a encaminarse a modelos regulatorios leyes generales, lo cual está bien y después puede haber acuerdos o regulaciones específicas. En eso es en lo que tenemos que avanzar.
¿Y los derechos de autores?
LCHC: Lo de la IA hay mucho que regular en relación a los derechos de los autores, ¿no?
LL: Si, en relación a la cuestión de propiedad intelectual: Nosotros tenemos como tres pilares en el proyecto: uno es propiedad intelectual, el otro es situación de los trabajadores y las trabajadoras de las industrias culturales y el tercero el de los estándares de calidad de la producción de la industria cultural. El tema de propiedad intelectual en la industria cultural ya venía haciendo un problema, para los creativos, por ejemplo. Siempre estaban en esa situación de desventaja, los autores quedaban indefensos frente a las grandes corporaciones.
LL: Y a la vez hay otro problema de la tecnología misma, de la Inteligencia artificial, que es que se ha nutrido, se ha alimentado mediante procesos que implicaron la violación directa de propiedad intelectual Mark Zuckerberg lo ha reconocido y chat gpt también que se nutrieron de sitios que tiene enormes cantidades de libros pirateados. Y que en un momento tomaron la decisión de tomar información de esas bases de datos. Entonces ¿qué pasa con esa apropiación originaria de la IA que hoy nos devuelve resultados y que se hizo en violación de de propiedad intelectual?
LCHC: Y sobre las y los trabajadores ¿Podrán ser reemplazados por la IA? ¿Cuáles son los riesgos reales?
LL: Está comprobado ya que no pueden ser reemplazados. Hay una idea de que ya no necesitás mandar un fotógrafo porque la foto la haces con Inteligencia artificial. Es posible que no mandes a un fotógrafo y que hagas una foto con Inteligencia artificial, pero hacer un producto de calidad igual demanda una intervención humana muy capacitada, incluso para generarlo con herramientas de Inteligencia artificial. Aparece otra vez lo que peleábamos hace mucho tiempo: con las redes pasaba lo mismo, el prejuicio que no necesito alguien capacitado para hacer redes, mi sobrino que es joven puede y después se demostró que no es así.
El cronograma
LCHC: ¿Cómo es el cronograma de trabajo de este proyecto financiado por un año?
LL: En abril estamos empezando con las mesas intersectoriales, y a partir de junio vamos a presentar las primeras versiones de los acuerdos, los protocolos. Todo eso va a ir a una web que se va a ir actualizando y la idea es que se mantenga activa, más allá de la finalización del proyecto.

