Suscripción anual

$ 50.000


    *todos los campos son obligatorios

    La inteligencia artificial carece de objetividad

    Los sistemas de inteligencia artifical (IA) carecen de objetividad científica ya que sus contenidos están determinados por la subjetividad de quienes los diseñan, y además se asientan en el “extractivismo de datos”, el mecanismo por el cual imágenes, voces, movimientos e interacciones de las personas son tomadas para beneficio de quienes los controlan, según conceptos vertidos en un seminario organizado por la Federación Internacional de Periodistas (FIP).

    Un enfoque “sociotécnico” de la IA permite reconocer que los sistemas están profundamente influidos por “los valores, contextos y perspectivas de quienes los diseñan”, expresó la especialista peruana Gisela Andrade, comunicadora, politóloga y con trabajo dedicado a los derechos humanos y el desarme.

    Al exponer en el seminario virtual para periodistas de América Latina organizado por FIP-Imp Lab, Andrade explicó que su posición frente al tema se ubica en el sur global y se asienta en derechos humanos, equidad de géneros y seguridad, con el fin de “cuestionar y transformar el rumbo de la militarización de la IA”.

    LA IA NO ES NEUTRAL

    “La inteligencia artificial no es neutral y no es inevitable”, advirtió al comienzo de la intervención, ya que es el resultado de decisiones humanas y no un “fenómeno natural”. Este recurso, presentado –incluso por numerosos medios de comunicación- como consecuencia de una evolución virtuosa, se debe en realidad a “decisiones técnicas y también políticas”, explicó la especialista.

    Asimismo, advirtió que contrariamente al imaginario común, los mecanismos que hoy promueven y obtienen ganancias con la extensión del uso de la IA acumulan un trabajo de más de medio siglo, con inversiones millonarias y aportes de ciertos gobiernos, en medio de una concentración de poder sin precedentes en la historia de la tecnología.

    Durante los 90, agregó, estos desarrollos tuvieron un cambio de enfoque, pues se pasó del intento de “programar inteligencia” al mecanismo de “entrenar inteligencia con datos”, mediante algoritmos que aprenden patrones de los datos sin necesidad de programar específicamente cada regla.

    CAPACIDAD DE DAÑO DE LA IA

    Al ampliar sobre el sentido del enfoque o perspectiva “sociotécnica”, Andrade sostuvo que “permite reconocer que desarrolladores, implementadores y reguladores son responsables del funcionamiento mecánico de las máquinas y de cómo se integran con temas sociales, los transforman y, en ocasiones, los dañan”.

    Al hablar de la concentración de poder en todo el ciclo de desarrollo que lleva la IA, la especialista peruana dijo que abarca a la infraestructura y los recursos computacionales, la investigación y desarrollo, la capacitación de modelos y la ampliación y control.

    Andrade citó la obra “El costo de la conexión. Cómo los daatos colonizan la vida humana y se la apropian para el capitalismo”, de Nick Couldry y Ulises A. Mejías, para referirse a la extracción constante de los datos de la vida de las personas, para su posterior mercantilización.

    Se trata, dijo, de “una cuantificación de lo social” que representa un nuevo movimiento colonial, el colonialismo de datos, como lo explican Couldry y Mejías: “aunque los modos, intensidades, escalas y contextos de desposesión han cambiado, el impulso subyacente del colonialismo de datos actual sigue siendo el mismo: adquirir ‘territorio’ y recursos de los que el capital pueda extraer valor económico”.

    La especialista invitó a las y los periodistas a tomar en cuenta que “la lógica extractivista de la IA privatiza el conocimiento común: datos obtenidos de espacios públicos y bienes colectivos terminan convertidos en modelos de propiedad privada, sin retorno al interés público”.

    TRASLADO DE FUNCIONES EDITORIALES

    Hay implicancias nítidas en el periodismo por el proceso que llamó “deshumanización digital”, porque el uso de la IA por los medios conduce a la precarización laboral, traslado de funciones editoriales, permite la vigilancia mediante algoritmos y lleva al control de la información por las plataformas automatizadas.

    La exposición de Andrade abarcó también el “comportamiento sistemáticamente inexacto” de la IA, en lo que en la jerga específica son llamados «sesgos”, que producen parcialidad política, prejuicios, mentiras y discriminación por varios motivos.

    Los sesgos, enfatizó, “evidencian desigualdades sociales históricas y contemporáneas” y “automatizan y amplían jerarquías de poder existentes bajo el velo de la eficiencia y la supuesta objetividad tecnológica”.

    Deja un comentario

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *