Num.48 | 2021

DISCRIMINACIÓN Y COLONIALIDAD EN LA VISIÓN ALGORÍTMICA. ABORDAJES ARTÍSTICOS PARA UNA REVISIÓN CRÍTICA DE LA CLASIFICACIÓN DE PERSONAS

Hugo Felipe Idárraga Franco

Resumen


A la luz de propuestas artísticas con medios digitales y, específicamente, con inteligencia artificial, en este artículo se analiza críticamente la discriminación de personas en modelos de aprendizaje de máquinas; en particular, en aquellos modelos de clasificación diseñados para cumplir tareas de vigilancia y control social. Para ello, se propondrá en primer lugar que, según una versión filosófica del objetivismo, distintos modelos algorítmicos pretenden clasificar “objetivamente” a las personas en función de sus rasgos corporales, vinculándolas con perfiles psicológicos y de comportamiento. La dudosa relación que aquí se cuestionará es aquella que se basa en rasgos visibles y características invisibles de las personas, forjada por una mirada colonial que se reproduce actualmente en el funcionamiento de la visión algorítmica. En segundo lugar, se afirmará que esta discriminación se materializa en el mismo diseño de los modelos de clasificación. Por un lado, se abordará la importancia de la estadística para el funcionamiento del aprendizaje de máquinas en la perspectiva de sus relaciones históricas con prácticas policiales de vigilancia y control social; y, en segundo lugar, se analizará cómo aquella mirada colonial se reproduce en los conjuntos de datos y en los nombres de las categorías bajo las cuales las imágenes son etiquetadas y clasificadas, determinando así la realidad  percibida algorítmicamente por estos modelos de clasificación.


Palabras clave


algoritmos; discriminación; estadística; objetivismo; vigilancia

Texto completo:

PDF


DOI: http://dx.doi.org/10.32995/rev180.Num-48.(2021).art-1000

Enlaces refback

  • No hay ningún enlace refback.


Copyright (c) 2021 Revista 180