Ph: Melina Gómez

Por Sofía Arriola


Los tiempos de la Revolución Digital han traído aparejada la aplicación de la inteligencia artificial y con ella algoritmos hasta en el mundo del trabajo, por ejemplo.  

La configuración de un algoritmo puede ser interpretada a simple vista como un proceso tecnológico ajeno a subjetividades o discriminaciones. Sin embargo, si profundizamos esta visión podremos observar que la formulación de un algoritmo arrastra estereotipos y roles largamente arraigados en el ámbito sociocultural como lo son aquellos que tienen que ver con los colectivos de mujeres, un grupo en estado de vulnerabilidad que por el uso de estas tecnologías pueden ver reducidas sus posibilidades de acceso, mantenimiento y ascenso en el mercado del trabajo. Ahora bien, ¿cómo se hace visible una discriminación que se encuentra tejida de manera invisible? ¿cómo se produce el sesgo algorítmico, sus implicancias y por qué es tan difícil detenerlo? 

Debido a las modificaciones en el sistema de producción y la introducción de cambios tecnológicos hay aristas sobre las formas de contratación y selección que parecen escaparse. Los sistemas de intermediación de tecnología en sistemas de búsqueda de personal parecen ser neutrales y prometen que no pueden efectuar per se una diferencia arbitraria entre los sujetos analizados. Sin embargo, la realidad parece demostrar que el uso de algoritmos para definir el mejor perfil de cobertura de vacantes continúa reproduciendo barreras y estereotipos sociales arraigados en la historia y la cultura de nuestras sociedades. 

Es por eso que entender cómo funcionan y cuál es su verdadera acción se torna fundamental para prevenir la reproducción de estas dificultades amparada por la normativa nacional como la Ley 23.592: Penalización de actos discriminatorios y otras leyes sobre discriminación, la normativa internacional como los Convenios 100 y 111 de la Organización Internacional del Trabajo (C100 – Convenio sobre igualdad de remuneración y C111 – Convenio sobre la discriminación, empleo y ocupación) y la Convención sobre la Eliminación de todas las formas de Discriminación contra la Mujer, entre otros acuerdos internacionales que han buscado subsanar.

Primero es preciso aclarar ¿qué es un algoritmo?: en matemáticas, lógica, ciencias de la computación y disciplinas relacionadas, un algoritmo (del latín, dixit algorithmus y este del griego arithmos, que significa «número») es un conjunto prescrito de instrucciones o reglas bien definidas, ordenadas y finitas que permiten llevar a cabo una actividad mediante pasos sucesivos que no generen dudas a quien deba hacer dicha actividad. Cotidianamente se emplean algoritmos frecuentemente para resolver problemas. 

En este caso, si los inputs y procesamientos de los algoritmos utilizados se basan en las ideas extraídas a través de diversas redes sociales, compras online, encuestas al consumidor, etc., extraídas de la mirada de las personas que integran la sociedad ¿la modificación del algoritmo será suficiente para evitar resultados discriminatorios?


¿qué es un algoritmo?: en matemáticas, lógica, ciencias de la computación y disciplinas relacionadas, un algoritmo (del latín, dixit algorithmus y este del griego arithmos, que significa «número») es un conjunto prescrito de instrucciones o reglas bien definidas, ordenadas y finitas que permiten llevar a cabo una actividad mediante pasos sucesivos que no generen dudas a quien deba hacer dicha actividad.


En términos de programación un algoritmo es una secuencia de pasos lógicos que permiten solucionar un problema. En general y a modo de resumen tratan de conjuntos de datos que siempre tendrán en común las tres propiedades de: tiempo secuencial, estado abstracto y exploración acotada. Luego pueden generarse distintos tipos de algoritmos, en el caso planteado se estarían analizando algoritmos de búsqueda: estos están diseñados para localizar un elemento con ciertas propiedades dentro de una estructura de datos, como por ejemplo ubicar el registro correspondiente a cierta persona en una base de datos o el mejor movimiento en una partida de ajedrez. Lo que se genera a partir de la existencia de estos algoritmos son grandes cantidades de datos, generalmente estadísticos, para poder crear brechas de información y desarrollar con esta misma, conclusiones sobre las características y un comportamiento potencial de las personas teniendo en cuenta categorías de representación como pueden ser mujer/varón ya que se van a considerar predominantes y típicamente expuestas en los portadores del rasgo. 

Ahora bien, los algoritmos se están vinculando con el mercado laboral en tanto actúan en los procesos de selección de personal, en el resultado de los mismos o en el tratamiento de datos que hacen a la órbita personal de los trabajadores. Aquellos datos extraídos de la realidad y cuyos parámetros formatean el procesamiento en búsqueda de un resultado, restringen de por sí el ámbito de selección a determinadas configuraciones de acuerdo a los datos suministrados. Es en esta parte del proceso, que la transparencia en el uso de datos y su articulación para la generación de algoritmos adquiere principal importancia. Cierto es que las grandes compañías tienden a pretender mantener este contenido fuera del alcance del público, en aras a preservar el denominado know how, en términos de confidencialidad y no competencia. No obstante, como bien indicara ut supra, son éstos los primeros factores que pueden acarrear en el ámbito laboral procesos cargados de “sesgos” que pueden tener por base el género, la etnia, la religión, el estrato social, etc. 

La segunda etapa de análisis comienza con el procesamiento de los datos y las estructuras utilizadas a esos fines: la creación de categorías de representación que los propios algoritmos crean en base a datos tomados de la “realidad” y su utilización para enseñarse a sí mismo a determinar y arribar a nuevas conclusiones, por ejemplo, los trabajadores que resultan más adecuados para determinada función. Por otro lado, en el mundo tecnológico existen los denominados algoritmos de Caja Negra, cuya oscuridad radica en esconder el entendimiento de la razón de ser de sus resultados detrás de fórmulas no-abiertas al público, ya sea qué códigos están fuera de la visibilidad de los usuarios para evitar filtraciones de datos o la detección de patrones concretos. La mayoría de ellos se esconden en los buscadores. 

Por ejemplo, a principios del mes de Julio del año 2018, una noticia relacionada con los algoritmos de reconocimiento de contenido que utiliza Google causó gran polémica y disgusto entre la población afroamericana, al etiquetar a una pareja como “gorilas”. Ante el error, Google tuvo que pedir disculpas y mencionó que este tipo de problemas quedarían resueltos con el lanzamiento de Google Fotos y su función para editar el etiquetado automático. A su vez, una investigación realizada por la Universidad de Washington encontró que al realizar una búsqueda en Google Imágenes para “CEO” los resultados obtenidos sólo mostraron a un 11% de mujeres, a pesar de que el 27% de los directores ejecutivos de los Estados Unidos son mujeres. Por si esto fuera poco, la primera imagen de una mujer que aparecía en la segunda página era la muñeca Barbie CEO.  

Investigadores de Carnegie Mellon hicieron un estudio en el que construyeron una herramienta para simular usuarios de Google que comenzaron sin historial de búsqueda y luego visitaron sitios web de empleo: más tarde, en un sitio de noticias de terceros, Google mostró un anuncio para un cargo ejecutivo 1.852 veces a hombres y 318 veces a las mujeres. “Incluso si no están diseñados con la intención de discriminar a esos grupos, si se reproducen las preferencias sociales, incluso de una manera completamente racional, también se obtendrán formas de discriminación” dijo David Oppenheimer, profesor de la Universidad de Berkeley, California. 


en el mundo tecnológico existen los denominados algoritmos de Caja Negra, cuya oscuridad radica en esconder el entendimiento de la razón de ser de sus resultados detrás de fórmulas no-abiertas al público, ya sea qué códigos están fuera de la visibilidad de los usuarios para evitar filtraciones de datos o la detección de patrones concretos. La mayoría de ellos se esconden en los buscadores. 


Si el “ser mujer” para el algoritmo es negativo, sólo es por presentar las desventajas estructurales de las mujeres trabajadoras. Si se ignorara el hecho de que ciertos grupos enfrentan discriminación en el mercado laboral, no se los podría respaldar de manera correcta. Por ende, los algoritmos de nuestra sociedad serán discriminatorios en la medida que la realidad social lo sea y al reproducir la realidad solamente están consagrando una injusticia existente. Cabe preguntarse ¿cuál es el rol que tienen los Estados frente a esta reproducción discriminatoria? 

La no discriminación por razón de sexo o género está contemplada en el Convenio 111 de la Organización Internacional del Trabajo, el artículo 2, párrafo 2 del Pacto Internacional de Derechos Económicos, Sociales (cuestión que fue desarrollada por el Comité de Derechos Económicos, Sociales y Culturales en su Observación General Nº 20), entre otras normas. 


¿de qué forma los legisladores podrán controlar lo que pasa detrás de las pantallas ahora que las herramientas son otras, nuevas y desconocidas? 


El contenido del derecho fundamental a no ser discriminado por razón de sexo abarca la igualdad de trato y la de oportunidades. La igualdad de trato comprende, a su vez, la prohibición de discriminaciones directas e indirectas. La igualdad de oportunidades remite al mandato de acciones positivas a favor de la igualdad real y efectiva de mujeres y hombres. La exclusión de hecho de las mujeres en el mercado laboral exige que se tomen medidas y acciones que reviertan esta situación ampliamente conocida, entonces ¿de qué forma los legisladores podrán controlar lo que pasa detrás de las pantallas ahora que las herramientas son otras, nuevas y desconocidas? 

Es necesario un rol activo en la implementación de los estándares mínimos laborales aplicados también en el área de las ciencias informáticas, así como la concientización y sensibilización de las temáticas de género y puede que esto sólo sea posible cuando opere un cambio a nivel social y así se traslade a una modificación en el espacio digital para remover los sesgos de género y discriminación que ocultos en formulas agrandan las brechas y diferencias que la normativa propone hace años erradicar. 


Escribir un comentario