Hace tiempo que fenómenos como el big data, como se denomina a los datos alojados en plataformas digitales para establecer perfiles de usuarios, o la inteligencia artificial –sistemas que buscan imitar algún aspecto parcial de la inteligencia humana– llegaron para quedarse y son parte de nuestra vida. Pero si bien estos procesos orientan a las empresas para segmentar ofertas, muchas veces generan desigualdades. ¿Por qué una persona equis recibe en su mail o red social una determinada propuesta de trabajo y no otra, que podría estar igualmente calificada? ¿En base a qué variables a alguien se le intenta vender, por ejemplo, un paquete turístico?
> Leer también: Fronteras de la inteligencia artificial.
Partiendo de esos interrogantes, las investigaciones de la carrera de sociología en UFLO Universidad buscan entender al big data no sólo como un fenómeno tecnológico, sino también social y cultural. Situaciones y procesos que se daban entre personas ahora están en manos de sistemas que los humanos no controlan, por lo que desde UFLO ven necesaria la participación de la sociología en estos circuitos. Argentina Investiga conversó con el director de carrera, Gastón Becerra, sociólogo, magíster en Epistemología e Historia de la Ciencia y doctor en Filosofía.
–¿Qué es un algoritmo social" data-toggle = "tooltip" title = "Conjunto de normas de programación que hará que una publicación se muestre mucho o poco en una red social, así como también, las decisiones de a quién y cuándo se mostrarán dichos posts.">algoritmo social?
–Los algoritmos sociales son instancias en las cuales se dejan en manos de un sistema y de las consideraciones de un modelo cuestiones que tienen que ver con la interacción entre personas. El gran problema que tenemos es que esos sistemas recurren a bases de datos para tomar ciertas decisiones. Esas bases están cargadas con datos que reflejan la realidad, y la realidad tiene un montón de injusticias. Entonces, notamos que estos algoritmos sociales reproducen desigualdades que están en los sistemas reales. Por ejemplo, la cantidad de gente que entra a Facebook, o que consume a través de aplicaciones genera una amplia posibilidad de injusticias a una escala no vista. La autora Cathy O’Neil habla de armas de destrucción matemática. Estas situaciones de desigualdad pueden llegar a una escala inusitada, porque una aplicación puede cruzar fronteras, tiempos.
–¿Puede mencionar algún caso concreto de esas desigualdades?
–La evaluación de un docente para un puesto en un concurso. Ese tipo de actividades ya están codificadas, parten de un algoritmo. No hay una junta docente a la cual vas con los papeles, hablás, negociás. El sistema busca al mejor docente que tiene cargado para ese puesto. Esos procesos se vuelven oscuros, difíciles de predecir cuál puede ser el resultado, según las consideraciones que están incluidas en el algoritmo. El gran problema es cuando esas consideraciones se basan no en reglas explícitas, sino en modelos que generalizan patrones a partir de información histórica anterior. Que fija, por ejemplo, quién ha sido la persona seleccionada para un puesto en los mil casos pasados. Puede que se haya seleccionado un hombre y no una mujer porque hay un prejuicio, o porque se prefiere evitar a una mujer que puede quedar embarazada durante su período laboral.
–¿Cuál sería el aporte de la sociología para revertir esta situación?
–Hoy por hoy, todo lo que tiene que ver con ciencia de datos e inteligencia artificial va por el lado de corregir esos sesgos. Se pone el esfuerzo en lo que se puede hacer desde el código o desde el modelo. La sociología, en cambio, tiene otra mirada, donde aquello que se construye como dato es parte de un proceso de visibilización y de registro. Nosotros lo llamamos ‘datificación de la sociedad’. Lo que propone la sociología es poner el foco en cómo se construyen esos datos y ver la manera de corregir la datificación. Esa mirada de reconstrucción no la vas a ver en la ciencia de datos.
–¿Esta segregación también se produce en los consumos?
–Que a vos te ofrezcan una cosa que a otra persona no se le ofrece no es algo que modifique tu vida. Pero estamos hablando de oportunidades, y no está bueno que las oportunidades estén discriminadas en base a una situación de desigualdad preexistente. Pensemos en una chica de treinta y pico de años, una edad donde muchas suelen dejar los estudios y dedicarse a su familia. Ahí se tiene un registro que marca una diferencia entre varones y mujeres sobre qué carreras de posgrado se les puede ofrecer. Entonces, se le ofrece una carrera larga y complicada a un varón y una más simple a una mujer. Por ciertas consultas, como por ejemplo, compras de productos infantiles, se deduce que es madre, entonces las carreras que se les ofrecen a las madres son estas. No se consideran formas de armar una sociedad más equitativa. Por ejemplo, no hay razones por las que en las carreras de informática sean mayormente varones. Eso es porque para atrás no se fomentó la carrera tecnológica en las mujeres. Entonces, si yo uso esos datos para evaluar qué oferta de carreras les ofrezco a varones y a mujeres, estoy reproduciendo la injusticia del dataset original.
–¿Qué acciones concretas proponen para lograr esa equidad?
–Hay que empezar a generar algoritmos que consideren esta desigualdad y busquen cómo corregirla en los resultados. Ese es un camino. El otro es ser mucho más crítico de los datos e incorporar en ellos una mirada de los factores involucrados, de analizar cómo se construyeron, sabiendo que cuando uno vuelve algo un dato hay un recorte. Y posiblemente haya un grupo de situaciones que no se volvieron datos, lo que determina ya una injusticia en algún caso. Los científicos sociales estamos entrenados en tener ese ojo crítico y hacer ese tipo de rastreos, para incorporar con otro tipo de técnicas otros procesos de construcción de datos y generar datasets más cuidados y éticos.
–¿Cómo se interviene un algoritmo de este tipo?
–Abrir un algoritmo es extremadamente difícil. Por lo general son no triviales, es decir, uno no puede predecir los resultados, por lo cual, probablemente tampoco tenga bien claro el proceso previo. Ahí entra la ingeniería inversa, ya que es bastante complejo. Lo que nosotros consideramos, en este mundo que se volvió cada vez más digital y que estas tecnologías tienen un lugar cada vez más destacado, es que los desarrollos estén a cargo de equipos multidisciplinarios, incluyendo gente de ciencias sociales. Para que analicemos de dónde salieron esos datos, cómo se van a utilizar, e incorporar técnicas cualitativas para poder ver cómo los actores involucrados experimentan esta situación, cómo se paran frente a este algoritmo. Tenemos esa característica de formación, la sociología es plurimétodo.
–¿Esto significaría trabajar en articulación, por ejemplo, con ingeniería y programación?
–Sí, la propuesta que llevamos adelante busca que los sociólogos aprendan inteligencia artificial, análisis de datos, a programar. La ciencia de datos hoy está de moda, pero antes de que estén los datos hay un sistema que los genera y los construye, entonces, hay un costado de programación y desarrollo del que no nos podemos olvidar. No es que tomamos el big data sólo para analizarlo, sino también para ser parte de su desarrollo, conocer sus ciclos, intervenir entre el equipo que desarrolla y la comunidad implicada. Empezamos a ver que los sociólogos no estamos restringidos a trabajar en el Conicet o en estudios de mercado, sino que la carrera nos dio herramientas para meternos en este tipo de situaciones. Porque, al fin y al cabo, de lo que estamos hablando es de la intermediación entre personas.
–¿En qué trabaja su equipo actualmente?
> Leer también: Un software identifica las emociones del hablante.
–Hace poco publicamos un artículo que analizaba la prensa argentina, donde pudimos ver que predomina un discurso promocional del big data y se lo considera la revolución laboral, la revolución de la política. Esto viene asociado con dos grande ideas. Una es que hay datos por todos lados y que podemos acceder a esos datos, lo cual es una idea muy criticable porque no están a disposición de todo el mundo. Google y Facebook tienen una base enorme, pero la tienen ellos, no nosotros, ni tampoco sabemos cómo la usan. Entonces, eso que la prensa promociona es muy cuestionable. Lo otro que vemos es la promesa de que esto viene a revolucionar cada esfera de la vida, como si no hubiese nada que quedara afuera del big data. En nuestra investigación comparamos esta “retórica” del big data en la prensa, con otras que circulan en otros espacios sociales, como la ciencia, la política, la industria, entre otros. También complementamos esta mirada más sociológica con una línea de la psicología social, e investigamos el sentido común del big data, en donde este discurso favorable o promocional convive con un sentido negativo que lo vincula a perder el control de nuestras vidas.