Cada vez son más los escenarios en los que un tercero revisa nuestro historial en redes sociales para validarnos en cierto tipo de proceso de selección. En Estados Unidos nos piden nuestros perfiles públicos para solicitar un visado, y la práctica de mirar en esos mensajes y publicaciones es ahora muy común en procesos de selección de trabajadores.
La situación, no obstante, se puede desmadrar. Un usuario de Twitter contaba cómo al pedir uno de estos informes a una empresa que los promociona se encontró con un documento de 300 páginas en el que aparecían todos los mensajes de Twitter en el que había usado la palabra "joder" (fuck). Daba igual el contexto.
El contexto lo es todo
El usuario, con el sobrenombre de Bruise Almighty, contaba la situación y bromeaba hablando de esta nueva y singular distopía que se ha convertido en una realidad palpable que planteaba cómo ciertas empresas hacen este tipo de chequeos.
I had to get a background check for my job, and it turns out the report is a 300+ page pdf of every single tweet I’ve ever liked with the work “fuck” in it.
— bruise almighty (@kmlefranc) 27 de enero de 2020
Enjoy your dystopian bs! *waves*
La empresa en cuestión en este caso, Fama, es un servicio de monitorización de redes sociales cuyo sitio web que utilizan "monitorización online basada en inteligencia artificial para la empresa". Con ello, aseguran, ayudan a las empresas a "identificar miles de comportamientos relevantes al empleo, como el racismo o el acoso, sin exponer a los empleadores a riesgos innecesarios o trabajo manual".
Las críticas no obstante han sido numerosas en un proceso que tenía según muchos pocos indicios de haber sido monitorizado con herramientas de inteligencia artificial, y en lugar de eso parecía simplemente un documento con resultados de una simple búsqueda de una palabra.
En el documento que le enviaron de hecho todo apuntaba a que el tipo de aviso (bueno, malo), la razón (alcohol, lenguaje, fanatismo) o tipo de publicación realizada (si le ha gustado, por ejemplo) no había muestras de que hubiera procesos complejos que entendieran el contexto de esos mensajes y publicaciones en redes sociales: simplemente era un algoritmo de búsqueda de patrones de texto.
Eso plantea dudas claras a la hora de utilizar este tipo de informes como válidos para identificar posibles comportamientos más o menos favorables de un candidato que está optando por un empleo.
The especially creepy part is this didn't turn up anything at all relevant or incriminating! I keep personal info on my non-public accounts. But their shitty algorithm means that my "reputation" and "character" is flagged as questionable and sent to my boss.
— bruise almighty (@kmlefranc) 1 de febrero de 2020
Also ironic: the algorithm flagged the word “hell” and flagged this theological commentary in relation to a job... teaching theology... pic.twitter.com/2k0fcbznja
— bruise almighty (@kmlefranc) 1 de febrero de 2020
No solo se produce aquí según quienes critican este tipo de acciones cierta invasión en esos comentarios en redes sociales, sino también la mala calidad de unos resultados que no tienen en cuenta un contexto que es vital en este tipo de estudios.
Sea como fuere, algo parece estar cada vez más claro: el uso de nuestras redes sociales puede acabar siendo analizado en nuestra próxima búsqueda de empleo.