Читать книгу La universidad cambiante. El uso de nuevas tecnologías y transferencia de resultados para la inclusión y el cambio social онлайн
30 страница из 40
En materia de empleo, la inteligencia artificial ya está encontrando terreno en los procesos de selección y evaluación de personal, por no hablar de los robots que rastrean y extraen datos personales de los candidatos en la red para su valoración. ¿En qué medida alguien que expone su vida privada puede luego exigir que dicha información no sea tenida en cuenta? (Han, 2013).
No tardaremos en ver procesos judiciales donde los responsables de la empresa tendrán que rendir cuentas sobre la racionalidad, proporcionalidad y justificación de una decisión de tipo laboral adoptada mediante la utilización de algoritmos (o lo que es lo mismo, de los criterios y parámetros sobre los que el robot propone una medida que imputable al empleador). En tales casos, debieran operar los mecanismos de desplazamiento de la carga probatoria hacia la posición del empleador.
Por otra parte, el software (de evaluación del performance del trabajador) no es infalible, tiene errores y puede que no incluya todas las complejas variables que han de tenerse en cuenta para que la concreta decisión de gestión de personal pueda considerarse equitativa, justa y socialmente responsable. La propia programación –y las formas de inteligencia artificial– puede encerrar en su diseño los mismos sesgos discriminatorios (Ordinanza del Tribunale di Bologna, Sezione Lavoro, de 31 de diciembre de 2020), basados en estereotipos (racistas, sexistas o clasistas, por ejemplo), presentes en la sociedad en que se desarrollan. Tales aspectos exceden de la competencia de los propios programadores y nos enfrentan a cuestiones éticas y jurídicas de calado, pero que, de no ponerles remedio, de poco podrían servir para promover transformaciones sociales más equitativas y respetuosas con los derechos fundamentales. Problemática que surge de la dificultad para prever los efectos secundarios –e inesperados– de la optimización de objetivos aparentemente sencillos pero que luego determinan una “mala conducta algorítmica”. Este es un límite necesario a la IA, comprobar que los modelos empleados por los algoritmos –e incluso los propios modelos generados por los meta-algoritmos– cumplen con las normas sociales, para ello es necesario integrar estos criterios en la programación de los mismos (Kearns, 2020:18 y 233) y estar atentos a sus posibles consecuencias indeseables. En todo caso, la dicción del artículo 22.1 de Reglamento General de Protección de Datos es muy clara cuando establece que: “Todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar”.