jueves,18 agosto 2022
Espacio euroiberoamericano de diálogo sobre la innovación social, profesional y académica
InicioInnovación y AcademiaHumanismo DigitalInteligencia Artificial y Recursos Humanos.
El gran desafío del futuro del trabajo.

Inteligencia Artificial y Recursos Humanos.

Humanista Digital. Filósofa y Humanista. Especialista en Pensamiento Crítico, Ética y filosofía aplicada a la empresa. Brain Trainer. Speaker. Docente. Doctoranda en Ética e Inteligencia Artificial artificial.
Aunque la Inteligencia artificial ha trastocado todos los estamentos de la empresa, es en el área de recursos humanos en donde tendremos consecuencias irreversibles para los seres humanos.

Cuando se habla de Inteligencia Artificial, generalmente las personas piensan que el mayor riesgo que corremos con esta tecnología provendrá de unos exoesqueletos (los mismos que vieron en la película Terminator) que nos invadirán,  controlarán y exterminarán.

Sin embargo, cuando pienso en Inteligencia Artificial lo que realmente me asusta no tiene ninguna forma en particular, y lo único que necesita para existir es estar conectada a internet. Se llama: A.D.M., Automated Decisión Making (toma de decisiones automatizadas).

ADM es el proceso de toma de decisiones en el que el ser humano no participa. Eso significa que un algoritmo decide automáticamente temas tan importantes para nuestra vida como si eres apto para un crédito, un seguro, y lo que más me preocupa, para un puesto de trabajo.

Uno de los grandes desafíos (¿problemas?) en los que debemos focalizar todos nuestros esfuerzos si no queremos promover un “genocidio digital”, será todo lo relacionado con la Inteligencia Artificial y los recursos humanos.

¿Por qué? La razón no puede ser más evidente: la transformación digital es un proceso imparable en el mundo. Cada día, la tecnología permea de manera invisible todos los aspectos de la vida humana, y las empresas como motor de la economía no son la excepción a estos avances. La pandemia, más allá de la crisis sanitaria, nos reveló que solo las empresas que estaban preparadas o reaccionaron rápido tecnológicamente, son las que han sobrevivido a su avance implacable.

Las empresas llevan más de 30 años digitalizándose, lo que ha incidido directamente sobre la automatización[1] de procesos y los puestos de trabajo. Y los departamentos de los recursos humanos no han sido la excepción.

Pensemos tan solo en este caso: imagina cuantos currículos tiene una de las grandes empresas de selección, para un puesto -por ejemplo- administrativo. El proceso de selección de los aspirantes es un océano infinito de datos, en el que los reclutadores buceaban -en gran parte- de manera manual, para escoger los candidatos más adecuados para una misma oferta. Este trabajo, que podía tardar entre 3 o 4 días, hoy, gracias a la Inteligencia Artificial,  se realiza en un par de horas.

Y es allí donde se produce toda la disyuntiva. Por un lado, la selección automática hace que desaparezcan favoritismos o prejuicios propios del seleccionador, lo cual, en términos de transparencia, no tiene ninguna objeción. Sin embargo, por otro lado, la pregunta que deberíamos estar planteándonos es  ¿puede un sistema inferir cosas tan etéreas y propiamente humanas como la ética, la creatividad, la inteligencia, la sensibilidad, la timidez, o algo tan importante como la forma de expresarse de una persona? Cosas que, por demás, son imposibles de reflejar con palabras en un currículo, y que hoy se denominan Habilidades Blandas (soft skills).

Los humanos -al igual que las máquinas- contamos con un lenguaje propio, pero sin embargo, aquello que nos diferencia de manera radical, es el entramado mental con el que construimos -a través del habla – nuestros actos de pensamiento.  Y aunque hoy se habla mucho de los avances para entender el funcionamiento del cerebro, el neurobiólogo español Rafael Yuste, uno de los ideólogos del Proyecto Brain , afirma que aún estamos muy lejos de descifrarlo. Por ello, afirmar que un algoritmo puede “captar” las sutilezas de nuestros juegos de lenguaje, y la forma en que nuestro cerebro lo transforma, esta aún por ver.

Otro caso también muy preocupante, es el de los despidos. En 2019 conocimos el caso de Stephen Normandin, un empleado de Amazon que fue  despedido en base a criterios de medición de productividad de su algoritmo, y que recibió tan solo un email para notificarle su despido. En agosto de este año, la empresa rusa Xsolla,  realizó un despido masivo de 150 empleados basado en su algoritmo, que creo perfiles a las personas con etiquetas como ”improductivos” y “poco comprometidos”. Más que el despido, lo que realmente me asusta es que fue el Consejo de Administración de esta compañía (humanos), quienes aprobaron de forma unánime esta tecnología.

La bomba de tiempo que anuncia el A.D.M, no es algo exclusivo de los recursos humanos. Esta tecnología se aplica allí donde se necesite clasificar una gran cantidad de datos. El sistema realiza un proceso a través de un “Perfilado”, qué como su nombre indica, crea perfiles acerca de las personas. La elaboración de perfiles analiza aspectos de la personalidad, el comportamiento, los intereses y los hábitos de un individuo para hacer predicciones o tomar decisiones sobre ellos.

Si esto es así, la pregunta que deberíamos hacer es:

  • ¿Quién o qué define estos perfiles?
  • ¿Cuáles son los criterios que se utilizan para hacer estos perfiles?
  • ¿ De dónde se están sacando los datos para alimentarlos?

No obstante, es importante saber que estos algoritmos no se crean solos (aún), requieren de un programador, que es quien define lo que más nos debe importar: para qué se va a utilizar el algoritmo. Un algoritmo no es otra cosa que una secuencia de pasos abstractos, lógicos y ordenados, para solucionar un problema. Sin embargo, quienes definen si tú puedes acceder a un empleo son los criterios con los que se creó el algoritmo.

No olvidemos que el programador es un empleado de “alguien”, que cumple instrucciones para crear perfiles, y que como ya lo ha denunciado Propublica , en muchos casos, y por poner un ejemplo, esta persona tiene la responsabilidad de entrenar un algoritmo para un hospital, sin tener idea de los principios éticos para casos como el cáncer (o cualquier otra enfermedad), o la clasificación de procedimientos en una sala de urgencias.

Si un programador va a definir la estructura de un algoritmo, que decidirá por cientos de personas, tendríamos que analizar lo siguiente:

  • ¿ Cómo podemos asegurar que estos programadores son personas con principios éticos, morales, y con el conocimiento adecuado del tema sobre el que van a programar, con el fin de tener la mayor neutralidad posible?
  • ¿ Cómo podemos asegurar que las empresas tienen valores éticos, o un propósito empresarial, en donde el bien común prime sobre las ganancias?

 

Antes de criticar la inteligencia artificial, empecemos a pensar en quién la manipula y para qué ha sido creada, ya que de nada sirve pensar en detener la tecnología.

Podemos y debemos pensar en una era Hombre y Máquina, en la que los principios y valores más profundamente humanos, sean los que determinen nuestro destino como especie.

 

 

 

 

 

 

 

 

 

 

 

[1] Aplicación de máquinas o de procedimientos automáticos en la realización de un proceso o en una industria.

 

De interés

Artículos Relacionados

Centro de preferencias de privacidad