Esta inteligencia artificial detectará si mientes o exageras en una entrevista de trabajo

¿Te imaginas que tu reclutador sea una máquina? Firmas como HermanPRO quieren hacer de los proceso de selección algo automatizado y con Inteligencia Artificial.

Si alguna vez has mentido en una entrevista de trabajo con el objetivo de tratar de ganar el empleo o quizá te has sentido rechazado porque el reclutador pareciera no tener interés en tu persona, ahora un nuevo sistema de inteligencia artificial conocido como Herman PRO busca eliminar parte de esos vicios o retos en el proceso de reclutamiento de personal.

“La pandemia elevó los índices de desempleo de una forma importante. Si queremos apoyar a la reactivación económica los departamentos de recursos humanos deben comenzar a contratar personal, pero bajo los mecanismos actuales de reclutamiento no lo van a lograr o el candidato puede no ser el ideal”, dice en entrevista con Forbes México Cory Rieken, directora de Expansión de Herman PRO y agrega: “Estamos por entrar en un mundo postpandemia, ninguno de los que vivimos actualmente sabemos cómo es eso”. 

Herman Pro fue creado por expertos del mundo de los recursos humanos, que buscaban una tecnología para acelerar el proceso de reclutamiento en las empresas, “una de las tareas más complejas, pero también más importantes”, y que, al no encontrar una, decidieron aliarse con ingenieros expertos de firmas como IBM para crear una solución.

Más que ser una plataforma digital de reclutamiento, Herman PRO, dice Germán García, director para México de la firma, utiliza algoritmos de aprendizaje de máquina e inteligencia artificial de millones de entrevistas para tratar de detectar los soft skills y aptitudes de un trabajador de forma automática.

En ese sentido, la inteligencia artificial, no le pregunta al candidato temas específicos de una vacante o posición, sino que busca inferir las habilidades blandas del candidato como liderazgo, trabajo en equipo, tolerancia a la frustración, comunicación o similares a través de una “entrevista digital” en la que pueda encontrar patrones o palabras de comportamiento específicos para crear una calificación. 

“El sistema te puede decir ‘dame un ejemplo de cuando hiciste algo en tu empleo para hacer crecer el negocio’. Herman Pro no califica de bien o mal la respuesta, no da juicios, sino que busca patrones en tu respuesta. Por ejemplo, hemos detectado que las personas que tienden a mentir, tienden a hablar en presente, mientras que una persona que realmente está dando un ejemplo habla en pasado porque está recordando el evento”, dice García.

El sistema de inteligencia artificial, dice el experto, hace un análisis del comportamiento frente a cámara de la persona, así como el uso de adjetivos excesivos, verbos o el acomodo de palabras.

El sistema funciona a través de una aplicación móvil que el usuario descarga en su teléfono móvil y, una vez asignada la entrevista, entra a la sesión con la diferencia que del otro lado no hay ningún ser humano, sólo una máquina que registra con la cámara y micrófonos del móvil la conversación y un algoritmo, que posteriormente califica al usuario.

La idea, dice Rieken, no es desplazar o sustituir a los departamentos de recursos humanos, sino agilizar el proceso de selección para permitir que el personal se enfoque en los talentos seleccionados, reclute perfiles de mayor nivel o cuente con una cartera de candidatos más extensos.

El objetivo, refiere García, es que los departamentos de RH se dediquen a enfocar su tiempo en perfilar mejor a los candidatos y a tener mejores prospectos, porque “HermanPRO puede entrevistar a diez o 20 personas al mismo tiempo, ellos no”.

Tras el escándalo, la compañía optó por no utilizar el mismo sistema de AI. De forma similar, investigadores de Northeastern University, University of California y Upturn detectaron que los prejuicios en los algoritmos no solo suceden dentro de los procesos de selección, sino desde la manera en que ofertas laborales o anuncios de empleos digitales son entregados a grupos, géneros o razas específicos aunque la posición sea indistinta.

Ante la pregunta de los mecanismos de control que HermanPro tiene para evitar prejuicios por los perfiles de ciertos candidatos, donde el riesgo no es menor, pues en el pasado se ha demostrado que la programación detrás de estas herramientas puede ser prejuiciosa, García explica que en el caso de esta herramienta los prejuicios están descartados dado que el sistema no mira al candidato, sino el lenguaje o palabras que usa.

“Lo que revisa el algoritmo son patrones de respuesta, uso de palabras, verbos o adjetivos, no a la persona” y añade que: “el sistema incluso ayuda a eliminar sesgos durante los procesos de contratación que sí existen pero que son provocados por los seres humanos”. 

“Te puedo asegurar que para un reclutador, por más que queremos que no impacte, no es el mismo interés que vas a tener con tu primera entrevista del día o del proceso, que con la entrevista número diez. Hay un desgaste natural que pone en desventaja a ciertos candidatos”, dice Jorge Rosas, exdirector global de diversidad, inclusión y bienestar laboral de The Walt Disney Company y actual director general de WeWow.

En México, según García, además de firmas como WeWow, la herramienta ya es utilizada por Deacero, Teleperformance, Laboratorios Mayoli Splinder, Cinépolis, Telat y Lactalis.

”Tenemos el objetivo de reducir el desempleo en el mundo, hacer eso de forma manual es imposible tengo la oportunidad de abrir esto a más candidatos y a encontrar candidatos que serán más felices en el trabajo. Si tienes un buen candidato no te va a renunciar y será un ahorro para la empresa y el candidato”, dice García.

FUENTE.FORBES MEXICO

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *