• USA
  • Brazil
  • Russia
  • France
  • Germany
  • China
  • Korea
  • Japan
 
x

RSS Newsfeeds

See all RSS Newsfeeds

Aug 10, 2018 11:06 AM ET

Sujeto a los Términos de uso.

Inteligencia artificial viene para la contratación, y podría no ser tan malo. Incluso con todos sus problemas, AI es un paso del proceso de reclutamiento notoriamente sesgado.

iCrowdNewswire - Aug 10, 2018

Inteligencia artificial promete hacer contratando una utopía imparcial.

Sin duda hay un montón de espacio para mejorar. Referencias de empleados, un proceso que tiende a dejar grupos subrepresentados hacia fuera, todavía hacen un volumen de contrataciones de las empresas. Los reclutadores y gerentes de contratación también traen sus propios prejuicios en el proceso, los estudios han encontrado, a menudo eligiendo personas con el “derecho” nombres y antecedentes educativos.

A través de la tubería, la falta de empresas racial y la diversidad de género, con las filas de personas insuficientemente reducción en los niveles más altos de la escalera corporativa. Menos del 5 por ciento de directores ejecutivos en las compañías Fortune 500 son mujeres, y que el número se reducirá más lejos en octubre cuando CEO de Pepsi, Indra Nooyi pasos hacia abajo. La diversidad racial entre tableros Fortune 500 es casi tan lúgubres, como cuatro de las cinco nuevas personas nombradas a los tableros en el año 2016 eran blanco. Hay solamente tres CEOs negro en el mismo grupo.

“Identificación de candidatos de alto potencial es muy subjetiva,” dijo Alan Todd, CEO de este, una plataforma tecnológica para el desarrollo de liderazgo. “Selección de las personas que les gusta basado en prejuicios inconscientes”.

AI los defensores argumentan que la tecnología puede eliminar algunos de estos sesgos. En lugar de confiar en los sentimientos de las personas para tomar decisiones de contratación, empresas como Entelo y Stella.ai utilizan detectar que los conocimientos necesarios para ciertos puestos de trabajo de aprendizaje de máquina. El AI luego coincide con los candidatos que tienen esas habilidades con posiciones abiertas. Las empresas afirman no sólo para encontrar los mejores candidatos, sino también para identificar aquellos que pueden han pasado previamente no reconocido en el proceso tradicional.

Algoritmo de Stella sólo evalúa a los candidatos basados en competencias, por ejemplo, dijo el fundador Rich Joffe. “El algoritmo sólo se permite para que coincida con base en los datos que le digas a mirar. Sólo ha permitido mirar habilidades, sólo ha permitido mirar a las industrias, sólo ha permitido mirar niveles de empresas”. Que limita el sesgo, dijo.

Entelo publicó hoy imparcial modo de abastecimiento, una herramienta que anonimiza más contratación. El software permite a los reclutadores para ocultar nombres, fotos, escuela, espacios de empleo y marcadores de la edad de una persona, así como para sustituir los pronombres de género específicos, todos en el servicio de reducción de diversas formas de discriminación.

AI también se utiliza para ayudar a desarrollar el talento interno. Este ha formado una alianza con la Universidad de Michigan Ross School of Business para crear un curso en línea de 20 semanas que utiliza identificar a empleados de alto potencial de aprendizaje de máquina. Los clasificados más alto no son generalmente los individuos que ya estaban en la pista de promoción, dijo Todd, y a menudo exhiben cualidades tales como la introversión que son pasados por alto durante el proceso de contratación.

Tablero de aprendizaje de alto impacto para ejecutivos
Este

“Humana toma de decisiones es bastante horrible,” dijo Solón Borocas, profesor asistente en el Departamento de Ciencias de la información de Cornell que estudia la equidad en el aprendizaje de máquina. Pero no debemos sobreestimar la neutralidad de la tecnología, ya sea, advirtió.

De Borocas investigación ha encontrado que el aprender de máquina en la contratación, mucho como su uso en el reconocimiento facial, puede resultar en discriminación involuntaria. Algoritmos pueden llevar los sesgos implícitos de quienes les había programado. O puede ser sesgados para favorecer ciertas cualidades y habilidades que se exhiben abrumadoramente entre un conjunto dado de datos. “Si los ejemplos que utiliza para entrenar el sistema no incluyen ciertos tipos de personas, entonces el modelo que se presentan podría ser realmente malo en la evaluación de las personas,” explicó Borocas.

No todos los algoritmos son iguales, y hay desacuerdo entre la comunidad de AI que algoritmos tienen el potencial para hacer la contratación más justa del proceso.

Un tipo de aprendizaje automático se basa en programadores para decidir que cualidades deben ser prioridad en los candidatos. Estos algoritmos “supervisados” se pueden dirigir para buscar personas que fueron a las universidades de la Ivy League o que exhiben ciertas cualidades, como la extroversión.

Algoritmos “No supervisados” determinan por cuenta propia los datos que se priorizan. La máquina hace sus propias deducciones basadas en cualidades y habilidades para determinarlas necesarias por futuros empleados empleados existentes. Si esa muestra incluye sólo un grupo homogéneo de personas, no aprende a contratar diferentes tipos de personas — incluso si puede hacer bien en el trabajo.

ligence-is-Coming-for-Hiring-and-It-Might-not-be-that-Bad”} & pageViewId=2018-08-10-19-54-22-321-UMR43iuAbPejeGee-32003bd66c6a2dd3be0f67b1567fb947 & visitId = v-2018-08-10-19-54-22-327-cjB3a36H6cr65YFq-32003bd66c6a2dd3be0f67b1567fb947 & userProvider = publisher_user_ref & userToken = & customCookies = {} & hasLoginRequiredCallback = false & singleContainer = [objeto HTMLElement] & ancho = 170 & _qh = 3057093095″ nombre =”oferta-0-jY5aj”width =”300″height =”150″frameborder =”0″desplazamiento no =””-mce-fragmento de datos =”1″>

Las empresas pueden tomar medidas para mitigar estas formas de sesgo programada. Pymetrics, una IA contratación de arranque, tiene programadores auditar su algoritmo para ver si su preferencia dando a cualquier género o grupo étnico. Software que considera c.p., que se correlaciona fuertemente con la raza, será muy probablemente tienen un sesgo contra candidatos negros, por ejemplo. Una auditoría puede atrapar estos prejuicios y permite a los programadores corregirlos.

Stella también tiene los seres humanos, monitoreo de la calidad de la IA. “Mientras que ningún algoritmo nunca se garantiza que sea infalible, creo que es mucho mejor que los seres humanos,” dijo el fundador Joffe.

Boracas está de acuerdo en que la contratación con la ayuda de la IA es mejor que el status quo. Las empresas más responsables, sin embargo, admiten que totalmente no pueden eliminar el sesgo y abordar frontalmente. “No debemos pensar de él como una bala de plata”, advirtió.

Via iCrowdNewswire
Tags: News
View Related News >