Este es un artículo traducido del inglés. El original está publicado en la página de Hogan Assessments y puedes acceder a él haciendo clicl aquí

La inteligencia artificial (IA) es probablemente más antigua de lo que piensas. La IA existe como concepto desde hace más de 70 años, y los primeros modelos se construyeron a mediados de la década de 1950. Aunque la tecnología no es completamente nueva, está en el centro de atención pública en la actualidad, especialmente en lo que respecta al uso de la IA en pruebas de personalidad y otras aplicaciones de gestión del talento. Hemos elaborado esta guía para responder algunas de tus preguntas más apremiantes sobre la IA, las pruebas de personalidad y la gestión del talento.

Ten en cuenta que esta guía es como una instantánea. Muestra lo que es la IA ahora, cómo se usa en las evaluaciones laborales y cuáles son las implicaciones para las organizaciones en un momento específico. El panorama está evolucionando rápidamente, a veces hora a hora, lo que hace que la tecnología esté sujeta a cambios significativos y repentinos. En consecuencia, en esta guía, hemos enfatizado ideas y estrategias para ayudar a los tomadores de decisiones a navegar por las evaluaciones de personalidad en la era de la IA.

¿Qué es la inteligencia artificial? La inteligencia artificial, o IA, se refiere a un sistema informático que imita el pensamiento humano. Ejemplos de tareas que requieren inteligencia similar a la humana incluyen la percepción, la comprensión del lenguaje, la síntesis de información, la toma de inferencias, la resolución de problemas y la toma de decisiones. Hacer predicciones es otra forma en que la IA puede imitar los procesos de pensamiento humano.

Debemos revisar algunos términos esenciales relacionados con la inteligencia artificial:

  • Inteligencia artificial o IA: Un sistema informático que automatiza los procesos de pensamiento humano.
  • Algoritmo: Un conjunto de instrucciones paso a paso para que un sistema informático resuelva un problema o complete una tarea.
  • Aprendizaje automático: Un tipo de inteligencia artificial en el que los sistemas informáticos aprenden de datos y mejoran su rendimiento sin ser programados explícitamente.
  • Procesamiento del lenguaje natural: Una tecnología que permite a los sistemas informáticos entender y usar el lenguaje humano.
  • Modelo de lenguaje grande: Un tipo de tecnología de IA que utiliza el procesamiento del lenguaje natural para producir contenido basado en una gran cantidad de datos. Por ejemplo, ChatGPT está alimentado por un modelo de lenguaje grande.

Cuando muchas personas piensan en la IA, probablemente imaginen computadoras o robots que pueden hablar y actuar como humanos. La mayoría de los sistemas de IA hoy en día son aplicaciones informáticas. Se diferencian de otros tipos de programas o software debido a la forma en que completan tareas. Los sistemas modernos de IA aprenden no mediante programación directa, sino a través de la experiencia de ensayo y error, una de las formas en que los humanos aprenden. En otras palabras, el aprendizaje automático es el intento de utilizar modelado estadístico complejo para permitir que la computadora aprenda de sus errores.

Sigue leyendo para obtener más información sobre el uso de la IA en la gestión del talento y, específicamente, en las pruebas de personalidad.

¿Puede la IA predecir la personalidad? Sí, la IA puede predecir la personalidad. Por supuesto, esto depende de lo que entendamos por “personalidad”.

“Si pensamos en la personalidad como nuestra biología central o nuestra reputación, la IA puede predecir eso hasta cierto punto”, dijo Ryne Sherman, PhD, director científico en Hogan. “Pero no tan fuertemente como puede predecir las cosas que decimos sobre nosotros mismos”, agregó. La IA puede analizar diversas fuentes de datos, como texto, habla y actividad en redes sociales, para calcular cómo alguien podría responder a preguntas en una evaluación de personalidad. Entonces, hasta cierto punto, la IA puede predecir las puntuaciones que las personas probablemente obtendrán en una evaluación de personalidad.

Un ejemplo familiar de la capacidad predictiva de la IA son los anuncios dirigidos. Si alguien busca equipo de camping y pide consejos a amigos sobre lugares para comer en Denver, no es un gran salto lógico asumir que están planeando un viaje de camping a Colorado. Un sistema de IA podría mostrarles anuncios de tiendas de campaña de gran altitud o zapatos de senderismo adecuados para terrenos montañosos.

De manera similar, si una IA tiene datos personales sobre alguien, sus algoritmos de aprendizaje automático pueden analizar esos datos para predecir la personalidad. Investigaciones recientes mostraron que cuando un chatbot de IA infería puntuaciones de personalidad basadas en el texto de entrevistas en línea, era en general confiable. La forma más fácil de conocer las puntuaciones de la evaluación de personalidad de alguien, sin embargo, es pedirles que realicen la evaluación de personalidad.

“La tecnología impulsa muchas tendencias en nuestra industria, algunas de las cuales tienen más permanencia que otras”, dijo Allison Howell, MS, vicepresidenta de innovación de mercado en Hogan. “El futuro de la IA es increíblemente emocionante, pero es importante recordar que la tecnología aún está en pañales. A medida que exploramos posibles aplicaciones, nuestra dedicación a la calidad y a la ciencia sólida sigue siendo una prioridad principal”.

Para tener éxito en la predicción, cualquier IA necesita aprender de los datos correctos y también necesita retroalimentación sobre si ha hecho las asociaciones correctas. Si una IA hace una predicción basada en datos incorrectos, la predicción no será precisa. Es por eso que la evaluación de la personalidad tradicional debería ser solo uno de muchos factores que los humanos deben considerar al tomar decisiones de talento.

¿Cómo se usa la inteligencia artificial en las pruebas de personalidad? En psicología de la personalidad, la inteligencia artificial puede utilizarse para analizar respuestas a preguntas, identificar patrones en datos y hacer predicciones sobre características de la personalidad. Si debería hacerlo plantea preguntas sobre ética y regulaciones, que abordaremos más adelante en esta guía.

La IA puede utilizar datos tanto de evaluaciones de personalidad como de otras fuentes, como las redes sociales o el historial de búsqueda en la web de una persona, para predecir un resultado (por ejemplo, rendimiento laboral). Algunos programas de IA incluso pueden analizar audio y video para hacer inferencias sobre la personalidad de un individuo. Sin embargo, cuando las personas toman decisiones de contratación basadas en entrevistas de IA o escaneo facial de IA, es probable que haya sesgo.

Uno de los usos de la IA en las pruebas de personalidad es ayudar a redactar preguntas o ítems para la evaluación. Las compañías de evaluación podrían utilizar la IA para redactar preguntas o declaraciones de acuerdo o desacuerdo para identificar cuánto de la cualidad de “responsabilidad” es probable que alguien demuestre, por ejemplo. La precisión de las salidas de la IA, en este ejemplo, los ítems de evaluación o las predicciones del rendimiento laboral, depende de los datos que utiliza como entrada y de cuántos ajustes a sus algoritmos ha aprendido a realizar.

¿Las evaluaciones de personalidad de Hogan utilizan inteligencia artificial? No, Hogan no utiliza IA en las pruebas de personalidad. “Nuestras evaluaciones se construyen basadas en teorías psicométricas tradicionales que han sido rigurosamente investigadas y probadas”, explicó Weiwen Nie, PhD, consultor de investigación. “Esta es la razón por la que la forma en que construimos nuestras evaluaciones es el estándar de oro en el campo de la investigación de la personalidad”.

En última instancia, nuestro objetivo al medir la personalidad no es solo proporcionar información sobre individuos, sino también predecir su rendimiento laboral. Hogan tiene décadas de evidencia científica que muestra cómo logramos estos objetivos.

Si una organización afirma utilizar IA en las pruebas de personalidad, pero la IA no utiliza algoritmos entrenados o no se adhiere a una teoría psicométrica confiable, los resultados no son interpretables. Incluso si los resultados de la evaluación describen características de personalidad, nadie puede estar seguro de si son justos o incluso relevantes si el algoritmo utilizado para generarlos no es objetivo. Esto es lo que se conoce como el problema de la caja negra. Cuando no sabemos qué factores impulsan las predicciones de una evaluación, los resultados no son útiles para el desarrollo del talento y son poco éticos para su uso en la adquisición de talento. (Más sobre eso más adelante).

Ahora bien, Hogan sí aprovecha algunos beneficios de usar IA en procesos analíticos de talento. Utilizamos el procesamiento del lenguaje natural (NLP) para clasificar descripciones de trabajo en familias de trabajos. El procesamiento del lenguaje natural también nos ayuda a codificar los datos de expertos en la materia cuando realizamos análisis de trabajos. En cada caso, nuestros expertos revisan los resultados y los aprueban. La IA nos ayuda a automatizar estos procesos para crear el mejor perfil de personalidad para un trabajo específico. El uso de la IA nos ahorra tiempo y recursos y, en algunos casos, incluso mejora nuestros análisis.

Creemos que la IA tiene el potencial para usos más beneficiosos, a los cuales estamos comprometidos a explorar de manera continua. Sin embargo, nuestras evaluaciones en sí mismas siguen basándose en teorías psicométricas tradicionales.

¿Es posible “hacer trampa” en las pruebas de personalidad usando IA? La respuesta es sí, pero hacerlo no es ventajoso. Nuestra investigación muestra que los sistemas de IA suelen responder a los ítems de evaluación de personalidad con patrones de respuestas socialmente deseables, independientemente del contexto. Por ejemplo, incluso si inducimos a la IA a responder como si estuviera solicitando un trabajo como analista financiero o vendedor, responderá al ítem de la misma manera.

Las respuestas obvias hacen que sea fácil detectar los resultados de las pruebas de IA. De hecho, Hogan incluso ha desarrollado una herramienta que puede determinar si un participante en la evaluación utilizó ChatGPT para completar las evaluaciones de personalidad de Hogan. Realizamos un estudio para evaluar la eficacia de la herramienta en la detección de trampas utilizando 100 conjuntos de resultados de evaluaciones que simulaban los patrones de respuesta de ChatGPT. Para asegurarnos de que la herramienta no señalara falsamente respuestas genuinas, también probamos la herramienta en resultados de evaluaciones recopiladas de 512,084 participantes antes de la aparición de ChatGPT. ¿Los resultados? La herramienta de Hogan detectó el 100 por ciento de las respuestas de ChatGPT y no señaló el 0 por ciento de las respuestas genuinas.

Además de ser fácilmente detectable, pedir ayuda a un programa informático sin personalidad para completar una evaluación de personalidad es un enfoque equivocado. Este tipo de comportamiento deshonesto por parte de los candidatos es probable que sea detectable durante otras etapas del proceso de contratación también.

¿Cómo puede la IA mejorar los procesos de gestión del talento? Los beneficios de utilizar la inteligencia artificial para mejorar los procesos de gestión del talento son muchos. Las aplicaciones prácticas de la IA incluyen informar la toma de decisiones en áreas como la contratación, incorporación, gestión del rendimiento, aprendizaje y desarrollo, y planificación de sucesiones. Puede resumir texto, mantener registros, comparar datos y ayudar con la investigación, organización y redacción de borradores.

“La fortaleza de la IA radica en analizar una gran cantidad de datos de manera eficiente y hacer predicciones basadas en ese análisis”, dijo Chase Winterberg, JD, PhD, director del Instituto de Investigación de Hogan. Mencionó que una IA podría ayudar a gestionar un gran volumen de solicitantes priorizando candidatos, permitiendo que los humanos realicen un trabajo más significativo en lugar de tareas tediosas y repetitivas. De manera similar, los chatbots de IA podrían manejar consultas rutinarias de recursos humanos, mientras redirigen preguntas más matizadas a los humanos. (Ten en cuenta que existen riesgos al utilizar datos de IA en la toma de decisiones de talento, pero los mencionaremos un poco más adelante).

En la adquisición de talento, la IA puede ayudar a determinar qué competencias son más relevantes para una descripción de trabajo. También puede ayudar a identificar qué características de personalidad son más importantes para el rendimiento en ese trabajo.

¿Cuáles son los riesgos de utilizar la inteligencia artificial en la adquisición y desarrollo de talento? Los riesgos de utilizar la inteligencia artificial en la adquisición de talento incluyen tomar decisiones basadas en información generada por la IA que potencialmente puede ser sesgada. Las decisiones impulsadas por la IA podrían reforzar inadvertidamente sesgos existentes o crear nuevos, lo que lleva a un trato injusto hacia ciertos grupos de candidatos. Por ejemplo, la IA podría asumir incorrectamente que características protegidas, nivel educativo o experiencia laboral previa son necesarios para desempeñarse bien en un trabajo, excluyendo a candidatos que no coinciden con sus suposiciones.

“La utilización efectiva de la IA en la adquisición de talento requiere una comprensión profunda de los datos que se están utilizando”, dijo Alise Dabdoub, PhD, directora de innovación de productos de Hogan. “Los métodos estadísticos avanzados por sí solos no pueden compensar un diseño de investigación inadecuado. Es crucial tener un conocimiento integral de los datos para evitar posibles riesgos y sesgos en la toma de decisiones”.

Los riesgos de utilizar la inteligencia artificial en el desarrollo del talento incluyen la falta de inclusividad y accesibilidad. Si una organización utiliza la IA para el coaching, por ejemplo, la IA podría sugerir que una persona perteneciente a un grupo históricamente marginado se comporte como alguien perteneciente a un grupo con más privilegios históricos. No solo no es la mejor opción para ellos, sino que también perpetúa sesgos sistémicos. Los sistemas de IA tienen un proceso algorítmico que utilizan para realizar tareas, pero ese proceso no siempre es visible. Sin una forma de verificar los algoritmos, no podemos estar seguros de cómo está utilizando sus datos un sistema de IA.

El uso de la IA en decisiones relacionadas con las personas es percibido negativamente por muchos trabajadores en los Estados Unidos. El 71 por ciento de los adultos estadounidenses se opone al uso de la IA por parte de los empleadores para tomar decisiones finales de contratación. Incluso para revisar solicitudes de empleo, el 41 por ciento se opone al uso de la IA por parte de los empleadores. “Existe un riesgo de desinformación, confusión y dificultad para tomar decisiones informadas”, dijo el Dr. Winterberg. Los profesionales de la gestión del talento deben ser muy selectivos al usar la IA como ayuda para la toma de decisiones.

¿Cómo pueden los profesionales de la gestión del talento mitigar el sesgo y prevenir el impacto adverso al utilizar la inteligencia artificial? Para mitigar el sesgo y prevenir el impacto adverso al utilizar la inteligencia artificial, los profesionales del talento pueden centrarse en la calidad de los datos y mantener la transparencia.

Enfocarse en la calidad de los datos puede ayudar a mitigar el sesgo y prevenir el impacto adverso en los sistemas de inteligencia artificial. Si los datos son de baja calidad o insuficientemente diversos, los sistemas de IA producirán resultados de baja calidad o potencialmente sesgados. “Queremos considerar solo variables que sean relevantes para el trabajo o importantes para tener éxito en el trabajo”, dijo el Dr. Winterberg.

Una forma de saber si los datos relevantes para el trabajo son de alta calidad es probar o auditar las salidas del sistema de IA. Las pruebas rigurosas de IA pueden identificar oportunidades para mejorar los datos y generar un resultado mejorado. “Básicamente, siempre es necesario auditar los sistemas de IA en busca de posibles sesgos”, dijo el Dr. Sherman.

Mantener la transparencia en el proceso de toma de decisiones mediante sistemas de IA también puede ayudar a mitigar el sesgo y prevenir el impacto adverso. La necesidad de transparencia en cualquier proceso de gestión del talento no es nueva. “La transparencia es la piedra angular para construir la confianza y garantizar prácticas éticas en la adquisición de talento”, dijo la Dra. Dabdoub. “Es imperativo proporcionar evidencia clara de que cualquier sistema de selección es relevante para el trabajo, predictivo del rendimiento y justo”.

¿Cuáles son algunas pautas éticas para utilizar la inteligencia artificial en la toma de decisiones de talento? Las líneas entre lo legal y lo ético no siempre coinciden. “La tecnología de IA puede construirse con un propósito y utilizarse para otros”, señaló el Dr. Sherman. “Estamos en un punto con la IA que es muy similar al momento en que los científicos empezaron a colisionar átomos”. Lo que hace que el uso de la IA para decisiones de talento sea potencialmente éticamente cuestionable es el elemento desconocido. Este es el mencionado problema de la caja negra. En resumen, diferentes tipos de sistemas de IA utilizan algoritmos que son evidentes u ocultos. Si los algoritmos son evidentes, es fácil para los humanos saber cómo la IA hizo su predicción. Si los algoritmos están ocultos (como si estuvieran dentro de una caja negra), no podemos ver los pasos que la IA tomó para llegar a su conclusión. Esto significa que los resultados podrían ser irrelevantes o injustos.

Temas comunes entre la mayoría de las pautas éticas relacionadas con la IA son la relevancia para el trabajo y la transparencia. Es importante asegurarse de que los datos que utiliza la IA sean relevantes para el trabajo. “Realmente debe estar relacionado con el rendimiento sin tener resultados negativos para cualquier grupo de personas que pueda tener éxito en el trabajo. Eso resume las implicaciones básicas para los humanos”, dijo el Dr. Winterberg. También es importante que el uso de la IA sea transparente en la documentación y las políticas de privacidad de los datos. En Hogan, aunque nuestras evaluaciones no utilizan IA, proporcionamos transparencia sobre nuestra validez y confiabilidad, nuestra lógica y cómo predecimos el rendimiento laboral. Podemos mostrar evidencia de todo lo que hacemos.

“El trabajo que hacemos tiene un impacto profundo en la vida de las personas, algo que no podemos tomar a la ligera”, dijo Howell. “Nuestros clientes confían en nosotros porque nuestra ciencia es de primera clase. La IA puede ayudarnos a servir mejor a nuestros clientes, pero las aplicaciones deben desarrollarse de la manera más ética posible”.

Lo ético al utilizar la IA es dar a conocer cuándo y cómo afecta a las personas. “Las consideraciones éticas en el uso de la IA exigen transparencia al comunicar el impacto en los individuos”, enfatizó el Dr. Dabdoub. “Es crucial hacer público cuándo y cómo las decisiones de la IA afectan a las personas. Mantener informados a los afectados es un aspecto fundamental de la implementación responsable de la IA”.

Colaboradores:

Agradecemos a nuestros colaboradores, enumerados aquí en orden alfabético, por compartir su experiencia.

  • Alise Dabdoub, PhD, es la directora de innovación de productos en Hogan. En Hogan, ha creado un proceso automatizado para llevar a cabo la equivalencia entre idiomas de evaluaciones, ha construido normas y ha realizado análisis de impacto de cambio normativo. Tiene interés en métodos cuantitativos, específicamente en la evaluación de equidad de pruebas e ítems, y en metodología estadística crítica. Obtuvo su doctorado en psicología organizacional industrial de la Universidad de Oklahoma.
  • Allison Howell, MS, es la vicepresidenta de innovación de mercado en Hogan, donde lidera los equipos de marketing y desarrollo de productos. Le apasiona aprovechar la investigación de primera clase de Hogan para resolver problemas reales para los clientes. Tiene una maestría en comunicación científica de la Escuela de Periodismo y Comunicación Masiva de la Universidad de Wisconsin-Madison.
  • Weiwen Nie, PhD, es un consultor de investigación en el equipo de innovaciones de productos en Hogan. Lidera la aplicación de procesos automatizados de análisis de talento mediante procesamiento de lenguaje natural y modelos de aprendizaje automático. En 2023, formó parte de un equipo que ganó una competencia elite de aprendizaje automático en la conferencia anual de la Sociedad de Psicología Industrial y Organizacional. Tiene un doctorado en psicología industrial-organizacional de Virginia Tech.
  • Ryne Sherman, PhD, es el director de ciencia en Hogan. Es un experto en evaluación de personalidad y análisis de datos, incluido el uso de inteligencia artificial y aprendizaje automático con evaluación de personalidad. El Dr. Sherman ha escrito más de 50 artículos científicos y es el copresentador del popular podcast The Science of Personality. Obtuvo su doctorado en psicología de la personalidad y social de la Universidad de California, Riverside.
  • Chase Winterberg, JD, PhD, es el director del Instituto de Investigación Hogan. En este rol, coordina y comunica la investigación para refinar la base teórica y comprensión de las mejores prácticas para implementar las soluciones de Hogan y ayudar a resolver problemas organizacionales. Tiene un JD de la Facultad de Derecho de la Universidad de Tulsa y un doctorado en psicología industrial-organizacional de la Universidad de Tulsa.