top of page

¿Está discriminando tu bot sin que lo sepas? ¡Cuidado con los sesgos en los Chatbots!

  • Foto del escritor: Dunia Castro
    Dunia Castro
  • 3 jul
  • 2 Min. de lectura

Los sesgos ocultos en la inteligencia artificial para reclutamiento

Resumen:La inteligencia artificial puede ayudarte a contratar más rápido, pero también puede discriminar sin que te des cuenta. En este blog te cuento el caso real de una empresa que fue demandada por un bot sesgado, por qué pasa esto y cómo evitarlo desde tus procesos de reclutamiento. Spoiler: tu ATS, tus prompts y tu chatbot también pueden ser parte del problema.


Era el bot perfecto… hasta que lo fue demasiado

En 2023, una startup tecnológica en EE.UU. implementó un sistema de IA para filtrar currículums. Prometía eficiencia, reducción de sesgos humanos y agilidad. Pero tres meses después, notaron algo alarmante: 0% de candidatas mujeres en los shortlist finales para roles técnicos.

Pensaron que era coincidencia. Revisaron. No lo era.

El sistema se había entrenado con datos de los últimos 5 años… de una empresa con cultura hiper masculina y tech bro. Sin quererlo, la IA aprendió a preferir perfiles “masculinos”: más experiencia en GitHub, lenguaje directo, sin pausas laborales.

El resultado: un bot que filtraba en automático… y discriminaba sin que nadie lo programara para hacerlo.


¿Qué son los sesgos en los chatbots de reclutamiento?

Un sesgo es una desviación sistemática en el procesamiento de datos.Y cuando lo trasladas a una IA, se convierte en discriminación algorítmica.

En reclutamiento, los sesgos más comunes son:

  • De género: Prioriza a hombres si los datos de entrenamiento lo hacen.

  • Edad: Elimina perfiles mayores de 45 si nota tendencias previas.

  • Estudios: Favorece ciertas universidades.

  • Raza o idioma: Discrimina por nombres o acentos (sí, ¡hasta los bots de voz lo hacen!).

Y lo peor: tú puedes estar usando un bot así sin saberlo.


Chatbots sin sesgos

¿Cómo se cuelan los sesgos en los chatbots de reclutamiento?

  • Entrenamiento en datos históricos sesgados

  • Falta de supervisión humana en prompts o parámetros

  • Automatización ciega sin retroalimentación del equipo de RRHH

  • No auditar los modelos o resultados

Es decir: por confiarle TODO al bot, puedes acabar reforzando desigualdades, no reduciéndolas.


¿Y cómo debes tener cuidado con los sesgos en los chatbots?


Aquí van 4 claves:

  1. Revisa los datos con los que entrenas tu IA¿Estás usando perfiles históricos sesgados? ¡Corrige ya!

  2. Diversifica tus fuentes de talentoNo te quedes solo con LinkedIn o plataformas tradicionales.

  3. Ajusta tus prompts o filtros con enfoque DEIUsa lenguaje neutro y no excluyas perfiles con trayectorias no lineales.

  4. Capacita a tu equipo en auditoría algorítmicaEl reclutamiento moderno necesita criterio humano… con mente crítica y herramientas actualizadas.


El futuro de RRHH no es solo automático, es ético

No se trata de tener miedo a la IA. Se trata de hacerla tu aliada con conciencia y de tener cuidado con los sesgos en los chatbots. Porque la innovación sin ética es solo tecnología rápida… que puede ir en la dirección equivocada.


🎧ESCUCHA LA OPINIÓN DE NIA, NUESTRA IA EXPERTA EN RRHH



🎯 ¿Te gustaría aprender a identificar sesgos en tu propio proceso?

¿Quieres diseñar bots éticos y eficientes para reclutar?



🚀 En el Bootcamp Talent Boost IA te enseñamos a construir procesos de selección automatizados, sin sacrificar inclusión ni humanidad.

Incluye:

✅ Reingeniería de procesos✅ Bots inteligentes con enfoque DEI✅ Auditoría de sesgos con IA✅ Casos reales y herramientas prácticas. ¡Únete aquí!

Comments


Únete al club

Suscríbete al blog y conviertete en un súper Talenter!

Gracias por suscribirte

bottom of page