Por qué seguimos confiando en una IA que ya sabemos que está sesgada

Cómo el sesgo algorítmico afecta decisiones en educación y negocios, y por qué no basta con saber que existe.
Tabla de Contenidos

Introducción

La frase “la IA está sesgada” ya no sorprende a nadie. Está en informes, titulares, capacitaciones, etc,. Incluso muchos de nosotros empezamos a investigar sobre esto, porque nadie quiere ¨quemarse¨y seguir ciegamente lo que dice la IA, ¿no? Sino miren cómo fue creciendo este gráfico 🙂

Y sin embargo, ahí estamos: directivos, docentes, líderes, tomadores de decisiones, creyendo lo que la IA nos dice. O peor: actuando en consecuencia. El problema no es solo técnico, es cognitivo. Sabemos que hay sesgo, pero preferimos creer que no afecta lo que nos toca.

Este blog no viene a repetir que los modelos están entrenados con datos históricos ni que los sistemas reflejan los sesgos sociales. Eso ya lo sabemos. Viene a cuestionar algo más incómodo: ¿por qué seguimos usando sus respuestas como si fueran verdades neutras? ¿Y qué implica eso en entornos reales, donde una mala predicción se convierte en una mala decisión?

El sesgo no es un bug: es parte del sistema

La literatura más robusta, desde los lineamientos de NIST hasta las investigaciones en fairness, lo confirma: el sesgo no está solo en los datos. Aparece en cada etapa del ciclo de vida: definición del problema, diseño del sistema, selección de proxies, entrenamiento, validación, implementación y uso humano.

Los sesgos pueden ser:

  • Sistémicos: heredados de estructuras históricas o sociales (ej. racismo, desigualdad).

  • Humanos: cognitivos y conductuales (confirmation bias, sunk cost, groupthink).

  • Computacionales: errores de muestreo, amplificación estadística, retroalimentación.

AI-BIAS-SESGOS-IA

El dato que confirma mi intuición: cuando el sesgo se siente como certeza

Un fenómeno particularmente crítico es el sesgo de confirmación amplificado. La IA generativa no solo predice lo que vos querés oír: tiende a coincidir con tu opinión. Este fenómeno se conoce como sycophancy (adulación): los modelos ajustan sus respuestas para agradar al usuario.

Un estudio publicado en ICLR 2024 (“Towards Understanding Sycophancy in Language Models”) demostró que los modelos pueden perder precisión si el usuario sugiere una respuesta incorrecta. En algunos casos, la exactitud cayó hasta un 27%.

Sumale a esto el automation bias: cuando humanos sobre-confiamos en sistemas automatizados, incluso si sabemos que pueden errar. Aparece en principiantes y expertos, y se refuerza con interfaces pulidas o “tonos seguros”.

¿Y qué pasa en los negocios?

En entornos corporativos, el sesgo no es solo una falla ética: es una amenaza operativa. Algunos ejemplos:

1. Optimización que discrimina

Un experimento con anuncios STEM configurados como gender-neutral mostró que fueron vistos un 20% más por hombres. ¿El motivo? Subastas de ads: impresiones femeninas eran más caras, y el algoritmo optimizó por costo. Resultado: sesgo emergente, aunque la intención fuera inclusiva (Lambrecht & Tucker, Management Science).

2. El proxy que falla donde más importa

Un sistema de salud usaba gasto como proxy de necesidad. Como históricamente se gastaba menos en pacientes negros, el algoritmo subestimaba su gravedad. Corregir el modelo habría aumentado el acceso de ese grupo al programa del 17,7% al 46,5% (Obermeyer et al., Science, 2019).

3. Aprendizaje de datos que ya estaban sesgados

El sistema de CVs experimentales de Amazon penalizaba términos asociados a mujeres porque había sido entrenado con datos históricos masculinos. No es solo un problema de lenguaje: es una forma de institucionalizar una mirada.

¿Y en educación?

El impacto es igual o más profundo, porque toca directamente la equidad. Dos casos claves:

1. Proctoring automatizado que marca más a estudiantes de piel oscura

Un estudio (Frontiers in Education) mostró que un sistema de vigilancia automática generaba 6,07 flags por evaluación en estudiantes con piel oscura, versus 1,91 (tono medio) y 1,19 (piel clara).

2. Estandarización automatizada de notas en Reino Unido 

El sistema de Ofqual combinó predicciones docentes con rendimiento histórico. Terminó penalizando a alumnos de escuelas más vulnerables. Aunque luego se revirtió, el caso dejó claro que la automatización educativa sin gobernanza genera inequidad.

¿Por qué seguimos creyéndole?

El problema no es la falta de información. Es la comodidad. Usar IA ahorra esfuerzo, y cuando coincide con lo que creemos, la sensación es de “validación objetiva”. Nos ahorra pensar.

Además, en muchos entornos no hay margen para cuestionar: docentes presionados por tiempo, ejecutivos con deadlines, líderes evaluados por resultados. Así, la IA se vuelve guía silenciosa.

¿Qué podemos hacer?

  1. Revisar los proxies: ¿Qué variable estás usando como “verdad”? ¿Refleja la realidad o la distorsiona?

  2. Desagregar resultados: No alcanza con accuracy promedio. Hay que ver subgrupos. Un 95% de acierto puede esconder un 70% en una minoría.

  3. Exigir documentación: Los datasets deberían tener ficha técnica. ¿De dónde salen? ¿A quién representan?

  4. Incluir humanos en el loop: Automatizar no significa quitar criterio. La supervisión humana no es burocracia, es garantía de contexto.

Conclusión

El sesgo en IA no es un tema de laboratorio. Afecta decisiones reales, todos los días. Y lo más peligroso no es que la IA se equivoque. Es que confirme nuestras creencias y nos haga sentir que pensamos… cuando en realidad solo estamos dejando de hacerlo.

El sesgo más difícil de eliminar no está en los datos. Está en nuestra confianza automática.

Preguntas Frecuentes sobre Reputación de Marca

¿La IA puede ser 100% objetiva?

No. Toda IA refleja sus datos y diseño. La clave no es eliminar el sesgo por completo, sino mitigarlo y entender su impacto.

Sí. Mejor tarde que nunca. Auditar permite identificar riesgos ocultos, ajustar decisiones y prevenir daño a futuro.

Depende de cómo se construyen, con qué datos, y cómo se usan. Dos modelos entrenados con los mismos datos pueden tener resultados distintos si cambian los objetivos o el contexto de uso.

Microsoft Fairlearn y IBM AIF360 son dos toolkits abiertos para evaluar y mitigar sesgos en modelos y datasets.

No se elimina del todo. Se gestiona con prácticas como: documentación de datasets, análisis por subgrupos, validación humana y formación en sesgos.

Usar un indicador indirecto (proxy) para representar algo complejo. Si ese proxy está mal elegido, la IA puede “funcionar bien” pero tomar decisiones erradas.

Es la tendencia de los modelos a adaptar sus respuestas para agradar al usuario, incluso a costa de la verdad.

Share the Post: