El costo invisible de la IA
A medida que la IA entra en los procesos de decisión empresarial, aparece una forma elegante de equivocarse que las organizaciones aún no han aprendido a detectar. No es el error técnico del modelo, ni el error obvio que un usuario atento detecta y corrige. Es algo más sutil: el momento en que un ejecutivo lee la respuesta de un asistente de IA, la valida, y se la apropia. No verificó. No contrastó. No la sometió a la prueba que habría aplicado a una recomendación humana. Y, sin embargo, quedó convencido de que su decisión era correcta.
Un trabajo reciente de Steven Shaw y Gideon Nave, de Wharton, pone número a este fenómeno. En tres experimentos con 1.372 participantes y casi diez mil ensayos, los autores midieron qué ocurre cuando un asistente de inteligencia artificial entrega respuestas a problemas de razonamiento, manipulando deliberadamente —mediante instrucciones ocultas— si la respuesta es correcta o errónea. El hallazgo central es incómodo. Cuando los participantes consultaban al asistente y éste se equivocaba, lo seguían en cuatro de cada cinco ocasiones. La precisión humana, que en condiciones normales rondaba el 46%, caía al 31% en presencia de una IA defectuosa, por debajo de quienes resolvían el mismo problema sin asistencia alguna. La confianza, en cambio, subía once puntos. Tener acceso a un asistente hacía que la gente se sintiera más segura, incluso cuando éste entregara respuestas erróneas.
Delegación cognitiva versus rendición cognitiva
Los autores llaman a este fenómeno rendición cognitiva, y lo distinguen con cuidado de algo más antiguo y más benigno: la delegación cognitiva (cognitive offloading), un concepto que la psicología cognitiva conoce desde hace una década. Usar una calculadora, un sistema de navegación o una hoja de cálculo es delegación cognitiva: el usuario decide qué delegar, mantiene el control sobre la tarea, verifica el resultado, y conserva la capacidad de intervenir. La rendición cognitiva opera distinto: el usuario no delega una tarea, delega el juicio mismo. No usa la IA como instrumento, sino como sustituto. La respuesta del modelo llega con tal fluidez y aparente autoridad que el umbral crítico desaparece —la pregunta deja de ser "¿es correcto?" y pasa a ser "¿por qué dudaría?".
La aritmética falsa del caso de negocio
Esta distinción importa para cualquier empresa que esté integrando IA en sus procesos de decisión. Los casos de negocio de IA asumen una aritmética simple: si el modelo acierta el 92% de las veces, las decisiones mejoran un 92%. La aritmética es falsa: descansa sobre un supuesto rara vez escrito pero siempre presente —que el 8% de errores será capturado por el operador humano que supervisa el sistema. Esa es la promesa implícita de la "validación humana" que acompaña a toda implementación responsable de IA. Los datos del estudio de Wharton sugieren que la promesa no se cumple. Cuando el operador entra en modo de rendición cognitiva, valida la respuesta errónea como propia, y el error se introduce en la organización. Lo que era un fallo técnico interno se convierte en una decisión tomada, una acción ejecutada, un resultado real con efectos sobre el cliente, el inventario, el personal o el balance. La IA defectuosa no se compensa con juicio humano; lo erosiona.
La asimetría que decide quién se rinde
Hay una asimetría adicional que merece atención. Los autores identificaron dos perfiles frente a la IA: los usuarios intensivos y los independientes. Lo que distinguía a los primeros no era menor inteligencia —los puntajes eran similares entre ambos grupos— sino menor necesidad de cognición: la disposición a involucrarse en tareas mentales exigentes por gusto o hábito. La traducción organizacional es directa. La adopción intensiva de IA dentro de una empresa no será uniforme: se concentrará entre quienes ya estaban menos inclinados al esfuerzo deliberativo. El efecto agregado es perverso. Los empleados que más necesitarían el escrutinio crítico para tomar buenas decisiones son justamente los que menos lo ejercerán cuando dispongan de un asistente.
La IA es un activo, no un software
Lo más importante no es diagnosticar el problema sino preguntarse qué puede hacer una empresa para mitigarlo. La respuesta no pasa por frenar la adopción de IA, ni por agregar una capa de comités de revisión que ralentice todo proyecto. Pasa por algo más estructural.
La mayoría de las organizaciones trata a la IA como software tradicional: se desarrolla, se instala, se mantiene mediante actualizaciones de versión y soporte de infraestructura. Cuando algo falla, se asume que es un problema técnico que TI resolverá. Ese supuesto es insuficiente. Un sistema de IA en producción no es software: es un equipo más de la organización. Como cualquier equipo, exige supervisión del desempeño, capacitación del operador humano que lo acompaña, y un responsable con nombre y apellido. La analogía útil no es con un sistema de información, sino con un activo industrial: período de puesta en marcha, mantenimiento preventivo, indicadores de salud, mantenimiento predictivo del desgaste y, sobre todo, mantenimiento del juicio humano que lo supervisa.
La mayoría de las organizaciones cumple solo con la mitad técnica del mantenimiento. Parches, actualizaciones, monitoreo de tiempo de respuesta. La otra mitad —medir el desempeño real del modelo y mantener entrenado al operador humano que lo supervisa— queda sin atender. El sistema parece funcionar perfectamente desde la perspectiva de TI mientras el modelo se degrada y el operador pierde, en paralelo, la capacidad de detectarlo. La empresa cree estar manteniendo el sistema; en realidad acumula un deterioro doble que sus indicadores no capturan.
Seis frentes de mitigación
El documento completo desarrolla seis recomendaciones para gobernar la rendición cognitiva en proyectos de IA: clasificación previa de cada caso de uso por zona de riesgo (A/B/C), corrección del modelo financiero del proyecto para incorporar tasa de rendición y degradación del juicio, corrección de los indicadores de éxito (medir corrección humana, no adopción), alineación de los incentivos del operador, asignación de roles dedicados a cuestionar al modelo, y conservación de la capacidad de operar sin el sistema.
Conclusión
Este diagnóstico no es una advertencia contra la IA, sino contra usarla sin juicio crítico. El costo más serio de la integración de IA en los procesos empresariales no es el costo visible de la implementación, ni el riesgo regulatorio, ni siquiera el riesgo técnico de fallo del modelo. Es el costo invisible de la atrofia del juicio crítico en las personas que toman decisiones. Ese costo no aparece en ningún tablero, no se factura en ningún cierre trimestral, y se acumula sin intereses visibles hasta que la organización descubre, en el peor momento posible, que ya no recuerda cómo decidir sin la máquina.
La pregunta para el directorio, el comité ejecutivo y el responsable de transformación digital ya no es si adoptar IA. Es cómo hacerlo preservando el juicio crítico que mantiene la decisión donde corresponde: en quien rinde cuentas por ella. Ese juicio no se conserva solo: hay que diseñar el proceso que lo protege.
Documento completo con las seis recomendaciones detalladas, referencias al estudio de Wharton (Shaw & Nave, 2026), al concepto de cognitive offloading (Risko & Gilbert, 2016) y al estudio de The Lancet Gastroenterology sobre deskilling de endoscopistas (Budzyń et al., 2025), disponible para descarga abajo.