Comunidad
Existen organizaciones en las que la adopción de IA se hace al revés: empiezan por la tecnología y terminan preguntándose por qué los equipos no la usan o por qué los resultados no son los esperados. A veces la IA llega como una solución en busca de un problema, sin que nadie haya clarificado primero qué problema están intentando resolver, quién decide cómo se usa, o qué implicaciones tiene para el trabajo que ya funciona.
Cuando las organizaciones adoptan nuevas tecnologías sin clarificar primero el propósito, caen en "el pensamiento inverso": partir de la solución en lugar del problema. Es un enfoque que puede generar implementaciones superficiales que rara vez producen valor sostenible.
La IA no es diferente. De hecho, puede ser peor. A diferencia de otras herramientas empresariales, la IA tiene características que amplifican los riesgos de una adopción no reflexiva: aprende de nuestros datos (incluidos nuestros sesgos), puede automatizar decisiones sin supervisión humana clara, y genera outputs que parecen convincentes incluso cuando son incorrectos o dañinos.
Sin embargo, la presión por "no quedarse atrás" lleva a muchas organizaciones a saltar directamente a pilotos de IA sin haber discutido primero aspectos fundamentales: ¿qué trabajo queremos que la IA haga? ¿Qué trabajo queremos que sigan haciendo los humanos? ¿Cómo sabremos si la IA está funcionando bien? ¿Qué pasa cuando comete errores?
Estas no son preguntas técnicas. Son conversaciones sobre valores, sobre cómo entendemos el trabajo del conocimiento, y sobre qué tipo de organización queremos ser.
La primera conversación que necesitamos tener es brutalmente honesta: ¿por qué estamos considerando IA? Las respuestas habituales ("porque todos lo están haciendo", "porque la competencia ya la usa", "porque puede hacernos más eficientes") son señales de alarma, no razones válidas. Si un equipo usa IA para escribir código más rápido pero ese código no resuelve los problemas correctos, ¿hemos ganado algo? Si automatizamos la generación de documentación que nadie lee, ¿estamos siendo más eficientes o simplemente produciendo más ruido?
Muchas organizaciones pueden confundir actividad con progreso. Adoptar IA sin clarificar el outcome deseado es otra forma de caer en esta trampa. Antes de hablar de herramientas, necesitamos responder:
Si la respuesta a "¿para qué queremos IA?" no es clara y específica, el resto de las conversaciones carecen de sentido. Y si la respuesta real es "porque tenemos presión de arriba" o "porque hay presupuesto disponible", entonces la conversación que necesitamos tener es con quienes están presionando o asignando ese presupuesto, no con la tecnología.
Una vez que hemos clarificado el propósito, surge la pregunta del control: ¿quién tiene voz en las decisiones sobre qué tareas se automatizan con IA y cuáles siguen siendo responsabilidad humana? Esta no es una pregunta técnica ni jerárquica, sino profundamente relacionada con cómo entendemos el trabajo ágil.
Las decisiones sobre cambios tecnológicos que afectan directamente al trabajo de los equipos, pero se toman sin su participación, pueden erosionar la confianza y el compromiso. Cuando la IA se introduce de arriba hacia abajo sin consultar a quienes realmente hacen el trabajo, el mensaje implícito es: "no confiamos en que toméis decisiones inteligentes sobre vuestras propias herramientas".
Pero involucrar a los equipos no significa simplemente "comunicar mejor" las decisiones ya tomadas. Significa genuinamente co-crear los criterios para decidir qué automatizar. Algunas preguntas útiles para esta conversación:
Los equipos empoderados necesitan autonomía para decidir cómo trabajan. La introducción de IA no debería ser una excepción a este principio. Si creemos en equipos autoorganizados, entonces necesitamos confiar en que pueden tomar decisiones inteligentes sobre cuándo y cómo usar IA en su trabajo.
Esto no significa que cada equipo haga lo que quiera sin coordinación. Significa que las políticas organizacionales sobre IA deberían construirse con los equipos, no para los equipos. Y que los criterios para decidir qué automatizar deberían ser explícitos, discutibles y revisables.
Si no sabemos cómo mediremos si la IA está funcionando, entonces estamos adoptando tecnología basándonos en fe, no en evidencia. Y en contextos ágiles, donde iteramos basándonos en feedback, necesitamos claridad sobre qué feedback estamos buscando. Las métricas mal diseñadas pueden generar comportamientos perversos. Si medimos el "éxito" de la IA solo por velocidad (líneas de código generadas, tickets cerrados, tiempo ahorrado), podemos incentivar la producción de outputs de baja calidad que crean más problemas de los que resuelven. Las métricas útiles para evaluar la adopción de IA en equipos ágiles deberían capturar múltiples dimensiones:
Además de definir qué medir, necesitamos acordar cuándo revisar estas métricas y qué haremos si no vemos los resultados esperados. ¿Estamos dispuestos a retirar o reducir el uso de IA si las métricas muestran que no está funcionando? ¿O hemos invertido tanto política y económicamente que daremos marcha atrás será imposible?
Esta conversación sobre métricas no debería esperar a la implementación. Debería ser parte del diseño del piloto. Porque si empezamos sin saber qué estamos buscando, nunca sabremos si lo hemos encontrado.
Todas las herramientas fallan. La IA no es diferente. Pero hay una diferencia crítica entre un error de una hoja de cálculo (que generalmente podemos detectar) y un error de un modelo de lenguaje que genera código o documentación que parece plausible pero es incorrecto. Los expertos humanos desarrollan intuición para detectar cuándo algo "no huele bien". Con IA, esa intuición tarda más en desarrollarse, porque los outputs a menudo son lo suficientemente buenos como para no activar nuestras alarmas.
Los sistemas seguros no son aquellos que intentan eliminar todos los errores (imposible), sino aquellos que son buenos detectando y respondiendo a errores cuando ocurren. Aplicado a IA en contextos ágiles, esto significa que necesitamos conversaciones explícitas sobre:
Esta conversación es incómoda porque nos obliga a reconocer que introducir IA introduce nuevos tipos de riesgos. Pero pretender que esos riesgos no existen no los hace desaparecer, solo hace que seamos peores detectándolos y respondiendo a ellos.
La llegada de IA no significa que ciertas habilidades se vuelven obsoletas, pero sí que el mix de habilidades valiosas cambia. Y los equipos necesitan tiempo y recursos para desarrollar esas nuevas capacidades. Esta conversación es especialmente relevante en organizaciones ágiles que valoran el aprendizaje continuo.
Las organizaciones ágiles necesitan invertir constantemente en el desarrollo de capacidades de sus equipos, no solo en la entrega de features. La adopción de IA no es diferente. Algunas habilidades que se vuelven más críticas:
La pregunta entonces es: ¿estamos dando a los equipos tiempo y recursos para desarrollar estas habilidades? ¿O estamos asumiendo que "aprenderán sobre la marcha" mientras también se les presiona por mantener el mismo ritmo de entrega?
Esta puede ser la conversación más importante y la que menos organizaciones están teniendo: ¿qué usos de IA consideramos inaceptables, independientemente de su eficiencia potencial? Establecer límites claros no es una señal de tecnofobia, sino de madurez organizacional. Algunas organizaciones están estableciendo políticas explícitas, por ejemplo:
Estas líneas rojas no son universales. Cada organización necesita definir las suyas basándose en sus valores, su contexto regulatorio, y los riesgos específicos de su dominio. Pero lo que no es aceptable es no tener ninguna línea roja, o tenerlas implícitas y no discutidas. La IA presenta riesgos reales: sesgos, errores, mal uso, erosión de habilidades críticas, impactos en empleo. Necesitamos conversaciones honestas sobre estos riesgos, no narrativas optimistas que los minimizan.
Si has llegado hasta aquí y estás pensando "esto suena a mucho trabajo antes siquiera de empezar con IA", entonces este artículo ha cumplido su propósito. Porque sí, es mucho trabajo. Y ese es precisamente el punto: la adopción reflexiva de cualquier tecnología que impacta cómo trabajamos requiere conversaciones que van más allá de "¿qué herramienta compramos?"
Estas conversaciones no son obstáculos burocráticos que retrasan la "verdadera" adopción. Son la adopción. Son donde clarificamos valores, alineamos expectativas, construimos confianza, y diseñamos sistemas que realmente funcionan para las personas que los usan.
Las organizaciones que están adoptando IA de forma más madura no son necesariamente las que la están usando más rápido, sino las que están haciéndose estas preguntas incómodas primero. Y las que están dispuestas a responder "quizás no deberíamos usar IA para esto" cuando las respuestas no son satisfactorias.
En contextos ágiles, donde valoramos la colaboración sobre los contratos, individuos e interacciones sobre procesos, y responder al cambio sobre seguir un plan, estas conversaciones son coherentes con nuestros valores. No estamos siendo "anti-tecnología" al insistir en tenerlas. Estamos siendo ágiles: empezando con el problema, no con la solución, e iterando basándonos en feedback real.
¿Qué conversación crees que es más urgente en tu contexto?
Votos: 0
Este tema no tiene comentarios.