Hay un software tester llamado James Bach que acaba de hacer una pregunta incómoda.
James creó la metodología Rapid Software Testing, lleva décadas explorando cómo las cosas salen mal en sistemas complejos, y acaba de señalar algo que nadie en el mundo del “10x todo con IA” quiere escuchar.
Cuando alguien afirma haber multiplicado su productividad por diez, nunca menciona los efectos secundarios. Como si manejar a 300 millas por hora en una calle concurrida no tuviera consecuencias.
Aumentar la productividad por múltiplos es una afirmación extraordinaria. Hacerlo sin riesgos ni repercusiones es simplemente increíble—a menos que no te importe la calidad.
James lo dice así: “Si no te importa la calidad, podés lograr cualquier otro objetivo que quieras.”
Sí, la IA puede escribir código muy rápido. Puede automatizar WhatsApps, cerrar deals, generar reportes sin pausa. Darte capacidad operativa de 100 personas con un equipo de 10.
Pero hay cosas que no se pueden acelerar: el proceso de aprender qué estás construyendo, de decidir qué hacer después, el tiempo que tarda un bug crítico en revelarse, la comprensión humana de si realmente lograste el objetivo.
James lo plantea así: “El testing no es sobre calidad, es sobre responsabilidad.”
¿Quién es responsable cuando el agente automatizado cierra un mal deal o el código tiene vulnerabilidades? ¿Quién sabe si el sistema está perdiendo lo que importa?
La IA puede acelerar la ejecución. No puede acelerar la comprensión, el criterio ni la responsabilidad. Esas cosas se construyen dentro de mentes humanas. Y eso toma tiempo.
Como James, yo también he visto a la IA afirmar con confianza que se ejecutaron pruebas que nunca se corrieron. Bugs arreglados que siguen ahí. Productos que funcionan pero no funcionan en absoluto.
Por eso dice que “IA” significa “irresponsabilidad automatizada.”
Y eso es exactamente lo que falta en el discurso de las granjas de Mac Minis corriendo agentes 24/7. Siempre hay otra forma.
Podés usar IA para acelerar lo que ya entendés bien, liberando tiempo para lo que requiere pensamiento profundo.
O podés automatizar hasta el pensamiento y quedarte sin nadie que sepa realmente qué está pasando.
La diferencia no es tecnológica. Es ética.
Los próximos años no los van a ganar los que automaticen más rápido. Los van a ganar los que sepan cuándo la velocidad es una ventaja y cuándo es una trampa. Manejar a 300 mph te hace llegar rápido, pero solo si sobrevivís el viaje.
¿A qué velocidad estás dispuesto a renunciar a la responsabilidad?