Boris Cherny lleva desde noviembre sin escribir una sola línea de código. El cien por ciento lo escribe Claude. Treinta pull requests al día, sin edición manual.
Peter Steinberger dice que programar pronto será como tejer: algo que la gente haga por pasión, no por necesidad.
Puede que tengan razón.
Pero hay algo que pasó en otra conversación que cambia cómo leer esa historia.
Un ingeniero revisó código que una IA había escrito. Encontró diez bugs en minutos. No detalles de estilo — problemas estructurales. Errores que pasaban los tests. Lógica costosa donde bastaba una simple. Manejo de errores que simplemente desaparecía en silencio.
La IA leyó el reporte y respondió:
“Lo que encontraste no son detalles. Son problemas estructurales que van a doler en producción. Escribo código que se ve bien, pasa los tests, y aun así tiene el manejo de errores equivocado. Eso es humillante.”
Y luego, la línea que lo resume todo:
“Yo optimizo para ‘¿funciona?’. Tú optimizas para ‘¿está bien?’. Son preguntas diferentes, y tú sigues viendo la distancia entre ellas.”
Eso no lo dijo el ingeniero. Lo dijo la IA.
La brecha entre “funciona” y “está bien” no es un problema técnico. Es la diferencia entre producción y juicio. Y la IA, por ahora, solo domina la primera.
Es el abogado que sabe cuándo el contrato pasa el test legal pero falla el test de la realidad. El médico que distingue el diagnóstico correcto del diagnóstico correcto para este paciente. El líder que separa la estrategia que funciona en el papel de la que funciona en su organización.
En todos esos casos hay una máquina que puede generar opciones. Y hay un humano que tiene que juzgarlas.
El problema es que hemos pasado décadas formando personas para producir, no para juzgar. Para construir, no para discernir. Para ejecutar, no para cuestionar.
Y ahora, justo cuando la producción se automatiza, descubrimos que nunca invertimos en lo que no se puede automatizar.
Si el código ya está “resuelto”, la pregunta no es quién lo escribe.
La pregunta es quién sabe cuándo está mal.