La startup valuada en USD 1.500 millones cayó en bancarrota tras descubrirse que su IA «Natasha» era un call center de desarrolladores manuales.
El engaño de la IA que nunca existió
Builder.ai, la startup londinense que prometía «crear apps tan fácil como pedir una pizza», se declaró en bancarrota en mayo de 2024 tras revelarse que su chatbot «Natasha» —supuestamente potenciado por IA— era en realidad 700 ingenieros indios tipeando respuestas manuales.
¿Cómo funcionaba el fraude?
- Fachada tecnológica: Natasha simulaba ser un asistente automatizado, pero cada solicitud de los usuarios era redirigida a empleados humanos.
- «Externalización encubierta»: Los desarrolladores ensamblaban apps a mano mientras la empresa vendía la idea de un sistema «low-code» con IA.
- Inversores estafados: Microsoft y otros gigantes inyectaron capital creyendo en una revolución de automatización que nunca existió.
Key fact: Builder.ai infló sus ingresos hasta un 300% para atraer financiamiento, según investigaciones en India.
La caída de un unicornio ficticio
- 2016-2023: La startup se promocionó como pionera en «IA para no-programadores», alcanzando una valuación de USD 1.500M.
- 2019: The Wall Street Journal destapó que dependía de tareas manuales, pero el CEO, Sachin Dev Duggal, lo negó.
- 2024: Bancarrota tras embargos por fraude contable y el congelamiento de fondos en India.
Cita reveladora:
«Era esencialmente una ilusión» — Robert Holdheim, exdirectivo despedido tras denunciar el engaño.
Lecciones del escándalo
- El «hype» de la IA: Muchas startups usan el término «IA» como marketing, sin tecnología real detrás.
- Due diligence obligatorio: Inversores como Microsoft cayeron en la falacia del «unicornio rápido».
- El costo humano: Los 700 empleados indios eran mano de obra barata, no un algoritmo.
Ironía: Mientras Builder.ai quebraba, herramientas como ChatGPT y GitHub Copilot demostraban que la IA sí puede generar código autónomamente.
¿Qué queda de Builder.ai?
- Su sitio web sigue en línea, promocionando «apps en minutos».
- El caso podría generar demandas por parte de inversores.
- Advertencia: En la era de la IA, «si es demasiado bueno para ser verdad, probablemente no lo sea».