Alternativas rebeldes: IA sin saqueo
https://martinszy.com//blog/ia-alternativas-rebeldes/La burbuja de IA es más grande que la de las punto-com. El propio CEO de OpenAI lo admite. Pero hay otro camino: modelos éticos, con comunicaciones cifradas o locales, que no saquean nuestros datos. La arquitectura es pública, los algoritmos están documentados. Lo que falta no es tecnología — es organización orientada a la autonomía tecnológica.
La burbuja más grande del siglo
La inversión anual en infraestructura de IA superó los 400 mil millones de dólares en 2025. Morgan Stanley proyecta 2,9 billones entre 2025 y 2028. Pero el 95% de las organizaciones que invierten en IA generativa obtienen cero retorno.
Sam Altman admitió que cree que hay una burbuja. Ray Dalio la comparó con las punto-com. Bret Taylor, presidente de OpenAI, fue más directo: "También creo que estamos en una burbuja, y mucha gente va a perder mucho dinero."
El ciclo se retroalimenta: más usuarios requieren más chips, más datacenters, más agua, más energía. Y la fantasía de la "inteligencia artificial general" sostiene el ritmo de inversión. El gasto de capital en IA podría consumir hasta el 94% del flujo de caja de las big tech para 2026. El 54% de los gestores de fondos globales ya consideran que estamos en "territorio de burbuja".
¿Hay usos concretos? Sí — Copilot, diagnóstico médico asistido, traducción automática. Pero en 1999 también había usos concretos de internet y la burbuja explotó igual. La pregunta no es si la tecnología sirve, sino si la escala de inversión tiene sentido.
Las alternativas existen
Los mismos algoritmos pueden usarse de forma ética. La arquitectura transformer es pública. Proyectos de software libre entrenan modelos con datasets éticos — información pública o donada. Lo que las corporaciones dominantes eligen es el saqueo, no porque sea el único camino, sino porque es el más rentable.
Tres proyectos que demuestran otro camino:
MapleAI: Usa cifrado de extremo a extremo e instrucciones encriptadas. Solo ejecuta modelos abiertos con atestación verificable.
Confer: Creado por Moxie Marlinspike (fundador de Signal). Cifrado de extremo a extremo donde ni los operadores acceden a las conversaciones. Como dice Marlinspike: los chatbots actuales son "una forma de tecnología que activamente invita a la confesión" — y cuando se combina eso con publicidad, es como pagarle al terapeuta para que nos convenza de comprar algo.
Thaura: Desarrollada por tecnólogos sirios, promovida por Tech For Palestine. No recolecta datos, no los vende, rechaza cooperar con gobiernos involucrados en violaciones de derechos humanos. Conversaciones encriptadas, modelo eficiente.
La privacidad técnica en IA es posible. El costo es real — Confer cobra $35/mes — pero la privacidad nunca fue gratis.
Modelos abiertos: la otra batalla
Cuando OpenAI dejó de publicar los pesos de sus modelos en 2019 — traicionando su nombre — abrió un vacío. Meta lo llenó con Llama (2023), que permite uso comercial pero no publica los datos de entrenamiento. DeepSeek, un laboratorio chino, fue más lejos: liberó modelos competitivos bajo licencia MIT, sin restricciones.
Pero ¿cuándo un modelo es realmente "abierto"? La Open Source Initiative publicó en 2024 una definición: para calificar, un modelo debe publicar código, pesos y datos de entrenamiento suficientes para reproducirlo. Bajo ese estándar, ni Llama ni DeepSeek califican. Proyectos como OLMo 3 (Allen Institute for AI) y StarCoder2 (BigCode) sí: publican todo, desde los datos hasta los checkpoints intermedios. Su rendimiento se puede verificar en leaderboards independientes como LMArena, y con herramientas como Ollama se pueden correr en una computadora personal. Para modelos más grandes, se pueden alquilar GPUs por hora: se reserva una máquina remota, se carga el modelo y se usa como si fuera propio — sin ceder datos a ninguna corporación.
Combinados con las alternativas de privacidad, estos modelos empiezan a dibujar un ecosistema donde la IA puede funcionar sin saqueo ni vigilancia.
De la resistencia individual a la acción colectiva
Estoy con Cory Doctorow: "Comprar con más cuidado no va a salvar al planeta ni a tus vecinos. Las acciones individuales no provocan cambio sistémico." Y: "Toma decisiones individuales que mejoren tu vida. Toma acción colectiva para mejorar la sociedad."
Dejo aquí entonces algunas propuestas inspiradoras:
- Organizarnos: Sumarnos a una cooperativa tech, un sindicato digital, o un grupo local de tecnología cívica como Bandatos.
- Contribuir a modelos éticos: Quienes tengan habilidades técnicas pueden aportar a proyectos con datasets éticos. Quienes no, pueden financiar los que existen.
- Exigir transparencia: Preguntar a nuestros gobiernos locales qué permisos de agua y energía otorgaron a los datacenters de la zona. En América Latina, DataCenter Boom documenta los conflictos socioambientales y ofrece herramientas para la acción comunitaria.
- Formar a la próxima generación: Mentorear juniors, participar en espacios comunitarios de formación. Iniciativas como LAIA en Argentina exploran los impactos de la IA y promueven herramientas abiertas.
- Exigir rendición de cuentas: Apoyar demandas legales contra el uso extractivo del conocimiento y los datos personales. Exigir transparencia y mejora de derechos laborales para toda la cadena de producción de los modelos.
Este artículo cierra una serie de tres. En Loros de silicio se desmonta qué es realmente la IA y por qué el marketing la disfraza de revolución. En El costo real de la IA exploramos lo que la industria esconde: el agua, la energía, el empleo y la explotación laboral detrás de cada modelo.
El ensayo completo en PDF reúne todo con más de 60 fuentes y todos los datos (este artículo corresponde a la Parte III: "¿Y entonces qué?").
Mientras vamos construyendo estas alternativas, yo continuaré escribiendo y cuestionando —incluyendo mis propias certezas—. Y seguiré buscando las grietas por donde pueda entrar un poco de luz.
Nota: Esta serie la escribí en Enero de 2026. No menciona a OpenClaw ni a LatamGPT, que evidencian cómo el software libre sigue siendo una estrategia de innovación efectiva pero a la vez fácil de cooptar por las corporaciones.
Otros temas que no se cubren: riesgos de seguridad y ataques adversarios, desinformación y medios sintéticos, sesgo y discriminación algorítmica, vigilancia masiva y autoritarismo, concentración geopolítica del poder, manipulación del comportamiento y la economía de la atención, vacíos legales y de rendición de cuentas, riesgos existenciales y alineamiento, privacidad de datos más allá del entrenamiento, y efectos psicológicos y sociales como las relaciones parasociales con chatbots.