Loros de silicio: qué es (y qué no es) la inteligencia artificial

https://martinszy.com//blog/ia-loros-de-silicio/

Desde los 90 tenemos IA en las computadoras personales. La corrección gramatical de Microsoft Word en 1993 ya era IA. Los filtros de spam de Gmail desde 2004, los sistemas de recomendación que Amazon desplegó en 1998, el reconocimiento de voz — todo eso es inteligencia artificial. Aunque cambió la tecnología, más cambió el marketing.

70 años de historia en un rebrand

El término "inteligencia artificial" fue acuñado por John McCarthy en 1955. Nació en un contexto de colaboración abierta académica: en el MIT AI Lab durante los años 70, el código se compartía libremente y la curiosidad científica era el motor. De ese ecosistema salió Richard Stallman y el movimiento del software libre. La IA era una disciplina científica, no una etiqueta de producto. Aunque hoy critiquemos a esas figuras fundacionales por su sexismo y su relación con la trama de Epstein, no podemos negar sus aportes fundamentales a la disciplina.

Alrededor de 2020, todo cambió. De pronto, funciones que existían hace décadas fueron rebautizadas: el autocomplete se volvió "IA predictiva", los filtros de fotos se convirtieron en "IA generativa". Mismo software, nuevo packaging. El punto de inflexión fue el lanzamiento de ChatGPT en noviembre de 2022 — millones de personas comenzaron a interactuar por chat con un modelo de lenguaje por primera vez. Pero la "revolución" tenía al menos cinco años de cocción: la arquitectura que lo hace posible, el transformer, fue presentada en 2017 por investigadores de Google, basada en trabajos académicos anteriores.

¿Inteligencia o loros con buena memoria?

Los grandes modelos de lenguaje son el motor de los actuales sistemas de inteligencia artificial. En 2021, Emily Bender y Timnit Gebru describieron a estos modelos como "loros estocásticos": sistemas que repiten patrones estadísticos sin comprensión real. La evidencia los respalda — un estudio en Nature (2025) encontró que los LLMs más avanzados tienen un desempeño significativamente inferior al de médicos humanos en tareas de razonamiento clínico. Alucinan. Inventan. Repiten.

La metodología de entrenamiento es reveladora: Anthropic compró libros físicos, les cortó el lomo con una guillotina, escaneó las páginas y recicló los restos. Extraer, procesar, descartar. Y está demostrado que es posible extraer material original de los modelos — aunque el entrenamiento transforma los datos en representaciones estadísticas, los modelos retienen fragmentos identificables del material original. La defensa de que el contenido fue "transformado" más allá del reconocimiento es, como mínimo, cuestionable.

Dicho esto, investigadores de primer nivel cuestionan la metáfora del "loro". Geoffrey Hinton, el "padrino del deep learning", renunció a Google en 2023 para poder advertir libremente sobre los riesgos de la IA — pero precisamente porque cree que estos sistemas están desarrollando capacidades genuinas que hay que tomar en serio. Yann LeCun, ex jefe de IA en Meta, critica tanto a los LLMs como a la metáfora del loro: para él, el problema es más profundo y se necesita construir algo fundamentalmente diferente. La pregunta más honesta no es "¿son inteligentes o no?" — es: ¿qué capacidades tienen, cuáles son sus límites, y quién se beneficia de que no lo sepamos?

Pensar críticamente: primera línea de defensa

El relato de que "la IA llegó en 2023 y va a cambiar al mundo" es falso y conveniente. Conveniente para vender como revolución lo que es evolución. Conveniente para que no preguntemos de dónde vienen los datos de entrenamiento ni quién se beneficia.

Estos sistemas no son "inteligencias" — son máquinas de predicción estadística sofisticadas, posiblemente con capacidades emergentes que aún no entendemos del todo. Pero esa incertidumbre no justifica que aceptemos el marketing como ciencia. Exijamos precisión terminológica. Y sobre todo: no dejemos que el hype nos impida ver lo que está pasando detrás de la cortina.

Te invito a continuar leyendo el siguiente artículo de esta serie, porque detrás de cada consulta hay un costo real en agua, energía, empleo y derechos. En El costo real de la IA: agua, trabajo y silicio exploramos lo que la industria prefiere que no sepamos.

Y para profundizar con todas las fuentes y datos de los tres artículos, está disponible el ensayo completo en PDF (este artículo corresponde a la Parte I: "¿Qué es esto realmente?").