La traición del loro: cuatro formas en las que ya estamos entregados
https://martinszy.com//blog/ia-traicion-del-loro/Ya hablé de las externalidades materiales de la IA: agua, electricidad, semiconductores, trabajo precarizado. A veces aceptamos ese costo porque necesitamos ayuda y velocidad para escribir, programar, entender. Pero los costos no se pagan solamente en lugares muy alejados de casa. Al tomar esta decisión, también entregamos muchas cosas personales.
El insumo que somos
Cada conversación con un asistente de IA generativa entra al corpus de entrenamiento por defecto. Nuestros prompts, nuestras correcciones, nuestros ejemplos bien resueltos, nuestras ideas originales. Todo es insumo del próximo modelo, el que después nos van a vender más caro. Trabajamos gratis o pagando, sin atribución, sin protección. El opt-out existe pero está enterrado en menús de configuración, y aunque toquemos todos los botones no hay forma de comprobar que se respete.
Hace casi 20 años que las grandes plataformas digitales entrenan algoritmos con nuestro comportamiento. Ahora estos sistemas entrenan con nuestro pensamiento articulado: cómo razonamos, dónde nos equivocamos, cómo escribimos cuando nadie nos corrige.
Un archivo de todas las caras de los usuarios
En el Reino Unido, Australia y otros países ya se exige verificación de identidad para usar redes sociales y servicios de inteligencia artificial. Otros países están preparando regulaciones similares. En esos casos, y también cuando una plataforma lo solicita por sus propias políticas, nos piden que entreguemos el documento a una empresa de verificación de identidad (IDV). Este segmento es un mercado pequeño y concentrado: unas pocas empresas verifican identidad para casi todo internet, desde redes sociales hasta gobiernos.
Por exigencias de regulación financiera, antiterrorismo y protección de menores, estas empresas suelen retener documentos, aplicar reconocimiento facial y cruzar datos contra listas de adverse media: notas periodísticas que asocien a la persona con terrorismo, lavado, fraude, tráfico de personas, sanciones internacionales, entre otras categorías. Es un estándar industrial.
Los financiadores del sector se cruzan. Pocos fondos de inversión sostienen a muchas de estas empresas a la vez. Cambiar de proveedor no cambia el modelo de fondo.
En la discusión sobre cómo organizar este sistema aparecen propuestas de mover la verificación al sistema operativo, a una capa única de los teléfonos, dispositivos o en los sistemas operativos. La industria se ha hecho eco de un argumento atendible: la verificación universal amenaza la privacidad y construye infraestructura de vigilancia. Pero la propuesta alternativa, que cada servicio se arregle con su propia empresa de verificación, deja la situación del mercado intacta y a los usuarios igualmente expuestos.
¿Las fotos nunca se comparten?
Cuando entregamos un documento a una empresa de verificación, esos datos no quedan estáticos en un servidor. La regulación financiera obliga a estas empresas a tener integraciones automatizadas con agencias estatales de inteligencia financiera. Nuestra identidad, ya almacenada y cruzada contra listas de terrorismo y lavado, puede ser reportada a una agencia federal sin que nos enteremos y sin que medie un juez.
Y eso no termina ahí. En muchas jurisdicciones, agencias federales o locales pueden pedir estos datos a las empresas que los tienen sin orden judicial independiente. La reidentificación se puede lograr sólo con una solicitud oficial, no requiere un ataque ni una nueva regulación, ni siquiera una orden judicial.
El guardia que a veces mira
Algunas plataformas escanean automáticamente las conversaciones para detectar contenido de riesgo. Cuando un sistema detecta una amenaza creíble, la conversación pasa a un revisor humano que decide si derivar el caso a la policía. Algunos casos en los que estos sistemas decidieron mal llegaron a tribunales y a la prensa: derivaciones erróneas, no-derivaciones que después escalaron, lecturas que generaron daño. La mayoría de las decisiones, en cambio, son secreto industrial. No sabemos cuántas hay, con qué criterios se toman, ni con qué resultados.
La superficie pública es una fracción de la superficie real. La discrecionalidad y la falta de rendición de cuentas que evidencian los casos también aplican a otros vectores de reidentificación menos visibles: agregación de metadatos, exposición vía CDNs, decisiones de UX sobre qué queda registrado. Este artículo surge en parte por las lecturas que hice en el contexto de una colaboración que me pidió WITNESS, que viene siguiendo este terreno desde adentro hace dos décadas, sobre los riesgos potenciales del estándar C2PA de etiquetado de imágenes generadas con inteligencia artificial.
La traición no requiere malicia
La traición no requiere malicia, requiere asimetría. Aceptamos un trato que cambió cuatro veces sin que nos lo notificaran, o cuando dicen "Actualizamos las políticas de privacidad", uf, ya sé que estamos entregados. El uso de datos para el entrenamiento se justifica por mejora del servicio, la verificación por protección de menores, los reportes a agencias por antiterrorismo, la revisión humana por seguridad. Cada paso, individualmente, podría parecer tolerable. La acumulación produce el peor de los mundos posibles, donde nuestras posibilidades de tener libertad en línea parecen cada vez menores.
Estar entregados podría sonar a que ya no hay nada que hacer. Pero entregados no es igual a perdidos. En Alternativas rebeldes propuse tres palancas que aplican también acá: regulación de infraestructura como servicio público, alternativas técnicas abiertas, y acción colectiva. Habría que agregar dos más:
- Divulgación obligatoria de los perfiles de retención de cualquier proveedor de verificación usado por servicios de IA. Sin saber qué hacen con nuestros datos no hay consentimiento posible.
- Rendición de cuentas pública sobre derivaciones a fuerzas de seguridad: cuántos casos, con qué criterios, con qué resultados. Si los sistemas pueden equivocarse en ambas direcciones, el público tiene derecho a saber cómo deciden.
Me alegrará hablar con gente interesada en profundizar el debate público sobre derechos digitales y verificación de identidad, la industria de la inteligencia artificial es la frontera actual de esta conversación. Admito que sigo informándome sobre estos temas con una actitud abierta. Las reflexiones de este artículo se apoyan en lecturas y fuentes públicas, y estoy interesado en escuchar otros puntos de vista y sumar contexto. Si alguien quiere aportar una mirada distinta o corregir algo, agradezco el contacto.
Nota: Este artículo es posterior a la serie original "Loros de silicio" (febrero 2026). El ensayo completo en PDF y los tres artículos previos cubren la cuenta material lejana. El contenido de este artículo se integrará en una versión futura.