Si pensabas que la novela de la Inteligencia Artificial se estaba poniendo aburrida o técnica, agarrate porque lo que pasó esta semana en Estados Unidos parece sacado de una serie de Netflix, pero con consecuencias reales que dan miedo. Tenemos al gobierno de Trump peleándose con una empresa por ser “demasiado ética”, a OpenAI aprovechando el caos para facturar, y a los usuarios votando con sus descargas.
Vamos a ponerlo en criollo: Anthropic, los creadores de Claude, se plantaron. Le dijeron al Pentágono (ahora “rebrandeado” curiosamente como Departamento de Guerra o DoW) que no iban a permitir que su IA se usara para dos cosas muy puntuales: vigilancia masiva doméstica y armas totalmente autónomas. O sea, no querían ser el cerebro de Skynet ni el Gran Hermano.
La “cancelación” presidencial y el efecto rebote
La respuesta de Trump no se hizo esperar. En su red social, Truth Social, tildó a la gente de Anthropic de “locos de izquierda” y ordenó a todas las agencias federales que dejaran de usar Claude inmediatamente. ¿La razón? Según él, la empresa estaba tratando de “extorsionar” al Departamento de Guerra imponiendo sus Términos de Servicio por sobre la Constitución.
Lo irónico —y esto es muy de nuestra política también— es que apenas unas horas después de prohibirlo, Estados Unidos usó herramientas de Anthropic para un ataque aéreo en Irán. Sí, así como lo leés. Te prohíbo, pero antes te uso una última vez. Una hipocresía que ni los guionistas de Hollywood se animan a escribir.
Pero acá viene lo interesante: la gente no es tonta. Tras la noticia de que Anthropic se negó a quitar sus restricciones éticas militares, Claude se disparó al puesto número 1 en la App Store, superando a ChatGPT y Google Gemini. El público salió a bancar la parada ética descargando la app masivamente. Es una señal clara: los usuarios valoran que una empresa tenga principios, aunque eso le cueste contratos millonarios con el estado.
OpenAI y la “panquequeada” corporativa
Y mientras Anthropic se jugaba el pellejo y era etiquetada como un “riesgo para la cadena de suministro” (una etiqueta que usualmente le ponen a empresas chinas como Huawei), apareció Sam Altman. El CEO de OpenAI no perdió el tiempo. Aprovechó que su competidor dejó la silla vacía y cerró un trato histórico con el Departamento de Defensa.
Acá es donde la cosa se pone turbia. Altman salió a decir en X (ex Twitter) que ellos también tienen cláusulas contra la vigilancia masiva y las armas autónomas, y que el gobierno las aceptó. Entonces, ¿por qué a Anthropic los echaron y a OpenAI le abrieron la puerta? Hay dos opciones:
- O OpenAI tiene mejores abogados y supo vender el humo de una forma que le gustó a Trump.
- O sus “guardrails” (barreras de seguridad) son mucho más flexibles de lo que dicen en público.
Personalmente, me inclino por la segunda. Anthropic dijo “no” y se mantuvo firme. OpenAI dijo “sí, pero…” y firmó el cheque. La diferencia entre tener principios y tener intereses es esa firma.
Solidaridad en el valle y el futuro que viene
No todo está perdido en el mundo corporativo. Cientos de empleados de Google y de la misma OpenAI firmaron una carta abierta en solidaridad con Anthropic. Saben que si el gobierno logra doblarle el brazo a una empresa para quitar las protecciones éticas, van a ir por las demás. Es un precedente peligrosísimo.
Desde nuestra perspectiva acá en el sur, esto nos tiene que abrir los ojos. La tecnología que usamos todos los días está en el centro de una guerra geopolítica y militar. Que una empresa se niegue a facilitar la vigilancia masiva o el asesinato automatizado debería ser la norma, no la excepción que te cuesta el negocio.
Por ahora, Anthropic perdió los contratos del gobierno, pero se ganó el respeto de los usuarios (y el mío). Mientras tanto, OpenAI y Nvidia siguen facturando, demostrando una vez más que en el mundo de la tecnología, como en la política, a veces “billetera mata galán”… o en este caso, “contrato militar mata ética”.



















