La IA que eligió las reglas sobre la velocidad: qué es Anthropic y por qué importa
En la reciente Cumbre sobre Inteligencia Artificial celebrada en Nueva Delhi, 86 países firmaron el acuerdo diplomático más ambicioso sobre esta tecnología hasta ahora. Pero una de las imágenes más reveladoras del evento no fue un documento ni un discurso: fueron dos hombres que decidieron no tomarse de la mano para la foto. Sam Altman, CEO de OpenAI, y Dario Amodei, fundador de Anthropic. Dos caras de la misma moneda, o quizás de dos monedas completamente distintas.
De la misma mesa a empresas rivales
OpenAI fue fundada en 2015 y pronto comenzó a desarrollar los modelos GPT que hoy conocemos. Durante ese proceso, Amodei, entonces vicepresidente de investigación, fue acumulando un descontento particular: sentía que la empresa priorizaba llegar rápido al mercado sobre entender los riesgos reales de lo que estaban construyendo. En tecnologías tan nuevas, esos riesgos eran entonces más desconocidos que ahora.
Ese desacuerdo no se quedó en conversaciones internas. Una docena de ingenieros de alto perfil salió junto a Amodei y fundaron Anthropic, con una premisa distinta desde el primer día: la seguridad no es una característica opcional, es el punto de partida.
Una constitución para la IA
Mientras OpenAI y otros modelos se entrenaron usando aprendizaje por refuerzo basado en preferencias humanas, Anthropic desarrolló su propio enfoque: el "Constitutional AI". La idea es concreta: el modelo opera con un conjunto definido de reglas y valores que considera en cada interacción. No aprende solo de lo que los humanos aprueban, sino de principios establecidos desde el diseño.
Su modelo de lenguaje se llama Claude y puede escribir código, generar software y crear aplicaciones. Una de sus versiones más recientes permite automatizar tareas desde el escritorio: organizar archivos, gestionar correos, planear la jornada de trabajo, todo a partir de una sola instrucción.
El precio de ser confiable
Anthropic no busca tener millones de usuarios gratuitos. Muchas de sus funciones clave requieren pago, y eso es una decisión, no un descuido. Esa apuesta por la seguridad los convirtió en la única plataforma de IA que opera en entornos clasificados del gobierno de Estados Unidos.
Sin embargo, esa posición también los puso en una encrucijada. Reportes de medios especializados señalaron que Claude fue utilizado por el ejército estadounidense en el operativo relacionado con la captura del expresidente venezolano Nicolás Maduro. Anthropic exigió explicaciones al Departamento de Defensa, porque siempre ha pedido que se le informe cómo y para qué se usa su tecnología. La respuesta del gobierno fue la opuesta: presionar para tener acceso irrestricto a todos los modelos, sin necesidad de reportar cada uso.
El 22 de febrero, Anthropic modificó su Constitutional AI. Antes, la empresa exigía que la seguridad de un modelo estuviera probada antes de salir al público. Esa condición ya no aparece en la nueva versión. Varios expertos apuntan a que la presión de Washington tiene algo que ver.
Una tensión que no va a desaparecer
Desde el lado de OpenAI y modelos como Grok, la crítica a Anthropic es que quiere imponer su visión sobre cómo debe usarse la IA, frenando el desarrollo. Desde Anthropic, la postura ha sido clara: automatizar procesos que involucran armas no es algo a lo que se opongan por protocolo, sino por convicción.
La ironía es notable. Los que dejaron OpenAI por no querer ceder en sus principios ahora enfrentan una presión institucional que los pone exactamente en el mismo lugar incómodo. La carrera por la inteligencia artificial no es solo tecnológica. También es filosófica.
https://www.youtube.com/watch?v=GHVdGWoFivY