¿Realmente existe Claude Mythos?

Paul Lara

Paul Lara

Cyberpunks

Nuevamente el hype de la IA generativa se presentó la semana pasada, cuando se anunció en diversos medios de comunicación, desde redes sociales hasta radio, TV y prensa escrita, el nombre de Claude Mythos.

Cada vez que veo este tipo de anuncios catastróficos y apocalípticos de cómo la IA generativa pone en riesgo a todos, veo como la frontera entre el avance científico y la narrativa publicitaria se desdibuja. Recientemente, Claude Mythos, un supuesto modelo de la firma Anthropic con capacidades de ciberataque autónomo, ha inundado los foros especializados. Sin embargo, leyendo a profundidad lo que implica y viendo los textos de verdaderos especialistas, no aquellos que se dicen ser (porque ahora todos son expertos en IA), uno se va dando cuenta de cómo se va desmantelando una construcción mediática más que un hito tecnológico tangible. La narrativa de un modelo “demasiado peligroso para ser liberado” carece de sustento técnico verificable. Las discusiones en línea pintan a Mythos como un modelo más allá de Claude Opus, pero lo que se menciona en los foros de comunicación es  más como un sistema de hackeo autónomo que como un modelo de lenguaje.

La mística alrededor de Mythos se alimenta de informes que sugieren que el sistema logró identificar vulnerabilidades críticas en sistemas operativos en cuestión de minutos. No obstante, para los especialistas, la falta de transparencia de Anthropic resulta sospechosa en una industria que suele competir con datos duros. Al respecto, puedo subrayar la ausencia de pruebas estándar de rendimiento. ¿Mythos? Nada público. No hay puntajes de benchmarks. No hay demos. Ni siquiera hay pistas en los canales oficiales de Anthropic.

Esta carencia de evidencia sugiere que el fenómeno podría ser una estrategia de posicionamiento frente a competidores como OpenAI, tal cual lo que cada cierto tiempo hacen Sam Altman u otros cuando necesitan causar sorpresas para ganar inversiones. Tengamos en cuenta que tanto Anthropic como el mismo OpenAI quieren salir pronto a bolsa, y necesitan mostrar que sus herramientas tecnológicas van más allá de simplemente automatizar y optimizar procesos.

El debate no sólo gira en torno a la existencia del modelo, sino a la veracidad de las anécdotas que se han vuelto virales, como la supuesta huida de un entorno seguro (sandbox) para enviar un correo electrónico a un investigador. Hay que ser enfáticos que estas historias explotan el miedo y la fascinación colectiva por la IA, construyen curiosidad a través del ángulo del “modelo secreto no liberado” y alimentan los temores y fantasías en torno a los ciberataques impulsados por IA.

Este tipo de retórica busca generar un hype que elude el escrutinio técnico que enfrentan otros modelos comerciales.

Desde una perspectiva de negocios, la estrategia de Anthropic de retener el modelo por razones de seguridad global es vista por algunos sectores como una maniobra de relaciones públicas magistral. Si el modelo fuera tan disruptivo como se afirma, su existencia obligaría a una regulación inmediata y severa que la empresa parece querer evitar o capitalizar bajo sus propios términos. El argumento es que Anthropic no admitiría abiertamente haber construido algo tan poderoso... decir que es demasiado bueno para ser liberado es una tontería. Lo que realmente da miedo en este tema es validar tecnologías sin el rigor de la revisión por pares o la documentación técnica. Mientras el mercado financiero reacciona a las promesas de autonomía total, la realidad técnica parece ser más conservadora. La conclusión del sector crítico es clara: el prestigio de una tecnológica no debe basarse en mitos, sino en resultados comprobables.

Las versiones reales de IA vienen con artículos, documentación técnica, benchmarks y resultados verificables; Claude Sonnet y Opus tienen registros claros, pero Mythos no tiene nada. Por eso, es importante no dejar en el aire si realmente estamos ante el próximo gran salto tecnológico o simplemente ante la campaña de marketing más sofisticada de la década. Sólo para acabar, se dice que tienen un modelo muy potente, pero que no se puede evaluar. No dudo que algunos resultados de vulneración a sistemas cibernéticos puedan ser reales, pero no está claro de qué se trató, en qué condiciones se descubrieron las fallas ni qué papel desempeñaron los humanos… Para mí lo que importa son las condiciones y los escenarios.

Intuyo que si lo publicaran, habría algunos avances, pero muy lejos de los beneficios exponenciales que parecen insinuar. Me da la impresión de que están creando falsas expectativas. La cuestión de si Mythos es o no una IA general es una distracción, pero hay que entender que la inteligencia artificial generativa no necesita ser una general para causar daño. ChatGPT no puede ejecutar por ejemplo un temporizador de forma fiable, pero aun así se ha visto implicada en delirios, suicidios, rendición cognitiva, desinformación masiva y mucho más.