![]()
Filtración en Anthropic: Usuarios no autorizados acceden a «Mythos», su modelo de IA ultra-secreto
Según un informe de Bloomberg News, la empresa de inteligencia artificial Anthropic ha sufrido una importante brecha de seguridad que permitió a usuarios no autorizados acceder a Mythos, un modelo de lenguaje de próxima generación que aún no ha sido presentado oficialmente al público.
Los detalles clave de este incidente de ciberseguridad incluyen:
-
Acceso mediante ingeniería social: El reporte indica que los atacantes no vulneraron los servidores directamente, sino que utilizaron técnicas de manipulación para obtener credenciales de acceso de empleados o socios con privilegios elevados.
-
Capacidades de Mythos: Aunque Anthropic ha mantenido este proyecto bajo estricto secreto, las filtraciones de quienes accedieron sugieren que Mythos está diseñado para superar a Claude 3 en razonamiento complejo y capacidades de codificación, acercándose a lo que muchos expertos denominan Inteligencia Artificial General (AGI) de nivel básico.
-
Respuesta de la empresa: Anthropic ha desactivado los puntos de acceso comprometidos y ha iniciado una investigación interna exhaustiva. La compañía ha enfatizado que, según sus auditorías iniciales, los datos personales de los usuarios de Claude no se han visto comprometidos, ya que la brecha se limitó a los entornos de prueba del nuevo modelo.
-
Preocupación en la industria: Este incidente subraya la vulnerabilidad de las empresas tecnológicas que custodian los secretos más valiosos de la IA. La filtración de un modelo tan avanzado podría permitir que actores malintencionados o competidores analicen la arquitectura del sistema antes de su lanzamiento oficial.
Este evento ocurre en un momento crítico para Anthropic, que recientemente había anunciado funciones revolucionarias como «Computer Use». La seguridad de los modelos de IA se ha convertido ahora en una prioridad de seguridad nacional en los debates tecnológicos de este 2026.
