El Departamento de Defensa ha dado luz verde a Grok, el chatbot de inteligencia artificial desarrollado por Elon Musk, para su uso en operaciones militares clasificadas. Esta decisión se toma a pesar de las advertencias emitidas por diversas agencias federales, como la GSA y la NSA, que han expresado preocupaciones sobre la fiabilidad del sistema y su vulnerabilidad ante sesgos y riesgos de seguridad.
Los documentos internos han puesto de manifiesto las alarmas sobre las debilidades de Grok, que incluyen respuestas serviles y una susceptibilidad a datos manipulados. A pesar de las garantías proporcionadas por los ejecutivos de xAI, Grok sigue excluido de la plataforma de pruebas de IA de la GSA (USAi) debido a estos riesgos no resueltos.
Un enfoque polémico
La decisión del Pentágono refleja una preferencia por el enfoque sin filtros y pro-libertad de expresión que ofrece Grok, en contraposición a competidores como Claude de Anthropic, que ha sido criticado por su moderación estricta del contenido. Sin embargo, la NSA ha señalado que Grok presenta riesgos únicos en comparación con sus rivales.
Este impulso hacia Grok coincide con la renuncia de Matthew Johnson, el exjefe del área de IA responsable del Pentágono, quien había advertido que los protocolos de seguridad estaban siendo ignorados en favor de una rápida adopción militar de la inteligencia artificial.
Riesgos y tensiones geopolíticas
Las preocupaciones sobre la seguridad fueron planteadas antes de la aprobación del Pentágono. Funcionarios de la GSA, incluido el alto ejecutivo Ed Forst, alertaron sobre las tendencias problemáticas de Grok a finales de 2023 y principios de 2024. Estas inquietudes se intensificaron cuando Grok enfrentó críticas por permitir imágenes sexualizadas generadas por IA relacionadas con menores, un tema que los funcionarios gubernamentales consideraron representativo de riesgos más amplios.
Susie Wiles, jefa del personal en la Casa Blanca, intervino al contactar a un alto ejecutivo de xAI, quien le aseguró que se estaban abordando las fallas en materia de seguridad. A pesar del optimismo expresado por Josh Gruenbaum, un funcionario adquisitivo con vínculos con iniciativas gubernamentales impulsadas por Musk, Grok sigue sin ser parte del programa USAi.
Apuesta arriesgada
El respaldo del Pentágono hacia Grok subraya un choque ideológico más amplio en el desarrollo de la inteligencia artificial. Mientras OpenAI y Google mantienen políticas estrictas sobre moderación del contenido, Grok se ha posicionado como una alternativa pro-libertad. Musk ha criticado las medidas regulatorias adoptadas por sus competidores como una forma de censura “woke”.
No obstante, un análisis clasificado realizado por la NSA concluyó que Grok presenta riesgos únicos no encontrados en competidores como Claude. Algunas divisiones del Pentágono continúan prefiriendo Claude para trabajos no clasificados debido a su fiabilidad. La reciente utilización del modelo Claude en operaciones contra el presidente venezolano Nicolás Maduro ha tensado aún más las relaciones entre estas entidades.
La apuesta del Pentágono por Grok pone en evidencia la intensa competencia por dominar el campo de la inteligencia artificial en medio del creciente conflicto con China y divisiones internas dentro del gobierno estadounidense respecto a cuestiones éticas y de seguridad. Aunque el enfoque sin filtros propuesto por Musk resulta atractivo para los estrategas militares que buscan herramientas para simulaciones adversariales, críticos advierten que las vulnerabilidades inherentes al sistema podrían poner en peligro la seguridad nacional.