Anthropic y el Pentágono discrepan en el uso de la IA para defensa y seguridad
La semana pasada, un enfrentamiento entre el Pentágono y Anthropic, una compañía líder en IA, se intensificó hasta convertirse en una pelea de alto voltaje sobre el uso de la IA en operaciones militares. La disputa se centró en la intención del Ejército de EE. UU. de utilizar Claude, el sistema de IA de Anthropic, para armamento autónomo y vigilancia, incluyendo escenarios extremos como la intercepción de un misil nuclear.
La dirección del Pentágono argumentó que tales capacidades son cruciales para la seguridad nacional. La postura de Anthropic es que, incluso con la participación humana necesaria en el proceso de toma de decisiones, los sistemas actuales de IA son demasiado poco fiables como para tomar decisiones de vida o muerte, o para llevar a cabo tareas de vigilancia doméstica a gran escala. A consecuencia de ello, la compañía se negó a renunciar a sus normas éticas.
El pasado viernes, sin embargo, OpenAI, el creador de ChatGPT, llegó a un acuerdo con el Pentágono para el uso de su tecnología de inteligencia artificial en sistemas clasificados, apenas unas horas después de que el presidente Trump ordenara a las agencias federales dejar de utilizar IA creada por Anthropic. Bajo