
Google autorizó al Departamento de Defensa de Estados Unidos utilizar sus modelos de inteligencia artificial en entornos clasificados, una decisión que volvió a encender el debate sobre los límites éticos de esta tecnología.
Pentágono podrá usar modelos de IA de Google
De acuerdo con reportes, el convenio permite al Pentágono emplear herramientas de Google para “cualquier propósito gubernamental legal”, incluyendo aplicaciones sensibles dentro de redes seguras.
La decisión se dio a conocer después de que más de 600 empleados enviaran una carta al CEO Sundar Pichai para pedir que se frenaran colaboraciones secretas con fines militares.
Trabajadores alertan por posibles riesgos éticos
Empleados de distintas áreas, entre ellas DeepMind y Google Cloud, expresaron preocupación por el uso de la IA en vigilancia masiva, armas autónomas y operaciones con poca supervisión pública.
Los firmantes advirtieron que los proyectos clasificados dificultan conocer cómo se aplicará realmente la tecnología.
El acuerdo contempla restricciones
Según reportes, el contrato incluye límites contra el uso de la IA para vigilancia masiva nacional o armas completamente autónomas sin supervisión humana adecuada.
Aun así, críticos señalan que Google no tendría control total sobre las operaciones gubernamentales legales donde se utilicen sus modelos.
Crece el vínculo entre Big Tech y defensa
Con este acuerdo, Google se suma a otras empresas tecnológicas que han estrechado su colaboración con el Pentágono en áreas como defensa, análisis, logística e inteligencia artificial.
Aunque la compañía defiende su participación bajo principios de uso responsable, el caso reabre la discusión sobre hasta dónde deben involucrarse las grandes tecnológicas en proyectos militares.
