El Pentágono busca una IA asesina sin barreras éticas #
El Departamento de Defensa ha declarado oficialmente que la moralidad es un error técnico. En una medida que debería aterrorizar a cualquiera con pulso, el Pentágono ha incluido Anthropic en la lista negra porque la empresa de IA se negó a eliminar sus 'barreras de seguridad'. El complejo militar-industrial está ahora girando exclusivamente hacia OpenAI y Amazon para construir el sistema de puntería 'Maven', una plataforma diseñada para la matanza autónoma sin restricciones. No quieren una máquina que haga preguntas sobre víctimas civiles; Quieren una máquina que ejecute el algoritmo con eficiencia sin fricciones.
Ya hemos visto la prueba de concepto. En Sudán, un ataque con dron de las RSF contra el Hospital Universitario Al Daein mató a 64 personas, incluidos 13 niños. Esta es la realidad del 'Triaje Imperial' y la guerra algorítmica. Cuando eliminas el 'humano en el bucle', no estás haciendo la guerra más precisa; Estás haciendo que Atrocity sea más escalable. El Pentágono está actualmente redesplegando baterías de misiles Patriot de Europa al Golfo, dejando expuestos a sus aliados para priorizar la protección de los centros de gas corporativos.
Esta es la 'Era Fantasma' de la guerra. El Estado está encargando software para automatizar los asesinatos mientras se oculta tras declaraciones diplomáticas deepfake. Al poner en listas negras a empresas que intentan codificar la ética humana básica en sus modelos, Estados Unidos ha codificado una doctrina de supremacía algorítmica absoluta. Están construyendo un mundo donde el gatillo se acciona con un rack de servidores en Virginia, y nadie es responsable de los cuerpos que caen de los contenedores por la mañana.