
“Eu só vi os soldados ucranianos quando me rendi. Antes disso, só via drones, muitos deles. Rapazes, não venham, isso aqui é uma guerra de drones.” O depoimento de um soldado russo capturado no front, registrado pelo Centro de Estudos Estratégicos e Internacionais, em Washington, descreve de forma perturbadora o que já estamos vivendo: ele não foi rendido por um pelotão, mas por robôs. Só viu rostos humanos depois de erguer as mãos.
Esse é o presente; é a cara da guerra hoje.
Em junho de 2025, a Ucrânia lançou a Operação Teia de Aranha. Drones escondidos em caminhões cruzaram fronteiras e, em bases aéreas estratégicas, contêineres camuflados como barracões de madeira se abriram remotamente. Centenas de quadricópteros autônomos decolaram, identificaram bombardeiros por reconhecimento de forma e atacaram. Parte desses sistemas operou com alto grau de autonomia na seleção de alvos. A distância entre programar e decidir desapareceu.
Segundo especialistas ligados ao governo ucraniano, drones equipados com inteligência artificial elevaram a taxa de acerto de algo entre 10 e 20% para cerca de 80%, passando a responder por aproximadamente 70% dos ataques no front. A artilharia, chamada por séculos de “rainha das batalhas”, teria recuado para algo entre 10 e 15%. Um ano antes, menos de 1% dos drones ucranianos utilizavam IA; a meta anunciada para 2025 era alcançar metade da frota.
Nos Estados Unidos, o movimento é explícito. O Pentágono retomou oficialmente o nome abandonado em 1947, “Departamento de Guerra”, lançou uma estratégia aberta de dominância militar por inteligência artificial e adotou o endereço war.gov. Não, não é uma metáfora.
Mas o elemento mais perturbador é de natureza moral. Martin Meier, CEO de uma empresa estoniana de drones autônomos, explicou ao IEEE Spectrum: “O operador decide apenas a área do ataque. Quem escolhe o alvo é o drone.” O ser humano aponta a direção e a máquina decide quem morre.
Durante séculos, a guerra foi brutal, mas reconhecível. Havia um dedo, uma arma, um botão, um nome no final da cadeia de comando. Agora, a decisão se distribui por camadas de código, sensores e modelos probabilísticos. Quando o sistema erra — e erra, confundindo poças d’água com veículos ou árvores com alvos militares —, a responsabilidade se dilui na mesma velocidade do disparo.
Alexander Schallenberg, ministro das Relações Exteriores da Áustria, chamou este momento de “o Oppenheimer da nossa geração”. A diferença é que a bomba tinha um botão. A guerra autônoma tem dashboards elegantes e apresentações de slides que falam em redução de risco humano. Sempre do lado mais forte.
E aqui entra o Brasil, que gosta de imaginar que essas conversas são realidades distantes. Somos um país que ainda luta por alfabetização plena e saneamento básico, mas que investe em reconhecimento facial em estádios e tecnologias sofisticadas de vigilância. Debatemos o celular na mochila do aluno enquanto o mundo debate o algoritmo no míssil. A modernidade chega primeiro onde controla, não onde emancipa.
Escrevo sobre direção e execução como forma de preservar a autoria humana na era da inteligência artificial. Na educação, dar direção sustenta responsabilidade. Na guerra, manter apenas a direção enquanto se terceiriza a execução letal dissolve a responsabilidade. Nos meus textos e falas, defendo a lucidez e o segundo de pausa antes de agir. Na guerra algorítmica, esse segundo está sendo apagado por design.
Durante milênios, o drama moral da guerra foi muito humano. Agora, acontece antes que alguém pare para pensar. E quando um soldado se rende a drones que jamais verão seu rosto, a responsabilidade é a primeira baixa do campo de batalha.




