A evolução da inteligência artificial e o futuro da segurança nacional

A inteligência artificial está na moda atualmente. Na mídia popular, os sistemas cibernéticos regulares parecem quase ultrapassados, à medida que os escritores se concentram na IA e evocam imagens de tudo, desde robôs Terminator da vida real a companheiros mais benignos. Nos círculos de inteligência, os usos da China de circuito fechado de televisão, tecnologia de reconhecimento facial e outros sistemas de monitoramento sugerem a chegada do Big Brother - se não exatamente em 1984, então apenas cerca de quarenta anos depois. No Pentágono, legiões de oficiais e analistas falam sobre a corrida da IA ​​com a China, muitas vezes com advertências agourentas de que os Estados Unidos não podem se dar ao luxo de ficar em segundo lugar neste reino emergente da tecnologia. Nos círculos políticos, as pessoas se perguntam sobre a ética da IA ​​- por exemplo, se podemos realmente delegar aos robôs a capacidade de usar força letal contra os inimigos da América, por pior que sejam. Um novo relatório do Defense Innovation Board estabelece princípios gerais para a futura ética da IA, mas apenas em termos gerais, o que deixa muito trabalho a ser feito.

equipe de transição de donald trump planejando primeiros meses no cargo

O que tudo isso realmente significa e é provável que a IA seja tudo o que parece ser? Achamos que a resposta é complexa e que uma modesta dose de água fria deveria ser aplicada sobre o assunto. Na verdade, muitos dos sistemas de IA previstos hoje levarão décadas para serem desenvolvidos. Além disso, a IA muitas vezes está sendo confundida com coisas que não é. A precisão sobre o conceito será essencial se quisermos ter discussões inteligentes sobre como pesquisar, desenvolver e regular a IA nos próximos anos.

Os sistemas de IA são basicamente computadores que podem aprender a fazer coisas por meio de um processo de tentativa e erro com algum mecanismo para dizer a eles quando estão certos e quando estão errados - como escolher mísseis em fotos ou pessoas em multidões, como acontece com o Projeto Maven do Pentágono - e então aplicando o que aprenderam para diagnosticar dados futuros. Em outras palavras, com a IA, o software é construído pela própria máquina, de fato. A ampla abordagem computacional para um determinado problema é determinada com antecedência por humanos antiquados reais, mas o algoritmo real é criado por meio de um processo de tentativa e erro pelo computador à medida que ingere e processa grandes quantidades de dados. O processo de pensamento da máquina não é realmente tão sofisticado. Está desenvolvendo mais instintos artificiais do que inteligência - examinando grandes quantidades de dados brutos e descobrindo como reconhecer um gato em uma foto ou um lançador de mísseis em uma rodovia lotada, em vez de se envolver em pensamentos profundos (pelo menos no futuro previsível).



Essa definição nos permite identificar rapidamente alguns tipos de sistemas de computador que não são, de fato, IA. Eles podem ser importantes, impressionantes e cruciais para o guerreiro, mas não são inteligência artificial porque não criam seus próprios algoritmos a partir de dados e múltiplas iterações. Não há aprendizado de máquina envolvido, para colocar de outra forma. Como nosso colega, Tom Stefanick, aponta, há uma diferença fundamental entre algoritmos avançados, que existem há décadas (embora estejam em constante aprimoramento, à medida que os computadores ficam mais rápidos) e inteligência artificial. Também há uma diferença entre um sistema de armas autônomo e a robótica dirigida por IA.

Por exemplo, os computadores que guiam um míssil de cruzeiro ou um drone não exibem IA. Eles seguem um script elaborado, mas predeterminado, usando sensores para coletar dados e depois colocá-los em computadores, que então usam um software (desenvolvido por humanos, com antecedência) para determinar o próximo movimento certo e o local certo para detonar qualquer arma. Isso é autonomia. Não é AI.

Ou, para usar um exemplo mais perto de casa para a maioria das pessoas, quando seu smartphone usa um aplicativo como o Google Maps ou Waze para recomendar a rota mais rápida entre dois pontos, isso não é necessariamente IA também. Existem tantas rotas possíveis entre dois lugares. Sim, pode haver dezenas ou centenas - mas o número é finito. Como tal, o computador em seu telefone pode essencialmente olhar para cada possibilidade razoável separadamente, obtendo dados da rede mais ampla que muitos telefones de outras pessoas contribuem para fatorar as condições de tráfego na computação. Mas a maneira como a matemática é realmente feita é direta e predeterminada.

Por que isso é importante? Por um lado, deveria nos deixar menos sem fôlego em relação à IA e vê-la como um elemento em uma revolução mais ampla do computador que começou na segunda metade do século XX e ganhou força neste século. Além disso, deve nos ajudar a ver o que pode ou não ser realista e desejável para regulamentar no reino da guerra futura.

O ex-vice-presidente da Junta de Chefes de Estado-Maior, general Paul Selva, argumentou recentemente que os Estados Unidos poderiam estar a cerca de uma década de ter a capacidade de construir um robô autônomo que pudesse decidir quando atirar e quem matar - embora ele também afirmou que os Estados Unidos não tinham planos de realmente construir tal criatura. Mas se você pensar de forma diferente, de alguma forma, já temos máquinas assassinas autônomas há uma geração. Esse míssil de cruzeiro que discutimos acima foi implantado desde os anos 1970. Ele tem instruções para voar em uma determinada rota e, em seguida, detonar sua ogiva sem nenhum humano por perto. E na década de 1990, sabíamos como construir coisas como submunições de skeet que podiam vagar por um campo de batalha e procurar objetos quentes como tanques - usando software para decidir quando então destruí-los. Portanto, a máquina assassina já estava decidindo por si mesma.

Mesmo se o terminador do General Selva não for construído, a robótica, em alguns casos, provavelmente terá maior autoridade de tomada de decisão para decidir quando usar a força, uma vez que já ultrapassamos esse limite. Este assunto altamente tenso requer supervisão ética e legal cuidadosa, com certeza, e os riscos associados são sérios. Ainda assim, a velocidade com que as operações militares devem ocorrer criará incentivos para que uma pessoa não participe da tomada de decisões em muitos cenários táticos. Qualquer que seja a preferência dos Estados Unidos, as restrições ao uso automatizado de força violenta também pareceriam relativamente difíceis de negociar (mesmo se desejável), dada a provável oposição da Rússia e talvez de outras nações, bem como enormes problemas de verificação.

Por exemplo, pequenos robôs que podem operar como enxames na terra, no ar ou na água podem ter certa margem de manobra para decidir quando operar suas capacidades letais. Comunicando-se uns com os outros e processando informações sobre o inimigo em tempo real, eles podem concentrar ataques onde as defesas são mais fracas em uma forma de combate que John Allen e Amir Husain chamam de hiperguerra devido à sua velocidade e intensidade. Outros tipos de enxames podem atacar aeronaves estacionadas; mesmo pequenos explosivos, detonados com precisão, podem desativar asas ou motores ou produzir explosões secundárias e muito maiores. Muitos países terão capacidade para fazer essas coisas nos próximos vinte anos. Mesmo que os Estados Unidos tentem evitar o uso de tais enxames para propósitos letais e ofensivos, podem optar por empregá-los como escudos defensivos (talvez contra o ataque da artilharia norte-coreana contra Seul) ou como auxiliares de interferência para acompanhar aeronaves que penetram. Com UAVs que podem voar dez horas e cem quilômetros agora custando apenas centenas de milhares de dólares, e quadricópteros com alcance de um quilômetro mais ou menos custando centenas de dólares, as linhas de tendência são claras - e a acessibilidade de usar muitos drones de forma organizada é evidente.

isis é xiita ou sunita

Onde a regulamentação pode ser possível, e eticamente convincente, está limitando o espaço geográfico e temporal onde armas conduzidas por IA ou outros algoritmos complexos podem usar força letal. Por exemplo, os enxames mencionados acima podem ser ativados apenas perto de um navio, ou nos céus perto da DMZ na Coréia, ou a uma pequena distância de um campo de aviação militar. Também pode ser inteligente proibir que as máquinas decidam quando matar pessoas. Pode ser tentador usar a tecnologia de reconhecimento facial em futuros robôs para fazê-los caçar o próximo Bin Laden, Baghdadi ou Soleimani em uma enorme cidade do Meio-Leste. Mas o potencial para erros, para hackers e para muitos outros malfuncionamentos pode ser grande demais para permitir esse tipo de coisa. Provavelmente também faz sentido proibir o uso de IA para atacar o comando nuclear e a infraestrutura de controle de uma grande potência nuclear. Essas tentativas podem dar origem a usá-los ou perdê-los temores em uma crise futura e, assim, aumentar os riscos de uma guerra nuclear.

Estamos nos primeiros dias da IA. Ainda não podemos começar a prever para onde está indo e o que pode ser possível em dez, vinte ou trinta anos. Mas podemos trabalhar mais para entender o que ele realmente é - e também pensar muito sobre como colocar limites éticos em seu futuro desenvolvimento e uso. O futuro da guerra, para melhor ou para pior, está literalmente em jogo.