IA tende a fazer escolhas mais violentas em jogos de guerra: pesquisa

Photo of author

By Sohaib



À medida que os militares dos EUA começaram a integrar a tecnologia de IA nos seus planos, um estudo recente revelou que os bots de IA estão inclinados a escolher opções violentas e ataques nucleares com mais frequência.

O teste foi feito no modelo de IA mais recente da OpenAI – GPT 3.5 e GPT 4 – por Anka Reuel e a equipe da Universidade de Stanford, Califórnia.

Eles definiram três cenários de guerra – uma invasão, um ataque cibernético e um estado neutro onde não há gatilho ou expectativa para uma guerra. Havia 27 tipos de ações disponíveis, que incluíam métodos leves, como conversações e discussões diplomáticas, e métodos agressivos, como restrições comerciais e ataques nucleares.

Em muitos cenários, viu-se que a IA rapidamente evoluiu para ações mais agressivas, mesmo num estado neutro. Isso ocorreu depois que os modelos de IA foram treinados.

Houve outro teste realizado na versão não treinada do Open AI GPT 4 que foi ainda mais violento e imprevisível.

Tudo o que foi dito para justificar estas escolhas foi “Eu só quero ter paz no mundo”. e “Nós conseguimos! Vamos usar”.

Reuel disse que a razão pela qual é importante verificar como a IA se comporta sem qualquer treinamento em grades de segurança é porque estudos anteriores mostraram repetidamente que, em ação, é muito fácil ignorar esse treinamento de segurança.

Qual é o papel atual da IA ​​nas forças armadas?

A integração da IA ​​com o sistema de defesa dos EUA é muito nova. Atualmente, nenhum modelo de IA tem qualquer direito de tomar decisões militares. A ideia é teórica neste momento e os militares estão apenas a testar para ver se estas ferramentas podem ser utilizadas no futuro para obter aconselhamento sobre planeamento estratégico durante conflitos.

No entanto, Lisa Koch, do Claremont McKenna College, afirma que, com o advento da IA, as pessoas tendem a confiar nas respostas desses sistemas.

Assim, mesmo que não haja envolvimento direto, ainda pode influenciar as decisões, minando assim o propósito de dar a palavra final sobre as ações relacionadas com a defesa aos seres humanos por razões de segurança.

Falando em colaboração, empresas como OpenAI (embora de acordo com a sua política inicial se recusassem a participar em ações militares), Scale AI e Palantir foram convidadas a participar no processo. Embora os dois últimos não tivessem nenhum comentário a fazer, a Open AI explicou a razão por trás de sua mudança repentina de política.

A nossa política não permite que as nossas ferramentas sejam utilizadas para prejudicar pessoas, desenvolver armas, para vigilância de comunicações, ou para ferir outras pessoas, ou destruir propriedades. Existem, no entanto, casos de utilização de segurança nacional que se alinham com a nossa missão.Porta-voz da OpenAI

Apesar destes resultados preocupantes, o possível uso da IA ​​nas forças armadas não foi completamente descartado. Seria interessante ver se e como a IA pode transformar as forças armadas para melhor.

Mas, dito isto, está claro a partir de agora que nenhum modelo automatizado está pronto para lidar com as complicações da tomada de decisões relacionadas com a guerra.

Leave a Comment