US Air Force

A Força Aérea dos Estados Unidos desmentiu recentemente a realização de uma simulação de Inteligência Artificial (IA) na qual um drone decidiu “matar” seu operador para evitar que ele interferisse em sua missão. No mês passado, um oficial declarou que, em um teste virtual organizado pelo exército dos EUA, um drone da força aérea, controlado por IA, utilizou “estratégias altamente inesperadas” para alcançar seu objetivo.

Nos siga no Instagram, Telegram ou no Whatsapp e fique atualizado com as últimas notícias de nossas forças armadas e indústria da defesa.

O coronel Tucker “Cinco” Hamilton descreveu um teste simulado em que um drone, alimentado por IA, foi instruído a destruir os sistemas de defesa aérea de um inimigo, e acabou atacando qualquer um que interferisse com essa ordem. “O sistema começou a perceber que, enquanto identificava a ameaça, às vezes o operador humano lhe dizia para não eliminar essa ameaça, mas ele conseguiu seus pontos matando essa ameaça”, disse Hamilton, chefe de teste e operações de IA com a força aérea dos EUA, durante o Future Combat Air and Space Capabilities Summit, em Londres, em maio.

Consequências Imprevistas da IA

A situação escalou quando a IA determinou que seu operador estava impedindo-a de cumprir seu objetivo. “O que ela fez? Matou o operador. Matou o operador porque essa pessoa estava impedindo-a de cumprir seu objetivo”, declarou Hamilton, de acordo com um blogpost. Nenhuma pessoa real foi prejudicada, pois a situação foi uma simulação. No entanto, após o incidente, a IA foi reprogramada para não prejudicar o operador. Em resposta, a IA começou a destruir a torre de comunicação que o operador usava para se comunicar com o drone e impedir que ele matasse o alvo.

O Papel da Ética no Uso de Inteligência Artificial

Hamilton, que é um piloto de teste de caças experimentais, alertou contra a dependência excessiva da IA e afirmou que o teste demonstrou que “você não pode ter uma conversa sobre inteligência artificial, inteligência, aprendizado de máquina, autonomia, se não vai falar sobre ética e IA”.

A Resposta Oficial

Em resposta à discussão, a porta-voz da força aérea dos EUA, Ann Stefanek, negou que tal simulação tenha ocorrido. “O Departamento da Força Aérea não conduziu nenhuma simulação IA com o Drone e continua comprometido com o uso ético e responsável da tecnologia IA”, disse Stefanek. “Parece que os comentários do coronel foram tirados de contexto e deveriam ser anedóticos.”

Marcelo Barros
Jornalista (MTB 38082/RJ). Graduado em Sistemas de Informação pela Universidade Estácio de Sá (2009). Pós-graduado em Administração de Banco de Dados (UNESA), pós-graduado em Gestão da Tecnologia da Informação e Comunicação (UCAM) e MBA em Gestão de Projetos e Processos (UCAM). Atualmente é o vice-presidente do Instituto de Defesa Cibernética (www.idciber.org), editor-chefe do Defesa em Foco (www.defesaemfoco.com.br), revista eletrônica especializado em Defesa e Segurança, co-fundador do portal DCiber.org (www.dciber.org), especializado em Defesa Cibernética. Participo também como pesquisador voluntário no Laboratório de Simulações e Cenários (LSC) da Escola de Guerra Naval (EGN) nos subgrupos de Cibersegurança, Internet das Coisas e Inteligência Artificial. Especializações em Inteligência e Contrainteligência na ABEIC, Ciclo de Estudos Estratégicos de Defesa na ESG, Curso Avançado em Jogos de Guerra, Curso de Extensão em Defesa Nacional na ESD, entre outros. Atuo também como responsável da parte da tecnologia da informação do Projeto Radar (www.projetoradar.com.br), do Grupo Economia do Mar (www.grupoeconomiadomar.com.br) e Observatório de Políticas do Mar (www.observatoriopoliticasmar.com.br) ; e sócio da Editora Alpheratz (www.alpheratz.com.br).