Google News

Por Bruno Romani, do Estadão

Uma expressão bastante comum entre pesquisadores e desenvolvedores de inteligência artificial (IA) é “inverno de IA” (do inglês, AI winter). Ela se refere à possibilidade do desenvolvimento da tecnologia desacelerar até ficar “adormecido” por um longo período, dando espaço para outras áreas de pesquisa tecnológica. É uma ideia que passa longe dos pensamentos de Max Tegmark, cosmologista e professor do Instituto de Tecnologia de Massachusetts (MIT).

Com diversas áreas de interesse científicas, o sueco costuma explorar os vários cenários nos quais a IA pode se desenvolver aceleradamente. Ao contrário de um inverno, o maior temor do pesquisador é o superaquecimento na evolução das máquinas. Para ele, é necessário que a humanidade não permita a evolução descontrolada da tecnologia.

Max explorou diferentes cenários da evolução da IA em seu livro “Vida 3.0 – O ser humano na era da inteligência artificial” (ed. Benvirá, R$ 59,90), que ganhou em janeiro passado sua primeira edição em português. Alguns dos cenários são altamente futuristas, como a colonização do universo por sistemas de IA e a fusão entre humanos e máquinas, o que amplia a percepção daquilo que enxergamos como vida. As visões fizeram com que a obra fosse apontada por Barack Obama, ex-presidente dos EUA, como um dos principais livros de 2018.

Em entrevista exclusiva, Max discutiu problemas mais imediatos relacionados à IA: desigualdade social, temores sobre os líderes do desenvolvimento, incapacidade de governos de lidar com a tecnologia, mudanças no mercado de trabalho e até o papel da tecnologia no combate à covid-19. Em muitos momentos, ele deixa claro que o problema não é a máquina. O ponto fraco somos nós. Confira.

Grandes empresas, como Google, Facebook e Amazon, estão entre os principais nomes por trás do desenvolvimento de IA. Quais são os problemas desse modelo?

Primeiro: a IA não é “má”. É apenas uma ferramenta que pode ser usada para fazer coisas boas e ruins. Hoje em dia, ela é cada vez mais usada por grandes empresas e por governos para manipular as pessoas. Gostaria de ver isso sendo usado na direção contrária, permitindo que as pessoas pudessem descobrir quando estão sendo manipuladas. Hoje, quando você lê notícias online, os algoritmos estão tentando manipular você a ficar exposto ao maior número possível de anúncios comerciais – é assim que as empresas ganham dinheiro. A maneira que o algoritmo faz isso é exibir notícias que geram raiva ou notícias trazem pontos de vista com os quais o leitor já concorda. Dessa maneira, ocorre um efeito de bolha.

Alguns dos homens mais ricos do mundo estão ligados ao desenvolvimento de IA. A IA aumenta a desigualdade?

Sem dúvidas. Toda vez que um trabalhador humano perde seu emprego para um algoritmo ou um robô, o dinheiro que antes ia para aquele humano permanece com o dono do capital, que fica mais rico. Compare o Facebook com a Ford. O Facebook tem valor de mercado muito mais alto e tem muito menos funcionários. A razão? O Facebook tem uma porção muito maior do trabalho realizado por IA. Cada vez mais, as empresas estão deixando de ser a Ford para se tornar o Facebook, com muitos algoritmos e um pequeno número de programadores. Isso gera desigualdade na renda, com menos dinheiro indo para trabalhadores comuns. O único jeito de ter uma sociedade na qual todos têm uma vida melhor é os governos cobrarem impostos das empresas de tecnologia e distribuírem esse dinheiro para as pessoas. É por isso que os franceses tentaram criar um imposto digital sobre Google e Facebook, mas os americanos ficaram bravos e passaram a ameaçar as exportações francesas. O lobby das grandes empresas americanas é muito poderoso e quer evitar qualquer tipo de taxação e regulação. Não estou dizendo que essas empresas são más, mas, no capitalismo, é preciso garantir que a palavra final seja dos governos e não das empresas.

Quem deveria estar desenvolvendo IA?

Governos não deveriam permitir que empresas específicas tenham domínio absoluto de IA. O governo brasileiro, por exemplo, não deveria permitir o monopólio de duas empresas que não são brasileiras – vocês deveriam ter controle sobre sua própria mídia. Isso geraria uma oportunidade para startups brasileiras competirem. É importante valorizar também projetos que tentam romper o filtro da bolha. A IA pode dar poder para pessoas comuns, não apenas para as grandes companhias.

Os governos têm gente capaz de compreender e regular a IA?

Não posso falar sobre o Brasil, mas nos EUA e na Europa, a maioria dos políticos não têm perfil técnico: eles não são engenheiros ou cientistas. Portanto, eles não entendem a tecnologia tão bem quanto deveriam. Veja o caso da China: a maioria dos políticos é de engenheiros. Provavelmente, isso dá alguma vantagem a eles.

Fake news podem ser um problema para o desenvolvimento de IA?

Notícias falsas e enviesadas são um problema para a democracia, não para a IA. Muitas das ideias por trás da democracia é a de que as pessoas podem fazer escolhas baseadas em fatos. Quando as notícias são enviesadas ao ponto de não sabermos a verdade, a democracia não funciona. Muitas pessoas acham que o maior problema com as notícias são as fake news, mas não é. Fake news significa que aquilo que é dito é falso. O maior problema acontece quando coisas verdadeiras são retiradas de contexto, quando informações relevantes são omitidas. O viés é muito problemático. Existem muitas oportunidades para a IA ajudar as pessoas a perceberem que estão sendo manipuladas.

Muita gente já têm consciência no papel de como a IA pode ajudar na distribuição de notícias falsas (e potencialmente do papel corrosivo nas democracias). Isso não pode gerar um movimento de rejeição à tecnologia?

Há tanto dinheiro investido em IA atualmente, que é impossível que a tecnologia seja banida. A conversa não deve ser sobre como pará-la, mas como liberá-la. É preciso garantir que as pessoas tenham acesso a boas ferramentas gratuitas de IA que estejam fora do monopólio das grandes empresas.

Qual é o perfil de trabalhador que não será substituído pela IA?

Os trabalhos que deveríamos evitar são aqueles que serão completamente substituídos pela IA. Isso vale para qualquer trabalho altamente estruturado, no qual o trabalhador passa o dia inteiro fazendo algo altamente previsível e interagindo pouco com outros humanos. Os melhores trabalhos são aqueles com componentes imprevisíveis e com bastante improviso. São trabalhos que as pessoas pagaram a mais para interagir com um humano. Pode ser um padre ou um massagista: mas há sempre uma conexão humana. É preciso lembrar que a maioria dos empregos não será substituída completamente e nem passará livre da tecnologia. Acontecerá algo entre essas duas coisas. A tecnologia será parte do trabalho. Meu conselho é: preste atenção, leia revistas de ciência e tente se informar sobre o que acontece com IA. No caso de um médico, você não deveria se tornar o radiologista que passa o dia inteiro olhando para exames de imagem. Você deve ser o médico que recebe a análise automatizada pela IA e decide pelo tratamento.

Qual foi o papel da IA durante a pandemia? Poderia ter ajudado mais?

Poderia ter ajudado mais, mas não devemos culpar a IA, e sim as pessoas. Se você olhar o que aconteceu nos EUA e no Brasil e comparar com outros países, verá uma grande diferença. A Coreia do Sul teve cerca de 1.800 mortes. E tanto a Coreia do Sul quanto o Brasil têm acesso à IA. Mas a Coreia estava muito preparada e agiu com velocidade. E eles nem precisaram de um lockdown, Eles passaram a usar contact tracing, a realizar testagens massivas etc. No geral, os países asiáticos se saíram bem na pandemia porque estavam preparados e isso inclui a IA. Espero que a covid-19 nos ensine a ser mais humildes para que estejamos preparados para tudo.

O desenvolvimento de IA pode passar pelo chamado “inverno de IA” (expressão usada para indicar desaceleração no desenvolvimento da tecnologia)?

Tenho certeza que não atravessaremos um inverno de IA porque há substância no que está sendo feito. Minha preocupação não é que a IA esfrie, mas que ela superaqueça. Há tanta tecnologia desenvolvida com tanta velocidade que temo que possam sair do controle. Na história do homo sapiens, a nossa ciência só melhorou e a tecnologia ficou muito poderosa. Não queremos algo tão poderoso fora de controle – armas nucleares são um exemplo disso. Se as nossas democracias forem abaladas, e as empresas de tecnologia tomarem o comando, a gente pode nunca se recuperar novamente. Certamente não queremos uma IA com a qual um humano pudesse dominar o mundo.

Fonte: Estadão

Participe do nosso grupo e receba as principais notícias do Defesa em Foco na palma da sua mão.

blank

Ao entrar você está ciente e de acordo com os termos de uso e privacidade do WhatsApp.



Assine nossa Newsletter


Receba todo final de tarde as últimas notícias do Defesa em Foco em seu e-mail, é de graça!

DEIXE UMA RESPOSTA

Por favor insira seu comentário!
Digite seu nome aqui