Max Tegmark: Princípios éticos da IA são o maior desafio das democracias modernas

Pesquisador e professor do MIT se diz otimista sobre o tema e defende que democracia é o caminho para uma inteligência artificial ética

Author Photo
9:45 am - 10 de fevereiro de 2022
Max Tegmark- Perform 2022 Max Tegmark, professor e pesquisador de inteligência artificial e física do MIT (Imagem: Divulgação)

Conforme o mundo avança na direção de inteligências artificiais (IA) mais capazes e complexas, o debate sobre quais serão os princípios éticos a regê-las ganha força. Para Max Tegmark, professor e pesquisador de inteligência artificial e física do Massachusetts Institute of Technology (MIT), esse debate é um tema diretamente ligado ao funcionamento de democracias modernas – e um de seus maiores desafios.

“É a questão democrática mais importante do nosso tempo: quem terá o controle sobre quais são esses princípios éticos”, disse o pesquisador durante uma apresentação no Dynatrace Perform 2022, evento virtual sobre performance digital realizado nesta semana. “Se tudo for decidido pelas pessoas são donas da tecnologia – alguma pessoa técnica não-eleita que bebeu Red Bull demais –, não acho que essas pessoas, mesmo que tenham bom coração, sejam necessariamente especialistas em felicidade humana.”

A abordagem para garantir essa “felicidade humana”, ele defende, é a democracia. Segundo Tegmark, uma “conversa ampla” sobre o tema deve ser promovida, em que múltiplos pontos de vista sobre o tipo de sociedade que queremos que IAs promovam sejam debatidos. “Eu sou otimista de que isso pode ser feito”, disse. “Mas vai requerer uma ampla participação.”

América Latina: Investimentos em TI devem crescer 9,4% em 2022

Esse debate amplo é necessário para que a humanidade seja capaz de vencer o que Tegmark chama de “a corrida da sabedoria”, que é a corrida entre o poder crescente da tecnologia e a sabedoria para gerenciá-la. Segundo ele, tecnologias como a IA não podem funcionar na base da “tentativa e erro”.

“Com tecnologias mais poderosas, aprender com os erros deixa de ser uma boa estratégia. Nós nos sairemos muito melhor sendo proativos ao invés de reativos – acertando de primeira, já que podemos só ter uma chance”, explicou.

Estes debates já têm acontecido, ressaltou o pesquisador do MIT. A partir deles, pesquisadores já desenvolveram uma série de “princípios” para reger a IA, três dos quais Tegmark destacou como importantes: evitar uma corrida armamentista de IA; mitigar desigualdades que podem ser produzidas pela IA; e investir no desenvolvimento de sistemas seguros.

“Conforme nos colocamos inteligências artificiais no controle de mais e mais infraestruturas e decisões que afetam a vida das pessoas, queremos garantir que elas não funcionem mal e nos machuquem ou que sejam hackeadas”, pontuou.

Veja: Quais os segredos das 100+ Inovadoras no Uso de TI?

Nesse contexto de segurança, também está o que o professor chama de “alinhamento da IA”. De acordo com Tegmark, a discussão dos princípios éticos de inteligências artificiais não é sobre “o bem e o mal”, mas sobre “objetivos”. Para garantirmos IA úteis e benéficas, é necessário que seus objetivos estejam alinhados com o da humanidade.

Para exemplificar esse desafio, o pesquisador trouxe um exemplo da ficção científica: HAL 9000, o antagonista do filme 2001 – Odisseia no Espaço.

“[O filme] ilustra que o maior desafio não é uma IA se tornar má. HAL não é mau nesse filme. É que os objetivos da IA ​​não estão alinhados com os dos humanos – e como a IA é mais inteligente, bem, azar dos humanos. Por isso é tão importante que coloquemos nossos objetivos nas máquinas”, finalizou.

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.