Simular o comportamento de uma IA superinteligente seria inviável, segundo estudo

Pesquisadores mostram que o humano não tem como impedir que uma IA faça suas próprias escolhas e que, inclusive, elas já fazem

Author Photo
1:30 pm - 27 de setembro de 2021

À medida que a inteligência artificial se populariza e se torna a solução de muitos problemas contemporâneos, mais dependente da tecnologia ficamos. No momento, isso ainda parece vantajoso, no entanto, uma pesquisa mostra os riscos dessa tendência. Para os pesquisadores do Instituto Max-Planck, os humanos não podem impedir que uma IA faça suas próprias escolhas, pois já existem máquinas, hoje, que fazem suas tarefas de forma independente.

“Uma máquina superinteligente que controla o mundo parece ficção científica”, disse Manuel Cebrian, coautor do estudo e Líder do grupo de pesquisa ao Business Insider. “Mas já existem máquinas que realizam certas tarefas importantes de forma independente, sem que os programadores entendam totalmente como as aprenderam [sic].”

De acordo com o estudo, publicado no Journal of Artificial Intelligence Research, para prever as ações de uma IA, seria necessário fazer uma simulação dessa superinteligência exata.

Os pesquisadores avaliaram duas maneiras diferentes de controlar a IA. A primeira foi limitar o acesso de uma IA à internet, segundo a publicação do Business Insider. A segunda, parte do “problema da parada”, de Alan Turing, que explora se um programa pode ser interrompido com algoritmos de contenção ou se continuará executando indefinidamente.

Manuel Alfonseca, coautor do estudo e Líder do grupo de pesquisa do Centro para Humanos e Máquinas do Instituto Max-Planck, explicou que tudo gira em torno de “algoritmos de contenção”, semelhante à Primeira Lei da Robótica de Asimov, de acordo com o IEEE.

Isaac Asimov, escritor de ficção científica, expôs As Três Leis da Robótica em seu conto “Runaround”, em que a primeira lei dizia que um robô não poderia ferir um humano ou permitir que ele sofresse algum dano. Ele tinha que obedecer ordens a menos que tais ordens entrassem em conflito com a primeira lei, e eles tinham que se proteger, desde que isso não entrasse em conflito com a primeira ou a segunda lei. Isso em 1942.

Os pesquisadores concluíram que um “algoritmo de contenção” para simular o comportamento da IA – onde o algoritmo “pararia” a IA se fosse prejudicar humanos – seria simplesmente inviável, destaca a publicação.

“Uma superinteligência apresenta um problema fundamentalmente diferente daqueles normalmente estudados sob a bandeira da ‘ética do robô'”, disseram os pesquisadores.

“A capacidade dos computadores modernos de se adaptarem usando algoritmos sofisticados de machine learning torna ainda mais difícil fazer suposições sobre o eventual comportamento de uma IA superinteligente”, disse Iyad Rahwan, pesquisador da equipe. A IA não deve ser criada se não for necessária, disse Rahwan, pois é difícil mapear o curso de sua evolução potencial e não seremos capazes de limitar suas capacidades mais adiante, segundo o Business Insider.

Com informações de Business Insider

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.