Notícias

Simular o comportamento de uma IA superinteligente seria inviável, segundo estudo

À medida que a inteligência artificial se populariza e se torna a solução de muitos problemas contemporâneos, mais dependente da tecnologia ficamos. No momento, isso ainda parece vantajoso, no entanto, uma pesquisa mostra os riscos dessa tendência. Para os pesquisadores do Instituto Max-Planck, os humanos não podem impedir que uma IA faça suas próprias escolhas, pois já existem máquinas, hoje, que fazem suas tarefas de forma independente.

“Uma máquina superinteligente que controla o mundo parece ficção científica”, disse Manuel Cebrian, coautor do estudo e Líder do grupo de pesquisa ao Business Insider. “Mas já existem máquinas que realizam certas tarefas importantes de forma independente, sem que os programadores entendam totalmente como as aprenderam [sic].”

De acordo com o estudo, publicado no Journal of Artificial Intelligence Research, para prever as ações de uma IA, seria necessário fazer uma simulação dessa superinteligência exata.

Os pesquisadores avaliaram duas maneiras diferentes de controlar a IA. A primeira foi limitar o acesso de uma IA à internet, segundo a publicação do Business Insider. A segunda, parte do “problema da parada”, de Alan Turing, que explora se um programa pode ser interrompido com algoritmos de contenção ou se continuará executando indefinidamente.

Manuel Alfonseca, coautor do estudo e Líder do grupo de pesquisa do Centro para Humanos e Máquinas do Instituto Max-Planck, explicou que tudo gira em torno de “algoritmos de contenção”, semelhante à Primeira Lei da Robótica de Asimov, de acordo com o IEEE.

Isaac Asimov, escritor de ficção científica, expôs As Três Leis da Robótica em seu conto “Runaround”, em que a primeira lei dizia que um robô não poderia ferir um humano ou permitir que ele sofresse algum dano. Ele tinha que obedecer ordens a menos que tais ordens entrassem em conflito com a primeira lei, e eles tinham que se proteger, desde que isso não entrasse em conflito com a primeira ou a segunda lei. Isso em 1942.

Os pesquisadores concluíram que um “algoritmo de contenção” para simular o comportamento da IA – onde o algoritmo “pararia” a IA se fosse prejudicar humanos – seria simplesmente inviável, destaca a publicação.

“Uma superinteligência apresenta um problema fundamentalmente diferente daqueles normalmente estudados sob a bandeira da ‘ética do robô'”, disseram os pesquisadores.

“A capacidade dos computadores modernos de se adaptarem usando algoritmos sofisticados de machine learning torna ainda mais difícil fazer suposições sobre o eventual comportamento de uma IA superinteligente”, disse Iyad Rahwan, pesquisador da equipe. A IA não deve ser criada se não for necessária, disse Rahwan, pois é difícil mapear o curso de sua evolução potencial e não seremos capazes de limitar suas capacidades mais adiante, segundo o Business Insider.

Com informações de Business Insider

Recent Posts

Intel e Softtek anunciam aliança para as Américas

A Intel e a consultoria mexicana Softtek anunciaram na segunda-feira (1º) uma parceria para “acelerar…

9 horas ago

Teki anuncia parceria e se torna primeiro distribuidor oficial do GitHub no Brasil

A Teki, distribuidora brasileira de software que opera totalmente na nuvem, anunciou essa semana uma…

11 horas ago

Medida de suspensão da ANPD contra Meta demonstra força da LGPD no Brasil

A ANPD (Autoridade Nacional de Proteção de Dados) decidiu, hoje, suspender imediatamente a nova política…

12 horas ago

Motorola Solutions anuncia a aquisição da Noggin

A Motorola Solutions acaba de anunciar a aquisição da Noggin, fornecedora global de software baseado…

13 horas ago

ANPD exige imediata suspensão de política da Meta de treinamento de IA

Autoridade Nacional de Proteção de Dados (ANPD) emitiu uma Medida Preventiva determinando a imediata suspensão,…

14 horas ago

Microsoft, DocuSign, Amazon: conheça as 10 marcas globais mais usadas em ataques por e-mail

Um levantamento recente divulgado pela Cisco Talos, unidade de inteligência de ameaças da Cisco, revelou…

15 horas ago