Notícias

Simular o comportamento de uma IA superinteligente seria inviável, segundo estudo

À medida que a inteligência artificial se populariza e se torna a solução de muitos problemas contemporâneos, mais dependente da tecnologia ficamos. No momento, isso ainda parece vantajoso, no entanto, uma pesquisa mostra os riscos dessa tendência. Para os pesquisadores do Instituto Max-Planck, os humanos não podem impedir que uma IA faça suas próprias escolhas, pois já existem máquinas, hoje, que fazem suas tarefas de forma independente.

“Uma máquina superinteligente que controla o mundo parece ficção científica”, disse Manuel Cebrian, coautor do estudo e Líder do grupo de pesquisa ao Business Insider. “Mas já existem máquinas que realizam certas tarefas importantes de forma independente, sem que os programadores entendam totalmente como as aprenderam [sic].”

De acordo com o estudo, publicado no Journal of Artificial Intelligence Research, para prever as ações de uma IA, seria necessário fazer uma simulação dessa superinteligência exata.

Os pesquisadores avaliaram duas maneiras diferentes de controlar a IA. A primeira foi limitar o acesso de uma IA à internet, segundo a publicação do Business Insider. A segunda, parte do “problema da parada”, de Alan Turing, que explora se um programa pode ser interrompido com algoritmos de contenção ou se continuará executando indefinidamente.

Manuel Alfonseca, coautor do estudo e Líder do grupo de pesquisa do Centro para Humanos e Máquinas do Instituto Max-Planck, explicou que tudo gira em torno de “algoritmos de contenção”, semelhante à Primeira Lei da Robótica de Asimov, de acordo com o IEEE.

Isaac Asimov, escritor de ficção científica, expôs As Três Leis da Robótica em seu conto “Runaround”, em que a primeira lei dizia que um robô não poderia ferir um humano ou permitir que ele sofresse algum dano. Ele tinha que obedecer ordens a menos que tais ordens entrassem em conflito com a primeira lei, e eles tinham que se proteger, desde que isso não entrasse em conflito com a primeira ou a segunda lei. Isso em 1942.

Os pesquisadores concluíram que um “algoritmo de contenção” para simular o comportamento da IA – onde o algoritmo “pararia” a IA se fosse prejudicar humanos – seria simplesmente inviável, destaca a publicação.

“Uma superinteligência apresenta um problema fundamentalmente diferente daqueles normalmente estudados sob a bandeira da ‘ética do robô'”, disseram os pesquisadores.

“A capacidade dos computadores modernos de se adaptarem usando algoritmos sofisticados de machine learning torna ainda mais difícil fazer suposições sobre o eventual comportamento de uma IA superinteligente”, disse Iyad Rahwan, pesquisador da equipe. A IA não deve ser criada se não for necessária, disse Rahwan, pois é difícil mapear o curso de sua evolução potencial e não seremos capazes de limitar suas capacidades mais adiante, segundo o Business Insider.

Com informações de Business Insider

Recent Posts

Novos executivos da semana: Dahua, Rimini Street, Arcserve e mais

O IT Forum traz, semanalmente, os novos executivos e os principais anúncios de contratações, promoções e…

2 dias ago

Sustentabilidade x IA: emissões da Microsoft sobem 30%

A Microsoft está enfrentando críticas após um relatório revelar um aumento alarmante em suas emissões…

2 dias ago

Centroflora integra e monitora ambientes industriais e automatiza manutenções

O Grupo Centroflora é um fabricante de extratos botânicos, óleos essenciais e ativos isolados para…

2 dias ago

8 oportunidades de vagas e cursos em TI

Toda semana, o IT Forum reúne as oportunidades mais promissoras para quem está buscando expandir…

2 dias ago

Fraudes: 58% das empresas dizem estar mais preocupadas no último ano

Um estudo divulgado na segunda-feira (13) pela Serasa Experian mostra que a preocupação com fraudes…

2 dias ago

82% dos ataques via USB podem interromper operações industriais

A Honeywell divulgou essa semana a sexta edição de seu Relatório de Ameaças USB de…

2 dias ago