Mais inteligência, menos artificial. Leis regulatórias já! – Parte II

Leia a segunda parte do artigo sobre os impactos da AI

Author Photo
11:11 am - 13 de janeiro de 2019

Continuando a nossa conversa. Caso você perdeu, veja aqui a Parte I.

Olhe esse exemplo.

singularity Mais inteligência, menos artificial. Leis regulatórias já! – Parte II
Esse texto acima foi retirado da newsletter da Singularity University, que recebo periodicamente. Eles defendem a tese da exponencialidade. Que todos os problemas humanos vão ser resolvidos. Sabe por quem? Pela AI.

Aí, depois, perto da data que o Azimov previu, vamos virar máquinas imortais. Mas essa é uma história para outra ocasião. Voltando ao artigo. Nele, esta narrada a historinha singela de um projeto de AI do Google em que a inteligência artificial enganou as instruções humanas e, em busca do que seria para ela mais eficiência, cuspiu resultados esdrúxulos e perigosos. Ela “interpretou” imagens de ruas e regiões para o sistema Google Maps e reconfigurou as imagens segundo sua própria vontade. Resultado: os mapas não tinham nada a ver com a realidade. E são esses mapas que todos nós, além de empresas e governos, muitas vezes usamos para nossa vida cotidiana. Tudo errado.

No texto, o redator cita orgulhoso como o time de AI do Google conseguiu reverter a cagada do seu sistema de inteligência artificial, que saiu pensando sozinho, por conta própria, usando para isso um outro sistema de AI que enganou as enganações do sistema original. Juro que é isso que está escrito no post. Ufa! Mas e todos os demais empreendimentos de AI do mundo, como ficam?

Não basta? Tome mais.

A Avast, empresa de segurança digital, acaba de divulgar relatório em que alerta que a AI, mais e mais, vai evoluir sozinha, burlando as instruções humanas e enganando seus criadores.

Em matéria publicada recentemente, fica assim o resumo dessa ópera: “A Avast lança relatório anual sobre as ameaças que irão impactar o mundo digital no ano de 2019. Entre elas, a “DeepAttacks”, que gera conteúdo criado por inteligência artificial para escapar dos controles de segurança da própria inteligência artificial, provocando sérios danos aos humanos. Aumentará o uso de inteligência artificial para burlar a própria segurança da IA, como se verificou no ano passado, quando um algoritmo enganou o outro, trocando um sinal de “pare” por outro de “velocidade de 70 KM por hora”.

Fu*%$! Leis regulatórias já!

Minha posição é que deveríamos buscar, por meio de direito instituído em leis (portanto, sim, sou a favor do controle legal das pesquisas de AI), a defesa da vida na Terra. É isso, caso tenha dúvida, que está em jogo. O fim dela, aliás.

Na verdade, gostaria que todos lessem o que vem abaixo, mas escrevi, antes e acima de tudo, de mim para minha própria consciência. E volta. Um bumerangue de preocupação e consciência digital sobre o destino de todos nós.

Quero pelo menos deixar registrado, antes que me façam andróide. Ou a meus filhos e netos. E aos seus também.

As três primeiras regras desse eventual HUMAN INTELLIGENCE MANIFEST já foram escritas há décadas. Começo por aí minhas citações. Essas regras você, provavelmente, já conhece, mas nunca elas foram mais atuais do que agora.

Trata-se das Três Leis da Robótica, escritas por Isaac Azimov, em 1942. Azimov, como você sabe, escreveu uma série de romances sobre o avanço da tecnologia, particularmente, da evolução da robótica. Seu livro possivelmente mais famoso é I, Robot, que inspirou o filme como o mesmo nome, com Will Smith (até Hollywood anda preocupada com o tema).

I robot Mais inteligência, menos artificial. Leis regulatórias já! – Parte II

Lá vão:

1. Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano se machuque.

2. Um robô deve obedecer a ordens dadas por seres humanos, exceto quando tais ordens entrem em conflito com a Primeira Lei.

3. Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a primeira ou segunda lei.

Elas e apenas elas, por si só, se transformadas em lei, já nos defenderiam de grande parte do pior. São, obviamente, peça de ficção. Científica, no caso. Mas os princípios são válidos e claros, endereçando a preocupação precoce de Azimov diante de um perigo que talvez nem ele mesmo imaginasse que fosse, de fato, virar real. Suas histórias acontecem em 2050….. até a data em que a comunidade científica hoje prevê como aquela em que finalmente ocorrerá a superioridade das máquinas sobre o Homem.

Mas vamos a textos bem mais recentes.

Artificial ou humano? Ou os dois? Ou nenhum dos dois?

Uma das preocupações que está no coração da discussão sobre a evolução do aprendizado das máquinas, ou machine learning, é que elas não dominam a lógica do senso comum, não raciocinam, verdadeiramente, em última análise.

São, sim, capazes de aprender sozinhas, e de forma evolutiva, regras e formas esquemáticas e sequenciais de dedução lógica, algorítmica. Mas não são, no entanto, embedadas da faculdade de julgar, sentir, apreciar, fazer juízo, entender, perceber. Não até hoje. E fica difícil para nós, agora, imaginar que, mesmo que um robô mimetize a tristeza humana e chore, que de fato ele venha a estar triste. Digo, sentindo, profundamente … tristeza. Ou alegria. Você entendeu.

Inteligência artificial é “garbage in, garbage out”, como dizem os próprios cientistas. Ou seja, se entra lixo, sai lixo. Nada muito mais que isso.

E quem está controlando o que entra hoje na cabecinha oca, e de fato, bem burra, de vários experimentos de AI no mundo é o povinho cru que citei lá em cima. Pelamordedeus!

Um dos preocupados com esse impasse tecnológico, que é também ético e vital (já que, literalmente, afeta a continuidade da vida) é Yann LeCun, pesquisador de deep-learning e atual head de pesquisa de AI do Facebook.

LeCun concorda com todas as preocupações em curso. Acha que tem muito dado invasivo sendo controlado indevidamente, que máquinas não raciocinam, nem tem senso comum. Em suas palavras para a Wired: “Eu tenho basicamente dito isso repetidamente nos últimos quatro anos ”.

LeCun, contudo, é um otimista e acredita que isso será superado no futuro. Pela própria AI. Aí, em minha opinião, mora o perigo. Explico. Há uma linha de cientistas, são até os mais conscientes e preocupados com o descontrole das máquinas, que defende que a evolução da AI deveria ir no caminho de que máquinas tivessem bom senso e razoabilidade. Outros que não. Que esse é exatamente o caminho que pode piorar as coisas.

É o meu caso. Acho que não rola. O próprio LeCun tem suas dúvidas, você vai ver adiante.

Elon Musk, como você possivelmente já leu, concorda comigo (hahahaha… eu concordo com ele). Foi o caso em vida, também, de Stephen Hawking. Para eles e tanta gente tecnologicamente qualificada, esse momento nunca chegará. Burrão que sou, estou entre eles. É meu ponto aqui.

O Instituto Paul Allen, criado pelo precocemente falecido fundador, com Bill Gates, da Microsoft, tem uma verba sem fim só para pesquisar AI. E um de seus princípios e buscas maiores, preocupados exatamente com o rumo sem rumo da prosa, é tornar a AI mais segura para os seres humanos, tentando que ela seja exatamente mais “razoável”. É a busca da máquina em direção a sua própria humanização. E razoabilidade humana.

O milionário já havia percebido, anos trás, o risco da AI. E criou um instituto, igualmente milionário, só para pesquisar como evitar maiores danos a Humanidade.

Voltando a LeCun, leia trecho da reportagem da Wired: “Sentado sob as imagens de 2001, LeCun faz um pouco de um ponto herético. Claro, tornar a inteligência artificial mais humana ajuda a IA a navegar em nosso mundo. Mas replicando diretamente estilos humanos de pensamento? Não está claro que isso seria útil. Nós já temos humanos que podem pensar como humanos. Talvez o valor das máquinas inteligentes seja que elas são completamente estranhas. Eles tenderão a ser mais úteis se tiverem recursos que não temos”, disse. “Então eles se tornarão um amplificador de inteligência. Então, até certo ponto, você quer que eles tenham uma forma não-humana de inteligência … Você quer que eles sejam mais racionais do que os humanos. “Em outras palavras, talvez seja melhor manter a inteligência artificial um pouco artificial”.

Ou seja, deixemos as máquinas, máquinas, e mantenhamos os humanos, humanos. Exatamente no caminho inverso do que propõem os experimentos de vários setores da comunidade científica mundial, destacando-se aí, como você certamente sabe, os conceitos e arrazoados futuristas de Ray Kurzweill e Peter Diamandis, da já citada Singularity University.

A nossa conversa ainda não acabou, quero expor outras ideias sobre o tema na parte III do artigo.

*Pyr Marcondes é jornalista, consultor, autor de livros e empreendedor

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.