A Microsoft defende a regulamentação governamental da IA. Devemos confiar?

A corrida da IA generativa já começou e iniciativas de regulamentação governamental podem chegar tarde demais para serem eficazes

Author Photo
1:20 pm - 04 de julho de 2023
regulamentação ia generativa, inteligência artificial, RH

Até agora, praticamente todos concordam que a IA generativa poderosa precisa ser regulamentada. Em suas diversas formas, ela apresenta uma variedade de perigos potenciais: auxiliar regimes autoritários, graças à sua capacidade de criar desinformação; permitir que grandes empresas de tecnologia estabeleçam monopólios; eliminar milhões de empregos; tomar conta da infraestrutura vital; e, no pior caso, representar uma ameaça existencial à humanidade.

De uma forma ou de outra, governos ao redor do mundo, incluindo os Estados Unidos, que são avessos à regulamentação, eventualmente precisarão estabelecer regras sobre como a IA generativa pode e não pode ser usada, mesmo que seja apenas para mostrar que estão levando os perigos a sério.

Tais regras seriam extremamente importantes, porque sem barreiras adequadas em vigor em breve, pode ser tarde demais para impedir a disseminação da IA.

Leia mais: 5 tendências em alta de colaboração no local de trabalho – e 2 que estão em baixa

É por isso que a Microsoft está pressionando tanto por ação governamental – ou seja, o tipo de ação governamental que a empresa deseja. A Microsoft sabe que é o momento da corrida do ouro da IA, e a empresa que estabelecer suas reivindicações primeiro acabará sendo a vencedora. A Microsoft já estabeleceu essa reivindicação e agora quer garantir que o governo federal não interfira.

Não surpreendentemente, o Presidente da Microsoft, Brad Smith, e o CEO da OpenAI, Sam Altman, tornaram-se os executivos de tecnologia de referência do governo em busca de conselhos sobre como regular a IA generativa. Isso coloca a Microsoft, que investiu 13 bilhões de dólares na OpenAI, no banco do motorista – é uma aposta segura que as recomendações de Altman estejam alinhadas com as de Smith.

O que exatamente eles estão aconselhando o governo a fazer? E as recomendações deles realmente controlarão a IA ou será apenas uma fachada?

Altman se torna o rosto da IA

Mais do que qualquer outra pessoa, Altman se tornou o rosto da IA generativa no Congresso, a pessoa que os políticos eleitos procuram para saber mais sobre o assunto e pedir conselhos sobre regulamentações.

A razão é simples: a OpenAI criou o ChatGPT, o chatbot que revolucionou a IA quando foi revelado no final de 2022. Além disso, Altman cortejou cuidadosamente o Congresso e se apresenta não como um fanático por tecnologia, mas como um executivo razoável que só quer coisas boas para o mundo. O que não é dito é a quantidade de bilhões de dólares que ele, sua empresa e a Microsoft têm a ganhar garantindo que a regulamentação da IA reflita o que eles desejam.

Altman iniciou uma ofensiva encantadora em meados de maio, que incluiu um jantar com 60 membros do Congresso de ambos os partidos políticos. Ele testemunhou perante muitos dos mesmos membros do subcomitê judiciário do Senado sobre privacidade, tecnologia e direito, onde foi elogiado com termos normalmente reservados para importantes dignitários estrangeiros.

Durante a audiência, o Presidente do comitê, Senador Richard Blumenthal (D-CT) – normalmente crítico das Big Techs – ficou entusiasmado: “Sam Altman é completamente diferente dos outros CEOs. Não apenas nas palavras e retórica, mas também em suas ações reais e disposição para participar e se comprometer com ações específicas”.

Altman concentrou-se principalmente nos aspectos apocalípticos, incluindo a destruição da humanidade. Ele pediu ao Congresso que direcionasse suas regulamentações para esses tipos de questões.

Foi uma isca e troca [“bait-and-switch”].

Ao focar na legislação para os potenciais riscos apocalípticos da IA (que alguns veem como predominantemente teóricos em vez de reais neste momento), Altman deseja que o Congresso aprove regras que parecem importantes, mas que são ineficazes. Elas ignoram em grande parte os perigos muito reais que a tecnologia apresenta: roubo de propriedade intelectual, disseminação de desinformação em todas as direções, destruição em massa de empregos, crescimento contínuo de monopólios tecnológicos, perda de privacidade e outros problemas.

Se o Congresso seguir esse caminho, Altman, a Microsoft e outros da Big Tech colherão bilhões, o público permanecerá em grande parte desprotegido, e os líderes eleitos poderão se gabar de como estão combatendo a indústria de tecnologia controlando a IA.

Na mesma audiência em que Altman foi elogiado, Gary Marcus, Professor Emérito da Universidade de Nova York, fez uma crítica contundente à IA, a Altman e à Microsoft. Ele disse ao Congresso que enfrenta uma “tempestade perfeita de irresponsabilidade corporativa, implantação generalizada, falta de regulamentação e falta de confiabilidade intrínseca”. Ele afirmou que a OpenAI é “submissa” à Microsoft e disse que o Congresso não deveria seguir suas recomendações.

Marcus advertiu que as empresas que se apressam em adotar a IA generativa se preocupam apenas com os lucros, resumindo sucintamente seu testemunho: “A humanidade está em segundo plano”.

Brad Smith se manifesta

Uma semana e meia após a aparição de Altman perante o Congresso, foi a vez de Brad Smith pedir a regulamentação da IA. Smith, um advogado, ingressou na Microsoft em 1993 e foi encarregado de resolver o processo antitruste movido pelo Departamento de Justiça dos EUA. Em 2015, ele se tornou o Presidente e Diretor Jurídico da empresa.

Ele conhece bem o funcionamento do governo federal, tanto que Altman se reuniu com ele em busca de ajuda sobre como formular e apresentar suas propostas ao Congresso. Smith conhece tão bem o assunto que o Washington Post, recentemente, publicou um artigo elogioso sobre seu trabalho em regulamentação da IA, afirmando: “Sua sabedoria em políticas está ajudando outros na indústria”.

Em 25 de maio, Smith divulgou as recomendações oficiais da Microsoft para a regulamentação da IA. Não surpreendentemente, elas se alinham perfeitamente com as opiniões de Altman, destacando os aspectos apocalípticos em vez dos problemas imediatos. A única recomendação específica era algo com o qual ninguém discordaria: “Exigir freios de segurança efetivos para sistemas de IA que controlam infraestrutura crítica”.

Veja também: Como a IA generativa está moldando o futuro do desenvolvimento de software

Isso é um fato óbvio, é claro, a opção mais fácil e óbvia. Além disso, suas recomendações foram do tipo que apenas um advogado poderia gostar, cheias de jargões jurídicos pomposos que se resumem a: Não faça nada, mas faça parecer importante. Coisas como “desenvolver um amplo arcabouço legal e regulatório com base na arquitetura tecnológica para a IA” e “buscar novas parcerias público-privadas para usar a IA como uma ferramenta eficaz para enfrentar os inevitáveis desafios sociais que acompanham as novas tecnologias”.

Para ser justo, Smith mencionou mais tarde algumas questões significativas que precisam ser abordadas: deepfakes, vídeos falsos gerados por IA projetados para desinformação; o uso da IA por “operações de influência cibernética estrangeiras, como as atividades já realizadas pelo governo russo, chinês e iraniano”; e “alteração de conteúdo legítimo com a intenção de enganar ou fraudar as pessoas por meio do uso de IA”.

No entanto, ele não ofereceu propostas regulatórias para esses problemas. E deixou de fora todos os outros inúmeros perigos apresentados pela IA.

É possível que a salvação venha da Europa?

Os Estados Unidos geralmente são contra a regulamentação, especialmente no campo da tecnologia. O lobby da Microsoft, OpenAI, Google e outros provavelmente manterá essa postura. Portanto, pode ser que a Europa, que está mais disposta a enfrentar as Big Techs, seja aquela que abordará os perigos da IA.

Isso já está acontecendo. A União Europeia, recentemente, aprovou um projeto de lei que regula a IA. É apenas um ponto de partida, e a lei final provavelmente não será finalizada até o final deste ano. Mas o projeto inicial é rigoroso. Ele exige que os desenvolvedores de IA publiquem um resumo de todo o material protegido por direitos autorais usado para treinar a IA; solicita aos desenvolvedores de IA que implementem salvaguardas para impedir que a IA gere conteúdo ilegal; garante que o reconhecimento facial seja limitado; e proíbe as empresas de usar dados biométricos das redes sociais para construir seus bancos de dados de IA.

Ainda mais abrangente, segundo o The New York Times: “O projeto de lei europeu adota uma abordagem ‘baseada em riscos’ para regular a IA, concentrando-se em aplicações com o maior potencial de danos humanos. Isso incluiria casos em que sistemas de IA são usados para operar infraestruturas críticas, como água ou energia, no sistema jurídico e ao determinar o acesso a serviços públicos e benefícios governamentais. Os fabricantes da tecnologia teriam que conduzir avaliações de risco antes de colocar a tecnologia em uso diário, de forma semelhante ao processo de aprovação de medicamentos”.

Seria difícil, se não impossível, para empresas de IA terem um sistema para a Europa e outro nos Estados Unidos. Portanto, uma lei europeia poderia obrigar os desenvolvedores de IA a seguir suas diretrizes em todo o mundo.

Altman tem se reunido com líderes europeus, incluindo Ursula von der Leyen, Presidente da Comissão Europeia (o braço executivo da União Europeia), tentando limitar essas regulamentações, mas até agora sem sucesso.

Embora a Microsoft e outras empresas de tecnologia possam acreditar que têm os líderes políticos nos Estados Unidos sob controle, quando se trata de IA, a Europa pode ser o lugar onde eles encontrarão um desafio à altura.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.