Pew Research encontra um grande problema com a IA: as pessoas não confiam nela
Se as empresas desejam que seus funcionários abracem o potencial da IA generativa, terão que garantir que eles confiem nela
À medida que o tempo passa, as pessoas estão se tornando menos confiantes na inteligência artificial (IA), de acordo com os resultados de um recente estudo do Pew Research. O estudo, que envolveu 11.000 entrevistados, descobriu que as atitudes mudaram drasticamente nos últimos dois anos.
Em 2021, 37% dos entrevistados disseram que estavam mais preocupados do que animados com a IA. Esse número permaneceu praticamente o mesmo no ano passado (38%), mas agora saltou para 52%. (A porcentagem daqueles que estão animados com a IA diminuiu de 18%, em 2021, para apenas 10%, este ano).
Leia também: O que os fornecedores de software empresarial estão fazendo com a IA generativa
Isso é um problema porque, para serem eficazes, as ferramentas de IA generativa precisam ser treinadas, e durante o treinamento, há várias maneiras pelas quais os dados podem ser comprometidos e corrompidos. Se as pessoas não confiam em algo, não apenas é improvável que o apoiem, mas também são mais propensas a agir contra isso. Por que alguém apoiaria algo em que não confia?
Essa falta de confiança pode realmente retardar a evolução da IA generativa, possivelmente levando ao surgimento de mais ferramentas e plataformas que são corrompidas e incapazes de realizar as tarefas estabelecidas para elas. Alguns dos problemas parecem resultar de usuários que tentam intencionalmente minar a tecnologia, o que apenas ressalta o comportamento preocupante.
O que torna a IA generativa única
A IA generativa aprende com os usuários. Ela pode ser inicialmente treinada com grandes modelos de linguagem (LLMs), mas à medida que mais pessoas a utilizam, as ferramentas aprendem com a forma como as pessoas a utilizam. Isso é projetado para criar uma melhor interface humana que pode otimizar a comunicação com cada usuário. Em seguida, ela leva esse aprendizado e o distribui por suas instâncias, de forma semelhante a como uma criança aprende com seus pais e depois compartilha esse conhecimento com os colegas. Isso pode criar problemas em cascata se as informações fornecidas forem incorretas ou tendenciosas.
Os sistemas parecem capazes de lidar com erros ocasionais e se ajustar para corrigi-los, mas se as ferramentas de IA forem intencionalmente enganadas, sua capacidade de se corrigir desse tipo de ataque até agora tem se mostrado inadequada. É diferente quando um funcionário age de forma incorreta e destrói seu próprio trabalho; com a IA, eles podem destruir o trabalho de qualquer pessoa que esteja usando uma ferramenta de IA assim que os dados do funcionário mal comportado forem usados para treinar outras instâncias.
Isso sugere que um funcionário que mina as ferramentas de IA generativa pode causar danos significativos à sua empresa além das tarefas que estão desempenhando.
Por que a confiança é importante
Pessoas que estão preocupadas em perder seus empregos geralmente não fazem um bom trabalho ao treinar outro funcionário, porque temem que possam ser demitidas e substituídas pelo funcionário que treinaram. Se essas mesmas pessoas forem solicitadas a treinar ferramentas de IA e temerem que estão sendo substituídas, podem se recusar a fazer o treinamento ou danificá-lo para que não possa substituí-los.
Veja mais: Incerteza regulatória lança sombra sobre a IA generativa apesar do ritmo de adoção
É aí que estamos agora. Há pouco na mídia sobre como as ferramentas de IA ajudarão os usuários a ter um melhor equilíbrio entre trabalho e vida pessoal, a se tornarem mais produtivos sem fazer mais trabalho e a cometerem menos erros (se forem treinadas adequadamente). Em vez disso, temos uma lista regular de como a IA vai tirar empregos, como está gerando todos os tipos de erros e como será usada para prejudicar as pessoas.
Não é de surpreender que as pessoas desconfiem dela.
Mudanças são difíceis (e arriscadas)
Profissionais de TI sempre souberam que implementar tecnologia que os usuários não gostam é complicado, porque os usuários vão evitá-la ou buscarão maneiras de desativá-la. Isso é particularmente preocupante para uma tecnologia que eventualmente afetará todos os empregos, tanto os de colarinho branco quanto alguns de colarinho azul, em uma empresa. Posicionar as ferramentas de IA como auxiliares dos funcionários, não como substitutos, e destacar como aqueles que usam a tecnologia adequadamente têm mais chances de progredir, seria uma maneira eficaz de garantir que eles adotem a tecnologia e a utilizem conforme ela amadurece.
Forçar uma nova tecnologia sobre funcionários que não a desejam é sempre arriscado, e se os trabalhadores acreditam que ela custará seus empregos, impô-la a eles pode ser um grande erro. A implementação adequada da IA generativa deve incluir um esforço significativo para entusiasmar os funcionários e obter seu apoio em relação à tecnologia. Caso contrário, não apenas a implementação não atenderá às expectativas, mas também poderá causar danos substanciais às empresas que tentam adotá-la.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!