Scott Zoldi: ‘IA generativa é como um novo carro a hidrogênio: difícil de operacionalizar’

Chief Analytics Officer da FICO acredita que tecnologia ainda precisa amadurecer, mas é otimista para o futuro

Author Photo
3:34 pm - 17 de abril de 2024
Scott Zoldi, Chief Analytics Officer da FICO Scott Zoldi, Chief Analytics Officer da FICO Foto: Divulgação

Conversar com Scott Zoldi, Chief Analytics Officer da FICO, é um grande passeio por conceitos de Inteligência Artificial. O executivo está há 25 anos na empresa, onde começou como cientista de dados, e já escreveu 138 patentes na área – o qual ele se orgulha ao dizer que algumas outras ainda vão sair. Em conversa com a imprensa, Zoldi falou sobre a importância não só de Inteligência Artificial ética, mas interpretativa, e destacou algumas de suas opiniões sobre IA generativa.

“Sempre me inspirei no uso de IA e aprendizado de máquina para resolver problemas de clientes. Grande parte do que faço é aproveitar minha formação como cientista, sou físico por formação, e criar novos algoritmos que são específicos para os problemas que estamos tentando resolver. Portanto, algoritmos de IA generativa e algoritmos de aprendizado de máquina não se aplicam a todos os tipos de problema que queremos resolver. A IA é uma das partes mais interessantes e emocionantes do nosso negócio, mas também o que está acontecendo no mundo hoje”, comenta ele durante o FICO World 2024.

No evento de 2023, conversamos sobre IA Generativa – que estava em seu momento de protagonismo. Aproveito para perguntar sua opinião após um ano. Ele diz que a IA Generativa é interessante e que estamos saindo do ciclo de hype, deixando os pensamentos sobre a tecnologia mais reais.

“Se olharmos para o setor bancário, por exemplo, os bancos procuram formas de tornar as suas próprias equipes mais eficientes, sumarizando reuniões, por exemplo. O que eles não estão preparados para fazer é permitir que a IA generativa lide diretamente com o consumidor, porque a alucinação ainda é um grande problema. A ética associada a esses modelos é uma questão muito importante. Há uma falta de capacidade de explicar o modelo. Portanto, não é responsável do ponto de vista da IA responsável”, enfatiza o executivo.

Em resumo, ele diz que as pessoas estão começando a se perguntar como a tecnologia poderá impactar os clientes. E que isso pode acontecer daqui a muitos anos, dependendo de todos os conceitos responsáveis de IA estarem, ou não, no jogo.

Zoid faz questão de dizer que tecnologias de IA dos anos 90 ainda são usadas hoje – e são confiáveis. “É como um carro: o motor a gasolina ainda funciona e transporta a maioria de nós. A IA generativa é mais como um novo carro a hidrogênio: difícil de operacionalizar, pode ser cara e pode ser perigosa. Por isso, essas tecnologias ainda estão sendo exploradas de uma perspectiva de criatividade.”

Para muitas aplicações, especialmente no setor bancário, as instituições esperam poder entender a tecnologia e, se a indústria não entende a IA generativa, os bancos não querem implantar neste momento.

“A única coisa em que a IA generativa é boa agora é se eu quiser enganar você para uma fraude. É quando eu faço você acreditar que sou seu primo e eu preciso de dinheiro. [Com a IA generativa] posso compartilhar detalhes suficientes sobre sua família para que você possa pensar que eu posso realmente ser seu primo. Posso deixar essa comunicação bem convincente”, provoca Zoid.

IA: responsável, interpretável, ética e auditável

Segundo ele, a IA responsável tem quatro componentes principais. O primeiro deles é robustez: é necessário dedicar tempo para construir o modelo de forma adequada – o que pode levar meses para a construção.

O conceito seguinte é ter IA interpretável. Antes, o termo explicável era usado, mas isso implicaria que ao reclamar de um modelo, a empresa poderia apenas explicar como chegou a certo resultado, ainda que não fosse uma boa explicação.

“O conceito de ser interpretável significa que eu posso lhe dar o meu modelo, você pode olhar, ver quais são as relações e você mesmo pode lê-lo e interpretá-lo. Portanto, é muito mais honesto, enquanto a IA explicável infere uma razão plausível, mas não necessariamente a razão correta. Então, se eu fosse tomar uma decisão sobre você e ela fosse errada, e você quisesse saber o porquê, e eu lhe desse um motivo de IA explicável, talvez não poderia fazer sentido para você, ou poderia apenas estar errado. Na IA interpretável, sei exatamente como a decisão foi tomada, porque posso traçar toda a matemática de uma perspectiva humana”, explica Zoid.

As outras duas partes da IA responsável são: ser ética e auditável. “A IA auditável é uma parte muito importante da pesquisa de trabalho que eu faço. Porque isso me permite dizer que é exatamente assim que se constrói um modelo e meus cientistas têm que seguir cada passo. E à medida que seguem cada etapa, ela é registrada em um blockchain. Então daqui a um ano ou dois, saberemos exatamente como meus cientistas construíram o seu modelo. Eu sei exatamente o que impulsiona esse modelo. E então posso defendê-lo perante os reguladores e compartilhá-lo com eles”, frisa o executivo.

Segundo Zoid, a confiança é um problema na indústria neste momento. E parte dessa falta de confiança é um problema por causa de coisas como a IA generativa e muitas das notícias sobre o que essa tecnologia fez. E essa é uma grande razão pela qual a IA auditável é importante para mostrar como são construídos os modelos de IA.

Entretanto, de acordo com o executivo, cerca de 60% das companhias não têm um padrão ou estratégia de IA. Por isso, o primeiro passo é definir qual o padrão de desenvolvimento de modelos ou estratégia de IA para construir esse modelo. Esse padrão deve ser comunicado para fora da empresa, para que as pessoas e os reguladores tenham acesso.

Apesar de todas as importantes ressalvas sobre a tecnologia, a conversa acaba em um tom positivo. Zoid acredita que, nos próximos dez anos, a regulamentação da IA estará em vigor.

“Tecnologias como as que temos para a IA responsável serão usadas rotineiramente da mesma forma que os scorecards e os modelos tradicionais têm sido usados há anos. Modelos de aprendizado de máquina serão usados na prática para que as pessoas se familiarizem mais com eles. A IA generativa não será como é hoje. Ela vai mudar e será mais responsável. Teremos mais pesquisas sobre isso e a tecnologia evoluirá com o tempo”, acredita ele.

*a jornalista viajou a convite da empresa

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Author Photo
Laura Martins

Editora do IT Forum. Jornalista com mais de dez anos de atuação na cobertura de tecnologia. É a quarta jornalista de tecnologia mais admirada no Brasil, pelo prêmio “Os +Admirados da Imprensa de Tecnologia 2022” e tem a experiência de contribuições para o The Verge.

Author Photo

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.