IA responsável é um processo, e não um produto

Uso responsável de IA precisa partir do conceito, estando presente em toda a cadeia de desenvolvimento, e não apenas na aplicação final

Author Photo
10:00 am - 09 de janeiro de 2024
Inteligência Artificial responsável patentes Imagem: Shutterstock

A inteligência artificial é, sem dúvidas, uma tecnologia que veio para ficar, e promete ser tão – ou mais – disruptiva para a sociedade quanto a popularização da internet e seus desdobramentos. De smartphones à Internet das Coisas (IoT), a presença online quase permanente já acelera muito o desenvolvimento da automação de atividades.

Até então, este processo dependia do fator humano, sujeito a um nível mais profundo de intervenção, rotinas fechadas, e com parâmetros claros predeterminados. Com a IA e aprendizado de máquinas, as decisões importantes são cada vez mais retiradas das mãos de pessoas para, justamente, minimizar fatores como erro humano e otimizar a tomada de decisões em situações críticas.

Da formação da equipe à última linha de código

No entanto, isto também elimina a principal vantagem da intervenção direta: a análise subjetiva de contextos. Este ponto específico pode ser a diferença, por exemplo, entre um veículo autônomo desviar ou não de uma pessoa cruzando uma via fora da faixa de pedestres, como no acidente trágico de 2018 que deixou uma vítima fatal.

Casos como este levantam questionamentos sobre diversas questões éticas em relação à implementação indiscriminada de IA em produtos e serviços. Quase sempre, a discussão recai sobre as Leis de Asimov, exploradas à exaustão na ficção, mas a análise é geralmente superficial, em torno apenas de maneiras de responsabilizar a tecnologia por resultados que, direta ou indiretamente, ainda são frutos de ações humanas.

Leia também: Visão computacional e IA a serviço da sociedade

É impossível dissociar completamente a criação do criador, independente do quanto o aprendizado de máquina avance. Mesmo que eventualmente seja possível ter IAs tomando decisões contextualizadas – e tudo indica que será –, baseadas em análises mais profundas de comportamentos e condutas sociais não escritas, essencialmente ainda se trata de uma tecnologia.

Treinamento enviesado = solução enviesada

O que muda na prática é que, com ferramentas que dependem de interação direta constante, a intencionalidade pode ser definida durante o processo. Já com a IA, os parâmetros definidos para o treinamento, capacidades de aprendizado e execução, propriamente, de tarefas definem as possíveis tomadas de decisão muito antes de aplicações reais, muitas vezes inesperadas.

Tanto por isso, seu uso e desenvolvimento precisam ser avaliados rigorosamente. Por essa razão, diversas Big Techs já trazem na missão e valores da empresa que o desenvolvimento de quaisquer tecnologias, e não apenas Inteligência Artificial, devem ser pautados de perto pela ética e direitos humanos.

Pensando em sistemas de vigilância, o uso de visão computacional para identificar suspeitos em potencial, é um tema bastante recorrente. Isso se deve ao fato de que, de acordo com o IBGE em 2022, a distribuição da população brasileira segundo cor ou raça é de 42,8% Branca, 10,6% Preta e 45,3% Parda, conforme declarado pelas pessoas. Ao treinar um algoritmo de identificação automatizada com base em dados que não apresentem a representatividade adequada, esse mesmo viés é replicado nos sistemas de vigilância que utilizarem esse algoritmo.

Pilares para uma IA responsável

Segundo Pat Gelsinger (CEO da Intel), o desenvolvimento responsável da Inteligência Artificial precisa ser sustentado por alguns pilares bastante claros. O primeiro deles é que todas as etapas do ciclo de desenvolvimento precisam passar por revisões rigorosas de equipes multidisciplinares e multiculturais.

A diversidade sócio-cultural é fundamental para levar experiências, vivências e ponto de vistas diferentes para um mesmo contexto. Além de ampliar os parâmetros de entrada de instruções, isto reduz consideravelmente vieses de como os dados são processados, aprendidos, e aplicados nas ações dessas IAs.

Outro elemento imprescindível é o trabalho colaborativo entre empresas e organizações. O conhecimento e experiência compartilhados auxiliam a identificar e prevenir o mau uso dessas ferramentas, ou mesmo sua aplicação deliberada para prejudicar pessoas ou grupos específicos.

Pesquisas etnográficas para reconhecer e compreender problemas de recortes mais diversos, permitem identificar formas mais apropriadas e compreensíveis de lidar com questões delicadas. Trazer estes conhecimentos para as ferramentas de desenvolvimento ajuda a direcionar os produtos criados para soluções também pautadas pela Diversidade e Inclusão.

Naturalmente, D&I precisa estar na cultura das empresas de pesquisa e desenvolvimento de IA, dos cargos de entrada às lideranças. O Controle de Qualidade (QA) é apenas uma das etapas do processo, e sua visão costuma ser mais abrangente e menos técnica.

Ter equipes diversas, com equidade entre os pares e cultura inclusiva forte garante que todas as etapas contribuam dentro de suas competências para uma solução de IA também inclusiva.

Mesmo com todos esses cuidados, a Inteligência Artificial ainda estará sujeita a aplicações questionáveis, como qualquer outra tecnologia. Dessa forma, uma IA responsável precisa ser trabalhada em absolutamente todos os seus ciclos, desde a concepção, e não apenas na ponta, onde o que resta é, geralmente, apontar dedos procurando culpados.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Newsletter de tecnologia para você

Os melhores conteúdos do IT Forum na sua caixa de entrada.