Regulamentação é essencial para uma IA ética e segura, acredita Anthropic
Considerada a dona do modelo de IA mais inteligente até hoje, Anthropic defende evolução de leis que regem tecnologia
Dario Amodei, cofundador e CEO da Anthropic, compartilhou no AWS Summit, que acontece em Washington DC*, nos Estados Unidos, suas impressões sobre questões de segurança, privacidade e perspectivas futuras no desenvolvimento de modelos de inteligência artificial (IA), com foco especial no setor público.
Considerada por publicações internacionais o modelo de IA mais inteligente até hoje, a IA Generativa da Anthropic tem sua inteligência medida pelo seu desempenho baseada em uma série de benchmarks. E para que avance e seja mais democrática, a IA generativa precisará de regulamentação, acredita o executivo.
Ele destacou a importância dos Institutos de Segurança de IA, como o NIST, que estão desenvolvendo testes para avaliar a segurança e a eficácia dos modelos de IA. Ele acredita que esses ensaios serão fundamentais para a regulamentação eficaz e ajudarão a estabelecer padrões para o uso seguro da IA no governo federal e em níveis estaduais e locais. “Regulamentações bem definidas são essenciais para garantir que a IA seja utilizada de forma ética e segura”, reforçou.
Durante o evento, Amodei enfatizou ainda que a segurança, a privacidade e a estabilidade dos modelos de IA são tratadas como questões de múltiplas camadas. “A Anthropic é responsável por garantir que seus modelos não produzam informações incorretas ou divulguem dados privados e que sejam resistentes a ataques”, afirmou. Ele reiterou a importância da parceria com a AWS, conhecida por sua reputação em proteger a privacidade e a segurança dos dados, o que fortalece, segundo ele, a confiança dos clientes nos serviços oferecidos.
No setor público, Amodei mencionou que a AWS serve a maioria das cargas de trabalho, incluindo as do governo, e que a Anthropic está disponibilizando seus modelos em nuvens dedicadas para serviços especializados.
A empresa tem colaborado com governos para abordar questões de segurança nacional e recentemente completou testes de pré-implantação do modelo Claude 3.5 com os Institutos de Segurança de IA do Reino Unido e dos EUA. “Essas parcerias visam combater problemas como tráfico humano, corrupção internacional e campanhas de influência encoberta”, revelou Amodei.
O executivo também anunciou que os modelos da Anthropic, como o Sonnet e o Haiku, estão sendo disponibilizados nas nuvens GovCloud e nos mercados da comunidade de inteligência. Ele acredita que essas ferramentas simplificarão o acesso e a contratação de serviços por parte do setor público. “A aplicação de IA pode revolucionar a prestação de serviços públicos, facilitando a interação dos cidadãos com o governo e legitimando a democracia”, explicou.
IA responsável e segurança
Amodei detalhou a abordagem da Anthropic em relação à segurança e à responsabilidade na IA, destacando o conceito de “IA Constitucional”, que permite que os modelos sigam um conjunto explícito de princípios, como a Declaração Universal dos Direitos Humanos.
“Acreditamos que nossos modelos devem operar de acordo com princípios éticos claros e transparentes”, afirmou. A empresa também investe em pesquisas para entender o comportamento interno dos modelos e aplica práticas de monitoramento e segurança para prevenir usos indevidos.
A Anthropic revela que está comprometida com a segurança de seus modelos, considerando-os ativos de segurança nacional. A empresa realiza testes de vulnerabilidade política para garantir que seus modelos não sejam usados para campanhas de influência ou atividades ilícitas. Nesse sentido, Amodei mencionou a importância de parcerias com terceiros para realizar esses testes, garantindo uma verificação independente.
*a jornalista viajou a convite da AWS
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!