Categories: Notícias

Inteligência artificial não consegue replicar consciência humana, dizem pesquisadores

Computadores podem ser capazes de fazer coisas memoráveis, mas pesquisas recentes provam matematicamente que eles não podem replicar a consciência humana.
No estudo “A consciência é computável? Quantificando informações integradas usando a teoria de algoritmos”, recentemente publicado, o co-diretor do bacharelado de ciência da computação da National University of Ireland, Phil Maguire, e seus co-autores  demonstram que, dentro do modelo de consciência proposto por Giulio Tononi, a informação integrada em nossos cérebros não pode ser modelada por computadores.
A consciência em si não é bem entendida. Giulio Tononi, um psiquiatra e neurocientista da Universidade de Winsconsin propôs uma teoria da informação integrada (IIT) da consciência. A IIT não é universalmente aceita, tampouco oferece um mapeamento definitivo da mente humana. Contudo, é um modelo tido como razoável para a consciência e se provou útil em entender como tratar pacientes em coma ou outros estados de consciência reduzida.
Um dos axiomas da IIT é: “cada experiência é única, não pode ser reduzida a componentes independentes”. Isso significa que uma experiência de alguém com uma flor, por exemplo, é o produto do input de múltiplos sistemas psicológicos — vários sensos e outras memórias — mas o produto não pode ser fruto de engenharia reversa. Sob esta definição, a consciência funciona fragmentada.
“No estudo, provamos que um processo que une informações juntas de forma irreversível não é computável “, explica Maguire em e-mail. “Se o cérebro humano genuinamente está unindo informações, então não pode ser emulado por inteligência artificial. E provamos isso matematicamente”.
Sinto muito, Hal. Acho que podemos fazer isso.

Maguire admite que a mente humana pode não integrar as informações em um processo irreversível, mas ele diz que isso não corresponde à intuição humana. “Argumentamos que o que as pessoas querem dizer com o uso do conceito de ‘consciente ‘ é que um sistema não pode ser quebrado. Se você pode quebrá-lo, não é consciente (por exemplo, um interruptor de luz)”.
Isso é para dizer que a inteligência artificial não pode se comportar de maneira inteligente ou passar em testes. Em vez disso, o que Maguire e seus co-autores mostram é que há algo fundamentalmente diferente entre consciência, ao menos sob a definição de Tononi, e inteligência artificial.
“Se você construir um sistema artificial, você sempre saberá como você o construiu”, explica. “Você sabe que é ‘decomposto’. Você sabe que é feito de elementos que não são integráveis. Você não poderá nunca construir um sistema computacional e um algoritmo que integra algo de maneira tão completa que não pode ser decomposto”, justifica.

Recent Posts

GDM e Black & Decker: casos de uso com a IA generativa

Mais da metade (69%) das empresas brasileiras dizem já ter alguma iniciativa em IA tradicional…

10 horas ago

Tecnologia como protagonista em discussões de comitês empresariais

Entre os líderes de TI brasileiros, 77% têm a perspectiva de manter ou crescer o…

12 horas ago

Infraestrutura de TI também precisa evoluir para apoiar a sustentabilidade

Durante o IT Forum Trancoso, as discussões sobre sustentabilidade estão diretamente ligadas à evolução de…

14 horas ago

IA no processo de engenharia deve acelerar a inovação

A Inteligência Artificial generativa está em todas as rodas de discussão de TI parece que…

15 horas ago

Vivo e Grupo Bom Jesus implantarão 4G em 28 mil hectares

A operadora Vivo deu detalhes essa semana de um projeto que usa a frequência de…

15 horas ago

7 empresas de TI com vagas abertas

Semanalmente, o IT Forum seleciona as principais oportunidades para aqueles que buscam aprofundar seus conhecimentos…

16 horas ago