Inteligência artificial não consegue replicar consciência humana
Trabalho de uma universidade da Irlanda desafia conceito de inteligência artificial, uma das principais apostas da TI para diversas áreas, inclusive Saúde
12/05/2014

Computadores podem ser capazes de fazer coisas memoráveis, mas pesquisas recentes provam matematicamente que eles não podem replicar a consciência humana.

No estudo “A consciência é computável? Quantificando informações integradas usando a teoria de algoritmos”, recentemente publicado, o co-diretor do bacharelado de ciência da computação da National University of Ireland, Phil Maguire, e seus co-autores demonstram que, dentro do modelo de consciência proposto por Giulio Tononi, a informação integrada em nossos cérebros não pode ser modelada por computadores.

A consciência em si não é bem entendida. Giulio Tononi, um psiquiatra e neurocientista da Universidade de Winsconsin propôs uma teoria da informação integrada (IIT) da consciência. A IIT não é universalmente aceita, tampouco oferece um mapeamento definitivo da mente humana. Contudo, é um modelo tido como razoável para a consciência e se provou útil em entender como tratar pacientes em coma ou outros estados de consciência reduzida.

Um dos axiomas da IIT é: “cada experiência é única, não pode ser reduzida a componentes independentes”. Isso significa que uma experiência de alguém com uma flor, por exemplo, é o produto do input de múltiplos sistemas psicológicos — vários sensos e outras memórias — mas o produto não pode ser fruto de engenharia reversa. Sob esta definição, a consciência funciona fragmentada.

“No estudo, provamos que um processo que une informações juntas de forma irreversível não é computável”, explica Maguire em e-mail. “Se o cérebro humano genuinamente está unindo informações, então não pode ser emulado por inteligência artificial. E provamos isso matematicamente”.

Sinto muito, Hal. Acho que podemos fazer isso.

Maguire admite que a mente humana pode não integrar as informações em um processo irreversível, mas ele diz que isso não corresponde à intuição humana. “Argumentamos que o que as pessoas querem dizer com o uso do conceito de ‘consciente ‘ é que um sistema não pode ser quebrado. Se você pode quebrá-lo, não é consciente (por exemplo, um interruptor de luz)”.

Isso é para dizer que a inteligência artificial não pode se comportar de maneira inteligente ou passar em testes. Em vez disso, o que Maguire e seus co-autores mostram é que há algo fundamentalmente diferente entre consciência, ao menos sob a definição de Tononi, e inteligência artificial.

“Se você construir um sistema artificial, você sempre saberá como você o construiu”, explica. “Você sabe que é ‘decomposto’. Você sabe que é feito de elementos que não são integráveis. Você não poderá nunca construir um sistema computacional e um algoritmo que integra algo de maneira tão completa que não pode ser decomposto”, justifica.

Fonte: Informationweek EUA | Thomas Claburn; replicada pela Informationweek Brasil





Obrigado por comentar!
Erro!
Contato
+55 11 5561-6553
Av. Rouxinol, 84, cj. 92
Indianópolis - São Paulo/SP