Computadores podem ser capazes de fazer coisas memoráveis, mas pesquisas recentes provam matematicamente que eles não podem replicar a consciência humana.
No estudo “A consciência é computável? Quantificando informações integradas usando a teoria de algoritmos”, recentemente publicado, o co-diretor do bacharelado de ciência da computação da National University of Ireland, Phil Maguire, e seus co-autores demonstram que, dentro do modelo de consciência proposto por Giulio Tononi, a informação integrada em nossos cérebros não pode ser modelada por computadores.
A consciência em si não é bem entendida. Giulio Tononi, um psiquiatra e neurocientista da Universidade de Winsconsin propôs uma teoria da informação integrada (IIT) da consciência. A IIT não é universalmente aceita, tampouco oferece um mapeamento definitivo da mente humana. Contudo, é um modelo tido como razoável para a consciência e se provou útil em entender como tratar pacientes em coma ou outros estados de consciência reduzida.
Um dos axiomas da IIT é: “cada experiência é única, não pode ser reduzida a componentes independentes”. Isso significa que uma experiência de alguém com uma flor, por exemplo, é o produto do input de múltiplos sistemas psicológicos — vários sensos e outras memórias — mas o produto não pode ser fruto de engenharia reversa. Sob esta definição, a consciência funciona fragmentada.
“No estudo, provamos que um processo que une informações juntas de forma irreversível não é computável”, explica Maguire em e-mail. “Se o cérebro humano genuinamente está unindo informações, então não pode ser emulado por inteligência artificial. E provamos isso matematicamente”.
Sinto muito, Hal. Acho que podemos fazer isso.
Maguire admite que a mente humana pode não integrar as informações em um processo irreversível, mas ele diz que isso não corresponde à intuição humana. “Argumentamos que o que as pessoas querem dizer com o uso do conceito de ‘consciente ‘ é que um sistema não pode ser quebrado. Se você pode quebrá-lo, não é consciente (por exemplo, um interruptor de luz)”.
Isso é para dizer que a inteligência artificial não pode se comportar de maneira inteligente ou passar em testes. Em vez disso, o que Maguire e seus co-autores mostram é que há algo fundamentalmente diferente entre consciência, ao menos sob a definição de Tononi, e inteligência artificial.
“Se você construir um sistema artificial, você sempre saberá como você o construiu”, explica. “Você sabe que é ‘decomposto’. Você sabe que é feito de elementos que não são integráveis. Você não poderá nunca construir um sistema computacional e um algoritmo que integra algo de maneira tão completa que não pode ser decomposto”, justifica.
Fonte: Informationweek EUA | Thomas Claburn; replicada pela Informationweek Brasil