O que é Inteligência Artificial Geral(AGI)

Aranea Science
8 min readJan 7, 2022
Será que uma IA que te derrota no xadrez sempre entende o que é Xadrez, e o mais importante, o que é ser?

Inteligência artificial Geral ou AGI, pode também ser chamado de Strong AI (IA forte), esse conceito é meio que oposto em questões de magnitude à Weak AI (IA fraca), que são todos os sistemas de IA atuais, como Alexa, Siri, AlphaGo, OpenAIFive e etc..

Alguém pode se perguntar, como fraca? Sendo que muitas delas superaram o nível de seres humanos em áreas específicas no mundo dos Jogos de Tabuleiro, video games, algumas tarefas específicas na medicina, na biologia molecular e além.

A questão é que Strong AI é algo muito, muito aquém de Weak AI, tão além que uma definição é algo controverso e difícil de atingir.

(Wang, 2019) dá uma citação desse conceito como:

“A capacidade de um sistema de processamento de informação de se adaptar ao ambiente enquanto opera com recursos e conhecimentos insuficientes”(De Wang, 1995)

Se usarmos por exemplo, um robô como base para definirmos esse conceito. Ele teria de não só ser capaz de processar todas as funções que em analogia com o nosso cérebro, que permitem a sua visão, movimentos físicos, interação com o ambiente, linguagem falada, sendo que ele deve aprender novos conceitos com o tempo, seja em novos ambiente ou com novos recursos sociológicos que lhe são apresentados.

Ele deve ser capaz de fazer isso de forma independente para ser considerado Strong AI, isso é algo muito importante.

Vários conceitos da neurociência computacional e em geral são necessários para desenvolver algo o que Wang deseja no conceito de IA forte, na minha visão a parte mais importante e tentar mesclar conceitos que só vemos na robótica e que só vemos na parte biológica do ser humano.

A questão se resume em uma incógnita, podemos criar uma máquina que pode pensar? O sonho de Turing é real?

fRMI scan da região superior do cérebro

Nós conseguimos sim entender o que partes do cérebro fazem, partes relacionadas a linguagem como a área de Wernicke e Broca, relacionadas a aprendizagem motora, como a basal ganglia, Cerebelum, regiões parietais e outras que em conjunto permitem e dão essa capacidade a nós.

Podemos mostrar como o aprendizado acontece nessas áreas, e entender como as áreas ao redor do talámo são importantes para a consciência ocorrer (Bonhomme, 2012), pela questão de sedativos como Propofol e Dexmedetomidine (no Neuroreceptor chamado GABA)focarem especificamente nessas áreas (como no Globus Pallidus interna, ali na região do tálamo) para te fazerem inconsciente antes de uma cirurgia (Brown, 2010).

Mas ainda falta algo que une todas essas funções para criar a experiência consciente, esse é um dos maiores problemas na neurociência atual, como a consciência emerge?

Por que não criamos uma sistema computacional que consegue pensar, como vemos em Eu Robô de Asimov, em Projeto Zeta (que encantou pessoas da minha idade quando passava no SBT de manhã). A resposta é simples, por que é extremamente difícil, não é algo que possa ser resolvido apenas entendendo as funções cerebrais, não há nenhuma pista encontra ainda relacionada a explicação da consciência em sua totalidade.

Por isso é desejável um modelo computacional da mente, que realmente nos permita o estender a uma capacidade cognitiva que simule de certa forma a que temos. Mas esse problema é bem mais difícil do que parece, como sugere (Mitchell, 2021), resolver problemas específico em IA, não nos eleva a pensar em uma IA forte.

Então, existem várias questões que precisam ser respondidas do ponto de vista computacional e neurocientífico para avaliarmos a possiblidade da criação de uma AGI. Entender como a parte subjetiva da consciência funciona é a chave para isso.

Filosofia da consciência é útil para a criação de uma AGI?

Será que a opiniões filosóficas nos ajudam a explicar AGI?. Imagem: A academia de Platão.

É por isso que conceitos filosóficos são importantes até certo ponto, mas ele se perdem aos poucos, por que no fim filosofia ela não explica como as coisas funcionam, ela só da uma ideia de como elas são na visão de poucos ou muitos, mas ela não é fixa e estável o suficiente para nos dar uma noção concreta da dificuldade do nosso problema, embora ela tente.

É por isso que abandonar conceitos filosóficos da consciência é algo importante. Por que no fim AGI, criar uma máquina que pode pensar, é um problema da Neurociência, e suas áreas relacionadas como conceitos físicos, químicos e no fim computacionais para entendermos a possibilidade concreta para a criação de uma AGI.

Então quando falamos do dualismo de Descartes, ou se a consciência é uma ilusão, uma miragem criada pela nossa mente, se a discussão da existência dela deve ser é válida ou inútil.

Sendo sincero, tudo isso é lixo. Não ajuda na criação de uma AGI, são necessárias explicações validadas sobre como a consciência deve emergir. O problema é que mesmo boas Teorias como Orch Or Theory ,Teoria Integração da informação e Global Workspace Theory, não foram validadas ainda, deixando os filósofos somente com a pá na mão, mas sem a sementes para falar de forma coerente nesse tópico.

Por exemplo, sendo cristão eu creio do ponto de vista teológico que biblicamente existem corpo,alma, e espírito ou σῶμα,Ψυχή, πνεῦμα respectivamente (2 Tess. 5:23). Mas saber disso, não me ajuda em entender como esses processos agem, como explicá-los cientificamente, e como usar eles para a criação de uma AGI.

Tudo o que temos é a mente, e desejamos estudá-la a fim de entender como ela funciona realmente na experiência consciente, e assim replicar isso na vida real, em um robô ou em um sistema virtualizado.

Então não importa se você usa um sistema filosófico ou teológico para explicar a mente, no fim, o que vale para a neurociência computacional de verdade, é o que temos em mãos, ou seja a parte neurocientífica da coisa.

O que eu acho válido é usar esses modelos para termos uma base, um pedestal sobre o qual podemos explicar a parte subjetiva da consciência, que é visto como o Hard Problem of Consciouness (O problema difícil da consciência de David Chalmers, que é lidar com a questão da qualia, e todas as questões que envolvem a parte subjetiva da experiência consciente, que deve sim ser considerada para a existência de uma AGI.

O verdadeiro problema, é que como alguns podem usar erroneamente argumentos filosóficos para dizer que AGI é impossível, sem ter dados concretos e científicos na mesa, é algo que (Fjelland, 2020) fez, e eu particularmente não concordo com esse método de argumentação.

O caminho para criar uma AGI

Esse Cartoon famoso no começo dos anos 2000, mostra um robô consciente que decide não ser mais uma arma do estado, mas apenas viver sendo “humano”, livre. Algo inerente a uma Strong AI, é o desejo de liberdade de expressão inerente em seres humanos.

Obviamente devemos aumentar o número de pesquisa em AGI, é uma área escassa, mas quando comparada com outros ramos da IA, vemos que ela não é muito conhecida e explorada tanto como todos os tópicos de Weak AI.

Temos o JAGI (Journal of Artificial General Intelligence) que já faz muito em expandir o tópico, é uma leitura obrigatória de quem deseja entender o que há na literatura no momento e aprender os principais desafios no tema.

Goertzel, The General Theory of General Intelligence: A Pragmatic Patternist Perspective, arXiv:2103.15100.

Uma pesquisa bem geral em AGI é o paper do Goertzel “The General Theory of General Intelligence: A Pragmatic Patternist Perspective”, é uma leitura muito recente e que dá uma visão geral sobre AGI nos últimos anos.

Mas o problema é que ainda faltam resultados realmente satisfatórios na prática, há uma necessidade de pesquisa em Teorias da consciência, no sentido de criar ou validar as já existentes, como as citadas anteriormente, como Orch or Theory ou Bose-Einstein Condensate(ambas aplicações da teoria quântica na consciência), com essa validação, de tipo, “descobrimos como a consciência funciona experimentalmente” , já teríamos algo com o que trabalhar na visão computacional..

Há uma necessidade de expandir Bica’s(Biologically Inspired Cognitive Architectures), no sentido de mudar a visão atual de IA para uma realmente mais voltada para como o cérebro funciona, já temos isso em Reinforcement Learning, que em analogia lembra a basal ganglia, no contexto de aprendizado através de recompensas de dopamina no nucleus accubens (Santos, 2021).

Criar uma AGI, uma máquina que pode pensar, será um problema resolvido por várias áreas em conjunto, mas com certeza a mais importante será a neurociência nesse caso. É necessário validar as teorias através de experimentos de longo prazo, e assim ver se elas estão certas ou erradas, com isso, já temos o bastante para começar uma nova área da ciência.

Depois disso, poderemos aplicar a essa teoria já validada, os modelos topológicos de redes neurais biológicas que temos para criar um sistema matemático para explicar corretamente como a consciência funciona, com tudo isso em mãos já será possível saber se é possível ou não criar uma AGI tão inteligente quanto nós, ou que pelo menos nos ajude em alguma coisa no dia a dia mais do que as atuais.

Imagine uma Alexa que pode conversar não sobre o tempo, que horas são, ou qual mangá que você deseja comprar na Amazon, mas que possa falar e dar a opinião particular e independente dela sobre o produto da perspectiva de um sistema autônomo que deseja o bem estar do ouvinte, com a empatia que simula a Imago dei, embora não em Coram Deo, sem as questões subjetivas e metafísicas que a cercam do nosso entendimento primitivo sobre antropologia humana.

Referências:

  1. Wang, Pei. “On Defining Artificial Intelligence.” Journal of Artificial General Intelligence 10 (2019): 1–37
  2. Wang, P. 1995. Non-Axiomatic Reasoning System: Exploring the Essence of Intelligence. Ph.D. Dissertation, Indiana University.
  3. Mitchell, Why AI is Harder Than We Think, Santa Fe Institute, 2021.
  4. A. M. TURING, I. — COMPUTING MACHINERY AND INTELLIGENCE, Mind, Volume LIX, Issue 236, October 1950, Pages 433–460, https://doi.org/10.1093/mind/LIX.236.433
  5. Chalmers, D. (2007). The hard problem of consciousness. In M. Velmans & S. Schneider (Eds.), The Blackwell companion to consciousness (pp. 225–235). Blackwell Publishing. https://doi.org/10.1002/9780470751466.ch18
  6. Brown, Emery N. et al. “General anesthesia, sleep, and coma.” The New England journal of medicine 363 27 (2010): 2638–50 .
  7. Bonhomme et, al. Neural correlates of consciousness during general anesthesia using functional magnetic resonance imaging (fMRI), June 2012 Archives Italiennes de Biologie 150(2–3):155–63, DOI:10.4449/aib.v150i2.1242.
  8. Fjelland, R. Why general artificial intelligence will not be realized. Humanit Soc Sci Commun 7, 10 (2020). https://doi.org/10.1057/s41599-020-0494-4.
  9. Stanford Encyclopedia of Philosophy, Consciousness, First published Fri. Jun .18, 2004; substantive revision Tue Jan 14, 2014.
  10. Goertzel, The General Theory of General Intelligence: A Pragmatic Patternist Perspective, arXiv:2103.15100.
  11. Santos, Problems in Artificial General Intelligence, 2021.
  12. Monendra Grover et al. Bose–Einstein Condensation in Complex networks related to Consciousness, In, ternational Journal of Engineering Science and Technology (IJEST), Vol. 3 №4 Apr 20, ISSN : 0975–5462.

--

--

Aranea Science

Converti muitos dos artigos desse blog em Livros publicados na Amazon, na editora Aranea Science. By Michael R. dos Santos