Fernando Portela Câmara, MD, PhD, Prof., UFRJ
Diretor cientifico do Instituto Stokastos

Resumo: A revolução da Inteligência Artificial com o advento das redes neurais profundas (ou convolutivas) não somente foi um salto importante na ciência da computação, como também abriu uma ampla discussão sobre percepção, aprendizagem e consciência. Neste artigo, discuto os pontos essenciais do debate e a possibilidade real de uma IA humanóide. Palavras-chaves: Inteligência artificial, redes neurais profundas, aprendizagem de máquinas, consciência.
Abstract: The Artificial Intelligence revolution with the advent of deep (or convoluted) neural networks was not only a major leap in computer science, but it also opened up a broad discussion about perception, learning, and consciousness. In this article, I discuss the essential points of the debate and the real possibility of a humanoid AI. Keywords: Artificial intelligence, deep neural networks, machine learning, consciousness.

Computadores são parceiros tecnológicos da inteligência humana, assessorando-a na efetivação de cálculos complicados e precisos, tomada de decisões em ambiente de muitas variáveis e incerteza, etc. Os computadores convencionais (digitais) calculam por combinatória as possibilidades de uma solução e escolhe a que melhor se ajusta ao problema. Para grandes massas de dados, a explosão exponencial que isto gera pode levar o computador a desperdiçar muito tempo ou parar por esgotamento de sua capacidade de memória. Para resolver esse problema, criou-se os sistemas especialistas, programas que imitam as decisões de um especialista, portanto baseados em um referencial de experiência de experts humanos, ou seja, heurísticas. Isto deu um grande impulso na busca de uma inteligência artificial, tornando-se possível decisões tais como diagnósticos médicos, selecionar clientes para empréstimo, detectar fraudes bancárias, inferir sobre dados faltantes, traduzir textos e identificar autores etc.
Todos esses processos eram computados digitalmente por lógica dedutiva. Mas ao mesmo tempo ensaiava-se computação com base em algoritmos que imitavam uma rede neural. Esse tipo de computação está baseado na conectividade de uma rede onde a informação da entrada é distribuída e modificada a cada camada de nodo, resultando em uma saída com o resultado [1]. Esse tipo de computação imita o raciocínio indutivo, programando-se por aprendizagem através de modificações de suas conexões por meio de treinamento com exemplos conhecidos, controlado por um algoritmo supervisor. O processo é repetido numerosas vezes até as conexões se ajustarem na configuração desejada [2]. Acreditava-se que esse tipo de computação, paralela e distribuída, imitava o que acontece nas camadas de um analisador cortical. O processo se dá por reconhecimento de padrão, semelhante ao que ocorre com a percepção. Trata-se de um processo elementar de conceituação ou classificação, uma operação que já pode ser considerada como um nível elementar de abstração.
Antes de continuarmos, o leitor não familiarizado com redes neurais artificiais deve desde já saber que uma rede neural não é um computador feito com componentes que imitam neurônios interligados entre si. São algoritmos de aprendizagem programados em ambiente digital. O atual algoritmo de aprendizagem chamado de “rede neural profunda” (ou “convolutivas”) tem algumas particularidades que o fazem aprender por seleção de amostragem, ou seja, estatisticamente, sem a necessidade de supervisão, como nas redes neurais anteriores. É um processo que só foi possível com a atual evolução da tecnologia que aumentou significativamente a velocidade, memória e capacidade computacional.
Tanto a heurística quanto a aprendizagem de máquina é parte de um projeto ambicioso denominado “inteligência artificial” (IA), que surgiu na década de 1950 como uma inteligência podia ser reproduzida em máquinas que manipulavam representações, ficando essa abordagem conhecida como “IA simbólica”. Esse tipo de IA simula a estrutura lógica de uma linguagem e a partir daí faz inferências. No início dos anos 90, essa abordagem foi muito criticada por investigadores como Rodney Brooks [3, 4], que enfatizou que esse tipo de IA não é capaz de interagir com o mundo real e adquirir informação nesse processo. Uma grande mudança conceitual na robótica, liderada Brooks, deu origem a robôs com capacidade superior de movimento e de adaptação sem o uso de um raciocínio simbólico. Brooks, Hans Moravec, Minsky e outros descobriram que nossas habilidades mais básicas de movimento, sobrevivência, percepção, equilíbrio e assim por diante não parecem exigir operações simbólicas de alto nível, e que isso, além de complicado é menos bem sucedido. Brooks argumenta que os símbolos nem sempre são necessários porque “o mundo é o melhor modelo de si mesmo; ele está sempre atualizado e todos os seus detalhes podem ser conhecidos. O truque é vivê-lo adequadamente e com suficiente frequência.” [3]
Essa nova visão fez com que muitos abandonassem a IA simbólica e buscassem outras abordagens com base na neurociência. Contudo, no inicio da presente era, o desenvolvimento do poder de computação para processar grandes volumes de dados (“Big Data”) tornou possível a criação de redes neurais convolutivas ou profundas. São redes neurais de muitas camadas com um poder muito maior que os das redes até então modestamente bem-sucedidas, que dispensam algoritmos de supervisão. Com o grande interesse comercial em Big Data, essas redes mostraram-se muito eficientes em determinados aplicativos, e os mais entusiasmados até mesmo acenaram com a possibilidade futura de um desenvolvimento para uma “IA generalista” (IA em “nível humano”, isto é, com maior capacidade de abstração), uma possibilidade ainda com grandes limitações e deficiências importantes.
Para julgar se uma IA é eficiente ou não, testa-se sua performance em jogos, pois como eles têm pontuação, tornam-se o processo ideal para se avaliar o desempenho de uma IA, da mesma forma que verificamos o progresso de um estudante através de provas e exercícios. As primeiras começaram jogando damas, depois evoluíram e passaram a aprender a jogar xadrez, vencendo campeões, e mais recentemente, uma rede neural profunda ganhou do campeão do jogo mais complicado que se conhece, o Go. As redes neurais convolutivas estão agora em um novo patamar de testes: os jogos eletrônicos. Considere o software DQN da DeepMind, é um algoritmo de aprendizagem ou rede neural profunda que pode aprender qualquer um dos jogos Atari sem o procedimento convencional das antigas IAs. Ele aprende, por assim dizer, “fora da caixa”, e vai do zero até chegar ao nível humano, ou, em muitos casos, sobre-humano. Quando ele aprende a jogar, p. ex., Space Invaders, o que impressiona no princípio é a lentidão do aprendizado; a aeronave pisca vagarosamente na tela horas e horas, e eventualmente, o tempo melhora, mas o jogo ainda é lento. Naturalmente, o computador não tem compreensão real do que está acontecendo no jogo, nem tem o tipo de entendimento que temos quando jogamos. Pensamos no jogo em termos de objetos, movimentos e pequenas regras sobre o que acontece, o que eventos seguem outros etc., mas não é assim que o computador “pensa”.
Ao se programar uma IA para um jogo, ela obviamente não sabe o que fazer, não é consciente da tarefa ou do que faz. Precisa aprender tudo sozinha através da monitoração de pixels, sem saber, naturalmente, o que deve controlar e qual o objetivo a alcançar. Aos poucos, com as reiteradas repetições, a IA vai descobrindo padrões, e começa a captar a ideia do que X deve fazer com Y, e quando resolve isso, passa a ter a mesma eficiência que um ser humano. Mas se continuar jogando, começará a descobrir estratégias que a inteligência humana tem dificuldades de perceber, desse modo superando a capacidade humana e passando a ganhar dos campeões. É nesse ponto que os humanos podem aprender com IAs e adquirir mais capacidades. A ideia de parcerias humano/IA começa a se viabilizar em grupos de cientistas nas áreas de ciências exatas, medicina, biologia e ecologia, engenharia de grande porte, viagens espaciais, busca extraterrestre de vida e inteligências, e até nas artes. Com isso, espera-se soluções para problemas que séculos de progressos científicos e sociais não conseguiram encontrar, e alguns resultados já começam a se delinear.
A inteligência humana resolve muitos problemas por via intuitiva, passando sobre os processos hipotético-dedutivos ou axiomáticos, então um algoritmo “inteligente” será aquele que imite a intuição humana. Atuando fora da rigidez dos processos dedutivos e com certo grau de liberdade, permitindo alguma busca eletiva aleatória [5], a intuição vai além das possibilidades da dedução e lógica convencional, atinge a fronteira do pensamento criativo [6, 7].
Algoritmos que aprendem sem supervisão – redes neurais profundas – são a grande revolução da IA contemporânea. Isto ficou patente com a AlphaGo, que em 2017 bateu o campeão mundial de Go. Essa rede foi treinada por exposição a cem mil jogos de Go para aprender a imitar um jogador na vantagem, repetindo cada jogo até descobrir os erros dos jogadores e separá-los em categorias. O algoritmo criava suas próprias regras desenvolvendo assim, uma inteligência própria para lidar com todas as possibilidades de jogos. Desse modo ela superou seus programadores, ao fazer mais do que eles esperavam e podiam. Com isso, abriu-se a possibilidade de estender essa capacidade para outras áreas e, futuramente, obter avanços científicos e médicos que até o presente momento estão estagnados. Esses algoritmos de aprendizagem evoluem e se desenvolvem sozinhos.
Para se compreender melhor como funcionam esses algoritmos de aprendizagem profunda, vejamos, em linhas gerais, como AlphaGo procede. Ela funciona em três níveis principais de operações: (i) uma política de rede, que são as partidas mais relevantes do treinamento; (ii) uma rede de valores, que estima as probabilidades de sucesso segundo as configuração de peças no tabuleiro; (iii) uma árvore de busca, que procura todas as variações para cada partida para compará-las com a atual e assim estimar o que poderá acontecer futuramente a partir daquela posição (isto e, uma busca seletiva aleatória). Por exemplo, a partir de uma dada posição a política de rede começa a analisar o tabuleiro, criando uma árvore de variantes que seleciona o espaço mais propício no tabuleiro de Go para se colocar uma peça. Em seguida, ela consulta a rede de valores para “saber” qual dessas variantes pode levar a um resultado promissor naquela posição específica do jogo. AlphaGo então busca a probabilidade que aumente sua chance de vencer. Nesse ponto, AlphaGo não procura vencer com a melhor margem, apenas com uma margem suficiente para obter o resultado esperado (isto é, com um lucro marginal).
Embora AlphagGo imite como um cérebro aprende e também como a evolução atua por seleção natural, se a compararmos a um cérebro humano, ela estará mais próxima de uma máquina de lavar high-tech. A capacidade que AlphaGo possui pode inegavelmente ultrapassar a capacidade humana na função especifica para a qual foi projetada, mas não alcança a generalização e versatilidade da performance humana.
A capacidade dessas IAs atuais supera a humana em tarefas específicas, mas ainda assim elas têm vulnerabilidades importante. O conhecimento é como um mapa ou matriz em que existem pontos de transição para outros que conhecemos bem (associação de hipóteses consistentes) e que no dá segurança nas decisões. Porém, há regiões que não dominamos, que são para nós pontos cegos ou falhas, e são esses que nos levam a formular julgamentos errados, estagnar no curso de um raciocínio, e até mesmo cair em delírios. Da mesma forma, uma IA pode falhar, ou ser conduzida a erros, apesar de um treinamento cuidadoso, ou se equivocar com base em formulações ambíguas durante seu treinamento, o que pode ser desastroso em tarefas críticas como, por exemplo, selecionar alvos ou organizar um planejamento financeiro. Por outro lado, uma IA profunda pode encontrar lógicas que desconsideramos por não fazerem parte do nosso modo habitual de pensar, mesmo que usemos todo rigor científico.
Poderíamos construir uma IA que tenha consciência? Para Wittgenstein isso não é algo que podemos decidir. Julgamos nossas experiências relativamente à nossa cultura e sociedade em que vivemos. A consciência, porém, não parece estar nesse espaço de experiência [8], e a maneira como usamos a linguagem elimina a possibilidade de abordar a questão da consciência no discurso ordinário. Os “filósofos da mente” pouco podem ajudar nessa questão, exceto reconhecer que o problema da consciência se reduz a um artefato de linguagem, um problema filosófico manufaturado que não é real se pensarmos com base em fatos e evidências. Para a filosofia, este é um território muito difícil, pontuado de sentenças triviais que não ajudam muito. Precisamos de um fato que nos permita estabelecer uma evidência de que a consciência existe, e este fato deve ser contextualizado em um correlato neural.
Quando se fala em “inteligência artificial” não se deve antropomorfizar essa questão, exceto se estivermos falando em inteligência artificial em nível humano. O que será então esta inteligência? A palavra “geral” é crítica aqui, pois considera-se a generalidade – ou abstração – como elemento essencial numa inteligência real. Uma rede neural artificial generaliza o que aprende (aprendizagem indutiva) criando conceitos. Se algum dia ela se tornar um agente capaz de se adaptar a ambiente novo e lidar adequadamente com ele, isso será considerado como uma evidência de inteligência, e será possível quantifica-la. Essa é a melhor definição que podemos dar para “inteligência”.
Uma IA “verdadeira”, portanto, deve ser um ente que decide por si e atua de acordo. Ela pode ser implementada em um robô com órgãos efetores e aferências sensoriais, como em um organismo. Podemos então definir uma IA real, seja qual for a abordagem que venha a adotar, como um algoritmo de aprendizagem programado em um computador corporificado (um robô) ou não, mas que em todo caso tendo que interagir com o ambiente e os demais agentes. Assim, seja qual for o caso, deve haver uma entrada sensorial e uma saída motora para a ação. O agente propriamente dito será a parte intermediária que decide como agir com base no que percebe.
Referências
[1] Câmara FP. Introdução ao conexionismo, Psychiatry On-Line Brazil, vol. 14 no. 12, 2009.
https://www.polbr.med.br/ano09/cpc1209.php
[2] Câmara FP. Redes Neurais Artificiais Como Metáfora e Modelo em Psicopatologia (ed. p. OZ Prado; I Fortim; L Cosentino), in Psicologia & Informática, São Paulo: Conselho Regional de Psicologia SP, p. 92-105, 2006.
[3] Brooks RA. Elephants don’t play chess, Robotics and Autonomous Systems 1990; 6: 3-15
[4] Brooks RA. Cambrian Intelligence, Cambridge: MIT, 1999
[5] Câmara FP. Como cérebros e máquinas aprendem. Psychiatry On-Line Brazil, vol. 22 no. 10, 2017
https://www.polbr.med.br/ano17/cpc1017.php#1
[6] Câmara FP. Humana máquina. Psychiatry On-Line Brazil, vol.22 no. 08, 2017.
https://www.polbr.med.br/ano17/cpc0817.php
[7] Câmara FP. A Era dos Algoritmos. Psychiatry On-Line Brazil, vol.22 no. 09, 2017.
https://www.polbr.med.br/ano17/cpc0917.php
[8] Sloman A. The structure of the space of possible minds. In: S. Torrance, E. Horwood (Ed.) The Mind and the Machine: philosophical aspects of Artificial Intelligence, Chichester, pp. 35-42, 1984.

Similar Posts