Psyquiatry online Brazil
polbr
Volume 22 - Novembro de 2017
Editor: Walmor J. Piccinini - Fundador: Giovanni Torello

 

Abril de 2015 - Vol.20 - Nº 4

COLUNA PSIQUIATRIA CONTEMPORÂNEA

RUMO À INTELIGÊNCIA ARTIFICIAL. ESTAREMOS PREPARADOS PARA A SINGULARIDADE?

Fernando Portela Câmara, Prof. Associado UFRJ


Vivemos hoje um boom na tecnologia da informática que evolui rapidamente sua interface entre máquinas processadoras e usuário. Mal nos damos conta que uma nova revolução começou e que caminhamos em direção à inteligência artificial. Esta perspectiva gerou um debate que beira a ficção científica – mas não é – que envolve a Ética na relação futura na criação e aperfeiçoamento dessas máquinas. Como um dos milhares de signatários da carta aberta de Hawking e Musk sobre essa questão, venho divulgando o assunto em duas frentes, IA e mind upload, esperando que os psiquiatras possam se interessar pelo tema que, alias, é um excelente material para se repensar o conceito e significado de autoconsciência. Claro que o assunto choca os mais conservadores, mas isso acontece mais por falta de familiaridade com o que esta acontecendo nos bastidores da tecnologia e pesquisa computacionais, e para isso recomendo o excelente livro de Bostrom (2014).

Par mim essa realidade materializou na minha experiência e convivência com a estatística. Mesmo nos meios acadêmicos, ainda são poucas pessoas que se dão conta de que a estatística tradicional está mudando radicalmente. De fato, ela foi desenvolvida numa época em que as amostras eram bem controladas e finitamente razoáveis. Desenvolveu-se o conceito de modalidade, limite de confiança, etc. Hoje muitos pesquisadores – especialmente na área médica – estranham que os dogmas do p-valor e da inferência a partir de amostra única estejam sendo abandonadas. As imensas quantidades de dados com que temos de lidar atualmente, a necessidade de acompanhar mudanças em tempo real, tornam a velha estatística limitada, ao mesmo tempo em que mostra que uma inferência estatística não é um teorema matemático e tem validade limitada e relativa, fazendo com que modelos sejam revistos após certos períodos de tempo, pois padrões podem mudar por variadas razões. Hoje o p-valor está sedo abandonado, a técnica de bootsraping vem substituindo a tradicional inferência amostral, processos de análise inferencial como a computação por redes neurais vem ganhando cada vez mais adeptos, e a abordagem bayesiana cada vez mais caminha para a imitação dos processos inteligentes. O desenvolvimento da computação e a rapidez com que computam dados tem mudado a face da estatística e, em certa extensão, da matemática, e se tornando cada vez mais computacional. O computador Watson (IBM) já diagnostica câncer com uma precisão muito maior que um médico humano e as coisas estão caminhando na direção da computação e avança rapidamente para a concretização da inteligência artificial (que podemos definir como máquinas processadoras que aprendem com a própria experiência e são capazes de deduzir novos conhecimentos a partir de outros). A tecnologia computacional avança, e em breve a estatística, como outras áreas do conhecimento estarão obsoletas. Em breve iremos conviver com máquinas inteligentes ao alcance dos nossos smartphones. E essas máquinas se tornarão mais inteligente que nós e iremos recorrer cada vez mais a elas, e não estamos aqui falando de utopias.

Estamos superando a fase da estatística convencional, entramos na mineração de dados (data mining) e agora estamos na era do Big-Data, em que volumes imensos de dados são analisados em tempo real e continuamente. O propósito é o mesmo, obter insights a partir de uma grande massa de dados cujo padrão de distribuição não é necessariamente fixo e uniforme. Precisamos agora de máquinas que “entendam” datasets e “intuam” conhecimentos que nossos cérebros, limitados em processar dados, não alcançam. Essas máquinas são necessárias ao desempenho de muitas tarefas que hoje utilizam imensas e cambiáveis massas de dados, cuja análise dedutiva não é acessível à nossa mente. Outras trabalham com inferência indutiva cujo “mecanismo” não nos é acessível, como é o caso das redes neurais, que “aprendem” a partir de datasets e inferem com boa precisão reconhecimento de padrões a partir de dados não constantes nos seus datasets de aprendizagem. Elas aprendem ajustando a “força” de suas “sinapses” de modo tal que muitas vezes não conseguimos saber como ela chegou a um resultado, embora apenas saibamos como isso é possível. Isto nos leva a antever o futuro das máquinas processadoras quando, finalmente, tivermos avançado o suficiente para tornar a inteligência artificial (IA) uma possibilidade real.

O leigo pensa que já temos máquinas inteligentes, mas isso ainda não se concretizou. No meu artigo anterior (Câmara, 2014a, 2014b) deixei claro que devemos entender por IA uma máquina que, além de uma velocidade extraordinária de processamento (como muitos possuem hoje), tenha um poder analítico cognitivo que seja capaz de encontrar soluções para problemas que a humanidade jamais conseguiu resolver, e entra em loop sempre que se defronta com eles.

Recentemente a imprensa inglesa noticiou as declarações do astrofísico Stephen Hawking e do investidor Elon Musk (Hawking, 2014; Hawking e Musk, 2014) que veem na eminente concretização da inteligência artificial (IA) o maior risco para humanidade dentro de poucas décadas. Alguns receiam que a IA crie novas matemáticas e desenvolvam tecnologias que mudem completamente a ordem do mundo e ameace a existência de nossas sociedades. E ainda mais: a IA irá superar nossa inteligência, e suas descobertas estarão além de nossa capacidade cognitiva, e, mais preocupante ainda, assumirão sem que percebamos o controle sobre o planeta através da rede mundial de computadores. Nesse ponto, o leitor dirá, e com razão, que estamos no terreno da ficção científica, mas alguns cientistas como Hawkings, discordam. Para ele, p. ex., a IA poderá criar novas ciências, novas tecnologias que melhorem muito nossa qualidade de vida como, p. ex., eliminando o sistema bancário por outras formas mais ágeis e seguras (o bitcoin é a primeira ideia que surge), mas também poderão decidir que não nossa existência é prejudicial ao “novo mundo” e nos eliminar como ruídos potencialmente destrutivos, dentro de um lógica precisa e objetiva, já que uma máquina não sente emoções ou remorso e ignora o que sejam “valores humanos”. Musk, talvez exageradamente, acredita que a IA é mais perigosa que as arma nucleares. Ele considera que elas podem aumentar sua inteligência recursivamente, aumentando assim sua capacidade computacional e reprogramar milhões de máquinas constantemente, tornando-se cada vez mais capaz e avançada que nós e será incontrolável se protocolos específicos não forem criados antecipadamente.

Exageros à parte, novos e revolucionários algoritmos estão surgindo e tornando nossa vida mais fácil – ao mesmo tempo em que mudam sutilmente nosso comportamento -, mas a sociedade precisa se posicionar e começar a mudar planejadamente em direção aos novos rumos que estão surgindo no domínio da ética, segurança, direito individuais, etc. A IA estuda como reproduzir em máquina as operações mentais humanas e deixar que as máquinas futuramente as aperfeiçoem. Não se trata em construir imitações de cérebros biológicos – os chips são muito mais eficientes que os neurônios -, mas em aprender em como ele funciona cognitivamente e socialmente, ou seja, como é seu processamento de dados. Há três grandes projetos atualmente nessa direção, que estão mapeando as conexões do nosso cérebro analogamente ao que fizemos ao decifrar a sequência do genoma humano (Blue Brain, da Universidade de Lausanne, Human Brain Project, da União Europeia, e Human Conectome Project). A IBM e o Google acreditam que concluirão esse projeto em uma década. Os mais ousados acreditam que seremos capazes de digitalizar nossas mentes na web como uma espécie de backup. E da mesma forma que nossos dados servirão como implantes para aumentar a inteligência de alguns superexecutivos eles também poderão ser hackeados… Ray Kurzweil, inventor e empreendedor, o maior divulgador dessas ideias, publicou recentemente um livro em que assume publicamente essa possibilidade e trabalha para viabiliza-la (Kurzweil, 2005, 2012). Teoricamente, se soubermos como um cérebro humano armazena e processa informações, poderíamos fazer downloads de experiências individuais e compartilha-las, mas isso ainda está mais no terreno da ficção embora alimente a convicção de alguns visionários.

Antecipando o futuro, a Coreia do Sul já criou uma declaração de direitos sobre robôs, que futuramente servirá à legislação sobre implantes de melhoramentos robóticos e, por extensão, à seleção de indivíduos que serão submetidos a melhoramentos genéticos, pois robôs e humanos terão direitos semelhantes no que tange ao melhoramento de habilidades e estirpes. Naturalmente, já podemos antever que será o mercado que irá regular isso, pois, os “melhorados” o serão com um propósito e também serão mais bem pagos por isso. Esses melhoramentos têm muitas implicações, p. ex., no nosso caso, poderemos nos tornar resistentes a certas doenças, trocar órgãos biológicos por processadores mais eficientes, controlar indivíduos violentos e algumas doenças mentais, implantar habilidades para lidar com certas tarefas e capacidade para lidar com certas classes de dados, etc.

Outra corrente de pensamento considera que quando a IA surgir (o momento denominado de “singularidade”) esta será a última invenção do homem, que  a partir disso se tornaria obsoleto. Para Nick Bostrom (2014) uma IA poderá ser uma ameaça à humanidade se não tomarmos certas precauções agora. A IA é incapaz de ter emoções tais como compaixão, remorso, odiar, etc., portanto ela é indiferente a nós, e seguem seus objetivos independentes das consequências que poderão surgir – boas ou más (a máquina é moralmente neutra). Bostrom nos dá um exemplo. Suponha que uma IA seja programada para se tornar autossuficiente em energia. Ora, ela não terá remorso algum se precisar desviar energia de uma cidade ou de uma usina para se manter em atividade. Os cientistas deveriam então se concentrar em desenvolver protocolos eficientes de controle dessas máquinas. Foi a partir do livro de Bostrom que Hawking e Musk se interessaram pelo tema.

O ponto central da tese de Bostrom é que a IA irá ultrapassar a inteligência humana – biologicamente limitada – em muito, pois a tecnologia sintética não está limitada pela natureza e propriedades do material biológico. Para evitar problemas, deveríamos estabelecer limites através de protocolos de controle que deixe ser nossa a “palavra final”. Parece que a principal preocupação desses cientistas e empreendedores é o uso militar da IA, que poderá construir máquinas eficientes em destruição em massa e em ataques pontuais, e os drones parecem profetizar isso. Máquinas controladas por IA podem causar muitos danos humanos (físicos, no caso militar; econômicos, no caso de eliminação de concorrência por recursos; sociais, etc.) antes de serem desativadas. Ao seguirem um protocolo próprio, otimizado e autoaperfeiçoado, elas podem causar danos por suas ações, não intencionalmente, é claro. Uma viagem espacial controlada por uma IA, p. ex., poderá levar a consequências inesperadas durante o seu curso ao tomar decisões acertadas, porém, “não humanas”. IAs não são sensíveis, pois não tem compreensão humana – sua compreensão é somente técnica e matemática – para questões sociais, altruístas, emocionais, valores e interesses, etc.

Enquanto a singularidade não vem, talvez seja oportuno ampliar o debate da Ética e Bioética na perspectiva de um futuro que talvez já esteja chegando às nossa s portas.

Referências

Bostrom N. Superintelligence: paths, dangers and strategies, Oxford: Oxford Univ. Press, 2014.

Câmara FP. Mind uploading, singularidade e inteligência artificial – Parte I, Psychiatry On-Line Brazil, vol.19 no. 7, 2014a.

http://www.polbr.med.br/ano14/cpc0714.php#1

Câmara FP. Podemos ser substituídos por inteligência artificial? Psychiatry On-Line Brazil, vol.19 no. 12, 2014b.

http://www.polbr.med.br/ano14/cpc1214.php#1

Hawking S, Musk E. Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter, disponível em (acessado em 27/04/15)

http://futureoflife.org/misc/open_letter

Hawking S. Transcendence looks at the implications of artificial intelligence - but are we taking AI seriously enough? The Independent, Saturday 12, July 2014, disponivel em (accessado em 30/06/2014):

http://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence--but-are-we-taking-ai-seriously-enough-9313474.html

Hawking S. Artificial intelligence 'could be the worst thing to happen to humanity': Stephen Hawking warns that rise of robots may be disastrous for mankind. Mail Online, 2 March 2014 disponível em (acessado em 30/06/2014):

http://www.dailymail.co.uk/sciencetech/article-2618434/Artificial-intelligence-worst-thing-happen-humanity-Stephen-Hawking-warns-rise-robots-disastrous-mankind.html#ixzz30lfgxtUB

Kurzweil, R. The singularity is near: When humans transcends biology. New York: Viking Press, 2005.

Kurzweil, R. How to Create a Mind, New York: Viking Press, 2012.

 


TOP