Psyquiatry online Brazil
polbr
Volume 22 - Novembro de 2017
Editor: Giovanni Torello

 

Julho de 2014 - Vol.19 - Nº 7

COLUNA PSIQUIATRIA CONTEMPORÂNEA

MIND UPLOADING, SINGULARIDADE E INTELIGÊNCIA ARTIFICIAL – PARTE I

Fernando Portela Câmara
Prof. Associado, UFRJ


Recentemente foi exibido nos cinemas o filme “Transcendente”, com Johnny Depp e Morgan Freeman. O filme trata do tema Inteligência Artificial (IA) e discute as visões conflitantes dessa tecnologia para o futuro da humanidade, quando a tecnologia para carregar (upload) nosso processamento cerebral ou parte dele for implementada em computadores. Isto não é apenas ficção científica, mas uma realidade futura e já é um assunto que vem criando discussões em círculos e reuniões de IA. 

Esse estágio do desenvolvimento da engenharia neural foi denominado de Singularidade por Vernor Vinge, e que no filme é denominada de Transcendência.  A singularidade tem em Ray Kurzweil seu maior defensor e propagador atual. Uma vez atingida a Singularidade, o ser humano entrará numa fase de Transcendência, como abordado no filme. E o que significa isto? O monólogo do personagem Dr. Will Caster, vivido por John Depp, é esclarecedor: Imagine uma máquina com uma gama completa de emoções humanas. Seu poder analítico será maior do que a inteligência coletiva de cada pessoa que já viveu em toda a história humana. Alguns cientistas se referem a isso como a Singularidade. Eu chamo isso de Transcendência”. Essa máquina encontraria solução para os problemas para os quais nossa mente mostrou-se limitada, tais como uso de energia limpa, regeneração de órgãos e tecidos, solução para o problema da fome e controle populacional, regeneração da ecologia planetária, purificação dos mares e atmosfera, erradicação da guerra e da pobreza, controle sobre todas as doenças, etc. Isto ilustra bem o que é Inteligência Artificial (IA): um projeto para expandir a inteligência humana, ampliar a capacidade de pensar do ser humano e encontrar soluções para problemas até então inalcançáveis em nossas mentes. Embora originalmente tenha sido um projeto auxiliar da mente humana, hoje a possibilidade de substituir a mente humana por um IA já é uma questão aceita por muitos que trabalham neste campo.

Isto suscitou recentemente uma polemica com o conhecido físico nobelista Stephen Hawking. Após uma entrevista ao jornal The Independent em 12 de julho deste ano, ele disse que o filme “Transcendence” não deveria ser visto apenas como uma obra de ficção científica, mas “potencialmente o pior erro da nossa história pensar que a ideia de máquinas altamente inteligentes é apenas ficção científica”. O progresso da IA está rapidamente em curso e invenções como o assistente digital Siri, Google Now e Cortana, carros que já dirigem sozinhos, máquinas que ganham qualquer partida de xadrez, máquinas que respondem a qualquer pergunta em linguagem natural são apenas sintomas do que está por vir em breve. 

Em 1965 Gordon E. Moore, então presidente da Intel, predisse que os chips dobrariam seu numero de transistores a cada 18 meses. Essa observação acabou sendo uma realidade e ganhou com isso o nome de “Lei de Moore”. A capacidade de computação aumentou exponencialmente desde então a cada década. Irving Good, um matemático britânico que trabalhou com Alan Turing, previu nesse mesmo ano que chegaríamos à Singularidade, que ele definiu como o estágio em que máquinas ultrainteligentes atuariam sobre si mesmas aperfeiçoando suas capacidades e construindo réplicas melhores. Para Hawking, isso afetaria drasticamente a humanidade, pois essas novas máquinas teriam uma lógica que o ser humanado não conseguiria compreender, e a atuação delas mudaria radicalmente a sociedade, colocaria a humanidade submissa ou até mesmo à beira da extinção, como ocorreu com os neandertais quando passaram a compartilhar o mesmo espaço com nossos ancestrais.

Podemos agora compreender a opinião de Hawking quando ele declara que a Singularidade seria “a maior conquista da humanidade e provavelmente a última”. Citando Irving Good, ele comentou as ideias contidas no filme “Transcendence” dizendo que “não há lei da física que impeça partículas de serem organizadas em maneiras que possibilitem computações ainda mais avançadas do que as realizadas no cérebro humano”, e arremata que isto levaria à “uma transição explosiva e instantânea”, mas não necessariamente como acontece no filme. “podemos imaginar tal tecnologia atuando inteligentemente sobre os mercados financeiros, orientando pesquisadores humanos, manipulando líderes, e desenvolvendo tipos de armas que não poderemos sequer entender”. O impacto a curto prazo da IA “dependerá de quem a controla, e a longo prazo se ela poderá ser controlada”. Apesar de estarmos enfrentando potencialmente a melhor ou a pior coisa que aconteceu na história humanidade, pouca investigação séria é dedicado a essas questões. No momento elas se restringem apenas a poucas instituições sem fins lucrativos tais como o Cambridge Center for the Study of Existencial Risk, o Future Humanity Institute, o Machine Intelligence Research Institute, e o Future of Life Institute. Deveríamos nos perguntar o que podemos fazer agora para melhorar as chances de colher os benefícios e evitar os riscos.

Hawking não está só em suas opiniões, com ele concordam os físicos Max Tegmark e Frank Wilczek, além do cientista da computação Stuart Russel. Todos concordam que os benefícios da inteligência artificial “poderiam ser enormes, mas não podemos prever suas consequências, tanto as boas quanto as ruins”. O potencial disruptivo da IA para a nossa civilização pode ser comparado à chegada dos conquistadores europeus na América pré-colombiana.

A humanidade ira encarar um futuro incerto na medida em que máquinas aprendam a pensar por si mesmas e se adaptem ao seu ambiente. Sabemos que a inteligência militar está numa corrida frenética para criar armamentos algoritmicamente controlados que substituam soldados humanos. Os drones já são o primeiro resultado bem sucedido desse projeto. A IBM já desenvolveu chips inteligentes que futuramente servirão para desenvolver redes de sensores que imitariam a capacidade humana de percepção, ação e pensamento, e a partir desse dia o desenvolvimento de máquinas com inteligência maior que o dos humanos em certas capacidades. Talvez seja o momento de perguntarmos o que podemos fazer agora para melhorar as chances de colhermos benefícios e evitarmos os riscos.

Bibliografia

1.Kurzweil, R. The singularity is near: When humans transcends biology. New York: Viking Press, 2005.

2.Kurzweil, R. How to Create a Mind, New York: Viking Press, 2012.

3.Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence - but are we taking AI seriously enough?'. The Independent, Saturday 12, July 2014, disponivel em (accessado em 30/06/2014):

http://www.independent.co.uk/news/science/stephen-hawking-transcendence-looks-at-the-implications-of-artificial-intelligence--but-are-we-taking-ai-seriously-enough-9313474.html

4.Artificial intelligence 'could be the worst thing to happen to humanity': Stephen Hawking warns that rise of robots may be disastrous for mankind. Mail Online, 2 March 2014 disponível em (acessado em 30/06/2014):

http://www.dailymail.co.uk/sciencetech/article-2618434/Artificial-intelligence-worst-thing-happen-humanity-Stephen-Hawking-warns-rise-robots-disastrous-mankind.html#ixzz30lfgxtUB


TOP