Medo do futuro 2: a ascensão da inteligência artificial


A ciência que poderia desafiar a morte combina tecnologias digitais aliadas à inteligência artificial e à engenharia genética

 “O homem é um deus em ruínas”, escreveu o americano Ralph Waldo Emerson no século 19. Desde que nossos antepassados distantes contemplaram, pela primeira vez, a dimensão divina, vivemos uma divisão profunda entre o nosso lado animal e o nosso lado capaz de imaginar o eterno. 

Essa natureza dual entre o animal e o semidivino, o mortal e o imortal, é nossa característica mais marcante, tema de grandes livros e pensamentos filosóficos. Hoje é, também, tema que inspira várias pesquisas científicas, da engenharia genética à inteligência artificial. Será que a ciência vai ser capaz de transformar o ser humano a ponto de redefinir nossa relação com a morte?

 

Duzentos anos atrás, Mary Shelley publicava "Frankenstein", um romance gótico que continua sendo tão relevante hoje quanto foi no início do século 19. A ideia de que a ciência pode vencer a morte é pelo menos tão antiga quanto os alquimistas. No caso de Shelley, a ciência de ponta da época era o uso de correntes elétricas para estimular o movimento muscular, relação descoberta por Luigi Galvani e Alessandro Volta. (Para detalhes ver capítulos 37 e 38 de meu livro "Criação Imperfeita".)


Chris Dancy é hiperconectado a dispositivos que monitoram a qualidade do ar que respira,                                                                                                                                                                                                                                                                             volume de sua voz, alimentos que ingere, temperatura ambiente e umidade, entre outras coisas -
 
Hoje, a ciência de ponta que poderia desafiar a morte combina tecnologias digitais aliadas à inteligência artificial (IA) com a engenharia genética. Dos vários temas correlatos, discuto aqui a IA e se devemos ou não nos preocupar com esse tipo de tecnologia. Não que esteja prestes a desafiar a morte, longe disso. Mas seu impacto no mundo em que vivemos e no futuro da espécie humana deve ser considerado com cuidado, e quanto antes melhor.
 
O mundo depende fundamentalmente dos computadores. Carros, redes elétricas, aeroportos, trens, o sistema bancário, eleitoral, hospitais, as atividades individuais e profissionais do leitor, nada escapa. Paralelamente a essa dependência crescente, os computadores estão ficando mais espertos, dominando o mundo um pouco mais a cada dia. Com isso, passam a controlar tarefas cada vez mais complexas, tomando o lugar dos humanos.

Das cirurgias de alta precisão e diagnósticos médicos à automação de fábricas e linhas de produção, da exploração e tratamento de minérios em minas ou águas profundas ou em ambientes altamente radioativos até tomadas de decisão no mercado de capitais, nada parece escapar das máquinas digitais. Em breve, com veículos autônomos, será a vez dos caminhoneiros, dos motoristas de ônibus escolares, dos motoristas de táxi, dos maquinistas, criando um vácuo perigoso no mercado de trabalho, afetando milhões de pessoas, que precisariam ser retreinadas.
 
Por enquanto, ao menos, a tecnologia digital está se apoderando do mundo porque nós assim queremos. A questão, e temor de muitos, é se isso pode mudar. Se as tecnologias de IA tornarem-se autônomas, capazes de se programar e de ter intenções próprias, poderiam efetivamente controlar o mundo. Este é o argumento do filósofo Nick Bostrom, em seu livro "Superinteligência", da crusada anti-IA do bilionário Elon Musk e do medo do físico Stephen Hawking, dentre outros.
 
Um dos problemas dessa conversa é como definir inteligência. Existe a IA do futuro, aquela que vemos nos filmes e livros de ficção científica, e a do presente, que está muito longe dela. A gente vê o acrônimo IA por toda a parte, algoritmos de aprendizado de máquinas, redes neurais, programas que vão aprimorando sua eficiência por si mesmo, computadores que ganham de mestres mundiais de xadrez e de Go.
 
Esse tipo de aplicação presente de IA não ameaça o futuro da espécie humana. Por enquanto, refletem a inteligência de seus programadores que, no fim das contas, servem os interesses de suas empresas, tentando ganhar nossa atenção e dinheiro. Níveis atuais de IA (que não chamaria de IA) cumprem funções especificadas por seus programadores. Não têm autonomia ou intenção própria.
 
Esta situação pode mudar? É aqui que começa o problema. Não sabemos a resposta; não sabemos se uma máquina pode desenvolver autonomia e autoconsciência. As IA de hoje estão muito, muito longe do famoso Hall, o computador no filme (e livro) "2001: Uma Odisseia no Espaço", que resolveu matar todos os humanos na espaçonave por não julgá-los competentes para contatar alienígenas superinteligentes.
 
Por outro lado, avançar cegamente com a pesquisa em IA “porque podemos” me parece profundamente irresponsável. Muito antes de construirmos uma máquina de fato inteligente, se isso é realmente possível, a IA de menor porte causará sérios problemas sociais, redefinindo o mercado de trabalho e o tipo de habilidades e perícias que serão relevantes no futuro. Isso já está, aliás, acontecendo. Portanto, antes de nos preocuparmos com os primos do Hall dominando o mundo, deveríamos estar criando salvaguardas com a função de garantir que as máquinas que criamos estão aqui para servir a humanidade, e não para destruí-la aos poucos.
 

Marcelo Gleiser - professor de física e astronomia na Universidade Dartmouth (EUA), autor de “A Simples Beleza do Inesperado”.

Fonte: coluna jornal FSP

Tel: 11 5044-4774/11 5531-2118 | suporte@suporteconsult.com.br