Ensinar 'bom senso' ou 'ponderação' é desafio da inteligência artificial


Cortana, personagem de inteligência artificial da série de games de ficção científica "Halo", da Microsoft

A inteligência artificial já está entre nós. Muita gente ainda não se dá conta, mas aos poucos ela já aparece na vida cotidiana. Um exemplo são os aplicativos que reconhecem "linguagem natural". Por eles conversamos com a máquina como falamos com outras pessoas.

E a máquina responde.

Outro componente cada vez mais visível é a análise de imagens. Há serviços de hospedagem de fotos capazes de classificar automaticamente as imagens por seu conteúdo (paisagem, grupos de pessoas, objetos etc.).

Esse tipo de análise identifica até mesmo conteúdo pornográfico, sem a necessidade de intervenção humana. Por meio do chamado "aprendizado de máquina", o computador "enxerga" o mundo e distingue o que há nele.

Outra aplicação recente são os "chatbots", aplicativos que conversam com os usuários e desempenham tarefas.

Em breve, será possível mandar uma mensagem de texto ou voz para seu "assistente virtual" reservar uma mesa em um restaurante, emitir uma passagem aérea ou entregar um "bom vinho" na sua casa (o próprio assistente decidirá o que é "bom" para você).

Em suma, estamos em um processo acelerado de "cognificação". Estamos adicionando "inteligência" às aplicações de internet e também aos objetos físicos (como os carros conectados e a chamada "internet das coisas").

Como toda nova tecnologia, a inteligência artificial traz desafios. Em um workshop que conduzi na Universidade Columbia, identificamos alguns.

O primeiro é a possível redução de empregos. Dois professores de Oxford (Frey e Osborne) publicaram estudo apontando que 47% dos empregos nos EUA vão desaparecer em razão da automação nas próximas duas décadas (e não haverá muro que possa mudar essa situação).

Outro desafio é assegurar que a inteligência artificial seja utilizada em benefício da humanidade, e não contra ela. Essa preocupação levou nomes de peso, como Stephen Hawking, a assinar uma carta aberta em defesa de um uso responsável e ético da inteligência artificial.

Há também pontos cegos na tecnologia. Um estudo recente mostrou que uma aplicação de reconhecimento facial foi incapaz de identificar rostos de afrodescendentes.

A razão alegada foi que os engenheiros que desenvolveram a tecnologia utilizaram predominantemente imagens de brancos para alimentar a base de dados da aplicação, tornando-a virtualmente inútil para boa parte da população global.

Outra preocupação crucial é a moralidade. Como ensinar "bom senso" ou "ponderação" para uma máquina? Por exemplo, nos carros que se autodirigem, se um acidente é inevitável, quem a máquina deverá tentar salvar? O passageiro do carro ou dez crianças que atravessam a rua naquele momento?

São dilemas cujas variações são infinitas e precisarão ser enfrentados. Na minha opinião, o melhor caminho para isso é fazer avançar uma outra tecnologia, só que nesse caso milenar: o direito

Ronaldo Lemos - advogado, diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITSrio.org). Mestre em direito por Harvard. Pesquisador e representante do MIT Media Lab no Brasil.

Fonte: coluna jornal FSP

Tel: 11 5044-4774/11 5531-2118 | suporte@suporteconsult.com.br