Mais de 850
especialistas pedem pausa no avanço da Superinteligência Artificial
Mais de 850 ESPECIALISTAS e LÍDERES globais pedem a
SUSPENSÃO do desenvolvimento da “SUPERINTELIGÊNCIA ARTIFICIAL” - sistemas que
poderiam SUPERAR o ser HUMANO em praticamente todas as tarefas COGNITIVAS.
A declaração, assinada por nomes como Yoshua
Bengio, Geoff Hinton, Richard Branson, Steve Wozniak e Stuart Russell, alerta
para RISCOS que vão desde a perda de EMPREGOS e liberdades civis até a possível
EXTINÇÃO humana.
O grupo pede uma PAUSA global até que haja CONSENSO
científico e APOIO público de que a tecnologia pode ser criada e controlada com
SEGURANÇA.
Enquanto empresas como OpenAI, xAI e Meta competem
para lançar modelos cada vez mais AVANÇADOS, cresce a divisão entre os chamados
“AI BOOMERS”, que acreditam no POTENCIAL transformador da tecnologia e os “AI
DOOMERS”, que veem nela uma AMEAÇA existencial.
✅ Uma pesquisa do Future of Life Institute revelou que apenas 5% dos
americanos apoiam o AVANÇO rápido e sem REGULAÇÃO da IA superinteligente, e a
maioria acredita que ela não deve ser criada antes de ser comprovadamente
SEGURA.
FUTURO DOS NEGÓCIOS