Evitar o risco de extinção pela IA deve ser prioridade global, alertam especialistas

Carta assinada por executivos e cientistas da área compara potenciais ameaças da tecnologia a pandemia e guerra nuclear

O Centro de Segurança de Inteligência Artificial (Cais, na sigla em inglês), uma organização sem fins lucrativos, divulgou nesta terça-feira (30) uma carta assinada por alguns dos principais executivos envolvidos no desenvolvimento da IA para alertar sobre o potencial de a tecnologia extinguir a humanidade.

Assinado por mais 350 nomes do setor – incluindo Sam Altman, cofundador da OpenAI, empresa responsável pelo ChatGPT -, o documento visa fomentar discussões sobre possíveis futuras ameaças da inteligência artificial avançada.

“Mitigar o risco de extinção pela inteligência artificial deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”, diz o texto.

Além de gestores de big techs como Microsoft e Google, a declaração conjunta reúne, entre seus signatários, cientistas e professores internacionalmente renomados, como Geoffrey Hinton, da Universidade de Toronto (Canadá), e Yoshua Bengio, da Universidade de Montreal (Canadá) – ambos considerados, ao lado de Yann LeCun, os “padrinhos da inteligência artificial”.

Em entrevista à Reuters, Hinton já havia alertado que a IA pode representar uma ameaça “mais urgente” para a humanidade do que a mudança climática.

No final de março, uma outra carta aberta, assinada coletivamente por personalidades como o bilionário Elon Musk, o escritor Yuval Harari e mais de mil especialistas, pediu que fosse adotada uma pausa de seis meses em pesquisas sobre sistemas avançados de IA, destacando que o avanço desenfreado da tecnologia representa “grandes riscos para a humanidade”.

(com Reuters)

voltar