Os desenvolvimentos recentes da inteligência artificial (IA) podem representar risco de extinção para a humanidade. É o que acredita um grupo de professores, especialistas e executivos, que assinaram uma carta publicada pela organização sem fins lucrativos Center for AI Safety (CAIS) nesta terça-feira (30).
“Mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, diz o documento, apoiado pelo CEO da OpenAI, Sam Altman, responsável pelo ChatGPT. O CEO do Google DeepMind, Demis Hassabis, e o executivo-chefe da Anthropic, Dario Amodei, também estão entre os signatários.
Conhecidos como os “padrinhos da IA”, os professores Geoffrey Hinton e Yoshua Bengio são outros apoiadores do documento. Hinton, inclusive, já fez mais alertas a respeito do uso da tecnologia, chegando a considerá-la uma ameaça “mais urgente” do que as alterações no clima.
Os avisos apocalípticos relacionados ao uso da IA aumentaram com os avanços recentes da tecnologia.Fonte: Getty Images/Reprodução
Outros avisos sobre potenciais riscos da IA surgiram nos últimos meses, com destaque para a carta assinada por Elon Musk e executivos do setor tecnológico pedindo a suspensão do desenvolvimento de novos sistemas. O tema também foi discutido em reuniões do grupo dos países mais industrializados do mundo (G7) e da União Europeia.
Exagero?
Os medos relacionados aos avanços da inteligência artificial são vistos como exageros por outros especialistas, entre os quais o professor Yann LeCun. Parceiro de Hinton e Bengio, ele é igualmente considerado “padrinho da IA”, além de trabalhar na Meta.
Pensamento semelhante é defendido pelo cientista da computação da Universidade de Princeton (EUA), Arvind Narayanan. Em entrevista à BBC, ele afirmou que os mecanismos de IA atuais “nem de longe” têm a capacidade de colocar a humanidade em risco, ao contrário do que seus colegas sugerem.