Inteligência artificial pode gerar a extinção dos humanos? O que dizem os cientistas
“O Exterminador do Futuro” (1984), “Matrix” (1999) e vários outros filmes de ficção científica avisaram… mas não adiantou. As tecnologias de inteligência artificial continuam avançando, com diversas aplicações – algumas nobres, outras nem tanto – e alguns especialistas alertaram para o perigo dessa tecnologia.
No ano passado, a ONG de pesquisa e desenvolvimento Center for AI Safety (ou Centro de Segurança de Inteligência Artificial, em tradução livre) publicou uma declaração sobre isso. “Mitigar o risco de extinção pela IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”, afirma a carta aberta, que foi assinada por vários especialistas, incluindo chefes de empresas que trabalham com a tecnologia, como a OpenAI – fabricante do ChatGPT, e o Google Deepmind.
Obviamente, o texto é meramente especulativo (ao menos por enquanto), mas ele apresenta algumas possibilidades pelas quais a IA poderia se tornar um perigo para a humanidade.
- As IAs podem ser armadas;
- Elas podem ajudar a espalhar desinformação, o que desestabiliza a sociedade;
- A IA pode ser mais uma ferramenta de concentração de poder, vigilância generalizada e censura;
- Enfraquecimento, com pessoas se tornando cada vez mais dependentes da tecnologia IA (à la o filme “Wall-E”).
Outro fator que vale destacar: esses cenários não seriam culpa apenas da IA. Na verdade, a tecnologia seria mais uma “ferramenta do mal” nas mãos da própria humanidade.
Outros especialistas afirmam que a carta foi alarmista
Yann LeCunn, professor da Universidade de Nova York, considerado um dos “padrinhos da IA”, trabalha na Meta, do Facebook, e afirmou que os avisos apocalípticos são “exagerados”. “A reação mais comum dos pesquisadores de IA a essas profecias de destruição é vergonha alheia”, explicou, segundo matéria da BBC.
“A IA atual não é nem de longe suficientemente capaz para que esses riscos se materializem. Como resultado, isso desvia a atenção dos danos de curto prazo da IA”, afirmou à BBC Arvind Narayanan, cientista da computação da Universidade de Princeton, nos EUA.
Fonte: BBC.
Continue acompanhando o Folha Oceânica para conferir mais dicas, notícias e causos.