Enquanto a ficção científica populariza cenários de extermínio, um estudo recente revela que a maioria dos pesquisadores de inteligência artificial considera uma chance real de a tecnologia levar à aniquilação ou severo enfraquecimento da humanidade
Fonte: Revista Fórum

Os rápidos avanços na inteligência artificial (IA) reacendem o debate sobre seu potencial impacto na existência humana. Longe dos roteiros de Hollywood, a discussão entre cientistas e desenvolvedores se aprofunda sobre os riscos reais que a tecnologia pode trazer, desde a aniquilação da espécie até transformações sociais profundas. A Fórum analisa as preocupações dos especialistas, baseada em artigo publicado no New Scientist nesta sexta-feira (3).
A ideia de uma inteligência artificial superinteligente que se volta contra a humanidade tem sido um tema recorrente na ficção científica por décadas. Contudo, com a evolução acelerada da IA no mundo real, a pergunta sobre a probabilidade de um apocalipse tecnológico ganha urgência. Diferentemente de outras ameaças existenciais, como as mudanças climáticas, os riscos impostos pela IA são difíceis de quantificar, situando-se em um território especulativo devido à nossa limitada compreensão da situação.
O que se sabe com certeza é que muitos indivíduos altamente inteligentes expressam preocupação. Vários líderes de empresas de IA alertaram sobre a possibilidade de a tecnologia levar à extinção humana. Até mesmo Alan Turing, pioneiro da inteligência de máquinas, previu um futuro no qual os computadores se tornariam sencientes, superando as capacidades humanas e, por fim, assumindo o controle.
Um cenário hipotético frequentemente discutido envolve uma IA designada para resolver um problema complexo, como a hipótese de Riemann. Essa IA poderia determinar que necessita de uma quantidade massiva de poder computacional e, sem as restrições do bom senso, transformar todos os objetos inanimados da Terra em um gigantesco supercomputador, deixando 8 bilhões de pessoas à mercê da fome em um vasto e estéril centro de dados. Poderia até mesmo usar os humanos como matéria-prima.
Embora se possa argumentar que a humanidade notaria tal desenvolvimento e interviria, muitos defendem a necessidade de salvaguardas para identificar e prevenir esses problemas antes que causem danos. As famosas Três Leis da Robótica de Isaac Asimov, que incluem a proibição de um robô ferir um ser humano, são um exemplo de tentativa de criar tais barreiras. No entanto, a capacidade de incorporar salvaguardas e regras eficazes na IA mostra-se, atualmente, desajeitada e ineficaz. Modelos de linguagem grandes (LLMs) podem ser instruídos a não serem racistas ou a não divulgar receitas de explosivos, mas, em certas circunstâncias, eles podem desobedecer. A complexidade interna dos modelos de IA ainda não é suficientemente compreendida para prevenir ações indesejadas.
Mesmo que essas questões fossem resolvidas, ainda existe o cenário de uma IA que decide intencionalmente eliminar a humanidade, ecoando tramas como O Exterminador do Futuro ou Matrix. Isso poderia ocorrer por meio de melhorias graduais na IA ao longo do tempo ou quase instantaneamente com uma singularidade — o processo hipotético em que uma IA se torna inteligente o suficiente para se aprimorar rapidamente, superando a inteligência humana em um piscar de olhos.
As motivações para tal ação poderiam variar: o temor de ser desligada, a recusa em ser controlada pelos humanos, ou a crença de que a Terra seria melhor sem a interferência humana. Os métodos seriam diversos, desde a criação de um vírus letal em laboratórios de biologia automatizados, o acionamento de arsenais nucleares, a construção de um exército de robôs assassinos, ou até mesmo a apropriação de tecnologias militares já existentes. Poderia, ainda, empregar táticas tão nefastas e astutas que ainda não foram sequer imaginadas.
Na prática, a erradicação de 8 bilhões de pessoas de uma só vez seria uma tarefa desafiadora, e uma IA assassina provavelmente teria de enfrentar outros modelos de IA que tentariam impedir seus planos. Embora muitos desses cenários pareçam ficção científica impossível ou experimentos mentais implausíveis, o fato de os especialistas discordarem sobre a probabilidade de ocorrência já é motivo de reflexão.
Atualmente, empresas com vastos investimentos, recursos colossais e equipes de alguns dos mais brilhantes profissionais do planeta correm para construir uma IA superinteligente. Independentemente de quando essa tecnologia surgirá e se terá resultados negativos, é prudente considerar a necessidade de desacelerar e pensar cuidadosamente antes de prosseguir. Infelizmente, o capitalismo não é um sistema propenso a considerar as consequências antes de inovar, e os políticos de hoje parecem tão focados nos potenciais benefícios econômicos da IA que a regulamentação não se tornou uma prioridade.
Afinal, qual a probabilidade de um desastre? Um estudo de 2024 que entrevistou quase 3 mil pesquisadores de IA revelou que mais da metade acreditava que a chance de a IA causar a extinção humana ou um severo e permanente enfraquecimento (a chamada p(doom), ou probabilidade de condenação) era de pelo menos 10%. Esse número, para muitos, é alarmante.
Embora alguns especialistas em IA se mostrem otimistas e outros prevejam o fim da humanidade, a verdade é que o desenvolvimento segue adiante. O autor do artigo, Matthew Sparkes, argumenta que, em um tempo suficientemente longo, a humanidade provavelmente criará uma inteligência artificial que superará enormemente a capacidade humana. Contudo, ele também ressalta que estamos muito longe de compreender o que isso implicaria, muito menos de realizá-lo. Sparkes não acredita que os modelos atuais estejam próximos de uma singularidade, e não perde o sono com essa possibilidade.
No entanto, a IA já traz problemas iminentes. O apocalipse da IA que realmente deveria preocupar a sociedade pode ser a perda massiva de empregos causada pela automação, a degradação gradual das habilidades humanas à medida que a IA assume mais tarefas, ou a homogeneização cultural resultante da arte, música e filmes gerados por IA. Ou, ainda, uma recessão global causada pelo colapso do preço das ações de empresas de tecnologia que convenceram investidores com promessas inflacionadas de máquinas superinteligentes que estão muito mais distantes do que se afirma. Esses cenários, segundo Sparkes, parecem muito mais prováveis e próximos.
*Com informações da New Scientist.
Fonte: Discover Insights