Uma equipe internacional de cientistas, matemáticos e filósofos do Instituto do Futuro da Humanidade, da Universidade de Oxford, está investigando quais são os maiores perigos contra a humanidade.
Segundo informações divulgadas pela agência de notícias BBC, o diretor do instituto, Nick Bostrom, afirma que existe uma possibilidade plausível de que este venha a ser o último século da humanidade.
Ao contrário do que se possa imaginar é mais provável que a tecnologia acabe com a humanidade do que um cataclismo. Dá para acreditar? Em entrevista à BBC, Bostrom afirma que entramos em uma nova era tecnológica capaz de ameaçar nosso futuro de uma forma nunca vista antes. Estas são “ameaças que não temos qualquer registro de haver sobrevivido”. O diretor do instituto diz que o avanço tecnológico superou nossa capacidade de controlar as possíveis consequências.
A biologia sintética, onde a biologia se encontra com a engenharia, promete grandes benefícios médicos, mas Bostrom teme efeitos não previstos na manipulação da biologia humana.
A nanotecnologia, se realizada a nível atômico ou molecular, poderia também ser altamente destrutiva ao ser usada para fins bélicos. Ele tem escrito que governos futuros terão um grande desafio ao controlar e restringir usos inapropriados.
Matrix realmente pode acontecer! Há também temores em relação à forma como a inteligência artificial ou maquinal possa interagir com o mundo externo. Esse tipo de inteligência orientada por computadores pode ser uma poderosa ferramenta na indústria, na medicina, na agricultura ou para gerenciar a economia, mas enfrenta também o risco de ser completamente indiferente a qualquer dano incidental. O pesquisador Daniel Dewey, do instituto, fala de uma “explosão de inteligência”, em que o poder de aceleração de computadores se torna menos previsível e menos controlável.
“A inteligência artificial é uma das tecnologias que deposita mais e mais poder em pacotes cada vez menores”, afirma o perito americano, um especialista em inteligência maquinal que trabalhou anteriormente no Google.
Erros genéticos – Sean O’Heigeartaigh, um geneticista do instituto, traça uma analogia com o uso de algoritmos usados no mercado de ações. Da mesma forma que essas manipulações matemáticas, argumenta, podem ter efeitos diretos e destrutivo sobre economias reais e pessoas de verdade, tais sistemas computacionais podem ‘manipular o mundo verdadeiro’.
Em termos de riscos biológicos, ele se preocupa com boas intenções mal aplicadas, como experimentos visando promover modificações genéticas e reconstruir estruturas genéticas.
E ao longo do espaço de um século, o cientista afirma que o risco de extinção em decorrência do impacto de asteroides e erupções vulcânicas permanece sendo “extremamente pequeno”.
Guerra nuclear não quer dizer fim do mundo. Uma guerra nuclear poderia causar destruição sem precedentes, mas um número suficiente de indivíduos poderia sobreviver e, assim, permitir, que a espécie continue.
Nós podemos resistir às doenças! Pandemias e desastres naturais podem causar uma perda de vida colossal e catastrófica, mas Bostrom acredita que a humanidade estaria propensa a sobreviver. Isso porque nossa espécie já sobreviveu a milhares de anos de doenças, fome, enchentes, predadores, perseguições, terremotos e mudanças ambientais. Neste sentido, as chances ainda estão do nosso lado.