Repórter News - reporternews.com.br
Cientistas afirmam que este pode ser o último século da humanidade; veja
(WikimediaCommons)
(Reprodução/Nasa)
(Divulgação)
(Getty Images)
(Getty Images)
(Divulgação/University of Dundee)
(Getty Images)
Nós podemos resistir às doenças! Pandemias e desastres naturais podem causar uma perda de vida colossal e catastrófica, mas Bostrom acredita que a humanidade estaria propensa a sobreviver. Isso porque nossa espécie já sobreviveu a milhares de anos de doenças, fome, enchentes, predadores, perseguições, terremotos e mudanças ambientais. Neste sentido, as chances ainda estão do nosso lado.
Uma equipe internacional de cientistas, matemáticos e filósofos do Instituto do Futuro da Humanidade, da Universidade de Oxford, está investigando quais são os maiores perigos contra a humanidade.
Segundo informações divulgadas pela agência de notícias BBC, o diretor do instituto, Nick Bostrom, afirma que existe uma possibilidade plausível de que este venha a ser o último século da humanidade. Saiba o motivo desta previsão catastrófica nas próximas imagens!
(Reprodução/Nasa)
Ao contrário do que se possa imaginar é mais provável que a tecnologia acabe com a humanidade do que um cataclismo. Dá para acreditar? Em entrevista à BBC, Bostrom afirma que entramos em uma nova era tecnológica capaz de ameaçar nosso futuro de uma forma nunca vista antes. Estas são “ameaças que não temos qualquer registro de haver sobrevivido”. O diretor do instituto diz que o avanço tecnológico superou nossa capacidade de controlar as possíveis consequências.
(Divulgação)
A biologia sintética, onde a biologia se encontra com a engenharia, promete grandes benefícios médicos, mas Bostrom teme efeitos não previstos na manipulação da biologia humana.
(Getty Images)
A nanotecnologia, se realizada a nível atômico ou molecular, poderia também ser altamente destrutiva ao ser usada para fins bélicos. Ele tem escrito que governos futuros terão um grande desafio ao controlar e restringir usos inapropriados.
(Getty Images)
Matrix realmente pode acontecer! Há também temores em relação à forma como a inteligência artificial ou maquinal possa interagir com o mundo externo. Esse tipo de inteligência orientada por computadores pode ser uma poderosa ferramenta na indústria, na medicina, na agricultura ou para gerenciar a economia, mas enfrenta também o risco de ser completamente indiferente a qualquer dano incidental. O pesquisador Daniel Dewey, do instituto, fala de uma “explosão de inteligência”, em que o poder de aceleração de computadores se torna menos previsível e menos controlável.
“A inteligência artificial é uma das tecnologias que deposita mais e mais poder em pacotes cada vez menores”, afirma o perito americano, um especialista em inteligência maquinal que trabalhou anteriormente no Google.
(Divulgação/University of Dundee)
Em termos de riscos biológicos, ele se preocupa com boas intenções mal aplicadas, como experimentos visando promover modificações genéticas e reconstruir estruturas genéticas.
(SDO/EFE)
E ao longo do espaço de um século, o cientista afirma que o risco de extinção em decorrência do impacto de asteroides e erupções vulcânicas permanece sendo “extremamente pequeno”.
(WikimediaCommons)
(SDO/EFE)
E ao longo do espaço de um século, o cientista afirma que o risco de extinção em decorrência do impacto de asteroides e erupções vulcânicas permanece sendo “extremamente pequeno”.
(WikimediaCommons)
Guerra nuclear não quer dizer fim do mundo. Uma guerra nuclear poderia causar destruição sem precedentes, mas um número suficiente de indivíduos poderia sobreviver e, assim, permitir, que a espécie continue.
(Getty Images)
Nós podemos resistir às doenças! Pandemias e desastres naturais podem causar uma perda de vida colossal e catastrófica, mas Bostrom acredita que a humanidade estaria propensa a sobreviver. Isso porque nossa espécie já sobreviveu a milhares de anos de doenças, fome, enchentes, predadores, perseguições, terremotos e mudanças ambientais. Neste sentido, as chances ainda estão do nosso lado.
Fonte:
Do R7
URL Fonte: https://reporternews.com.br/noticia/21604/visualizar/
Comentários