quinta-feira, 24 de julho de 2014

OS 5 MAIORES PERIGOS PARA A HUMANIDADE NA ATUALIDADE

OS 5 MAIORES PERIGOS PARA A HUMANIDADE NA ATUALIDADE
No burburinho diário das "crises" atuais que a Humanidade enfrenta, nos esquecemos das muitas gerações que, esperamos, ainda estão por vir.
Não aqueles que vão viver daqui 200 anos, mas os que habitarão a Terra em 1000 ou 10 mil anos.
Eu uso a palavra "esperamos", porque nós enfrentamos riscos, chamados "riscos existenciais", que ameaçam acabar com a Humanidade.
Estes riscos não são apenas para grandes desastres, mas para os desastres que poderiam terminar com a História.
Esses riscos permanecem no descaso.
Há uma sensação de impotência e fatalismo sobre eles.
As pessoas têm falado de apocalipses há milênios, mas poucos tentaram impedi-los.
Os seres humanos também são ruins em fazer qualquer coisa sobre os problemas que ainda não ocorreram (parcialmente por causa da "disponibilidade heurística"
 - a tendência a superestimar a probabilidade de eventos que conhecemos e subestimar eventos que não conhecemos).
Se a humanidade se extinguir, a perda é equivalente perlo menos à de todos os indivíduos e da frustração de seus objetivos.
Mas a perda seria provavelmente muito maior do que isso.
"Extinção humana" significa a perda do sentido das gerações passadas, da vida de todas as gerações futuras (e poderia haver um número astronômico de vidas futuras) e de todo o valor que poderia ter sido criado. Se a consciência ou a inteligência forem perdidas, isso pode significar que o próprio valor tornar-se-à ausente no universo.
Esta é uma razão moral enorme para trabalhar duro para evitar que ameaças existenciais se tornem realidade.
E não devemos parar sequer uma vez nesta busca.
Com isso em mente, eu selecionei o que considero as cinco maiores ameaças à existência da Humanidade.
Mas há ressalvas que devem ser mantidas em mente, pois esta lista não é definitiva.
Ao longo do século passado, descobrimos ou criamos novos riscos existenciais
- supervulcões foram descobertos na década de 1970, e antes do Projeto Manhattan a guerra nuclear era impossível -, por isso, devemos esperar que outros possam aparecer.
Além disso, alguns riscos que vemos com seriedade hoje podem desaparecer à medida que aprendemos mais.
As probabilidades também mudam ao longo do tempo - às vezes porque estamos preocupados com os riscos e os corrigimos.
Por fim, só porque algo é possível e potencialmente perigoso, não significa que vale a pena se preocupar
Existem alguns riscos que não podemos fazer nada a respeito, tais como os jatos de raios gama que resultam das explosões de galáxias
Mas se nós aprendermos que podemos fazer alguma coisa, as prioridades mudam.
Por exemplo, com saneamento, vacinas e antibióticos, a Peste deixou de ser um ato de Deus e virou uma questão de saúde pública.
GUERRA NUCLEAR
Embora apenas duas armas nucleares tenham sido usadas em guerra até agora
 - em Hiroshima e Nagasaki, na Segunda Guerra Mundial - e os estoques nucleares estejam abaixo do pico que chegaram na Guerra Fria, é um erro pensar que a guerra nuclear é impossível .
Na verdade, ela pode não ser improvável.
A crise dos mísseis de Cuba esteve muito perto de se converter em confronto nuclear.
Se assumirmos um desses eventos a cada 69 anos e uma chance em três de que eles poderiam se tornar uma guerra nuclear, a chance de tal catástrofe aumenta para cerca de um em 200 por ano.
Pior ainda, a crise dos mísseis em Cuba foi apenas o caso mais conhecido.
A história da dissuasão nuclear União Soviética-EUA é cheia de passagens estreitas e erros perigosos.
As probabilidades mudam dependendo das tensões internacionais, mas parece improvável que as possibilidades sejam muito menores do que um em 1000 por ano.
Uma guerra nuclear em larga escala entre grandes potências iria matar centenas de milhões de pessoas diretamente ou através das conseqüências - um desastre inimaginável.
Mas isso não é suficiente para torná-la um risco existencial.
Da mesma forma os riscos de consequências são muitas vezes exagerados - seria potencialmente mortal localmente, mas globalmente um problema relativamente limitado.
Bombas de cobalto foram propostas como uma arma hipoteticamente apocalíptica que mataria todo o mundo com sua precipitação radioativa, mas são,
na prática, difíceis e caras para se construir.
E fisicamente, elas são praticamente impossíveis.
A verdadeira ameaça é o inverno nuclear - ou seja, a fuligem fugindo para a estratosfera e causando um resfriamento e seca no mundo por anos.
Simulações climáticas modernas mostram que isso poderia impedir a agricultura em grande parte do mundo.
Se ocorrer esse cenário, bilhões morrerão de fome, deixando apenas os sobreviventes espalhados que podem ser apanhados por outras ameaças, como doenças.
A principal incerteza é como a fuligem se comportaria: dependendo do tipo de fuligem os resultados podem ser muito diferentes, e no momento não temos boas maneiras de estimar isso.
PANDEMIAS BIOGENÉTICAS
Pandemias naturais mataram mais pessoas do que as guerras.
No entanto, as pandemias naturais não são suscetíveis de serem ameaças existenciais: geralmente há algumas pessoas resistentes ao patógeno, e a geração de sobreviventes seria mais resistente.
Evolução também não favorece parasitas que acabam com seus anfitriões, e é por isso que a sífilis foi de um assassino virulento a uma doença crônica enquanto se espalhava na Europa
Infelizmente, agora podemos fazer doenças mais desagradáveis
Um dos exemplos mais famosos é a forma como a introdução de um gene extra no mousepox - a versão do rato da varíola - tornou-o muito mais letal e capaz de infectar indivíduos vacinados.
Trabalhos recentes sobre a gripe aviária têm demonstrado que o contágio de uma doença pode ser deliberadamente potencializado.
Neste momento, o risco de alguém deliberadamente liberar algo devastador no ambiente é baixo.
Mas, como a biotecnologia fica melhor e mais barata com o tempo, mais grupos serão capazes de transformar as doenças para modelos piores.
A maioria dos trabalhos sobre armas biológicas têm sido feito pelos governos que procuram algo controlável, pois acabar com a Humanidade não é militarmente útil.
Mas há sempre algumas pessoas que podem querer fazer as coisas porque podem.
Outros têm propósitos mais elevados.
Por exemplo, o culto Aum Shinrikyo tentou apressar o apocalipse usando armas biológicas em um de seu mais bem sucedidos ataques com gás nervoso.
Algumas pessoas pensam que a Terra seria melhor sem os seres humanos, e assim por diante
O número de mortes por ataques de armas biológicas e surtos epidêmicos parece ter uma distribuição de lei de potências - a maioria dos ataques têm poucas vítimas, mas alguns matam muitos.
Dado os números atuais o risco de uma pandemia global por bioterrorismo parece muito pequena.
Mas isso é apenas o bioterrorismo: os governos mataram muito mais gente do que os terroristas com armas biológicas (até 400 mil podem ter morrido desde programa Biowar dos japonês na Segunda Guerra Mundial)
E como a tecnologia se torna mais poderosa, no futuro patógenos mais desagradáveis se tornarão mais fáceis de projetar
SUPERINTELIGÊNCIA
A inteligência é muito poderosa. Um pequeno incremento na capacidade de resolução de problemas e coordenação do grupo foi o que deixou os outros macacos na poeira.
Agora a sua existência depende de decisões humanas, não do que eles fazem
Ser inteligente é uma vantagem real para pessoas e organizações, então há muito mais esforço para descobrir formas de melhorar a nossa inteligência individual e coletiva: desde drogas que aumentam a cognição a softwares de inteligência artificial
O problema é que entidades inteligentes são boas em conseguir seus objetivos,
mas se os objetivos são mal definidos elas podem usar seu poder de forma inteligente para alcançar fins desastrosos.
Não há nenhuma razão para pensar que a própria inteligência vai fazer algo bom e se comportar moralmente.
Na verdade, é possível provar que certos tipos de sistemas superinteligentes não obedecer as regras morais.
Ainda mais preocupante é que, ao tentar explicar as coisas para uma inteligência artificial, nos deparamos com profundos problemas práticos e filosóficos.
Os valores humanos são difusos, coisas complexas que não somos bons em expressar, e mesmo que possamos fazê-lo talvez pudéssemos não compreender todas as implicações do que desejamos
A inteligência baseada em software pode rapidamente ir de sub-humana a assustadoramente poderosa.
A razão é que ela pode escalar de maneiras diferentes da inteligência biológica:
ela pode atuar mais rápido em computadores mais velozes, as peças podem ser distribuídas em mais computadores, diferentes versões podem ser testadas e atualizadas em tempo real, novos algoritmos incorporados podem dar um salto no desempenho
Tem sido proposto que uma "explosão de inteligência" é possível quando um software torna-se bom o suficiente em fazer um software melhor
Se tal salto ocorresse, haveria uma grande diferença de potencial de energia entre o sistema inteligente (ou as pessoas dizendo o que fazer) e o resto do mundo.
Isto tem um claro potencial para o desastre se os objetivos forem mal definidos
A única coisa incomum sobre superinteligência é que não sabemos se as explosões de inteligência rápidas e poderosas são possíveis: talvez a nossa atual civilização como um todo esteja melhorando a si mesma no ritmo mais rápido possível.
Mas há boas razões para pensar que algumas tecnologias podem acelerar as coisas muito mais rápido do que as sociedades atuais podem lidar.
Da mesma forma, não temos uma boa compreensão sobre o quanto diferentes formas de superinteligência seriam perigosas, ou se as estratégias de mitigação realmente funcionariam.
É muito difícil raciocinar sobre a tecnologia do futuro que ainda não temos, ou inteligências maiores do que nós mesmos.
Dos riscos nesta lista, este é o mais provável de ser real ou apenas uma miragem
NANOTECNOLOGIA
A nanotecnologia é o controle sobre a matéria com precisão atômica ou molecular.
Isso em si não é perigoso - em vez disso, seria uma notícia muito boa para a maioria das aplicações.
O problema é que, como a biotecnologia, aumentar o poder também aumenta o potencial de abusos que são difíceis de controlar
O grande problema não é o famoso "grey goo" das nanomáquinas auto-replicantes comerem tudo. Isso exigiria um design inteligente para este fim.
É difícil fazer uma réplica da máquina: a biologia é muito melhor no que faz, por padrão.
Talvez algum maníaco conseguisse, mas há uma abundância de frutas penduradas mais abaixo na árvore da tecnologia destrutiva
O risco mais óbvio é que a fabricação atomicamente precisa parece ideal para a fabricação mais rápida e barata de coisas como armas.
Em um mundo onde qualquer governo poderia "imprimir" grandes quantidades de armas autônomas ou semi-autônomas (incluindo meios para torná-las ainda melhores), as corridas armamentistas poderia tornar-se muito rápidas - e, portanto, instáveis, uma vez que fazer um primeiro ataque antes que o inimigo receba vantagem demais pode ser tentador
As armas também podem ser pequenas, coisas com precisão:
um "veneno inteligente" que age como um gás nervoso, mas procura vítimas, ou sistemas de vigilância onipresentes "gnatbot" para manter populações reféns parece inteiramente possível.
Além disso, pode haver formas de obtenção de poderio nuclear e engenharia climática nas mãos de alguém que queira.
Não podemos julgar a probabilidade de risco existencial no futuro da nanotecnologia, mas parece que poderia ser potencialmente perturbador porque poderia nos dar tudo o que desejássemos.
INCÓGNITAS DESCONHECIDAS
A possibilidade mais inquietante é a de que haja algo lá fora que é muito mortal,
e que não tenhamos nenhuma pista sobre o que possa ser
O silêncio no céu pode ser uma evidência disso.
É a ausência de aliens devido à possibilidade de que a vida ou a inteligência seja algo extremamente raro, ou que a vida inteligente tende a ser exterminada?
Se houver um futuro grande filtro, isso deve ter sido notado por outras civilizações também, e mesmo assim não ajudou.
Seja qual for a ameaça, teria que ser algo quase inevitável, mesmo quando você soubesse que está lá, não importa quem ou o que você é
Nós não sabemos sobre tais ameaças (nenhum dos outros nesta lista trabalham assim), mas elas podem existir
Você pode se perguntar por que as mudanças climáticas ou impactos de meteoros foram deixados de fora desta lista.
A mudança climática, não importa o quão assustadora, é pouco provável que faça todo o planeta inabitável (mas pode agravar outras ameaças se nossas defesas se quebrarem)
Meteoros certamente poderiam nos eliminar, mas teríamos que ser muito azarados
As espécies de mamíferos vivem em média há cerca de um milhão de anos.
Assim, a taxa de extinção natural é de aproximadamente uma em um milhão por ano.
Isso é muito mais baixo do que o risco de uma guerra nuclear, que mesmo depois de 70 anos ainda é a maior ameaça à nossa existência.
A "disponibilidade heurística" nos faz superestimar os riscos que estão frequentemente nos meios de comunicação, e descartar riscos sem precedentes
Se quisermos estar vivos daqui um milhão de anos, precisamos corrigir isso
TEXTO DE: Anders Sandberg (Instituto para o Futuro da Humanidade, Universidade de Oxford)
TRADUZIDO DE: The Guardian

Nenhum comentário:

Postar um comentário

Por favor leia antes de comentar:
1. Os comentários deste blog são todos moderados;
2. Escreva apenas o que for referente ao tema;
3. Ofensas pessoais ou spam não serão aceitos;
4. Não faço parcerias por meio de comentários; e nem por e-mails...
5. Obrigado por sua visita e volte sempre.