OS 5 MAIORES
PERIGOS PARA A HUMANIDADE NA ATUALIDADE
No burburinho diário das "crises" atuais que a Humanidade enfrenta, nos esquecemos das muitas
gerações que, esperamos, ainda estão por vir.
Não aqueles que vão viver daqui 200 anos, mas os que
habitarão a Terra em 1000 ou 10 mil anos.
Eu uso a palavra "esperamos", porque nós enfrentamos riscos, chamados "riscos
existenciais", que ameaçam acabar
com a Humanidade.
Estes riscos não são apenas para grandes desastres, mas para
os desastres que poderiam terminar com a História.
Esses riscos permanecem no descaso.
Há uma sensação de impotência e fatalismo sobre eles.
As pessoas têm falado de apocalipses há milênios, mas poucos
tentaram impedi-los.
Os seres humanos também são ruins em fazer qualquer coisa
sobre os problemas que ainda não ocorreram (parcialmente por
causa da "disponibilidade heurística"
- a
tendência a superestimar a probabilidade de eventos que conhecemos e subestimar
eventos que não conhecemos).
Se a humanidade se extinguir, a perda é equivalente perlo
menos à de todos os indivíduos e da frustração de seus objetivos.
Mas a perda seria provavelmente muito maior do que isso.
"Extinção humana" significa a perda do sentido das gerações passadas, da vida
de todas as gerações futuras (e poderia haver um
número astronômico de vidas futuras) e de todo o valor que poderia ter
sido criado. Se a consciência ou a inteligência forem perdidas, isso pode
significar que o próprio valor tornar-se-à ausente no universo.
Esta é uma razão moral enorme para trabalhar duro para evitar
que ameaças existenciais se tornem realidade.
E não devemos parar sequer uma vez nesta busca.
Com isso em mente, eu selecionei o que considero as cinco
maiores ameaças à existência da Humanidade.
Mas há ressalvas que devem ser mantidas em mente, pois esta
lista não é definitiva.
Ao longo do século passado, descobrimos ou criamos novos
riscos existenciais
- supervulcões foram descobertos na década de 1970, e antes do Projeto Manhattan
a guerra nuclear era impossível -, por isso, devemos esperar que
outros possam aparecer.
Além disso, alguns riscos que vemos com seriedade hoje podem
desaparecer à medida que aprendemos mais.
As probabilidades também mudam ao longo do tempo - às vezes
porque estamos preocupados com os riscos e os corrigimos.
Por fim, só porque algo é possível e potencialmente perigoso,
não significa que vale a pena se preocupar
Existem alguns riscos que não podemos fazer nada a respeito,
tais como os jatos de raios gama que resultam das explosões de galáxias
Mas se nós aprendermos que podemos fazer alguma coisa, as
prioridades mudam.
Por exemplo, com saneamento, vacinas e antibióticos, a
Peste deixou
de ser um ato de Deus e virou uma questão de saúde pública.
GUERRA NUCLEAR
Embora apenas duas armas nucleares tenham sido usadas em
guerra até agora
- em Hiroshima e
Nagasaki, na Segunda Guerra Mundial - e
os estoques nucleares estejam abaixo do pico que chegaram na Guerra Fria, é um
erro pensar que a guerra nuclear é impossível .
Na verdade, ela pode não ser improvável.
A crise dos mísseis de Cuba
esteve muito perto de se converter em confronto nuclear.
Se assumirmos um desses eventos a cada 69 anos e uma chance
em três de que eles poderiam se tornar uma guerra nuclear, a chance de tal
catástrofe aumenta para cerca de um em 200 por ano.
Pior ainda, a crise dos mísseis em Cuba foi apenas o caso
mais conhecido.
A história da dissuasão nuclear União Soviética-EUA é cheia
de passagens estreitas e erros perigosos.
As probabilidades mudam dependendo das tensões
internacionais, mas parece improvável que as possibilidades sejam muito menores
do que um em 1000 por ano.
Uma guerra nuclear em larga escala entre grandes potências
iria matar centenas de milhões de pessoas diretamente ou através das
conseqüências - um desastre inimaginável.
Mas isso não é suficiente para torná-la um risco existencial.
Da mesma forma os riscos de consequências são muitas vezes exagerados
- seria potencialmente mortal localmente, mas globalmente um problema
relativamente limitado.
Bombas de cobalto foram propostas como uma arma
hipoteticamente apocalíptica que mataria todo o mundo com sua precipitação
radioativa, mas são,
na prática, difíceis e caras para se construir.
E fisicamente, elas são praticamente impossíveis.
A verdadeira ameaça é o inverno nuclear - ou seja, a fuligem
fugindo para a estratosfera e causando um resfriamento e seca no mundo por
anos.
Simulações climáticas modernas mostram que isso poderia
impedir a agricultura em grande parte do mundo.
Se ocorrer esse cenário, bilhões morrerão de fome, deixando
apenas os sobreviventes espalhados que podem ser apanhados por outras ameaças,
como doenças.
A principal incerteza é como a fuligem se comportaria:
dependendo do tipo de fuligem os resultados podem ser muito diferentes, e no
momento não temos boas maneiras de estimar isso.
PANDEMIAS BIOGENÉTICAS
Pandemias naturais mataram mais pessoas do que as guerras.
No entanto, as pandemias naturais não são suscetíveis de
serem ameaças existenciais: geralmente há algumas pessoas resistentes ao
patógeno, e a geração de sobreviventes seria mais resistente.
Evolução também não favorece parasitas que acabam com seus
anfitriões, e é por isso que a sífilis foi de um assassino virulento a uma
doença crônica enquanto se espalhava na Europa
Infelizmente, agora podemos fazer doenças mais desagradáveis
Um dos exemplos mais famosos é a forma como a introdução de
um gene extra no mousepox - a versão do rato da varíola -
tornou-o muito mais letal e capaz de infectar indivíduos vacinados.
Trabalhos recentes sobre a gripe aviária têm demonstrado que
o contágio de uma doença pode ser deliberadamente potencializado.
Neste momento, o risco de alguém deliberadamente liberar algo
devastador no ambiente é baixo.
Mas, como a biotecnologia fica melhor e mais barata com o
tempo, mais grupos serão capazes de transformar as doenças para modelos piores.
A maioria dos trabalhos sobre armas biológicas têm sido feito
pelos governos que procuram algo controlável, pois acabar com a Humanidade não
é militarmente útil.
Mas há sempre algumas pessoas que podem querer fazer as
coisas porque podem.
Outros têm propósitos mais elevados.
Por exemplo, o culto Aum Shinrikyo tentou apressar o apocalipse usando armas
biológicas em um de seu mais bem sucedidos ataques com gás nervoso.
Algumas pessoas pensam que a Terra seria
melhor sem os seres humanos, e assim por diante
O número de mortes por ataques de armas biológicas e surtos
epidêmicos parece ter uma distribuição de lei de potências - a maioria dos
ataques têm poucas vítimas, mas alguns matam muitos.
Dado os números atuais o risco de uma pandemia global por
bioterrorismo parece muito pequena.
Mas isso é apenas o bioterrorismo: os governos mataram muito
mais gente do que os terroristas com armas biológicas (até
400 mil podem ter morrido desde programa Biowar dos japonês na Segunda
Guerra Mundial)
E como a tecnologia se torna mais poderosa, no futuro
patógenos mais desagradáveis se tornarão mais fáceis de projetar
SUPERINTELIGÊNCIA
A inteligência é muito poderosa. Um pequeno incremento na
capacidade de resolução de problemas e coordenação do grupo foi o que deixou os
outros macacos na poeira.
Agora a sua existência depende de decisões humanas, não do
que eles fazem
Ser inteligente é uma vantagem real para pessoas e
organizações, então há muito mais esforço para descobrir formas de melhorar a
nossa inteligência individual e coletiva: desde drogas que aumentam a cognição
a softwares de
inteligência artificial
O problema é que entidades inteligentes são boas em conseguir
seus objetivos,
mas se os objetivos são mal definidos elas podem usar seu
poder de forma inteligente para alcançar fins desastrosos.
Não há nenhuma razão para pensar que a própria inteligência
vai fazer algo bom e se comportar moralmente.
Na verdade, é possível provar que certos tipos de sistemas
superinteligentes não obedecer as regras morais.
Ainda mais preocupante é que, ao tentar explicar as coisas
para uma inteligência artificial, nos deparamos com profundos problemas
práticos e filosóficos.
Os valores humanos são difusos, coisas complexas que não
somos bons em expressar, e mesmo que possamos fazê-lo talvez pudéssemos não
compreender todas as implicações do que desejamos
A inteligência baseada em software pode
rapidamente ir de sub-humana a assustadoramente poderosa.
A razão é que ela pode escalar de maneiras
diferentes da inteligência biológica:
ela pode atuar mais rápido em computadores mais velozes, as
peças podem ser distribuídas em mais computadores, diferentes versões podem ser
testadas e atualizadas em tempo real, novos algoritmos incorporados podem dar
um salto no desempenho
Tem sido proposto que uma "explosão de
inteligência" é possível quando um software torna-se bom o suficiente em fazer um software melhor
Se tal salto ocorresse, haveria uma grande diferença de
potencial de energia entre o sistema inteligente (ou
as pessoas dizendo o que fazer) e o resto do mundo.
Isto tem um claro potencial para o desastre se os objetivos
forem mal definidos
A única coisa incomum sobre superinteligência é
que não sabemos se as explosões de inteligência rápidas e poderosas são
possíveis: talvez a nossa atual civilização como um todo esteja
melhorando a si mesma no ritmo mais rápido possível.
Mas há boas razões para pensar que algumas tecnologias podem
acelerar as coisas muito mais rápido do que as sociedades atuais podem lidar.
Da mesma forma, não temos uma boa compreensão sobre o quanto
diferentes formas de superinteligência seriam perigosas, ou se as estratégias
de mitigação realmente funcionariam.
É muito difícil raciocinar sobre a tecnologia do futuro que
ainda não temos, ou inteligências maiores do que nós mesmos.
Dos riscos nesta lista, este é o mais provável de ser real ou
apenas uma miragem
NANOTECNOLOGIA
A nanotecnologia é o controle sobre a matéria com precisão
atômica ou molecular.
Isso em si não é perigoso - em vez disso, seria uma notícia
muito boa para a maioria das aplicações.
O problema é que, como a biotecnologia, aumentar o poder
também aumenta o potencial de abusos que são difíceis de controlar
O grande problema não é o famoso "grey goo" das
nanomáquinas auto-replicantes comerem tudo. Isso exigiria um design inteligente
para este fim.
É difícil fazer uma réplica da máquina: a biologia é muito melhor no que faz, por padrão.
Talvez algum maníaco conseguisse, mas há uma abundância de
frutas penduradas mais abaixo na árvore da tecnologia destrutiva
O risco mais óbvio é que a fabricação atomicamente precisa
parece ideal para a fabricação mais rápida e barata de coisas como armas.
Em um mundo onde qualquer governo poderia "imprimir" grandes quantidades de armas
autônomas ou semi-autônomas (incluindo meios para
torná-las ainda melhores), as corridas armamentistas poderia tornar-se
muito rápidas - e, portanto, instáveis, uma vez que fazer um primeiro ataque
antes que o inimigo receba vantagem demais pode ser tentador
As armas também podem ser pequenas, coisas com
precisão:
um "veneno inteligente" que age como um gás nervoso, mas procura vítimas, ou sistemas de
vigilância onipresentes "gnatbot" para manter populações reféns parece inteiramente possível.
Além disso, pode haver formas de obtenção de poderio nuclear
e engenharia climática nas mãos de alguém que queira.
Não podemos julgar a probabilidade de risco existencial no
futuro da nanotecnologia, mas parece que poderia ser potencialmente perturbador
porque poderia nos dar tudo o que desejássemos.
INCÓGNITAS DESCONHECIDAS
A possibilidade mais inquietante é a de que haja algo lá fora
que é muito mortal,
e que não tenhamos nenhuma pista sobre o que possa ser
O silêncio no céu pode ser uma evidência disso.
É a ausência de aliens devido à possibilidade de que a vida ou
a inteligência seja algo extremamente raro, ou que a vida inteligente tende a ser
exterminada?
Se houver um futuro grande filtro, isso deve ter sido notado
por outras civilizações também, e mesmo assim não ajudou.
Seja qual for a ameaça, teria que ser algo quase inevitável,
mesmo quando você soubesse que está lá, não importa quem ou o que você é
Nós não sabemos sobre tais ameaças (nenhum
dos outros nesta lista trabalham assim), mas elas podem existir
Você pode se perguntar por que as mudanças climáticas ou
impactos de meteoros foram deixados de fora desta lista.
A mudança climática, não importa o quão assustadora, é pouco
provável que faça todo o planeta inabitável (mas
pode agravar outras ameaças se nossas defesas se quebrarem)
Meteoros certamente poderiam nos eliminar, mas teríamos que
ser muito azarados
As espécies de mamíferos vivem em média há cerca de um milhão
de anos.
Assim, a taxa de extinção natural é de aproximadamente uma em
um milhão por ano.
Isso é muito mais baixo do que o risco de uma guerra nuclear,
que mesmo depois de 70 anos ainda é a maior ameaça à nossa existência.
A "disponibilidade heurística" nos faz superestimar os riscos que estão frequentemente nos meios de
comunicação, e descartar riscos sem precedentes
Se quisermos estar vivos daqui um milhão de anos, precisamos
corrigir isso
TEXTO DE: Anders
Sandberg (Instituto
para o Futuro da Humanidade, Universidade
de Oxford)
TRADUZIDO DE: The Guardian
OS 5 MAIORES
PERIGOS PARA A HUMANIDADE NA ATUALIDADE
Nenhum comentário:
Postar um comentário
Por favor leia antes de comentar:
1. Os comentários deste blog são todos moderados;
2. Escreva apenas o que for referente ao tema;
3. Ofensas pessoais ou spam não serão aceitos;
4. Não faço parcerias por meio de comentários; e nem por e-mails...
5. Obrigado por sua visita e volte sempre.