quinta-feira,
25 de abril de 2013
A
tecnologia pode destruir a raça humana?
Nos chamados "apocalipses
científicos", o mal é sempre encarnado nas próprias criações humanas
[Imagem: Kevin Warwick]
Instituto do Futuro da Humanidade - este é o nome escolhido por
uma equipe internacional de cientistas, matemáticos e filósofos que decidiu
investigar quais são os maiores perigos contra a humanidade.
E, segundo seu primeiro relatório, chamado Riscos Existenciais
como Prioridade Global, os autores de políticas públicas deveriam atentar para
os riscos que podem contribuir para o fim da espécie humana.
Seguindo uma onde crescente dos cada vez mais comuns apocalipses
científicos, os pesquisadores se espantam que, no ano passado, tenham sido
publicados mais textos acadêmicos a respeito de snowboarding do que sobre a
extinção humana.
O diretor da organização, o sueco Nick Bostrom, eventualmente
preocupado em buscar recursos para manter seu nascente instituto, montado na
Universidade de Oxford, afirma que existe uma possibilidade plausível de que
este venha a ser o último século da humanidade.
Ele precisa de argumentos, já que compete com o também fatalista
Centro para o Estudo do Risco Existencial, da Universidade de Cambridge,
atualmente mais preocupado com uma "singularidade
tecnológica" e uma revolução dos robôs.
Apocalipses descartados
Mas primeiro as boas notícias.
Pandemias e desastres naturais podem causar uma perda de vida
colossal e catastrófica, mas Bostrom acredita que a humanidade estaria propensa
a sobreviver.
Isso porque nossa espécie já sobreviveu a milhares de anos de
doenças, fome, enchentes,
predadores, perseguições, terremotos e mudanças ambientais.
Por isso, as chances ainda estão a nosso favor.
E ao longo do espaço de um século, ele afirma que o risco de
extinção em decorrência do impacto de asteroides e super erupções vulcânicas
permanece sendo "extremamente pequeno".
Até mesmo as perdas sem precedentes do século 20, com duas
guerras mundiais e a epidemia de gripe espanhola, não foram capazes de impedir
o crescimento da população humana global.
Uma guerra nuclear poderia causar destruição sem precedentes,
mas um número suficiente de indivíduos poderia sobreviver e, assim, permitir,
que a espécie continue.
Apocalipses da vez
Mas se existem todos esses atenuantes,
com o que deveríamos estar preocupados?
Bostrom acredita que entramos em uma nova era tecnológica capaz
de ameaçar nosso futuro de uma forma nunca vista antes.
Estas são "ameaças que não temos qualquer
registro de haver sobrevivido", diz ele - uma constatação um
tanto óbvia, já que a atual onda tecnológica é inédita na história.
O diretor do instituto compara as ameaças existentes a uma arma
perigosa nas mãos de uma criança.
Ele diz que o avanço tecnológico superou nossa capacidade de
controlar as possíveis consequências.
Experimentos em áreas como biologia sintética, nanotecnologia e
inteligência artificial estão avançando para dentro do território do não
intencional e do imprevisível.
A biologia sintética, onde a biologia se encontra com a
engenharia, promete grandes benefícios médicos, mas Bostrom teme efeitos não
previstos na manipulação da biologia humana.
Muitos concordam com ele, já que, recentemente, nada menos do que
111 entidades pediram uma moratória nas pesquisas com a Biologia Sintética.
Como evitar um desastre na Biologia Sintética
A nanotecnologia, se realizada a nível atômico ou molecular,
poderia também ser altamente destrutiva ao ser usada para fins bélicos.
Segundo o pesquisador, os governos futuros terão um grande
desafio para controlar e restringir usos inapropriados.
Nanofibras e nanotubos afetam homem e meio ambiente
Há também temores em relação à forma como a inteligência
artificial ou inteligência de máquina, possa interagir com o mundo externo.
Esse tipo de inteligência orientada por computadores pode ser
uma poderosa ferramenta na indústria, na medicina, na agricultura ou para
gerenciar a economia, mas enfrenta também o risco de ser completamente indiferente
a qualquer dano incidental.
Sean O'Heigeartaigh, um geneticista do instituto, traça uma
analogia com o uso de algoritmos usados no mercado de ações.
Da mesma forma que essas manipulações matemáticas, podem ter
efeitos diretos e destrutivos sobre economias reais e pessoas de verdade,
argumenta ele, tais sistemas computacionais podem "manipular o mundo verdadeiro".
Máquinas morais: programas poderão
decidir questões de vida e morte?
Em termos de riscos biológicos, ele se preocupa com boas intenções
mal aplicadas, como experimentos visando promover modificações genéticas e
desmantelar e reconstruir estruturas genéticas.
Um tema recorrente entre o eclético grupo de pesquisadores é
sobre a habilidade de criar computadores cada vez mais poderosos.
O pesquisador Daniel Dewey fala de uma "explosão de inteligência", em que
o poder de aceleração de computadores se torna menos previsível e menos
controlável.
"A inteligência artificial é uma
das tecnologias que deposita mais e mais poder em pacotes cada vez
menores", afirma.
Nick Bostrom finaliza afirmando que o risco existencial enfrentado pela
humanidade "não está no radar de todo
mundo".
Mas ele argumenta que os riscos virão, caso estejamos ou não
preparados.
"Existe um gargalo na história
da humanidade.
A condição humana irá mudar.
Pode ser que terminemos em uma
catástrofe ou que sejamos transformados ao assumir mais controle sobre a nossa
biologia.
Não é ficção científica, doutrina
religiosa ou conversa de bar," vaticina ele.
Para acalmar o tão preocupado cientista, talvez seja
recomendável não esquecer que uma única tempestade solar forte o bastante, com
a que aconteceu em 1859, poderia desligar todo o nosso "amedrontador" parque tecnológico.
E então nossas preocupações seriam bem outras - como não voltar
à barbárie, por exemplo.
FONTE: SITE INOVAÇÃO
TECNOLOGICA
Nenhum comentário:
Postar um comentário
Por favor leia antes de comentar:
1. Os comentários deste blog são todos moderados;
2. Escreva apenas o que for referente ao tema;
3. Ofensas pessoais ou spam não serão aceitos;
4. Não faço parcerias por meio de comentários; e nem por e-mails...
5. Obrigado por sua visita e volte sempre.