quinta-feira, 6 de junho de 2013

A tecnologia pode destruir a raça humana?

quinta-feira, 25 de abril de 2013
A tecnologia pode destruir a raça humana?
Nos chamados "apocalipses científicos", o mal é sempre encarnado nas próprias criações humanas
[Imagem: Kevin Warwick]
Instituto do Futuro da Humanidade - este é o nome escolhido por uma equipe internacional de cientistas, matemáticos e filósofos que decidiu investigar quais são os maiores perigos contra a humanidade.
E, segundo seu primeiro relatório, chamado Riscos Existenciais como Prioridade Global, os autores de políticas públicas deveriam atentar para os riscos que podem contribuir para o fim da espécie humana.
Seguindo uma onde crescente dos cada vez mais comuns apocalipses científicos, os pesquisadores se espantam que, no ano passado, tenham sido publicados mais textos acadêmicos a respeito de snowboarding do que sobre a extinção humana.
O diretor da organização, o sueco Nick Bostrom, eventualmente preocupado em buscar recursos para manter seu nascente instituto, montado na Universidade de Oxford, afirma que existe uma possibilidade plausível de que este venha a ser o último século da humanidade.
Ele precisa de argumentos, já que compete com o também fatalista Centro para o Estudo do Risco Existencial, da Universidade de Cambridge, atualmente mais preocupado com uma "singularidade tecnológica" e uma revolução dos robôs.
Apocalipses descartados
Mas primeiro as boas notícias.
Pandemias e desastres naturais podem causar uma perda de vida colossal e catastrófica, mas Bostrom acredita que a humanidade estaria propensa a sobreviver.
Isso porque nossa espécie já sobreviveu a milhares de anos de doenças, fome, enchentes,
predadores, perseguições, terremotos e mudanças ambientais.
Por isso, as chances ainda estão a nosso favor.
E ao longo do espaço de um século, ele afirma que o risco de extinção em decorrência do impacto de asteroides e super erupções vulcânicas permanece sendo "extremamente pequeno".
Até mesmo as perdas sem precedentes do século 20, com duas guerras mundiais e a epidemia de gripe espanhola, não foram capazes de impedir o crescimento da população humana global.
Uma guerra nuclear poderia causar destruição sem precedentes, mas um número suficiente de indivíduos poderia sobreviver e, assim, permitir, que a espécie continue.
Apocalipses da vez
Mas se existem todos esses atenuantes, com o que deveríamos estar preocupados?
Bostrom acredita que entramos em uma nova era tecnológica capaz de ameaçar nosso futuro de uma forma nunca vista antes.
Estas são "ameaças que não temos qualquer registro de haver sobrevivido", diz ele - uma constatação um tanto óbvia, já que a atual onda tecnológica é inédita na história.
O diretor do instituto compara as ameaças existentes a uma arma perigosa nas mãos de uma criança.
Ele diz que o avanço tecnológico superou nossa capacidade de controlar as possíveis consequências.
Experimentos em áreas como biologia sintética, nanotecnologia e inteligência artificial estão avançando para dentro do território do não intencional e do imprevisível.
A biologia sintética, onde a biologia se encontra com a engenharia, promete grandes benefícios médicos, mas Bostrom teme efeitos não previstos na manipulação da biologia humana.
Muitos concordam com ele, já que, recentemente, nada menos do que 111 entidades pediram uma moratória nas pesquisas com a Biologia Sintética.
Como evitar um desastre na Biologia Sintética
A nanotecnologia, se realizada a nível atômico ou molecular, poderia também ser altamente destrutiva ao ser usada para fins bélicos.
Segundo o pesquisador, os governos futuros terão um grande desafio para controlar e restringir usos inapropriados.
Nanofibras e nanotubos afetam homem e meio ambiente
Há também temores em relação à forma como a inteligência artificial ou inteligência de máquina, possa interagir com o mundo externo.
Esse tipo de inteligência orientada por computadores pode ser uma poderosa ferramenta na indústria, na medicina, na agricultura ou para gerenciar a economia, mas enfrenta também o risco de ser completamente indiferente a qualquer dano incidental.
Sean O'Heigeartaigh, um geneticista do instituto, traça uma analogia com o uso de algoritmos usados no mercado de ações.
Da mesma forma que essas manipulações matemáticas, podem ter efeitos diretos e destrutivos sobre economias reais e pessoas de verdade, argumenta ele, tais sistemas computacionais podem "manipular o mundo verdadeiro".
Máquinas morais: programas poderão decidir questões de vida e morte?
Em termos de riscos biológicos, ele se preocupa com boas intenções mal aplicadas, como experimentos visando promover modificações genéticas e desmantelar e reconstruir estruturas genéticas.
Um tema recorrente entre o eclético grupo de pesquisadores é sobre a habilidade de criar computadores cada vez mais poderosos.
O pesquisador Daniel Dewey fala de uma "explosão de inteligência", em que o poder de aceleração de computadores se torna menos previsível e menos controlável.
"A inteligência artificial é uma das tecnologias que deposita mais e mais poder em pacotes cada vez menores", afirma.
Nick Bostrom finaliza afirmando que o risco existencial enfrentado pela humanidade "não está no radar de todo mundo".
Mas ele argumenta que os riscos virão, caso estejamos ou não preparados.
"Existe um gargalo na história da humanidade.
A condição humana irá mudar.
Pode ser que terminemos em uma catástrofe ou que sejamos transformados ao assumir mais controle sobre a nossa biologia.
Não é ficção científica, doutrina religiosa ou conversa de bar," vaticina ele.
Para acalmar o tão preocupado cientista, talvez seja recomendável não esquecer que uma única tempestade solar forte o bastante, com a que aconteceu em 1859, poderia desligar todo o nosso "amedrontador" parque tecnológico.
E então nossas preocupações seriam bem outras - como não voltar à barbárie, por exemplo.
FONTE: SITE INOVAÇÃO TECNOLOGICA

Nenhum comentário:

Postar um comentário

Por favor leia antes de comentar:
1. Os comentários deste blog são todos moderados;
2. Escreva apenas o que for referente ao tema;
3. Ofensas pessoais ou spam não serão aceitos;
4. Não faço parcerias por meio de comentários; e nem por e-mails...
5. Obrigado por sua visita e volte sempre.