Ciência

5 premonições apocalípticas feitas pelo físico Stephen Hawking

O renomado físico teórico já anunciou algumas vezes que inteligências artificiais e alienígenas podem por um fim da raça humana

Hawking: ele acredita que a humanidade não irá sobreviver outros mil anos na Terra (Bryan Bedder/Getty Images)

Hawking: ele acredita que a humanidade não irá sobreviver outros mil anos na Terra (Bryan Bedder/Getty Images)

Marina Demartini

Marina Demartini

Publicado em 20 de novembro de 2016 às 08h00.

Última atualização em 5 de abril de 2017 às 11h38.

São Paulo – Stephen Hawking fez uma premonição dramática sobre o futuro da humanidade nessa semana. O renomado físico teórico afirmou durante uma palestra na Oxford Union Society, na Inglaterra, que os seres humanos não irão sobreviver outros mil anos caso continuem na Terra.

Essa não é a primeira vez que Hawking faz comentários apocalípticos desse tipo. Ele já fez muitas premonições relacionadas ao fim da humanidade. Veja abaixo cinco vezes que Hawking fez uma previsão desse tipo.

Inteligência artificial

Em 2014, o físico disse à BBC que o empenho da comunidade científica para criar inteligências artificiais representa uma ameaça à nossa existência. “O desenvolvimento da plena inteligência artificial poderia significar o fim da raça humana”, afirmou.

Hawking falou que esse tipo de tecnologia é útil para o progresso científico, mas que teme a criação de um robô que se iguale ou supere seres humanos. “Isso [a inteligência artificial] se desenvolveria por conta própria e cresceria em ritmo cada vez mais veloz”, profetizou. “Os seres humanos, que são limitados pela evolução biológica lenta, não poderiam competir e seriam substituídos.”

Armas autônomas

Hawking assinou uma carta aberta alertando que a inteligência artificial pode levar seres humanos a uma terceira guerra mundial. O documento foi assinado por mais de mil pesquisadores, incluindo também Elon Musk, CEO e fundador da Tesla, e Steve Wozniak, cofundador da Apple.

Para esses especialistas, esse tipo de tecnologia tem grande potencial de beneficiar a humanidade. Contudo, utiliza-la para a criação de armas autônomas de uso militar é um grande erro.

“Se isso acontecer, uma guerra armada global será inevitável e o fim da trajetória é óbvio: armas autônomas se tornarão os Kalashnikovs (AK-47) de amanhã”, afirmam os cientistas no documento. “A pergunta chave para a humanidade hoje é se devemos dar início a uma corrida de armas feitas com inteligência artificial ou se devemos prevenir que ela sequer comece.”

Mudança de planeta

Em junho desse ano, o físico fez uma afirmação bem similar à que fez em Oxford nessa semana. Ele disse durante o Festival Starmus, na Espanha, que o futuro da humanidade depende da exploração espacial. Isso porque, segundo Hawking, a Terra não irá durar mais mil anos.

Alienígenas

No documentário “Stephen Hawking’s Favorite Places”, o cientista diz que está cada vez mais convencido de que a humanidade não está sozinha no universo. Segundo o jornal The Guardian, ele diz estar ajudando na busca por vida alienígena com o Breakthrough Listen, um projeto internacional que vasculha o cosmo por sinais extraterrestres.

Hawking aponta que sabe por onde começar sua pesquisa: pelo planeta Gliese 832c. No entanto, ele alerta que o dia que a Terra receber um sinal desse astro, os seres humanos deverão ter cuidado ao responder. O primeiro contato dos seres humanos com alienígenas poderia ser equivalente ao encontro dos nativos americanos com o explorador Cristóvão Colombo – ou seja, não seria nada bom.

Quando apresentou o Breakthrough Listen no ano passado, Hawking já havia sugerido que qualquer civilização que esteja lendo nossas mensagens poderia estar bilhões de anos à frente dos humanos. “Se assim for, eles serão muito mais poderosos e nos verão como nós vemos as bactérias”, disse o cientista.

Inteligência artificial, o retorno

O físico advertiu recentemente que a criação de uma inteligência artificial poderá ser “a melhor ou a pior coisa para humanidade”. “Talvez com as ferramentas desta nova revolução tecnológica, poderemos desfazer alguns danos causados ao mundo natural”, previu o cientista em outubro desse ano.

Contudo, de acordo com Hawking, os seres humanos podem estar arquitetando sua própria destruição ao criar uma superinteligência que tenha vontade própria. Por isso, ele elogiou a criação do Centro Leverhulme para o Futuro da Inteligência (LCFI), na Universidade de Cambridge. “Ele [o instituto] é crucial para o futuro da nossa civilização e da nossa espécie.”

Acompanhe tudo sobre:AstronomiaETs – ExtraterrestresIndústria de armasInteligência artificialStephen Hawking

Mais de Ciência

Cientistas revelam o mapa mais detalhado já feito do fundo do mar; veja a imagem

Superexplosões solares podem ocorrer a cada século – e a próxima pode ser devastadora

Pepita rara foi usada como peso de porta por décadas até donos se surpreenderem com valor milionário

Astronautas da China batem recorde dos EUA em caminhada espacial