Tecnologia

Grupo de Elon Musk quer regras para evitar revoltas de robôs

"O perigo do cenário mostrado na série Exterminador do Futuro é que ele nos distraia dos problemas reais gerados pela Inteligência Artificial", diz pesquisador


	"O perigo do cenário mostrado na série Exterminador do Futuro é que ele nos distraia dos problemas reais gerados pela Inteligência Artificial", diz pesquisador
 (Divulgação)

"O perigo do cenário mostrado na série Exterminador do Futuro é que ele nos distraia dos problemas reais gerados pela Inteligência Artificial", diz pesquisador (Divulgação)

DR

Da Redação

Publicado em 5 de julho de 2015 às 15h38.

Um consórcio de pesquisadores especializados em inteligência artificial foi formado nesta semana para impedir que as máquinas dominem os seres humanos, ao mesmo tempo que estabelece as fundações técnicas e éticas para o campo de pesquisa.

O Future of Life Institute, sediado na cidade americana de Boston, distribuiu 37 bolsas de estudos para pesquisadores com projetos que buscam "manter a Inteligência Artificial vigorosa e benéfica."

Os cientistas são especializados nos mais diversos campos de pesquisa: desde matemáticos, que constroem modelos probabilísticos para softwares de Inteligência Artificial, até filósofos que estudam a estrutura teórica para o "controle humano" de armas autônomas.

A maior parte do dinheiro das bolsas foi doada por Elon Musk, fundador da Tesla e SpaceX, que teria dado 10 milhões de dólares para a iniciativa. O bilionário sul-africano já manifestou sua preocupação a respeito do desenvolvimento da inteligência das máquinas.

O anúncio das bolsas de estudo aconteceu na mesma semana do lançamento de Exterminador do Futuro: Gênesis, o quinto filme da franquia sobre as máquinas que se voltam contra os humanos e geram o apocalipse nuclear na Terra.

"O perigo do cenário mostrado na série Exterminador do Futuro não é de que um dia ele aconteça", afirma Max Tegmar, presidente do Future of Life Institute e físico do MIT, "mas sim que ele nos distraia dos problemas reais gerados pela Inteligência Artificial no futuro."

Problemas com robôs armados ou superinteligentes podem surgir e aumentar em um futuro próximo, disse Tegmar em um comunicado, mas por enquanto, eles ainda não devem aparecer. Ou seja, não veremos tão cedo robôs carregando metralhadoras por aí.

O Future of Life quer desenvolver um critério para estabelecer um código de boas práticas de engenharia e princípios éticos para quando universidades, empresas e indivíduos lidem com máquinas inteligentes.

A fundação deu 136 mil dólares para uma professora da Universidade de Denver, Heather Roff, para investigar o uso de armas com inteligência artificial, uma questão estudada pelas Nações Unidas.

Outros 200 mil dólares foram dados a uma iniciativa que pesquisa cibersegurança em inteligência artificial. Já um projeto de filosofia, chamado "Alinhando a superinteligência com os interesses humanos", recebeu 250 mil dólares.

Em janeiro, o Future of Life apresentou seu manifesto em uma convenção em Porto Rico. A carta aberta foi assinada por integrantes da maioria das grandes empresas de tecnologia do planeta, incluindo os diretores de pesquisa do Google e da Microsoft, o chefe de inteligência artificial do Facebook, além dos três fundadores da DeepMind, a empresa de deep learning que o Google comprou no ano passado.

Acompanhe tudo sobre:Elon MuskInteligência artificialRobôsRobótica

Mais de Tecnologia

Segurança de dados pessoais 'não é negociável', diz CEO do TikTok

UE multa grupo Meta em US$ 840 milhões por violação de normas de concorrência

Celebrando 25 anos no Brasil, Dell mira em um futuro guiado pela IA

'Mercado do amor': Meta redobra esforços para competir com Tinder e Bumble