Sam Altman: CEO da OpenAI (JASON REDMOND/Getty Images)
Repórter
Publicado em 1 de agosto de 2024 às 15h20.
Última atualização em 2 de agosto de 2024 às 11h31.
A OpenAI, respondendo a perguntas de legisladores dos Estados Unidos, disse estar dedicada a garantir que suas poderosas ferramentas de IA não causem danos, e que os funcionários têm meios de levantar preocupações sobre práticas de segurança.
A startup buscou tranquilizar os legisladores sobre seu compromisso com a segurança após cinco senadores levantarem questões sobre as políticas da OpenAI em uma carta endereçada ao CEO, Sam Altman.
“Nossa missão é garantir que a inteligência artificial beneficie toda a humanidade, e estamos dedicados a implementar protocolos de segurança rigorosos em cada estágio do nosso processo,” disse o Chief Strategy Officer, diretor de estratégia, Jason Kwon, na quarta-feira, 31, em uma carta aos legisladores.
Especificamente, a OpenAI afirmou que continuará a cumprir sua promessa de alocar 20% de seus recursos de computação para pesquisas relacionadas à segurança ao longo de vários anos. Na carta, a empresa também se comprometeu a não impor acordos de não difamação para funcionários atuais e antigos, exceto em casos específicos de um acordo mútuo de não difamação.
Os antigos limites da OpenAI para funcionários que deixaram a empresa foram criticados por serem excepcionalmente restritivos. Desde então, a OpenAI afirmou ter mudado suas políticas.
Altman posteriormente elaborou sua estratégia nas redes sociais.
“Nossa equipe tem trabalhado com o Instituto de Segurança de IA dos EUA em um acordo onde forneceremos acesso antecipado ao nosso próximo modelo base para que possamos trabalhar juntos para avançar na ciência das avaliações de IA,” escreveu ele na X.
Kwon, em sua carta, também citou a recente criação de um comitê de segurança e proteção, que está atualmente revisando os processos e políticas da OpenAI.
Nos últimos meses, a OpenAI enfrentou uma série de controvérsias em torno de seu compromisso com a segurança e a capacidade dos funcionários de falar sobre o assunto.
Vários membros-chave de suas equipes relacionadas à segurança, incluindo o ex-cofundador e cientista-chefe Ilya Sutskever, renunciaram, junto com outro líder da equipe da empresa dedicada a avaliar riscos de segurança a longo prazo, Jan Leike, que compartilhou publicamente preocupações de que a empresa estava priorizando o desenvolvimento de produtos em detrimento da segurança.