Sam Altman: últimas semanas foram caóticos para a OpenAI, criadora do ChatGPT, e seu cofundador (Joel Saget/Getty Images)
Agência de notícias
Publicado em 3 de dezembro de 2023 às 15h52.
Sam Altman, que ajudou a fundar a OpenAI como um laboratório de pesquisa sem fins lucrativos em 2015, foi destituído do cargo de CEO foi demitido em 17 de novembro, em uma saída repentina e sem maiores explicações que surpreendeu o setor. E embora ele tenha logo sido reintegrado à função, poucos dias depois, muitas questões permanecem no ar.
Se você está chegando agora à saga da OpenAI e tentando entender o que está em jogo para todo o espaço da inteligência artificial você veio ao lugar certo. Aqui está um resumo do que é preciso saber.
Altman é cofundador da OpenAI, uma empresa com sede em São Francisco que está por trás do ChatGTP (ele mesmo, o chatbot que parece estar por toda parte atualmente, das escolas às instituições de saúde).
A explosão do ChatGPT desde sua chegada, um ano atrás, colocou Altman no centro das atenções da rápida comercialização da inteligência artificial (IA) generativa - que pode produzir novas imagens, textos e outros tipos de mídia. E ao se tornar a voz mais procurada do Vale do Silício para falar sobre as promessas e os potenciais riscos dessa tecnologia, ele ajudou a transformar a OpenAI em uma startup de renome mundial.
Mas seu cargo na empresa enfrentou reviravoltas difíceis no turbilhão das últimas semanas. Altman foi demitido como CEO na sexta-feira, 17 e, dias depois, estava de volta ao posto com um novo conselho administrativo.
Nesse período, a Microsoft, que investiu bilhões de dólares na OpenAI e tem direitos sobre a tecnologia já existente, ajudou a impulsionar o retorno de Altman e o contratou rapidamente, e também a outro cofundador e ex-presidente da OpenAI, Greg Brockman, que se demitiu em protesto após a destituição do CEO. Enquanto isso, centenas de funcionários da OpenAI ameaçaram se demitir.
Altman e Brockman comemoraram sua volta à empresa com publicações na X, a plataforma anteriormente conhecida como Twitter, na manhã de quarta-feira, 29.
Ainda há muito que não se sabe sobre a remoção inicial de Altman. O anúncio da sexta-feira, 17, dizia que ele "não era consistentemente sincero em sua comunicação" com o então conselho administrativo, que, porém, se recusou a oferecer detalhes mais específicos.
A despeito disso, a notícia repercutiu em todo o mundo da IA - e como a OpenAI e Altman são atores tão relevantes nesse espaço, isso poderia criar questões de confiabilidade em relação a uma tecnologia em crescimento que ainda desperta dúvidas em tantas pessoas.
"O episódio da OpenAI mostra como o ecossistema da IA ainda é frágil, inclusive em relação aos riscos da IA", diz Johann Laux, especialista do Instituto de Internet de Oxford com foco na supervisão humana sobre a inteligência artificial.
A turbulência também acentuou as diferenças entre Altman e integrantes do antigo conselho administrativo da empresa, que manifestaram opiniões diversas sobre os riscos de segurança trazidos pela IA à medida que a tecnologia avança.
Muitos especialistas consideram que todo esse drama só reforça como as decisões sobre a regulação da IA deveriam estar sendo tomadas pelos governos, e não pelas grandes empresas de tecnologia, principalmente em relação a tecnologias de desenvolvimento rápido como a IA generativa."Os eventos dos últimos dias não apenas comprometeram a tentativa da OpenAI de introduzir uma governança corporativa mais ética na gestão da empresa, mas também mostram que governança corporativa por si só, mesmo que bem-intencionada, pode facilmente acabar sendo canibalizada por outras dinâmicas e interesses corporativos", diz Enza Iannopollo, analista principal na consultoria Forrester.
A lição, segundo ele, é que as empresas sozinhas não têm condições de oferecer o nível de segurança e confiabilidade da IA de que a sociedade precisa. "Regras e salvaguardas, pensadas com as empresas e aplicadas com rigor pelos órgãos reguladores, são essenciais se quisermos nos beneficiar da IA", diz Iannopollo.
Ao contrário da IA tradicional, que processa dados e completa tarefas usando regras pré-determinadas, a IA generativa (incluindo chatbots como o ChatGPT) pode criar coisas novas.
As empresas de tecnologia ainda estão no comando no que diz respeito ao controle da IA e de seus riscos, enquanto os governos de todo o mundo tentam se atualizar.
Na União Europeia, os negociadores estão dando os últimos retoques nas normas que devem compor a primeira regulação abrangente sobre IA no mundo. Mas eles teriam se atrapalhado na discussão sobre a possibilidade e a forma de incluir os produtos de IA mais controversos e revolucionários, os grandes modelos de linguagem comercializados que sustentam os sistemas de IA generativa, inclusive o ChatGPT.
Os chatbots mal eram mencionados quando Bruxelas apresentou pela primeira vez o projeto de legislação em 2021, que se debruçava sobre a IA de usos específicos. Mas as autoridades vêm se apressando para entender como incorporar esses sistemas, também conhecidos como modelos fundacionais, na versão final.
Enquanto isso, nos EUA, o presidente Joe Biden assinou um ambicioso decreto no mês passado tentando equilibrar as necessidades das empresas de tecnologia de ponta com a segurança nacional e os direitos do consumidor.
O decreto, que provavelmente precisará ser ampliado por ação do Congresso, é um passo inicial que visa a garantir que a IA seja confiável e útil, e não maliciosa e destrutiva. Busca orientar como a IA é desenvolvida, para que as empresas possam lucrar sem colocar em risco a segurança pública.