OpenAI está testando novo modelo de inteligência artificial (Anadolu Agency/Getty Images)
Redator na Exame
Publicado em 28 de maio de 2024 às 14h22.
Última atualização em 28 de maio de 2024 às 14h26.
A OpenAI anunciou na terça-feira, 28, a formação de um Comitê de Segurança e Proteção, liderado pelo CEO Sam Altman, enquanto inicia o treinamento de seu próximo modelo de inteligência artificial, de acordo com a Reuters. Os diretores Bret Taylor, Adam D'Angelo e Nicole Seligman também liderarão o comitê, conforme publicado no blog da empresa.
Os antigos cientistas-chefes Ilya Sutskever e Jan Leike, que lideravam a equipe de 'Super alinhamento' da OpenAI, apoiada pela Microsoft, deixaram a empresa no início deste mês. Criada para garantir que a IA se mantenha alinhada com os objetivos pretendidos, a equipe foi dissolvida em maio, menos de um ano após sua criação, segundo a CNBC.
O novo comitê será responsável por fazer recomendações ao conselho sobre decisões de segurança e proteção para os projetos e operações da OpenAI. A primeira tarefa será avaliar e desenvolver ainda mais as práticas de segurança existentes da OpenAI nos próximos 90 dias, após o que compartilhará recomendações com o conselho.
Após a revisão do conselho, a OpenAI compartilhará publicamente uma atualização sobre as recomendações adotadas. Outros membros do comitê incluem especialistas técnicos e de políticas da empresa, Aleksander Madry, Lilian Weng e o chefe de ciências de alinhamento, John Schulman. O recém-nomeado cientista-chefe Jakub Pachocki e o chefe de segurança Matt Knight também farão parte do comitê.
A segurança no desenvolvimento e implementação de sistemas de inteligência artificial é um tópico de crescente importância, especialmente à medida que esses sistemas se tornam mais complexos e integrados em diversas áreas da sociedade. Com o poder de influenciar decisões críticas em setores como saúde, finanças e segurança nacional, é essencial que as práticas de segurança sejam rigorosas para evitar falhas que possam ter consequências graves.
Os desafios de segurança incluem garantir que os sistemas de IA permaneçam alinhados com os objetivos humanos, prevenindo o uso indevido e protegendo contra ataques cibernéticos. Além disso, a transparência e a responsabilidade no desenvolvimento de IA são cruciais para construir confiança pública. Organizações como a OpenAI estão na vanguarda desses esforços, estabelecendo comitês e práticas dedicadas para assegurar que a IA seja desenvolvida de forma segura e responsável.