Inteligência Artificial

Meta quer evitar desenvolver IA de alto risco, aponta relatório interno

Empresa classifica sistemas em três níveis e impõe restrições para evitar cenários catastróficos

Meta dividiu modelos de IA em três categorias de risco: crítico, alto e moderado

Meta dividiu modelos de IA em três categorias de risco: crítico, alto e moderado

Ramana Rech
Ramana Rech

Redatora

Publicado em 4 de fevereiro de 2025 às 11h32.

Tudo sobreInteligência artificial
Saiba mais

A Meta divulgou o Frontier AI Framework, um documento detalhando sua abordagem para o desenvolvimento de inteligência artificial avançada. A empresa afirma que não construirá sistemas que apresentem risco crítico, aqueles que poderiam viabilizar cenários catastróficos sem possibilidade de mitigação.

Para isso, a Meta classifica modelos de IA em três níveis de risco: crítico, alto e moderado. A categorização considera o potencial de cada tecnologia para permitir ameaças significativas.

Diferentemente dos níveis alto e moderado, o risco crítico significa que a IA poderia viabilizar, de forma única, cenários catastróficos, como o desenvolvimento de armas biológicas ou ataques cibernéticos de larga escala. Segundo a empresa, tais sistemas não serão desenvolvidos.

Modelos de risco alto serão restritos; moderados terão segurança variável

Os sistemas de alto risco poderão ser desenvolvidos, mas não lançados ao público. A Meta afirma que esses modelos terão acesso restrito a equipes de pesquisa e contarão com medidas de segurança contra infiltração hacker.

Já os de risco moderado poderão ser implementados, com medidas de segurança ajustadas conforme a estratégia de lançamento. Esses modelos não apresentariam ameaças significativas, segundo o documento.

A Meta também reconhece que o desenvolvimento da IA envolve múltiplos fatores externos, além do próprio modelo tecnológico. O relatório destaca que há divergências internas entre especialistas da empresa sobre a velocidade e a forma como essas capacidades irão evoluir.

Com essa iniciativa, a Meta busca definir um padrão para avaliar riscos na construção de sistemas de IA avançados. A abordagem, no entanto, não conta com validação externa, pois a estrutura foi criada pelos próprios especialistas da companhia.

Acompanhe tudo sobre:MetaInteligência artificialTecnologia

Mais de Inteligência Artificial

CEO da OpenAI assina acordo com grupo de tecnologia Kakao

União Europeia pode banir e multar IAs de "risco inaceitável" a partir deste mês

Inteligência artificial já impacta bolsa, mas efeitos econômicos ainda são incertos

Cidade no Paraná terá primeiro data center dedicado à inteligência artificial da América Latina