Sam Altman deixa comitê de segurança da OpenAI, que se tornará órgão independente para supervisionar segurança de modelos de IA.
A segurança é um aspecto fundamental para a OpenAI, empresa liderada por Sam Altman, que recentemente anunciou sua saída do comitê interno de segurança criado em maio. Esse comitê foi estabelecido para supervisionar decisões críticas relacionadas à segurança de seus projetos e operações.
Com a saída de Sam Altman, a empresa precisará reforçar sua estratégia de proteção e prevenção para garantir a segurança de seus sistemas e dados. Além disso, a vigilância constante será essencial para detectar e mitigar possíveis ameaças. A confiança dos usuários é fundamental e a OpenAI deve priorizar a segurança em todas as suas ações. A inovação e a segurança devem caminhar juntas para garantir o sucesso da empresa.
Segurança em Foco: Comitê de Segurança da OpenAI se Torna Grupo Independente
A OpenAI anunciou recentemente que seu comitê de segurança será transformado em um grupo independente de supervisão, liderado pelo professor Zico Kolter, da Carnegie Mellon University. Esse grupo contará com a participação de outros membros experientes, incluindo Adam D’Angelo, CEO do Quora, o General aposentado Paul Nakasone, do Exército dos EUA, e a ex-vice-presidente da Sony, Nicole Seligman. Todos esses membros já faziam parte do conselho de administração da OpenAI.
A criação desse grupo independente visa fortalecer a Segurança e a Proteção dos modelos de inteligência artificial (IA) desenvolvidos pela OpenAI. Após a saída de Altman, o comitê conduziu uma revisão de Segurança do modelo o1, o mais recente da OpenAI. O grupo continuará recebendo relatórios periódicos das equipes de Segurança e manterá o poder de adiar lançamentos caso as preocupações de Segurança não sejam resolvidas.
Responsabilidades do Comitê de Segurança da OpenAI
O Safety and Security Committee terá a função de acompanhar Avaliações Técnicas de modelos atuais e futuros, além de monitorar o desempenho das IAs após seus lançamentos. A OpenAI afirmou que está aprimorando seus processos de lançamento, buscando critérios claros de sucesso para garantir a Segurança e a integridade desses modelos.
A Prevenção de riscos e a Vigilância constante são fundamentais para a Segurança dos modelos de IA. O comitê terá a autoridade de adiar lançamentos de modelos caso identifique riscos de Segurança.
Principais Recomendações de Segurança
A postagem no blog da OpenAI detalhou cinco áreas de melhoria nas práticas de Segurança e governança que serão implementadas após uma revisão de 90 dias feita pelo comitê:
* Governança independente de Segurança: o SSC se tornará um comitê independente de supervisão do conselho, responsável por monitorar os processos de Segurança da OpenAI para o desenvolvimento e implantação de modelos de IA.
* Aprimoramento de Medidas de Segurança: a OpenAI está expandindo suas operações de Segurança para lidar com os riscos crescentes associados ao desenvolvimento de IA.
* Transparência nos trabalhos de Segurança: a empresa busca maior transparência, divulgando cartões de sistema que explicam as capacidades e riscos de seus modelos.
* Colaboração com organizações externas: a OpenAI está intensificando colaborações com organizações independentes e laboratórios governamentais para aprimorar a Segurança no uso de IA em ambientes científicos.
* Unificação de estruturas de Segurança: a empresa está estabelecendo um quadro integrado de Segurança para o desenvolvimento e monitoramento de seus modelos, com critérios claros de sucesso.
Fonte: @Olhar Digital
Comentários sobre este artigo