OpenAI, fabricante do ChatGPT, anuncia Comitê de Segurança e Proteção: Todos os detalhes que você precisa saber – SofolFreelancer


OpenAI, fabricante do ChatGPT, iniciou o processo de treinamento para sua nova geração de modelo de IA, GPT-5. Com o início do treinamento do modelo de IA, a empresa anunciou na terça-feira a formação de um novo Comitê de Segurança e Proteção que incluirá os principais membros do conselho. A OpenAI anunciou recentemente a dissolução de sua equipe de Superalinhamento, formada para lidar com o risco de IA de longo prazo. No entanto, agora o novo comité funcionará de forma semelhante, uma vez que cuidará das decisões de segurança e protecção para novos projectos e operações.

Sobre o Comitê de Segurança e Proteção e seus membros

Na terça-feira, OpenAI compartilhou um blog publicar anunciando a formação de um novo Comitê de Segurança e Proteção liderado pelos diretores Bret Taylor (Presidente), Adam D’Angelo, Nicole Seligman e Sam Altman (CEO). A OpenAI disse que é responsável por fazer recomendações ao conselho da empresa sobre “decisões críticas de segurança e proteção para todos os projetos da OpenAI”.

Além disso, o comitê incluirá especialistas técnicos e políticos da OpenAI, como Aleksander Madry, John Schulman (Chefe de Sistemas de Segurança), Matt Knight (Chefe de Segurança) e Jakub Pachocki (Cientista Chefe). Os membros supervisionarão e examinarão minuciosamente os planos da empresa e desenvolverão processos e salvaguardas em 90 dias.

Por que Comitê de Segurança e Proteção?

O novo comitê de segurança da OpenAI examinará minuciosamente os novos projetos e operações da empresa para fornecer processos de segurança para o uso ético de suas ferramentas e tecnologia. A empresa também destaca que está avançando para o próximo nível de capacidades de desenvolvimento de AGI e deseja se concentrar tanto na segurança quanto nos avanços tecnológicos. A OpenAI disse: “Embora estejamos orgulhosos de construir e lançar modelos que são líderes do setor em termos de capacidades e segurança, acolhemos com satisfação um debate robusto neste momento importante”.

Dentro de 90 dias, o Comitê de Segurança e Proteção da OpenAI apresentará as recomendações e processos para gerenciar a segurança e proteção em seus projetos. Este é um passo importante para a OpenAI, conforme um relatório da Wired destacou que após a dissolução da equipe do Superalignment, as medidas de segurança e proteção da empresa ficaram em segundo plano. Por outro lado, os investigadores da IA ​​também destacaram grandes preocupações sobre as futuras capacidades da IA, que requerem maior atenção quando se trata de salvaguardar a tecnologia e a utilização ética.

Mais uma coisa! Agora estamos nos canais do WhatsApp! Siga-nos lá para nunca perder nenhuma atualização do mundo da tecnologia. ‎Para acompanhar o canal HT Tech no WhatsApp, clique aqui para aderir agora!

Leave a Reply