OpenAI, fabricante do ChatGPT, iniciou o processo de treinamento para sua nova geração de modelo de IA, GPT-5. Com o início do treinamento do modelo de IA, a empresa anunciou na terça-feira a formação de um novo Comitê de Segurança e Proteção que incluirá os principais membros do conselho. A OpenAI anunciou recentemente a dissolução de sua equipe de Superalinhamento, formada para lidar com o risco de IA de longo prazo. No entanto, agora o novo comité funcionará de forma semelhante, uma vez que cuidará das decisões de segurança e protecção para novos projectos e operações.
Sobre o Comitê de Segurança e Proteção e seus membros
Na terça-feira, OpenAI compartilhou um blog publicar anunciando a formação de um novo Comitê de Segurança e Proteção liderado pelos diretores Bret Taylor (Presidente), Adam D’Angelo, Nicole Seligman e Sam Altman (CEO). A OpenAI disse que é responsável por fazer recomendações ao conselho da empresa sobre “decisões críticas de segurança e proteção para todos os projetos da OpenAI”.
Além disso, o comitê incluirá especialistas técnicos e políticos da OpenAI, como Aleksander Madry, John Schulman (Chefe de Sistemas de Segurança), Matt Knight (Chefe de Segurança) e Jakub Pachocki (Cientista Chefe). Os membros supervisionarão e examinarão minuciosamente os planos da empresa e desenvolverão processos e salvaguardas em 90 dias.
Por que Comitê de Segurança e Proteção?
O novo comitê de segurança da OpenAI examinará minuciosamente os novos projetos e operações da empresa para fornecer processos de segurança para o uso ético de suas ferramentas e tecnologia. A empresa também destaca que está avançando para o próximo nível de capacidades de desenvolvimento de AGI e deseja se concentrar tanto na segurança quanto nos avanços tecnológicos. A OpenAI disse: “Embora estejamos orgulhosos de construir e lançar modelos que são líderes do setor em termos de capacidades e segurança, acolhemos com satisfação um debate robusto neste momento importante”.
Dentro de 90 dias, o Comitê de Segurança e Proteção da OpenAI apresentará as recomendações e processos para gerenciar a segurança e proteção em seus projetos. Este é um passo importante para a OpenAI, conforme um relatório da Wired destacou que após a dissolução da equipe do Superalignment, as medidas de segurança e proteção da empresa ficaram em segundo plano. Por outro lado, os investigadores da IA também destacaram grandes preocupações sobre as futuras capacidades da IA, que requerem maior atenção quando se trata de salvaguardar a tecnologia e a utilização ética.
Mais uma coisa! Agora estamos nos canais do WhatsApp! Siga-nos lá para nunca perder nenhuma atualização do mundo da tecnologia. Para acompanhar o canal HT Tech no WhatsApp, clique aqui para aderir agora!