A OpenAI afirma que está desenvolvendo uma ferramenta para permitir que os criadores controlem melhor como seu conteúdo é usado na IA generativa.
Chamada Media Manager, a ferramenta – assim que for lançada – permitirá que criadores e proprietários de conteúdo identifiquem seus trabalhos para a OpenAI e especifiquem como desejam que esses trabalhos sejam incluídos ou excluídos da pesquisa e treinamento em IA. O objetivo é ter a ferramenta implementada até 2025, afirma a OpenAI, à medida que a empresa trabalha com criadores, proprietários de conteúdo e reguladores em direção a um padrão comum.
“Isso exigirá pesquisas de ponta em aprendizado de máquina para construir uma ferramenta inédita desse tipo que nos ajude a identificar textos, imagens, áudio e vídeos protegidos por direitos autorais em várias fontes e refletir as preferências do criador”, escreve OpenAI em um comunicado. postagem no blog. “Com o tempo, planejamos introduzir opções e recursos adicionais.”
Parece que o Media Manager, qualquer que seja a forma que assuma, é a resposta da OpenAI às crescentes críticas à sua abordagem ao desenvolvimento de IA, que depende fortemente da recolha de dados públicos disponíveis na web. Mais recentemente, oito jornais proeminentes dos EUA, incluindo o Chicago Tribune e o Orlando Sentinel, processaram a OpenAI por violação de propriedade intelectual relacionada ao uso de IA generativa pelas empresas.
Modelos de IA generativa, incluindo OpenAI – os tipos de modelos que podem analisar e gerar textos, imagens, vídeos e muito mais – são treinados em um enorme número de exemplos geralmente provenientes de sites públicos e conjuntos de dados. A OpenAI e outros fornecedores de IA generativa argumentam que o uso justo, a doutrina legal que permite o uso de obras protegidas por direitos autorais para fazer uma criação secundária, desde que seja transformadora, protege sua prática de coletar dados públicos e usá-los para treinamento sem compensar ou mesmo creditar. artistas – mas nem todos concordam.
OpenAI, na verdade, recentemente argumentou que seria impossível criar modelos úteis de IA sem material protegido por direitos autorais.
Mas – para aplacar os críticos – a OpenAI permitiu que os artistas “optassem” e removessem o seu trabalho dos conjuntos de dados que a empresa utiliza para treinar os seus modelos de geração de imagens. Também permite que os proprietários de sites indiquem, por meio do padrão robots.txt, que fornece instruções sobre sites para bots de rastreamento da web, se o conteúdo de seus sites pode ser copiado para treinamento de modelo de IA.
Essas ferramentas não foram longe o suficiente, dizem alguns criadores de conteúdo. Artistas têm descrito a ferramenta de opt-out de imagens, que exige o envio de uma cópia individual de cada imagem a ser removida junto com uma descrição, é onerosa. E – como a própria OpenAI reconhece hoje na postagem do blog – as soluções da OpenAI não abordam cenários em que os trabalhos dos criadores são citados, remixados ou republicados em plataformas que eles não controlam.