OpenAI revela novo ChatGPT que escuta, olha e fala – SofolFreelancer


Com a estreia do ChatGPT no final de 2022, a OpenAI mostrou que as máquinas podem lidar com solicitações mais como as pessoas. Em resposta a solicitações de texto de conversação, ele poderia responder a perguntas, escrever trabalhos de conclusão de curso e até gerar código de computador.

O ChatGPT não foi regido por um conjunto de regras. Ele aprendeu suas habilidades analisando enormes quantidades de texto coletado na Internet, incluindo artigos da Wikipédia, livros e registros de bate-papo. Especialistas saudaram a tecnologia como uma possível alternativa a mecanismos de busca como o Google e assistentes de voz como o Siri.

Versões mais recentes da tecnologia também aprenderam com sons, imagens e vídeos. Os pesquisadores chamam isso de “IA multimodal”. Essencialmente, empresas como a OpenAI começaram a combinar chatbots com geradores de imagem, áudio e vídeo de IA.

(O New York Times processou a OpenAI e sua parceira, a Microsoft, em dezembro, alegando violação de direitos autorais de conteúdo de notícias relacionado a sistemas de IA.)

À medida que as empresas combinam chatbots com assistentes de voz, muitos obstáculos permanecem. Como os chatbots aprendem suas habilidades com dados da Internet, eles estão sujeitos a erros. Às vezes, eles constituem inteiramente informações – um fenômeno que os pesquisadores de IA chamam de “alucinação”. Essas falhas estão migrando para assistentes de voz.

Leave a Reply