A OpenAI revelou nesta terça-feira (14) o GPT-4, a mais recente versão do modelo de inteligência artificial responsável por alimentar o ChatGPT. Inicialmente, o GPT-4 estará disponível somente na versão paga do chatbot, o ChatGPT Plus, e na API para desenvolvedores.
O GPT-4 promete maior precisão na geração de texto, tornando diálogos e conversas com a inteligência artificial mais naturais para os humanos. A empresa afirma que a tecnologia é capaz de lidar com 25 mil palavras de texto, possibilitando a criação de conteúdos escritos mais extensos, além de buscas e análises em documentos.
Após seis meses de trabalho para tornar o GPT-4 mais seguro e alinhado, a OpenAI informa que ele apresenta 82% menos probabilidade de responder a solicitações de conteúdo proibido e 40% mais chances de fornecer respostas factuais em comparação ao GPT-3.5, segundo avaliações internas.
O GPT-4 é a evolução das versões anteriores GPT, GPT-2 e GPT-3, sendo este último utilizado no ChatGPT, ferramenta de chatbot lançada no final de novembro de 2022, que tem impactado o mercado com suas habilidades de reconhecimento textual.
No entanto, a OpenAI admite que o novo modelo de linguagem ainda enfrenta desafios típicos das IAs, como preconceitos sociais, alucinações e alertas adversários. A empresa incentiva e facilita a transparência, a educação do usuário e a ampliação da alfabetização em IA conforme a sociedade adota esses modelos, além de buscar expandir as possibilidades de contribuição das pessoas para moldar seus modelos.
Apesar dos desafios, a companhia afirma que o GPT-4 tem um desempenho 40% melhor que seu antecessor no quesito alucinação, ou seja, a criação de fatos que vão além da realidade.
Os dados de treinamento do GPT-4 permanecem atualizados até setembro de 2021, gerando algumas limitações nas respostas, mas a OpenAI garante que as respostas são mais factíveis do que antes.
Uma inovação do GPT-4 é a aceitação de comandos no formato de imagens, como fotos, diagramas e capturas de tela, além de texto. Assim, o sistema pode criar legendas para imagens e textos descritivos. No entanto, inicialmente, o recurso de reconhecimento de imagens não estará disponível, sendo implementado posteriormente.
Para desenvolver os comandos visuais, a OpenAI estabeleceu uma parceria com a Be My Eyes, uma startup dinamarquesa responsável por um aplicativo que descreve imagens para pessoas cegas ou com baixa visão.