OpenAI lança GPT-4, revolucionando a interação entre humanos e inteligência artificial

A OpenAI revelou nesta terça-feira (14) o GPT-4, a mais recente versão do modelo de inteligência artificial responsável por alimentar o ChatGPT. Inicialmente, o GPT-4 estará disponível somente na versão paga do chatbot, o ChatGPT Plus, e na API para desenvolvedores.

O GPT-4 promete maior precisão na geração de texto, tornando diálogos e conversas com a inteligência artificial mais naturais para os humanos. A empresa afirma que a tecnologia é capaz de lidar com 25 mil palavras de texto, possibilitando a criação de conteúdos escritos mais extensos, além de buscas e análises em documentos.

Após seis meses de trabalho para tornar o GPT-4 mais seguro e alinhado, a OpenAI informa que ele apresenta 82% menos probabilidade de responder a solicitações de conteúdo proibido e 40% mais chances de fornecer respostas factuais em comparação ao GPT-3.5, segundo avaliações internas.

O GPT-4 é a evolução das versões anteriores GPT, GPT-2 e GPT-3, sendo este último utilizado no ChatGPT, ferramenta de chatbot lançada no final de novembro de 2022, que tem impactado o mercado com suas habilidades de reconhecimento textual.

No entanto, a OpenAI admite que o novo modelo de linguagem ainda enfrenta desafios típicos das IAs, como preconceitos sociais, alucinações e alertas adversários. A empresa incentiva e facilita a transparência, a educação do usuário e a ampliação da alfabetização em IA conforme a sociedade adota esses modelos, além de buscar expandir as possibilidades de contribuição das pessoas para moldar seus modelos.

Apesar dos desafios, a companhia afirma que o GPT-4 tem um desempenho 40% melhor que seu antecessor no quesito alucinação, ou seja, a criação de fatos que vão além da realidade.

Os dados de treinamento do GPT-4 permanecem atualizados até setembro de 2021, gerando algumas limitações nas respostas, mas a OpenAI garante que as respostas são mais factíveis do que antes.

Uma inovação do GPT-4 é a aceitação de comandos no formato de imagens, como fotos, diagramas e capturas de tela, além de texto. Assim, o sistema pode criar legendas para imagens e textos descritivos. No entanto, inicialmente, o recurso de reconhecimento de imagens não estará disponível, sendo implementado posteriormente.

Para desenvolver os comandos visuais, a OpenAI estabeleceu uma parceria com a Be My Eyes, uma startup dinamarquesa responsável por um aplicativo que descreve imagens para pessoas cegas ou com baixa visão.

Artigo anteriorPreços baixos de energia elétrica no mercado livre geram cautela sobre ações da Eletrobras
Próximo artigoComo a poluição afeta a saúde humana e o meio ambiente?
Avatar
Para falar conosco basta enviar um e-mail para redacaomeioambienterio@gmail.com ou através do nosso whatsapp 021 989 39 9273.