[ad_1]

Com seu estranho capacidade de manter uma conversa, responder a perguntas e escrever prosa coerente, poesia e código, o chatbot ChatGPT forçou muitas pessoas a repensar o potencial da inteligência artificial.

A startup que criou o ChatGPT, OpenAI, anunciou hoje uma nova versão muito esperada do modelo de IA em seu núcleo.

O novo algoritmo, chamado GPT-4, segue o GPT-3, um modelo inovador de geração de texto que a OpenAI anunciou em 2020, que foi posteriormente adaptado para criar o ChatGPT no ano passado.

O novo modelo pontua mais alto em uma série de testes projetados para medir a inteligência e o conhecimento em humanos e máquinas, diz a OpenAI. Ele também comete menos erros e pode responder tanto a imagens quanto a texto.

No entanto, o GPT-4 sofre dos mesmos problemas que atormentam o ChatGPT e fazem com que alguns especialistas em IA sejam céticos quanto à sua utilidade – incluindo tendências para “alucinar” informações incorretas, exibir vieses sociais problemáticos e se comportar mal ou assumir personalidades perturbadoras quando recebem um “ contraditório” prompt.

“Embora eles tenham feito muito progresso, claramente não é confiável”, diz Oren Etzioni, professor emérito da Universidade de Washington e CEO fundador do Allen Institute for AI. “Vai demorar muito até que você queira que qualquer GPT opere sua usina nuclear.”

A OpenAI forneceu várias demonstrações e dados de testes de benchmarking para mostrar os recursos do GPT-4. O novo modelo pode não apenas superar a pontuação de aprovação no Uniform Bar Examination, que é usado para qualificar advogados em muitos estados dos EUA, mas também obteve uma pontuação entre os 10% melhores entre os humanos.

Ele também pontua mais do que o GPT-3 em outros exames destinados a testar conhecimento e raciocínio, em assuntos como biologia, história da arte e cálculo. E obtém notas melhores do que qualquer outro modelo de linguagem AI em testes projetados por cientistas da computação para avaliar o progresso em tais algoritmos. “De certa forma, é mais do mesmo”, diz Etzioni. “Mas é mais do mesmo em uma série de avanços absolutamente alucinantes.”

O GPT-4 também pode executar truques legais vistos anteriormente no GPT-3 e no ChatGPT, como resumir e sugerir edições em partes do texto. Ele também pode fazer coisas que seus predecessores não podiam, incluindo atuar como um tutor socrático que ajuda a orientar os alunos em direção a respostas corretas e discutir o conteúdo das fotografias. Por exemplo, se for fornecida uma foto dos ingredientes no balcão da cozinha, o GPT-4 pode sugerir uma receita apropriada. Se fornecido com um gráfico, ele pode explicar as conclusões que podem ser tiradas dele.

“Definitivamente parece ter adquirido algumas habilidades”, diz Vincent Conitzer, professor da CMU especializado em IA e que começou a experimentar o novo modelo de linguagem. Mas ele diz que ainda comete erros, como sugerir direções sem sentido ou apresentar provas matemáticas falsas.

O ChatGPT chamou a atenção do público com uma capacidade impressionante de lidar com muitas questões e tarefas complexas por meio de uma interface de conversação fácil de usar. O chatbot não entende o mundo como os humanos e apenas responde com palavras que estatisticamente prevê que devem seguir uma pergunta.

[ad_2]

Matéria ORIGINAL wired