[ad_1]

ChatGPT e seus irmãos são surpreendentemente inteligentes e decepcionantemente burros. Claro, eles podem gerar belos poemas, resolver quebra-cabeças científicos e depurar código espaguete. Mas sabemos que muitas vezes eles inventam, esquecem e agem como esquisitos.

A Inflection AI, uma empresa fundada por pesquisadores que já trabalharam em grandes projetos de inteligência artificial no Google, OpenAI e Nvidia, construiu um bot chamado Pi que parece cometer menos erros e ser mais adepto de conversas sociáveis.

A Inflection projetou o Pi para resolver alguns dos problemas dos chatbots atuais. Programas como o ChatGPT usam redes neurais artificiais que tentam prever quais palavras devem seguir um pedaço de texto, como uma resposta a uma pergunta do usuário. Com treinamento suficiente em bilhões de linhas de texto escritas por humanos, apoiadas por computadores de alta potência, esses modelos são capazes de apresentar respostas coerentes e relevantes que parecem uma conversa real. Mas eles também inventam coisas e saem dos trilhos.

Mustafa Suleyman, CEO da Inflection, diz que a empresa selecionou cuidadosamente os dados de treinamento de Pi para reduzir a chance de linguagem tóxica se infiltrar em suas respostas. “Somos bastante seletivos sobre o que entra no modelo”, diz ele. “Recolhemos muita informação disponível na web aberta, mas não absolutamente tudo.”

Suleyman, co-fundador da empresa de IA Deepmind, que agora faz parte do Google, também diz que limitar o tamanho das respostas de Pi reduz – mas não elimina totalmente – a probabilidade de erros factuais.

Com base no meu próprio tempo conversando com Pi, o resultado é envolvente, embora mais limitado e menos útil do que ChatGPT e Bard. Esses chatbots ficaram melhores em responder perguntas por meio de treinamento adicional no qual os humanos avaliaram a qualidade de suas respostas. Esse feedback é usado para direcionar os bots para respostas mais satisfatórias.

Suleyman diz que Pi foi treinado de maneira semelhante, mas com ênfase em ser amigável e solidário – embora sem uma personalidade semelhante à humana, o que poderia confundir os usuários sobre os recursos do programa. Os chatbots que assumem uma personalidade humana já se mostraram problemáticos. No ano passado, um engenheiro do Google afirmou, de forma controversa, que o modelo de IA LaMDA da empresa, um dos primeiros programas a demonstrar como os grandes modelos de linguagem de IA podem ser inteligentes e envolventes, pode ser senciente.

Pi também é capaz de manter um registro de todas as suas conversas com um usuário, dando-lhe uma espécie de memória de longo prazo que falta no ChatGPT e destina-se a adicionar consistência aos seus chats.

“Uma boa conversa é responder ao que a pessoa diz, fazer perguntas esclarecedoras, ser curioso, ser paciente”, diz Suleyman. “Está lá para ajudá-lo a pensar, em vez de lhe dar fortes conselhos direcionais, para ajudá-lo a desempacotar seus pensamentos.”

Pi adota uma personalidade tagarela e carinhosa, mesmo que não finja ser humano. Frequentemente perguntava como eu estava e muitas vezes oferecia palavras de encorajamento. As respostas curtas de Pi significam que ele também funcionaria bem como um assistente de voz, onde respostas e erros prolixos são especialmente chocantes. Você pode tentar falar com ele no site da Inflection.

O incrível hype em torno do ChatGPT e ferramentas semelhantes significa que muitos empreendedores esperam ficar ricos no campo.

Suleyman costumava ser um gerente da equipe do Google trabalhando no chatbot LaMDA. O Google hesitou em lançar a tecnologia, para frustração de alguns dos que trabalhavam nela, que acreditavam que ela tinha um grande potencial comercial.

[ad_2]

Matéria ORIGINAL wired