[ad_1]

“Muitas manchetes dizem que acho que isso deveria ser interrompido agora – e eu nunca disse isso”, diz ele. “Em primeiro lugar, não acho que isso seja possível e acho que devemos continuar a desenvolvê-lo porque pode fazer coisas maravilhosas. Mas devemos nos esforçar igualmente para mitigar ou prevenir as possíveis consequências ruins”.

Hinton diz que não deixou o Google para protestar contra o manuseio dessa nova forma de IA. Na verdade, diz ele, a empresa se moveu de forma relativamente cautelosa, apesar de ter uma liderança na área. Pesquisadores do Google inventaram um tipo de rede neural conhecida como transformador, que foi crucial para o desenvolvimento de modelos como PaLM e GPT-4.

Na década de 1980, Hinton, professor da Universidade de Toronto, junto com um punhado de outros pesquisadores, procurou dar aos computadores maior inteligência treinando redes neurais artificiais com dados em vez de programá-las da maneira convencional. As redes podiam digerir pixels como entrada e, à medida que viam mais exemplos, ajustavam os valores conectando seus neurônios simulados grosseiramente até que o sistema pudesse reconhecer o conteúdo de uma imagem. A abordagem mostrou-se promissora ao longo dos anos, mas não foi até uma década atrás que seu verdadeiro poder e potencial se tornaram aparentes.

Em 2018, Hinton recebeu o Prêmio Turing, o prêmio de maior prestígio em ciência da computação, por seu trabalho em redes neurais. Ele recebeu o prêmio junto com outras duas figuras pioneiras, Yann LeCun, cientista-chefe de IA da Meta, e Yoshua Bengio, professor da Universidade de Montreal.

Foi quando uma nova geração de redes neurais artificiais de várias camadas — alimentadas com grandes quantidades de dados de treinamento e executadas em poderosos chips de computador — subitamente se tornaram muito melhores do que qualquer programa existente para rotular o conteúdo das fotografias.

A técnica, conhecida como aprendizado profundo, deu início a um renascimento da inteligência artificial, com grandes empresas de tecnologia correndo para recrutar especialistas em IA, construir algoritmos de aprendizado profundo cada vez mais poderosos e aplicá-los a produtos como reconhecimento facial, tradução e reconhecimento de fala.

O Google contratou Hinton em 2013 depois de adquirir sua empresa, a DNNResearch, fundada para comercializar as ideias de aprendizado profundo de seu laboratório universitário. Dois anos depois, um dos alunos de pós-graduação de Hinton que também ingressou no Google, Ilya Sutskever, deixou a empresa de pesquisa para fundar a OpenAI como um contrapeso sem fins lucrativos ao poder acumulado pelas grandes empresas de tecnologia em IA.

Desde a sua criação, a OpenAI concentrou-se em aumentar o tamanho das redes neurais, o volume de dados que consomem e o poder do computador que consomem. Em 2019, a empresa se reorganizou como uma corporação com fins lucrativos com investidores externos e, posteriormente, recebeu US$ 10 bilhões da Microsoft. Ele desenvolveu uma série de sistemas de geração de texto incrivelmente fluentes, mais recentemente o GPT-4, que alimenta a versão premium do ChatGPT e surpreendeu os pesquisadores com sua capacidade de executar tarefas que parecem exigir raciocínio e bom senso.

Hinton acredita que já temos uma tecnologia que será disruptiva e desestabilizadora. Ele aponta o risco, como outros fizeram, de que algoritmos de linguagem mais avançados sejam capazes de travar campanhas de desinformação mais sofisticadas e interferir nas eleições.

[ad_2]

Matéria ORIGINAL wired