[ad_1]
Apesar do selvagem sucesso do ChatGPT e outros grandes modelos de linguagem, as redes neurais artificiais (ANNs) que sustentam esses sistemas podem estar no caminho errado.
Por um lado, as ANNs são “super sedentas de poder”, disse Cornelia Fermüller, cientista da computação da Universidade de Maryland. “E a outra questão é [their] Falta de Transparência.” Esses sistemas são tão complicados que ninguém realmente entende o que estão fazendo ou por que funcionam tão bem. Isso, por sua vez, torna quase impossível fazê-los raciocinar por analogia, que é o que os humanos fazem – usando símbolos para objetos, ideias e as relações entre eles.
Essas deficiências provavelmente decorrem da estrutura atual das RNAs e de seus blocos de construção: neurônios artificiais individuais. Cada neurônio recebe entradas, executa cálculos e produz saídas. As RNAs modernas são redes elaboradas dessas unidades computacionais, treinadas para realizar tarefas específicas.
No entanto, as limitações das RNAs são óbvias há muito tempo. Considere, por exemplo, uma RNA que diferencia círculos de quadrados. Uma maneira de fazer isso é ter dois neurônios em sua camada de saída, um que indica um círculo e outro que indica um quadrado. Se você quiser que sua ANN também distinga a cor da forma – digamos, azul ou vermelho – você precisará de quatro neurônios de saída: um para cada círculo azul, quadrado azul, círculo vermelho e quadrado vermelho. Mais recursos significam ainda mais neurônios.
Não pode ser assim que nossos cérebros percebem o mundo natural, com todas as suas variações. “Você tem que propor que, bem, você tem um neurônio para todas as combinações”, disse Bruno Olshausen, neurocientista da Universidade da Califórnia, em Berkeley. “Então, você teria em seu cérebro, [say,] um detector de Volkswagen roxo.
Em vez disso, Olshausen e outros argumentam que a informação no cérebro é representada pela atividade de numerosos neurônios. Assim, a percepção de um Volkswagen roxo não é codificada como as ações de um único neurônio, mas como as de milhares de neurônios. O mesmo conjunto de neurônios, disparando de maneira diferente, poderia representar um conceito totalmente diferente (um Cadillac rosa, talvez).
Este é o ponto de partida para uma abordagem radicalmente diferente da computação, conhecida como computação hiperdimensional. A chave é que cada pedaço de informação, como a noção de um carro ou sua marca, modelo ou cor, ou tudo isso junto, é representado como uma única entidade: um vetor hiperdimensional.
Um vetor é simplesmente uma matriz ordenada de números. Um vetor 3D, por exemplo, compreende três números: o x, sim, e z coordenadas de um ponto no espaço 3D. Um vetor hiperdimensional, ou hipervetor, pode ser uma matriz de 10.000 números, digamos, representando um ponto no espaço de 10.000 dimensões. Esses objetos matemáticos e a álgebra para manipulá-los são flexíveis e poderosos o suficiente para levar a computação moderna além de algumas de suas limitações atuais e promover uma nova abordagem para a inteligência artificial.
“Essa é a coisa que mais me empolga, praticamente em toda a minha carreira”, disse Olshausen. Para ele e muitos outros, a computação hiperdimensional promete um novo mundo no qual a computação é eficiente e robusta e as decisões feitas por máquinas são totalmente transparentes.
Entre em espaços de alta dimensão
Para entender como os hipervetores tornam a computação possível, vamos retornar às imagens com círculos vermelhos e quadrados azuis. Primeiro, precisamos de vetores para representar as variáveis SHAPE e COLOR. Também precisamos de vetores para os valores que podem ser atribuídos às variáveis: CÍRCULO, QUADRADO, AZUL e VERMELHO.
Os vetores devem ser distintos. Essa distinção pode ser quantificada por uma propriedade chamada ortogonalidade, que significa estar em ângulos retos. No espaço 3D, existem três vetores que são ortogonais entre si: um no x direção, outra na sim, e um terceiro no z. No espaço de 10.000 dimensões, existem 10.000 desses vetores mutuamente ortogonais.
[ad_2]
Matéria ORIGINAL wired