[ad_1]

Figuras importantes em o desenvolvimento de sistemas de inteligência artificial, incluindo o CEO da OpenAI, Sam Altman, e o CEO do Google DeepMind, Demis Hassabis, assinaram uma declaração alertando que a tecnologia que estão construindo pode algum dia representar uma ameaça existencial para a humanidade comparável à de uma guerra nuclear e pandemias.

“Mitigar o risco de extinção da IA ​​deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”, diz uma declaração de uma frase, divulgada hoje pelo Center for AI Safety, uma organização sem fins lucrativos.

A ideia de que a IA pode se tornar difícil de controlar e, acidental ou deliberadamente, destruir a humanidade, há muito é debatida pelos filósofos. Mas nos últimos seis meses, após alguns saltos surpreendentes e enervantes no desempenho dos algoritmos de IA, a questão tornou-se muito mais ampla e seriamente discutida.

Além de Altman e Hassabis, o comunicado foi assinado por Dario Amodei, CEO da Anthropic, startup dedicada ao desenvolvimento de IA com foco em segurança. Outros signatários incluem Geoffrey Hinton e Yoshua Bengio – dois dos três acadêmicos que receberam o Prêmio Turing por seu trabalho em aprendizado profundo, a tecnologia que sustenta os avanços modernos em aprendizado de máquina e IA – além de dezenas de empreendedores e pesquisadores que trabalham com IA de ponta. problemas.

“A declaração é uma grande iniciativa”, diz Max Tegmark, professor de física do Massachusetts Institute of Technology e diretor do Future of Life Institute, uma organização sem fins lucrativos focada nos riscos de longo prazo representados pela IA. Em março, o Tegmark’s Institute publicou uma carta pedindo uma pausa de seis meses no desenvolvimento de algoritmos de IA de ponta para que os riscos pudessem ser avaliados. A carta foi assinada por centenas de pesquisadores e executivos de IA, incluindo Elon Musk.

Tegmark diz que espera que a declaração encoraje os governos e o público em geral a levar mais a sério os riscos existenciais da IA. “O resultado ideal é que a ameaça de extinção da IA ​​seja integrada, permitindo que todos a discutam sem medo de zombaria”, acrescenta.

Dan Hendrycks, diretor do Center for AI Safety, comparou o atual momento de preocupação com a IA ao debate entre cientistas desencadeado pela criação de armas nucleares. “Precisamos ter as conversas que os cientistas nucleares estavam tendo antes da criação da bomba atômica”, disse Hendrycks em uma citação divulgada junto com a declaração de sua organização.

O tom de alarme atual está ligado a vários saltos no desempenho de algoritmos de IA conhecidos como modelos de linguagem grande. Esses modelos consistem em um tipo específico de rede neural artificial que é treinada em enormes quantidades de texto escrito por humanos para prever as palavras que devem seguir uma determinada string. Quando alimentados com dados suficientes e com treinamento adicional na forma de feedback de humanos sobre boas e más respostas, esses modelos de linguagem são capazes de gerar texto e responder a perguntas com notável eloqüência e aparente conhecimento – mesmo que suas respostas sejam muitas vezes repletas de erros.

Esses modelos de linguagem têm se mostrado cada vez mais coerentes e capazes à medida que são alimentados com mais dados e poder computacional. O modelo mais poderoso criado até agora, o GPT-4 da OpenAI, é capaz de resolver problemas complexos, incluindo aqueles que parecem exigir algumas formas de abstração e raciocínio de bom senso.

[ad_2]

Matéria ORIGINAL wired