[ad_1]

Em vez disso, esse slogan diz menos sobre o que a empresa faz e mais sobre por que está fazendo. Os anúncios de emprego de Helsing transbordam de idealismo, chamando pessoas com a convicção de que “vale a pena proteger os valores democráticos”.

Os três fundadores da Helsing falam sobre a invasão da Crimeia pela Rússia em 2014 como um alerta de que toda a Europa precisava estar pronta para responder à agressão russa. “Fiquei cada vez mais preocupado com o fato de estarmos ficando para trás em relação às principais tecnologias em nossas sociedades abertas”, diz Reil. Esse sentimento cresceu ao observar, em 2018, funcionários do Google protestarem contra um acordo com o Pentágono, no qual o Google teria ajudado os militares a usar IA para analisar imagens de drones. Mais de 4.000 funcionários assinaram uma carta argumentando que era moral e eticamente irresponsável o Google ajudar na vigilância militar e seus resultados potencialmente letais. Em resposta, o Google disse que não renovaria o contrato.

“Eu simplesmente não entendia a lógica disso”, diz Reil. “Se queremos viver em sociedades abertas e livres, ser quem queremos ser e dizer o que queremos dizer, precisamos ser capazes de protegê-los. Não podemos tomá-los como garantidos.” Ele temia que, se a Big Tech, com todos os seus recursos, fosse dissuadida de trabalhar com a indústria de defesa, o Ocidente inevitavelmente ficaria para trás. “Eu senti que se eles não estão fazendo isso, se os melhores engenheiros do Google não estão preparados para trabalhar nisso, quem está?”

Geralmente é difícil dizer se os produtos de defesa funcionam da maneira que seus criadores dizem. As empresas que os vendem, incluindo Helsing, afirmam que comprometeriam a eficácia de suas ferramentas para serem transparentes sobre os detalhes. Mas enquanto conversamos, os fundadores tentam projetar uma imagem do que torna sua IA compatível com os regimes democráticos para os quais deseja vender. “Nós realmente valorizamos muito a privacidade e a liberdade, e nunca faríamos coisas como reconhecimento facial”, diz Scherf, alegando que a empresa quer ajudar os militares a reconhecer objetos, não pessoas. “Há certas coisas que não são necessárias para a missão de defesa.”

Mas a automação rastejante em uma indústria mortal como a defesa ainda levanta questões espinhosas. Se tudo o que os sistemas de Helsing oferecem é uma maior percepção do campo de batalha que ajuda os militares a entender onde estão os alvos, isso não representa nenhum problema, diz Herbert Lin, pesquisador sênior do Centro de Segurança e Cooperação Internacional da Universidade de Stanford. Mas assim que esse sistema estiver em funcionamento, ele acredita, os tomadores de decisão serão pressionados a conectá-lo com armas autônomas. “Os formuladores de políticas precisam resistir à ideia de fazer isso”, diz Lin, acrescentando que os humanos, e não as máquinas, precisam ser responsabilizados quando ocorrem erros. Se a IA “mata um trator em vez de um caminhão ou tanque, isso é ruim. Quem vai ser responsabilizado por isso?”

Riel insiste que Helsing não fabrica armas autônomas. “Nós fazemos o oposto”, diz ele. “Fazemos sistemas de IA que ajudam os humanos a entender melhor a situação.”

Embora os operadores possam usar a plataforma de Helsing para derrubar um drone, agora é um humano que toma essa decisão, não a IA. Mas há dúvidas sobre quanta autonomia os humanos realmente têm quando trabalham em estreita colaboração com as máquinas. “Quanto menos você faz os usuários entenderem as ferramentas com as quais estão trabalhando, eles as tratam como mágica”, diz Jensen, do Centro de Estudos Estratégicos e Internacionais, afirmando que isso significa que os usuários militares podem confiar muito ou pouco na IA.

[ad_2]

Matéria ORIGINAL wired