[ad_1]

Em segundo lugar, poderia instruir qualquer agência federal que adquira um sistema de IA que tenha o potencial de “impactar significativamente [our] direitos, oportunidades ou acesso a recursos ou serviços críticos” para exigir que o sistema cumpra essas práticas e que os fornecedores forneçam evidências dessa conformidade. Isso reconhece o poder do governo federal como cliente para moldar as práticas de negócios. Afinal, ela é a maior empregadora do país e poderia usar seu poder de compra para ditar as melhores práticas para os algoritmos que são usados ​​para, por exemplo, triar e selecionar candidatos a vagas.

Em terceiro lugar, a ordem executiva pode exigir que qualquer pessoa que receba dólares federais (incluindo entidades estaduais e locais) garanta que os sistemas de IA que usam cumpram essas práticas. Isso reconhece o importante papel do investimento federal nos estados e municípios. Por exemplo, a IA tem sido implicada em muitos componentes do sistema de justiça criminal, incluindo policiamento preditivo, vigilância, prisão preventiva, sentença e liberdade condicional. Embora a maioria das práticas de aplicação da lei seja local, o Departamento de Justiça oferece subsídios federais para a aplicação da lei estadual e local e pode anexar condições a esses fundos estipulando como usar a tecnologia.

Por fim, essa ordem executiva pode direcionar agências com autoridade regulatória para atualizar e expandir sua regulamentação para processos dentro de sua jurisdição que incluam IA. Alguns esforços iniciais para regulamentar entidades que usam IA com dispositivos médicos, algoritmos de contratação e pontuação de crédito já estão em andamento, e essas iniciativas podem ser expandidas ainda mais. A vigilância dos trabalhadores e os sistemas de avaliação de propriedades são apenas dois exemplos de áreas que se beneficiariam com esse tipo de ação regulatória.

É claro que o regime de teste e monitoramento para sistemas de IA que descrevi aqui provavelmente provocará uma série de preocupações. Alguns podem argumentar, por exemplo, que outros países nos ultrapassarão se desacelerarmos para implementar tais barreiras. Mas outros países estão ocupados aprovando suas próprias leis que impõem amplas restrições aos sistemas de IA, e qualquer empresa americana que pretenda operar nesses países terá que cumprir suas regras. A UE está prestes a aprovar uma lei de IA expansiva que inclui muitas das disposições que descrevi acima, e até mesmo a China está colocando limites em sistemas de IA implantados comercialmente que vão muito além do que estamos atualmente dispostos a considerar.

Outros podem expressar preocupação de que esse amplo conjunto de requisitos possa ser difícil para uma pequena empresa cumprir. Isso pode ser resolvido vinculando os requisitos ao grau de impacto: um software que pode afetar a subsistência de milhões de pessoas deve ser examinado minuciosamente, independentemente de quão grande ou pequeno seja o desenvolvedor. Um sistema de IA que os indivíduos usam para fins recreativos não deve estar sujeito às mesmas críticas e restrições.

Também é provável que haja preocupações sobre se esses requisitos são práticos. Aqui, novamente, é importante não subestimar o poder do governo federal como formador de mercado. Uma ordem executiva que exige estruturas de teste e validação fornecerá incentivos para empresas que desejam traduzir as melhores práticas em regimes de testes comerciais viáveis. O setor de IA responsável já está repleto de empresas que fornecem serviços de auditoria e avaliação algorítmica, consórcios industriais que emitem diretrizes detalhadas que os fornecedores devem cumprir e grandes empresas de consultoria que oferecem orientação a seus clientes. E entidades independentes sem fins lucrativos, como Data and Society (aviso: eu faço parte do conselho deles) montaram laboratórios inteiros para desenvolver ferramentas que avaliam como os sistemas de IA afetarão diferentes populações.

Fizemos a pesquisa, construímos os sistemas e identificamos os danos. Existem maneiras estabelecidas para garantir que a tecnologia que construímos e implantamos possa beneficiar a todos nós, ao mesmo tempo em que reduz os danos para aqueles que já são atingidos por uma sociedade profundamente desigual. O tempo de estudar acabou – agora a Casa Branca precisa emitir uma ordem executiva e agir.


Opinião da WIRED publica artigos de colaboradores externos que representam uma ampla gama de pontos de vista. Leia mais opiniões aqui. Envie um artigo de opinião em [email protected].

[ad_2]

Matéria ORIGINAL wired