[ad_1]

nós somos todos correm o risco de sofrer assédio ocasional – mas, para alguns, o assédio é uma parte cotidiana da vida online. Em particular, muitas mulheres na vida pública sofrem abuso crônico: ataques contínuos, implacáveis ​​e muitas vezes coordenados que são ameaçadores e frequentemente sexuais e explícitos. A primeira-ministra escocesa, Nicola Sturgeon, e a ex-primeira-ministra da Nova Zelândia, Jacinda Ardern, por exemplo, sofreram abusos on-line amplamente divulgados. Da mesma forma, um relatório recente da UNESCO detalhando a violência online contra mulheres jornalistas descobriu que a jornalista ganhadora do Prêmio Nobel Maria Ressa e a jornalista britânica Carole Cadwalladr enfrentaram ataques que foram “constantes e contínuos, com vários picos por mês gerando abuso intenso”.

Nós, dois pesquisadores e profissionais que estudam o uso responsável da tecnologia e trabalhamos com empresas de mídia social, chamamos isso de abuso crônico, porque não há um único momento de desencadeamento, debate ou posição que desencadeie a explosão constante de ataques. Mas grande parte da conversa sobre abuso online – e, mais criticamente, as ferramentas que temos para lidar com isso – se concentra no que chamamos de agudo casos. O abuso agudo costuma ser uma resposta a um debate, uma posição ou uma ideia: um tweet polarizador, um novo livro ou artigo, alguma declaração pública. O abuso agudo acaba desaparecendo.

As plataformas têm recursos dedicados para ajudar a lidar com o abuso agudo. Os usuários sob ataque podem bloquear indivíduos completamente e silenciar o conteúdo ou outras contas, movimentos que garantem que eles possam existir na plataforma, mas os protegem do conteúdo que eles não desejam ver. Eles podem limitar as interações com pessoas fora de suas redes usando ferramentas como mensagens fechadas e contas privadas. Também existem aplicativos de terceiros que tentam resolver essa lacuna silenciando ou filtrando o conteúdo de forma proativa.

Essas ferramentas funcionam bem para lidar com ataques episódicos. Mas para jornalistas, políticos, cientistas, atores – qualquer um, na verdade, que depende da conexão online para fazer seu trabalho – eles são lamentavelmente insuficientes. Bloquear e silenciar fazem pouco para ataques coordenados contínuos, já que grupos inteiros mantêm um fluxo contínuo de assédio de diferentes contas. Mesmo quando os usuários bloqueiam com sucesso seus assediadores, o impacto contínuo na saúde mental de ver um dilúvio de ataques é imenso; em outras palavras, o estrago já está feito. Essas são ferramentas retroativas, úteis apenas depois que alguém foi prejudicado. Fechar mensagens diretas e tornar uma conta privada pode proteger a vítima de um ataque agudo; eles podem ir a público novamente depois que o assédio diminuir. Mas essas não são opções realistas para quem sofre abuso crônico, pois com o tempo elas apenas removem as pessoas do discurso online mais amplo.

As plataformas precisam fazer mais para melhorar a segurança desde o projeto, incluindo soluções upstream, como melhorar a moderação de conteúdo humano, lidar com reclamações de usuários de forma mais eficaz e pressionar por melhores sistemas para cuidar de usuários que enfrentam abuso crônico. Organizações como a Glitch estão trabalhando para educar as pessoas sobre o abuso online de mulheres e pessoas marginalizadas, ao mesmo tempo em que fornecem recursos para ajudar as pessoas a lidar com esses ataques, incluindo a adaptação de técnicas de treinamento de espectadores para o mundo online, pressionando as empresas de plataformas a melhorar seus mecanismos de denúncia e pedindo mudanças nas políticas .

Mas kits de ferramentas e orientações, embora extremamente úteis, ainda colocam o fardo da responsabilidade sobre os ombros dos abusados. Os formuladores de políticas também devem fazer sua parte para responsabilizar as plataformas pelo combate ao abuso crônico. A Lei de Segurança Online do Reino Unido é um mecanismo que pode responsabilizar as plataformas por reprimir o abuso. O projeto de lei forçaria as grandes empresas a tornar mais claras suas políticas de remoção de conteúdo abusivo e bloqueio de abusadores em seus termos de serviço. Também exigiria legalmente que as empresas oferecessem aos usuários ferramentas opcionais que os ajudassem a controlar o conteúdo que veem nas mídias sociais. No entanto, o debate do projeto de lei enfraqueceu algumas proteções propostas de adultos em nome da liberdade de expressão, e o projeto de lei ainda se concentra em ferramentas que ajudam os usuários a fazer escolhas, em vez de ferramentas e soluções que funcionam para impedir o abuso upstream.

[ad_2]

Matéria ORIGINAL wired