[ad_1]

foi o primeiro dia de abril de 2022, e eu estava sentado na sala de conferências de um escritório de advocacia no centro de Manhattan em uma reunião do Conselho de Supervisão da Meta, o órgão independente que examina suas decisões de conteúdo. E por alguns minutos, parecia que o desespero havia se instalado.

O assunto em questão era o polêmico programa Cross Check da Meta, que dava tratamento especial às postagens de certos usuários poderosos — celebridades, jornalistas, funcionários do governo e outros. Durante anos, esse programa operou em segredo, e a Meta até enganou o conselho sobre seu escopo. Quando os detalhes do programa vazaram para Jornal de Wall Street, ficou claro que milhões de pessoas receberam esse tratamento especial, o que significa que suas postagens tinham menos probabilidade de serem retiradas quando denunciadas por algoritmos ou outros usuários por quebrar regras contra coisas como discurso de ódio. A ideia era evitar erros nos casos em que os erros teriam mais impacto – ou constrangeriam Meta – por causa do destaque do locutor. Documentos internos mostraram que os pesquisadores do Meta tinham dúvidas sobre a propriedade do projeto. Só depois dessa exposição a Meta pediu à diretoria que desse uma olhada no programa e recomendasse o que a empresa deveria fazer com ele.

A reunião que testemunhei fazia parte desse acerto de contas. E o tom da discussão me levou a pensar se o conselho sugeriria que a Meta fechasse o programa completamente, em nome da justiça. “As políticas devem ser para todas as pessoas!” um membro do conselho gritou.

Isso não aconteceu. Esta semana, o mundo da mídia social parou de olhar o desastre de moderação de conteúdo operístico que Elon Musk está conduzindo no Twitter, quando o Conselho de Supervisão finalmente entregou seu relatório de verificação cruzada, atrasado devido à lentidão da Meta no fornecimento de informações . (Ele nunca forneceu ao conselho uma lista identificando quem obteve permissão especial para evitar uma queda, pelo menos até que alguém desse uma olhada mais de perto na postagem.) As conclusões foram contundentes. A Meta alegou que o objetivo do programa era melhorar a qualidade de suas decisões de conteúdo, mas o conselho determinou que era mais para proteger os interesses comerciais da empresa. A Meta nunca estabeleceu processos para monitorar o programa e avaliar se ele estava cumprindo sua missão. A falta de transparência para o mundo exterior era terrível. Por fim, muitas vezes o Meta falhou em fornecer a ação personalizada rápida que foi a razão pela qual essas postagens foram poupadas de remoções rápidas. Simplesmente havia muitos desses casos para a equipe da Meta lidar. Freqüentemente, eles ficavam acordados por dias antes de receberem consideração secundária.

O principal exemplo, apresentado no original WSJ relatório, foi uma postagem do astro do futebol brasileiro Neymar, que postou uma imagem sexual sem o consentimento do sujeito em setembro de 2019. Por causa do tratamento especial que ele recebeu por estar na elite do Cross Check, a imagem – uma violação flagrante da política – conquistou mais de 56 milhões de visualizações antes de ser finalmente removido. O programa destinado a reduzir o impacto dos erros de decisão de conteúdo acabou impulsionando o impacto de conteúdo horrível.

No entanto, o conselho não recomendou que a Meta fechasse o Cross Check. Em vez disso, pediu uma revisão. As razões não são de forma alguma um endosso ao programa, mas uma admissão da dificuldade diabólica de moderação de conteúdo. O subtexto do relatório do Conselho de Supervisão era a desesperança de acreditar que era possível acertar as coisas. A Meta, como outras plataformas que dão voz aos usuários, há muito enfatiza o crescimento antes da cautela e hospeda grandes volumes de conteúdo que exigiriam enormes gastos para policiar. Meta gasta muitos milhões em moderação, mas ainda comete milhões de erros. Cortar seriamente esses erros custa mais do que a empresa está disposta a gastar. A ideia do Cross Check é minimizar a taxa de erro nas postagens das pessoas mais importantes ou proeminentes. Quando uma celebridade ou estadista usava sua plataforma para falar para milhões, a Meta não queria estragar tudo.

[ad_2]

Matéria ORIGINAL wired