Você já teve uma publicação sem sucesso — zero curtidas, zero comentários e você se perguntou se algum algoritmo que vê tudo das redes sociais estava te punindo?

Recorremos a esses aplicativos para ver notícias, discussões políticas e informações atualizadas, mas muito do que vemos é decidido por conjuntos de algoritmos que tentam priorizar o conteúdo que gostamos, mostrando-nos anúncios em intervalos regulares.

A forma como esses algoritmos tomam decisões é, em grande parte, uma caixa negra, e há muito que os críticos apelam às empresas de redes sociais para que sejam mais transparentes. Grandes figuras políticas acusaram as empresas de utilizar algoritmos para censurar o discurso e os utilizadores habituais receiam que as suas publicações sejam censuradas com base em critérios tendenciosos.

Pedimos aos nossos leitores que compartilhassem suas histórias sobre “shadowbans” (a exclusão real ou aparente das postagens de uma pessoa) e muitos disseram suspeitar que suas postagens estavam sendo visualizadas por amigos, mas escondidas no alimenta. No entanto, poucos tinham provas de que isso estava a acontecer.

“Parece um jogo de azar”, disse Leah Carey, educadora sexual de 50 anos que disse estar constantemente tentando inferir o que pode fazer explicar que suas postagens sejam expulsas do alimentar principal do Instagram e da aba Explorar. “Em qualquer dia, o que você fez na semana passada pode não funcionar mais.”

Eis o que precisas de saber sobre ​banimento de sombra.

O que é o “banimento de sombra” ou “supressão algorítmica”?

O termo “shadowban” ganhou popularidade por volta de 2017 para descrever o que os usuários alegavam ser uma atividade dissimulada das empresas de mídia social para ocultar conteúdo ou opiniões. As empresas tendem a preferir o termo “diretrizes de recomendação”, enquanto alguns críticos tecnológicos usam a expressão “supressão algorítmica” para explicar o mesmo fenômeno.

Como os algoritmos são máquinas de decisão, mostrar uma postagem significa não mostrar outra. Mas as empresas afirmam que também limitam o conteúdo por razões de segurança e sensibilidade dos usuários.

O TikTok, o Instagram, o YouTube, o Snapchat e o Twitch, por exemplo, limitam o alcance de conteúdos que consideram inadequados para crianças. Algumas dessas regras são claras: não mostrar armas de fogo ou substâncias ilegais.

Outras são confusas: no TikTok, por exemplo, pessoas de qualquer idade podem usar o “modo restrito”, que limita os vídeos que mostram “imagens ameaçadoras” ou “temas complexos”. A empresa não respondeu às perguntas do A postagem sobre o que se enquadra nessas categorias.

O TikTok também permite que usuários de qualquer idade reduzam a seleção de “assuntos atuais” nos algoritmos da página Para você. A empresa não respondeu às perguntas do A postagem sobre se a guerra na Faixa de Gaza, a proibição de cuidados de afirmação de gênero no Mississippi, a espionagem da China para organizações sensíveis dos EUA ou uma história pessoal sobre o aborto se enquadrariam nos “assuntos atuais”.

Porque é que as empresas limitam conteúdos?

As aplicações sociais tentam geralmente limitar qualquer conteúdo que possa causar problemas aos utilizadores ou aos anunciantes.

Por exemplo, após relatos de que as recomendações do YouTube estavam a levar os espectadores a ver vídeos cada vez mais xenófobos e racistas, a aplicação começou a bloquear vídeos neonazis. (Uma porta-voz do YouTube afirmou que recentemente foi investigado se as recomendações da aplicação favorecem realmente conteúdos mais extremistas).

Normalmente, as empresas de redes sociais rejeitam as alegações de que estão a censurar o discurso político. Mas, este ano, a Meta disse explicitamente que vai limitar o conteúdo político nas suas aplicações. O que não quis dizer é exactamente que palavras e ideias são consideradas políticas.

“Como temos dito há anos, as pessoas nos disseram que querem ver menos política em geral, mas que podem continuar a se envolver com conteúdo político em nossas plataformas, se assim o desejarem e é isso que temos vindo a fazer”, afirmou o porta-voz da Meta, Corey Chambliss, num comunicado.

Que tipos de conteúdo são limitados?

Os tipos de conteúdo que se enquadram na categoria “permitidos, mas não promovíveis” dependem do aplicativo.

O YouTube diz que se um vídeo não violar as diretrizes da comunidade do aplicativo, mas “estiver perto” de fazê-lo, pode não ser elegível para recomendação algorítmica. Portanto, se um vídeo sobre assuntos atuais está perto de ser desinformação, mas não ultrapassa os limites, pode ser considerado um erro, disse uma porta-voz do YouTube. No entanto, ele se recusou a dar um exemplo de uma declaração que se aproxima da desinformação.

A Meta, que diz estar a trabalhar para limitar o conteúdo político no Facebook, Instagram e Threads, não respondeu às perguntas sobre palavras-chave específicas, incluindo “aborto” e “voto”. (Embora uma análise do meu colega Geoffrey Fowler tenha descoberto que o tamanho da audiência de uma criadora de conteúdo caía quando ela usava a palavra “voto” na legenda das suas publicações. A Meta disse que os utilizadores simplesmente não gostam de conteúdo político).

TikTok foi a única plataforma a confirmar que as pessoas podem usar a palavra “voto” sem serem suprimidas. O YouTube disse que o conteúdo eleitoral é aceitável, a menos que “chegue perto de violar” uma política, mas se recusou a dar exemplos. O Snapchat disse que apenas criadores pré-aprovados podem discutir “conteúdo político”, incluindo eleições ou defesa de causas na seção de vídeos curtos do aplicativo Spotlight, mas qualquer pessoa pode discutir eleições e ser recomendada na guia Discover. OX e o Twitch não se pronunciaram diretamente.

Como posso saber se o meu conteúdo está a ser restringido?

O TikTok e o Snap alertam os criadores se uma publicação não for elegível para recomendação, enquanto a popular aplicação de transmissão Twitch avisa os criadores se eles não marcarem corretamente um vídeo que seja potencialmente inadequado para espectadores mais jovens.

No Instagram, Facebook, YouTube ou X, no entanto, o alcance de uma postagem pode ser limitado sem que o autor saiba o porquê (ou mesmo que isso esteja acontecendo).

Isto é censura, moderação de conteúdos ou outra coisa qualquer?

Está sendo debatido se as empresas de mídia social devem limitar o alcance de certos conteúdos. Elon Musk, dono da X, disse que, no interesse da liberdade de expressão, o aplicativo não censura opiniões políticas. No entanto, o aplicativo tem cumprido mais ordens governamentais do que antes de ser de propriedade de Musk, e os críticos disseram que Musk e sua equipe tomam decisões desequilibradas de moderação de conteúdo com base em lealdades pessoais. Procurada pelo Washington Post, a X não respondeu.

Enquanto isso, a Electronic Frontier Foundation, uma organização sem fins lucrativos focada na privacidade, criticou o que chama de “regulamentação sombra”: quando as empresas tomam decisões fora do sistema judicial em relação ao tipo de discurso que é permitido on-line.

Algumas organizações de defesa das crianças apelam a limitações mais rigorosas para proteger as crianças de encontrarem conteúdos adultos demasiado cedo.

As plataformas sociais penalizam as contas se um conteúdo for limitado?

TikTok e Twitch disseram que os criadores podem ter contas inteiras penalizadas se as postagens violarem repetidamente as regras de conteúdo recomendado. O YouTube e o Snap disseram que as postagens omitidas não afetam a conta como um todo. Meta e X não responderam diretamente.

Alguns criadores de conteúdo disseram ao A postagem que ter uma publicação restrita parece causar uma queda no público em geral. A escritora e educadora August McLaughlin disse que as visualizações em vídeos no TikTok caíram depois de um dos seus postagens — sobre escrever sobre as suas fantasias românticas — ser sinalizado como “conteúdo sexual”.

“Há muito conteúdo sexual voltado para homens heterossexuais que não recebe o mesmo tipo de resistência”, defende.


Exclusivo PÚBLICO/ O Washington Post