![]() |
Balde de gelo: na rede de Mark Zuckerberg, banho de celebridades foram mais noticiadas que protestos em Ferguson |
Clarice Cardoso, CartaCapital
Uma mudança no modo como o Twitter apresenta os
textos nele publicados pode transformar o serviço em algo totalmente
diferente do que estamos acostumados. Em vez de trazer uma timeline em
ordem cronológica invertida, a rede social pensa em criar formas de
destacar certos conteúdos a partir de um algoritmo similar ao usado pelo
Facebook. Não se trata apenas de um layout diferente ou de novas formas
de interação: trata-se de selecionar aquilo que você vê -- e o que não
vê.
Se isso afeta o modo como você interage com seus
amigos, há um outro efeito colateral que é preciso ser debatido e
ponderado: o acesso à informação. Dado o papel crescente que têm
assumido como difusores de notícias, os algoritmos usados pelas redes
sociais para destacar o que é “relevante” para você podem substituir os
critérios editoriais na divulgação de notícias. E isso não é exatamente
bom.
Um dos sintomas se manifestou no dia 20 de agosto. Em sua conta pessoal, o CEO do Twitter, Dick Costolo,
anunciou que a rede social “estava ativamente suspendendo usuários que
publicassem imagens ofensivas”. A questão, aqui, é o tipo de “conteúdo
ofensivo” ao qual ele se referia: a notícia da execução do jornalista James Foley pelo grupo jihadista Estado Islâmico em um tuíte do New York Times.
Mesmo que a postagem original do jornal ainda esteja
lá, o posicionamento representa a primeira vez, desde sua criação, em
que o Twitter assumiu publicamente que promove julgamentos editoriais.
Não se sabe ainda quantas publicações e denúncias de pessoas físicas
foram deletadas por conta dessa política.
dick costolo @dickc Seguir
We have been and are actively suspending accounts as we discover them related to this graphic imagery. Thank you https://twitter.com/nytimes/status/501862926039654400 …
O segundo sinal veio nesta semana, quando o diretor financeiro
da empresa, Anthony Noto, afirmou que a rede social considerava operar
com o tal algoritmo que filtre o conteúdo mais relevante. Se seguir os
modelos do que acontece no Facebook, ele também não distribuirá as
publicações para todos os usuários que seguem dada página ou usuário.
No Facebook, porém, a socióloga e professora associada do
Harvard Berkman Center for Internet and Society Zeynep Tufecki percebeu
que, enquanto as ruas eram tomadas por coquetéis molotov e bombas de
efeito moral, sua timeline só trazia vídeos de celebridades jogando
baldes de gelo sobre suas cabeças.
Seria o equivalente a, durante os protestos que tomaram as ruas em junho do ano passado, muito influenciados pela circulação de informação nas redes sociais e nelas organizados, não encontrar as publicações de pessoas e fontes alternativas em sua timeline. Ou seja: informações importantes do que acontece ao seu redor e que afetam a sua vida e o seu País simplesmente não chegarem até você.
Em ambos os casos, a dimensão que os debates gerados tomou na internet deram a eles maior importância aos olhos da mídia. Se isso não tivesse acontecido, teriam sido tão amplamente noticiados? Que outras questões, vítimas de algoritmos que desconhecemos, podem não estar recebendo atenção devida em nossas timelines e jornais?
É uma tese que se pode ilustrar com um caso envolvendo reportagem publicada por CartaCapital sobre a revista vexatória nos presídios. O texto, que denunciava que mulheres e crianças eram obrigados a se despir diante de agentes dos presídios de São Paulo, era acompanhado de uma ilustração de uma mulher nua, expondo a situação descrita.
Mal foi publicado no Facebook, o conteúdo foi prontamente bloqueado e removido, considerado “indevido”. Na rede social regida por Mark Zuckeberg, nenhuma nudez é permitida. Assim, a notícia de uma grave violação de direitos humanos não chegou a milhares de leitores.
Surge a questão: pode-se falar em censura dentro de um ambiente controlado por uma empresa privada? A mensagem passada pelo CEO do Twitter é clara:
não vamos privilegiar histórias que possam causar danos à imagem da nossa empresa. A relevância noticiosa da denúncia fica, consequentemente, em segundo plano. Claramente, a justificativa esconde a necessidade de aumentar o engajamento dos usuários para satisfazer demandas publicitárias e de investidores. E, nesse jogo, a experiência do leitor e o acesso democrático à informação vão, sempre, perder a voz.
Se o bom jornalismo se rende sem críticas às regras dos gigantes da internet num momento vital como o que vivemos, quem perde é o leitor. O direito democrático ao acesso à informação está sob ataque, e são sérias as consequências sociais desse tipo de filtragem. A neutralidade da rede é, sim, uma questão de direitos humanos e de liberdade de expressão."
O modelo usado há oito anos, pode não oferecer
“profundidade de conteúdo”, argumenta, por colocar conteúdos no fim do
feed de notícias e fazer com que atualizações se percam para usuários
que não estejam conectados. “Colocar esse conteúdo diante do usuário no
momento em que ele está lá é um modo de organizar melhor o feed”,
afirmou.
Mesmo no mundo digital, a mídia tradicional expandiu
seus tentáculos e se mantém como principal fonte de conteúdo
jornalístico. Nesse contexto, caberia à internet dar voz aos produtores
independentes e aos cidadãos, permitindo que o que não encontraria
espaço no modelo antigo pudesse, em tese, circular no ambiente virtual.
Em tese, porque é aí que surgem os novos gigantes.
O controle que as redes sociais exercem sobre as
notícias consumidas é uma realidade consolidada. Primeiro porque são, no
caso de dezenas de portais, a principal origem de audiência. Assim,
passam a pautar o que se noticia, seja como termômetro do que interessa
ao leitor, seja como forma de atrair visualizações de página facilmente.
Segundo porque, de acordo com o relatório mundial de
consumo de notícias online divulgado pela Reuters em 2014, o leitor
brasileiro tende a buscar primeiro fontes alternativas de conteúdo. Ou
seja: 35% dos usuários do Facebook acessam a rede social para receber
notícias, e metade dos usuários mundiais usam o Twitter com o mesmo fim.
Some-se a isso o fato de sermos um dos países que mais compartilham
conteúdo noticioso na internet e o dado de que 34% dos internautas
nacionais se informam por meio das redes sociais se torna ainda mais
relevante.
Mas, se não é claro o modo exato como elas funcionam,
quais são as garantias de estar, de fato, bem informado? Facebook,
Google e, agora, Twitter postulam que têm como objetivo “certificar-se
de que chegue ao usuário o conteúdo realmente relevante”. Mas quem
decide o que é relevante? Quais os valores embutidos nessa decisão?
Retomemos a fala do CEO do Twitter, que assumiu
deletar contas de usuários que publicassem imagens ligadas à notícia da
execução do jornalista: se numa redação a publicação de imagens
potencialmente vistas como agressivas pelo leitor são sempre alvo de
discussão, estas são pautadas pela linha editorial do veículo e por
séculos de debates sociais que forjaram os valores que guiam a prática
jornalística. Ambos podem ser questionados, é claro, mas apenas porque
se sabe que existem. Como fica a situação quando nem sequer se desconfia
o que determina a exibição ou não de um determinado conteúdo?
Em agosto, a morte do jovem Michael Brown, de 18 anos, pela
polícia foi o estopim para uma série de atos contra o racismo e o
tratamento dado pelas autoridades à minorias em Ferguson, no Missouri. Manifestantes foram às ruas e entraram em confrontos com policiais por dias a fio. O tipo de fato altamente noticiável e que traz consigo importantes debates sociais.
Seria o equivalente a, durante os protestos que tomaram as ruas em junho do ano passado, muito influenciados pela circulação de informação nas redes sociais e nelas organizados, não encontrar as publicações de pessoas e fontes alternativas em sua timeline. Ou seja: informações importantes do que acontece ao seu redor e que afetam a sua vida e o seu País simplesmente não chegarem até você.
Em ambos os casos, a dimensão que os debates gerados tomou na internet deram a eles maior importância aos olhos da mídia. Se isso não tivesse acontecido, teriam sido tão amplamente noticiados? Que outras questões, vítimas de algoritmos que desconhecemos, podem não estar recebendo atenção devida em nossas timelines e jornais?
É uma tese que se pode ilustrar com um caso envolvendo reportagem publicada por CartaCapital sobre a revista vexatória nos presídios. O texto, que denunciava que mulheres e crianças eram obrigados a se despir diante de agentes dos presídios de São Paulo, era acompanhado de uma ilustração de uma mulher nua, expondo a situação descrita.
Mal foi publicado no Facebook, o conteúdo foi prontamente bloqueado e removido, considerado “indevido”. Na rede social regida por Mark Zuckeberg, nenhuma nudez é permitida. Assim, a notícia de uma grave violação de direitos humanos não chegou a milhares de leitores.
Surge a questão: pode-se falar em censura dentro de um ambiente controlado por uma empresa privada? A mensagem passada pelo CEO do Twitter é clara:
não vamos privilegiar histórias que possam causar danos à imagem da nossa empresa. A relevância noticiosa da denúncia fica, consequentemente, em segundo plano. Claramente, a justificativa esconde a necessidade de aumentar o engajamento dos usuários para satisfazer demandas publicitárias e de investidores. E, nesse jogo, a experiência do leitor e o acesso democrático à informação vão, sempre, perder a voz.
Se o bom jornalismo se rende sem críticas às regras dos gigantes da internet num momento vital como o que vivemos, quem perde é o leitor. O direito democrático ao acesso à informação está sob ataque, e são sérias as consequências sociais desse tipo de filtragem. A neutralidade da rede é, sim, uma questão de direitos humanos e de liberdade de expressão."
Comentários