Inéditas oficialmente na campanha, vaquinhas têm baixo engajamento, aponta FGV DAPP

Publicado em Deixe um comentárioServidor

Pedidos de doações virtuais mobilizam pouco mais de 30 mil menções desde 15 de maio; discussões se dividem em núcleos de apoio de Lula e Bolsonaro

Há mais de dois meses da data prevista pela lei para o início das iniciativas de financiamento coletivo para campanhas eleitorais na internet, as vaquinhas virtuais ainda parecem não ter decolado entre os usuários do Twitter. Uma análise da FGV DAPP com posts publicados entre 15 de maio de 30 de julho mostra que o assunto motivou apenas 30.914 menções na rede, das quais 27.123 são retuítes.

A presença de perfis automatizados é, até o momento, praticamente inexpressiva no debate. Entre as publicações dos principais grupos identificados nas discussões, houve 1,55% de interações de robôs no núcleo vermelho, e 3,31% no azul escuro.

As publicações se organizam em dois principais grupos, bastante polarizados. O primeiro (azul escuro), concentra 43,87% dos usuários em torno, especialmente, de referências ao crowdfunding lançado pela campanha de Jair Bolsonaro. Entre os pedidos ou declarações de doação, apresentam-se, em especial, três argumentos: (1) a doação ajudaria o pré-candidato a “livrar” o Brasil de comunistas e corruptos; (2) o dinheiro arrecadado seria um meio de viabilizar o não uso do fundo partidário; e (3) os recursos seriam uma medida compensatória para a falta de tempo na TV.

Neste núcleo, a postagem mais retuitada (com 751 retuítes até o fim do período de análise) partiu do perfil do filho do pré-candidato e vereador do Rio, Carlos Bolsonaro, que criticou reportagem publicada em 18 de julho pelo jornal “O Globo”, que afirmava que Bolsonaro teria sido responsável por contribuição de R$ 1 para o crowdfunding de Lula.

A nuvem com as palavras mais utilizadas nas postagens do cluster azul escuro demonstra a divisão narrativa deste grupo: por um lado, os pedidos de doação para Bolsonaro e, em menor volume, para Amoedo; por outro, as críticas a Lula e ao PT — o partido chega a superar o PSL em volume de presença nas publicações.

Nas interações que envolvem contas automatizadas não há, notadamente, uma ênfase em pedidos de doação, mas na desqualificação de outros crowdfundings, especialmente o de Lula. Destaca-se, por exemplo, a incerteza sobre a possibilidade de efetivo uso dos recursos angariados pelo petista.

O segundo grupo de destaque (vermelho), com 41,53% dos perfis que participaram da discussão no Twitter, apresenta maior coesão e é composto por atores mobilizados na divulgação da plataforma de arrecadação de recursos de Lula. As narrativas presentes nesses tuítes utilizam como recurso a identificação da sua candidatura com o retorno da “esperança/alegria” do povo e com a luta pelo estado democrático de direito. Comentam também o apoio dos doadores à campanha, vinculando a arrecadação à expectativa de sucesso da própria candidatura de Lula. Aparecem no núcleo, também, as iniciativas de arrecadação de doações para a militância de apoio ao ex-presidente nos acampamentos “Lula Livre”.

Os principais robôs ativos no grupo vermelho retuítam o perfil oficial de Lula ou de pessoas vinculadas à campanha, responsáveis por manifestar apoio ao ex-presidente e por incentivar a doação para a campanha.

Menos expressivo, o núcleo verde (2,69%) representa as menções que envolvem o nome da pré-candidata Marina Silva (Rede). As principais interações fazem referência ao sucesso em atingir a meta de arrecadação durante a primeira semana e ao fato de a candidata usar blockchain para o registro de suas doações. A plataforma escolhida pela candidata é o Voto Legal, que usa a tecnologia blockchain, o que, segundo especialistas na área, traria mais segurança e transparência durante a verificação das doações.

Sobre as vaquinhas eleitorais

A “minirreforma” política de 2017 (Lei 13.488/17) abriu a possibilidade para que as plataformas online pudessem vir a ser uma forma de arrecadação de recursos para campanhas de candidatos. Além de permitir o uso da internet para tal fim, a lei define os requisitos necessários para a construção das plataformas, como o cadastro prévio na Justiça Eleitoral, a emissão obrigatória do recibo para o doador e a observância do calendário eleitoral. Esse mesmo entendimento está presente na resolução 23.553/2018, aprovada pelo TSE para regulamentar a arrecadação, gastos eleitorais e a prestação de contas das eleições de 2018.

Justiça determina que Facebook retire do ar fake news contra Marielle e revele dados de caluniadores

Publicado em Deixe um comentárioServidor

Em decisão histórica, a Justiça do Rio de Janeiro acatou na íntegra a ação movida por Anielle Silva e Mônica Benício, respectivamente irmã e companheira de Marielle Franco, contra o Facebook pela propagação de notícias falsas contra a vereadora do PSOL, executada no último dia 14.

A ação foi movida por meio do escritório EJS Advogadas e o juiz responsável é Jorge Jansen Counago Novelle, da 15ª Vara Cível do Tribunal de Justiça do estado. Na decisão, com sete pontos, o Facebook fica obrigado a:

1. Retirar do ar, em até 24 horas, todas as publicações apontadas na inicial, excluindo publicações que ofendam a intimidade, honra e a imagem de Marielle Franco;

2. Se abster de publicar ou republicar documentos ou novos posts idênticas as já apontadas;

3. Utilizar todos os meios, equipamentos, pessoas e recursos necessários para filtrar e coibir outros posts, publicações e imagens do mesmo teor;

4. Informar os perfis e pessoas que publicaram ofensas à memória de Marielle, ainda que seus autores já tenham apagado a publicação, pois o Facebook tem a obrigação de manter essas informações em seu banco de dados;

5. Informe se os perfis de Luciano Ayan, Luciano Henrique Ayan e do Movimento Brasil Livre (MBL) patrocinaram os posts que impulsionaram a onda de fake news;

6. Identifique se os perfis apontados na inicial são certificados ou são falsos, e se forem falsos, que sejam excluídos;

7. Informar os IPs e usuários que postaram publicações criminosas, para que as autoras venham a acioná-los e responsabilizá-los civil e criminalmente.

Os alvos da ação apresentada à Justiça foram sete memes que foram exaustivamente republicados na rede social, bem como nove páginas públicas que compartilharam as publicações atentatórias à honra, dignidade e memória de Mairelle Franco. São elas: Operacionais, Direita Já – Bolsonaro 2018, Endireitando a Verdade, Olavo de Carvalho, Contraponto, Bolsonaro Opressor 2.0, Anti-PT e Movimento Curitiba Contra Corrupção.

Várias das denúncias recebidas pelo escritório de advocacia em mais de 18 mil e-mails ainda não foram enviadas à Justiça.

Na decisão, o juiz afirma que não se pode tolerar a repetição de casos como o de Marielle, em que o Facebook “vem permitindo a propagação de crimes como calúnia contra os mortos, ódio, preconceito de raça e gênero e abusos, contra alguém que já não tem como se defender, contra seus parentes, irmã e sua companheira, contra familiares e contra a Sociedade”.

Facebook – Questões complexas: Como combatemos o terrorismo

Publicado em Deixe um comentárioServidor

*Monika Bickert e Brian Fishman

Diante dos recentes ataques terroristas, pessoas têm questionado o papel de empresas de tecnologia na luta contra o terrorismo no mundo online. Queremos responder a esse questionamento de forma objetiva. Concordamos com aqueles que dizem que as mídias sociais não podem ser um lugar onde terroristas têm voz. Queremos ser muito claros sobre o quanto levamos isso a sério – manter nossa comunidade segura é fundamental para nossa missão.

Neste texto, vamos falar sobre parte do trabalho que fazemos nos bastidores, algo que nunca falamos publicamente antes, incluindo como usamos inteligência artificial para garantir que conteúdo terrorista não esteja no Facebook. Também vamos discutir sobre as pessoas com as quais trabalhamos no combate ao terrorismo, algumas das quais dedicaram suas carreiras inteiras combatendo-o, e ainda sobre como colaboramos com parceiros externos nessa área.

Nossa posição é simples e direta: não há espaço no Facebook para terrorismo. Nós removemos terroristas e posts que apoiam o terrorismo assim que ficamos cientes deles. Quando recebemos denúncias de potenciais posts sobre terrorismo, nós os revisamos com urgência e escrutínio. E nos raros casos em que identificamos evidências de uma eminente ameaça, nós informamos as autoridades na mesma hora. Embora pesquisas acadêmicas indiquem que as atividades de membros de grupos radicais como ISIS e Al Qaeda ocorram principalmente no mundo offline, nós sabemos que a internet tem um papel nisso – e nós não queremos que o Facebook seja usado para qualquer atividade terrorista.

Nós acreditamos que a tecnologia, e o Facebook, podem ser parte da solução.

Nós temos sido cautelosos, em parte porque não queremos sugerir que seja simples lidar com este assunto do ponto de vista tecnológico. É um enorme desafio manter as pessoas seguras em uma plataforma com quase 2 bilhões de pessoas mensalmente, compartilhando conteúdo e comentando em mais de 80 idiomas em todo o mundo. E há muito mais que podemos fazer. Mas queremos compartilhar o que estamos fazendo e receber o feedback sobre o que podemos fazer melhor.

Inteligência Artificial

Queremos identificar conteúdo terrorista imediatamente, antes que as pessoas em nossa comunidade tenham acesso a ele. A maioria das contas no Facebook que removemos já são identificadas por nós mesmos. Mas sabemos que podemos fazer mais usando tecnologia, especialmente inteligência artificial, para interromper a propagação de conteúdo terrorista no Facebook. Embora o uso de Inteligência Artificial contra o terrorismo seja relativamente recente, isso já está mudando a maneira como eliminamos potencial propaganda terrorista e perfis relacionados a isso no Facebook. Estamos no momento concentrando esforços tecnológicos em combater conteúdo sobre o ISIS, a Al Qaeda e suas afiliadas, e devemos expandir isso a outras organizações terroristas. Estamos o tempo todo atualizando nossas soluções tecnológicas, veja abaixo alguns de nossos esforços atuais.

Identificação de imagens: Quando alguém tenta carregar uma foto ou um vídeo com conteúdo terrorista, nossos sistemas analisam se as imagens são compatíveis com alguma foto ou vídeo conhecidos. Isso significa que se nós previamente removemos um vídeo de propaganda do ISIS, podemos trabalhar preventivamente para evitar que o mesmo vídeo seja carregado em nosso site. Em muitos casos, isso significa que o conteúdo terrorista nem sequer ficará disponível na nossa plataforma.

Interpretação de textos: Também começamos recentemente a experimentar o uso de Inteligência Artificial para entender textos que podem estar promovendo o terrorismo. Para isso, usamos textos que foram previamente removidos por promover ou apoiar organizações como o ISIS e a Al Qaeda, assim podemos encontrar sinais que apontem se um texto contém propaganda terrorista. A análise inclui um algoritmo que está no estágio inicial de aprendizagem sobre como detectar posts similares. Com o passar do tempo, o algoritmo vai acumulando informação e se aperfeiçoando.

Remoção por comportamento: Nós sabemos a partir de estudos sobre terroristas que eles tendem a se radicalizar e a operar em grupos. Essa tendência offline é refletida no mundo online também. Assim, quando identificamos páginas, grupos, posts ou perfis que estão suportando o terrorismo, também usamos algoritmos para tentar identificar material relacionado que possa estar também apoiando o terrorismo. Nós usamos sinais como, por exemplo, quando uma conta tem muitos amigos cujos perfis foram desabilitados por terrorismo, ou mesmo contas que possuem atributos similares aos de uma conta desabilitada por terrorismo.

Reincidência: Também somos muito mais rápidos agora para identificar contas falsas criadas por reincidentes. Com isso, temos sido capazes de reduzir drasticamente o período de tempo em que uma conta de um terrorista reincidente fica ativa no Facebook. Esse trabalho nunca termina, porque é uma luta contra adversários que estão sempre tentando aperfeiçoar seus métodos para continuar na plataforma. Estamos constantemente identificando novas formas que terroristas usam para tentar burlar nossos sistemas, e temos atualizado nossas táticas com base nisso.

Colaboração multi-plataformas: Como não queremos ter espaço para terroristas em qualquer aplicativo da família de produtos do Facebook, começamos a trabalhar em sistemas para permitir que possamos agir sobre contas em todas as nossas plataformas, incluindo no WhatsApp e no Instagram. Devido à quantidade limitada de dados que alguns de nossos aplicativos coletam como parte de seus serviços, a habilidade de compartilhar dados entre toda a família de produtos é indispensável como parte de nossos esforços para manter todas as nossas plataformas seguras.

Expertise humano

A Inteligência Artificial não consegue resolver tudo. Muitas vezes não é simples identificar conteúdos que estejam ou não suportando o terrorismo, e os algoritmos ainda não são tão bons quanto as pessoas na compreensão do contexto de um conteúdo. Uma foto de um homem armado com uma bandeira do ISIS pode ser propaganda ou material para recrutamento, mas também pode ser uma foto em uma notícia. Alguns dos maiores críticos de grupos como o ISIS utilizam a própria propaganda do ISIS contra o grupo. Pelas considerações acima, nós precisamos de expertise humano.

Denúncias e revisões: Nossa comunidade – as pessoas que estão no Facebook – nos ajudam denunciando contas ou conteúdo que possam violar nossas políticas, incluindo uma pequena fração que pode estar relacionada com terrorismo. Nossos times ao redor do mundo – que está crescendo em 3 mil pessoas no próximo ano, trabalha 24 horas por dia e em dezenas de idiomas para revisar essas denúncias e determinar o contexto. Isso pode ser um trabalho tremendamente difícil, e damos apoio a esses revisores com suporte psicológico e treinamento.

Especialistas em terrorismo e segurança: No último ano, nós também aumentamos de forma significativa nosso time de especialistas no combate ao terrorismo. No Facebook, mais de 150 pessoas estão focadas principalmente em contra terrorismo, sendo essa sua principal responsabilidade. Isso inclui especialistas acadêmicos, ex-procuradores, ex-agentes policiais, analistas e engenheiros. Ao todo, cerca de 30 diferentes idiomas são falados por esse time de especialistas.

Ameaças reais: Cada vez mais usamos Inteligência Artificial para identificar conteúdo terrorista, mas os computadores não são muito bons para identificar um conteúdo que represente uma ameaça real que deva ser escalada para autoridades. Também temos um time global para responder em minutos a pedidos emergenciais de autoridades.

Parcerias

Trabalhar para manter o terrorismo fora do Facebook não basta, porque os terroristas migram de plataforma para plataforma. Por isso, trabalhar em parceria com outras companhias, sociedade civil, pesquisadores e governos também é crucial.

Cooperação setorial: Para identificar mais rapidamente conteúdos terroristas e impedir sua propagação, nos juntamos à Microsoft, Twitter e YouTube seis meses atrás para anunciar uma base de dados de “hashes” da indústria — o escaneamento de fotos e vídeos – para conteúdo produzido por organizações terroristas ou de apoio a elas. Essa colaboração já produziu resultados, e esperamos ter mais parceiros no futuro. Agradecemos a companhias parceiras que ajudam a manter o Facebook um lugar seguro.

Governos: Os governos e as agências intergovernamentais também têm um papel chave, por fornecer expertise que é impossível para as empresas desenvolverem sozinhas. Temos aprendido muito em reuniões com agências em diferentes países sobre os mecanismos de propaganda do ISIS e da Al Qaeda. Também temos participado e nos beneficiado de esforços para suportar a indústria por organizações como o Internet Forum (União Europeia), a Global Coalition Against Daesh e o Ministério do Interior do Reino Unido.

Criptografia: Nós sabemos que os terroristas algumas vezes usam mensagens criptografadas para se comunicar. A tecnologia da criptografia tem muitos usos legítimos – de proteger nossas transações bancárias a manter nossas fotos seguras. Ela também é essencial para jornalistas, ONGs, defensores dos direitos humanos e outros que precisam que suas mensagens permaneçam seguras. Devido ao modo como a criptografia de ponta-a-ponta funciona, nós não podemos ter acesso aos conteúdos de mensagens criptografadas trocadas entre as pessoas, mas nós podemos fornecer informações a pedidos válidos do judiciário e de autoridades policiais, quando aplicáveis à legislação e às nossas políticas.

Treinamento de contra discurso: Também acreditamos que desafiar as narrativas extremistas online é uma parte valiosa da resposta do mundo real ao extremismo. O contra discurso pode vir de muitas formas, e tal esforço é fundamental para evitar que as pessoas façam discurso do ódio, tomem ações violentas ou sejam convencidas a desistir de suas vidas. O contra discurso só é efetivo se vier de fontes com credibilidade, e temos nos associado a ONGs e a grupos na comunidade para dar poder a suas vozes nessa frente.

Programas de parceiros: Nós apoiamos muitos grandes programas de contra discurso. No ano passado, por exemplo, nós trabalhamos com o Institute for Strategic Dialogue para lançar a Online Civil Courage Initiative, um projeto que já engajou com mais de 100 organizações que atuam no contra discurso e contra o extremismo na Europa. Também temos trabalhado com o Affinis Labs para organizar hackathons em lugares como Manila, Dhaka e Jacarta, onde líderes têm juntado forças com empreendedores digitais para desenvolver soluções inovadoras contra o extremismo e o discurso do ódio. E, por fim, o programa que apoiamos com alcance mais global é uma competição estudantil pela P2P, o Facebook Global Digital Challenge. Em menos de dois anos, a P2P atingiu mais de 56 milhões de pessoas em todo o mundo através de mais de 500 campanhas contra extremismo e contra o discurso do ódio criadas por mais de 5.500 estudantes universitários em 68 países.

Nosso compromisso

Queremos que o Facebook seja um ambiente hostil para terroristas. O desafio para comunidades online é o mesmo para comunidades no mundo offline – ser mais ágil em identificar os primeiros sinais antes que seja tarde. Estamos comprometidos em manter o terrorismo fora de nossa plataforma, e vamos continuar a compartilhar o que estamos fazendo à medida que avançamos nessa frente.

* Monika Bickert, diretora global de Políticas de Conteúdo.

*Brian Fishman, gerente de Políticas Contra Terrorismo