Meta tem 72 horas para esclarecer dúvidas do governo brasileiro
No entanto, ressaltou o ministro, liberdade de expressão de opinião sobre qualquer tema não significa ausência de responsabilidade de crimes cometidos.
Por Luís Nassif, no GGN: As declarações de Mark Zuckerberg, da Meta, de que irá encerrar o programa "fact cheking" é uma revanche contra o Estado profundo norte-americano. Em meu livro "A Conspiração Lava Jato - o jogo político que comprometeu o futuro do país" narro em detalhes essa história. A eleição de Barack Obama definiu duas formas de atuação política na rede. De um lado, o Partido Republicano adotando o estilo Steve Bannon, com o apoio central da Fox News. A emissora criava as notícias falsas e as redes sociais se incumbiam de disseminar. A reação do Partido Democrata se deu através da militância digital.
Ambos os lados perceberam ter em mãos um instrumento para tentar influenciar a política em outros países.
A primeira tentativa de instrumentalizar as redes deu-se em torno da participação de hackers russos na campanha que elegeu Donald Trump. Um blog de pouca penetração apareceu com supostos estudos acadêmicos tentando comprovar que o alcance da campanha foi centenas de vezes maior do que se percebia.
Seu trabalho foi apresentado a diversos veículos da mídia norte-americana, e apenas um deu guarida: o Washington Post, que acabara de ser adquirido por Jeff Bezos, o dono da Amazon. A decisão do jornal foi duramente criticada pelos demais veículos, por se tratar de um trabalho direcionado e falho.
Mesmo assim, foi a brecha que precisava o Congresso para enquadrar as redes sociais. Zucherberg foi convocado a uma sessão pesada. Saiu de lá direto para o Atlantic Council, um think tank ligado ao Estado profundo norte-americano - integrado por membros do Departamento de Estado, potentados árabes, empresas com problemas de reputação e procuradores gerais de países atrasado, como foi o caso de Rodrigo Janot, do Brasil. Foi o principal estimulador da Lava Jato e dos primeiro movimentos da sociedade civil, bancados pelos bilionários do Partido Democrata, como o Viva Rio.
O Atlantic Council foi contratado para definir uma estratégia para Zuckerberg. Consistiu na tentativa de montar uma rede mundial de agências de checagem, reunidas em torno de uma associação.
Tempos depois, blogueiros independentes levantaram os dados técnicos do tal blog e constataram que era um domínio de propriedade do próprio Atlantic Council.
A intenção inicial era barrar a disseminação de notícias de esquerda. Os bilionários financiavam diversas ONGs e portais noticiosos, muitos deles com reportagens proveitosas sobre abusos a direito humanos, mas sem estabelecer vínculos com o modelo econômico e a financeirização.
Por isso, na fase inicial - quando as "primaveras" prosperavam por todos os cantos - os grandes adversários a serem combatidos eram os blogs enquadrados como de esquerda.
Os ecos desse modelo chegaram ao país. Primeiro, através de uma pesquisa de um professor da Universidade de São Paulo, Pablo Ortellado, contratado pela revista Veja - através da Agência Pública -, para um trabalho de identificação de blogs radicais. Ele colocou no mesmo nível blogs de ultradireita, conhecidos por espalhar fake news, com os principais blogs críticos da mídia. O trabalho de Ortellado foi apresentado pela Veja em um seminário para o mercado publicitário, resultando no bloqueio de publicidade para esses portais.
O próprio Ortellado teve papel dúbio nas manifestações de 2013, tornando-se uma espécie de mentor dos black blocs - o grupo violento, cujas ações visavam claramente desmoralizar os movimentos iniciais, de cunho progressista, jogando o movimento nas mãos da direita.
O passo seguinte foi montar, no Brasil, uma associação de agências de checagem, para se integrar à rede proposta pelo Atlantic Council. A rede foi constituída apenas por agências de checagem da mídia corporativa e de portais alinhados politicamente.
A primeira jogada pesada foi quando o Papa Francisco mandou um terço bento para Lula, já preso em Curitiba. Uma das agências denunciou dois portais de esquerda por fake news. Se não fosse verdade, no mínimo seria uma barriga, jamais uma fake news - a notícia falsa com intenção de promover ódio. Imediatamente bloqueados pelo Facebook. Dias depois, o próprio Papa confirmou o envio do terço e a trama se desfez.
Tempos atrás, o Congresso pressionou novamente as big techs, em uma sessão dura.
Agora, com a vitória de Trump, há a revanche de Zuckerberg, inaugurando oficialmente a nova etapa da globalização: a ditadura das big techs, como extensão do poder norte-americano.
Para evitar o que chamou de "vieses", dona do Facebook e Instagram terá notas da comunidade como as do X, em vez de checagem de fatos terceirizada. Justificativa de Zuckerberg coincide com discurso de Trump e Musk.
O Cafezinho: O ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), determinou que a Meta remova os perfis recém-criados pelo influenciador Monark nas redes sociais Instagram e Facebook, estabelecendo um prazo de duas horas para a ação. Em caso de descumprimento, a empresa enfrentará uma multa diária de R$ 100 mil.
Desobediência judicial e Investigações
Em janeiro, a Polícia Federal identificou que Monark teria violado uma decisão judicial ao criar novos perfis para disseminar desinformação, ação que já havia sido proibida pelo STF. A investigação apontou que o influenciador também tentou lucrar com esse conteúdo.
De acordo com o Código Penal, quem desrespeita uma ordem judicial pode ser punido com detenção de três meses a dois anos, ou com multa. A PF destacou que Monark demonstrou uma "reiterada recusa em acatar a determinação judicial de cessar a divulgação de notícias fraudulentas".
Em abril, a Procuradoria-Geral da República (PGR) indicou que Monark continuava a desobedecer a decisão judicial e sugeriu que a Polícia Federal aprofundasse as investigações. O procurador-geral da República, Paulo Gonet, afirmou que são necessários mais elementos para determinar se há motivos suficientes para uma acusação formal contra o influenciador.
***
Por José Cassio, no DCM: Após um soldado israelense contar a uma repórter de TV que militantes do Hamas "decapitaram bebês" no Kibutz de Kfar Aza, essa afirmação controversa foi amplificada por Joe Biden, Netanyahu e a mídia internacional. Segundo "relatos", militantes palestinos realizaram "execuções ao estilo ISIS", degolando pessoas, incluindo bebês e animais de estimação. Nenhuma imagem apareceu até agora. As Forças de Defesa de Israel não confirmaram a notícia.
Muitos questionaram a veracidade das alegações, incluindo repórteres que estavam no local. O jornalista Oren Ziv, por exemplo, mencionou que durante sua visita ao Kibutz não viu evidências de tais alegações.
"They chopped heads of children and women," says David Ben Zion, Deputy Commandee of Unit 71 to our @Nicole_Zedek, while reporting from the massacre in Kfar Aza in southern Israel pic.twitter.com/IHSB0ywMbF
— i24NEWS English (@i24NEWS_EN) October 10, 2023
O site Grayzone identificou a fonte da fake news como sendo David Ben Zion, um colono radical e também um comandante do Exército israelense. Zion já incitou tumultos exigindo que uma cidade palestina fosse "aniquilada"
"A aldeia de Huwara deve ser exterminada, este lugar é m ninho de terror e o castigo deve ser para todos", declarou em entrevista.
Ele também é conhecido por suas posições extremistas nas redes. Divulga visões apocalípticas em relação aos palestinos.
"Chega de falar sobre a construção e o fortalecimento dos assentamentos", escreveu no Twitter em 26 de fevereiro de 2023. "Não há espaço para misericórdia".
O tuíte de Ben David foi "curtido" pelo então Ministro das Finanças de Israel, Bezalel Smotrich, o que levou 22 juristas a apelar ao Procurador-Geral para abrir uma investigação contra ele por "induzir crimes de guerra".
Huwara foi na época alvo de tumultos violentos por parte de colonos que operavam sob a supervisão de Ben David. Após os ataques, que resultaram no incêndio de dezenas de casa e veículos, bem como em feridos, o Hamas caracterizou o ato como uma "declaração de guerra".
Ben David também prega a destruição de Gaza. Dias depois de Israel lançar a Operação Margem Protetora, o bombardeio de 50 dias contra Gaza que deixou quase 1.500 civis palestinos mortos, ele publicou no Facebook uma fotografia sua e de outros soldados em frente à artilharia. "A nação de Israel está convosco até o fim (de Gaza). Amém", respondeu um seguidor. Ben David, mais uma vez, "curtiu".
***
Reportagem de Luiz Fernando Menezes e Bianca Bortolon, para Aos Fatos: Por meio de publicações falsas ou que tecem associações enganosas, parlamentares e usuários das redes têm usado o conflito entre o Hamas e Israel para alimentar a polarização entre brasileiros. Desde o início dos ataques, no sábado (7), publicações que acumulam mais de 3,5 milhões de interações no Facebook, no Instagram, no TikTok e no X (ex-Twitter) tentar associar o governo Lula (PT) e a esquerda à violência promovida pelo grupo extremista islâmico.
Um dos primeiros posts virais a fazer a associação enganosa foi publicado pelo ex-presidente Jair Bolsonaro (PL). Em nota no X, ele disse repudiar o ataque realizado pelo grupo "que parabenizou Luís (sic) Inácio Lula da Silva quando o TSE o anunciou vencedor das eleições de 2022".
- Pelo respeito e admiração ao povo de Israel repudio o ataque terrorista feito pelo Hamas, grupo terrorista que parabenizou Luís Inácio Lula da Silva quando o TSE o anunciou vencedor das eleições de 2022.
— Jair M. Bolsonaro (@jairbolsonaro) October 7, 2023
- Fundado em 1948, por deliberação da ONU de 1947, em sessão presidida… pic.twitter.com/MN71u3YRmZ
O ex-presidente fazia menção a uma mensagem enviada ao petista pelo líder do Hamas, Basim Naim, após o resultado do pleito de 2022. Na nota, que consta no site oficial do Hamas, Naim de fato parabeniza Lula e diz que o presidente "é conhecido pelo apoio forte e contínuo aos palestinos em todos os fóruns internacionais".
Isso, no entanto, não significa que Lula demonstrou apoio aos ataques realizados pelo Hamas. Minutos após a publicação de Bolsonaro, o presidente publicou uma nota em seu perfil no X em que diz ter ficado chocado com o "ataques terroristas realizados hoje contra civis" (veja abaixo). O Itamaraty e o PT também divulgaram notas condenando o ocorrido.
Fiquei chocado com os ataques terroristas realizados hoje contra civis em Israel, que causaram numerosas vítimas. Ao expressar minhas condolências aos familiares das vítimas, reafirmo meu repúdio ao terrorismo em qualquer de suas formas.
— Lula (@LulaOficial) October 7, 2023
O Brasil não poupará esforços para…
O posicionamento do petista, no entanto, não impediu que parlamentares e usuários anônimos replicassem a associação sugerida por Bolsonaro:
Por Rodrigo Mozelli, no Olhar Digital: Imagine que, em seu trabalho, Trevin Brownie viu mais de mil pessoas serem decapitadas. Nesse emprego, ele precisava assistir um novo vídeo do Facebook a cada 55 segundos, mais ou menos, ele conta. Após, ele removia e o categorizava como conteúdo nocivo e explícito. Ele recorda que, no primeiro dia de trabalho, a repulsa o fez vomitar, pois viu um vídeo no qual um homem se suicidou na frente de seu filho de três anos.
Reprodução/Imagem: TY Lim/Shutterstock |
"Você vê pornografia infantil, zoofilia, necrofilia, violência contra pessoas, violência contra animais, estupros. Como usuário, você não vê coisas como essas no Facebook. É meu trabalho, como moderador, garantir que você não veja coisas como essas", [diz] Trevin Broenie, ex-funcionário do Facebook.
Ele pontua que, após algum tempo vendo vídeos assim, eles os afeta de forma medonha. "Você chega a um ponto, depois de ter visto 100 decapitações, em que começa a torcer para que a próxima seja mais horrível. É um tipo de vício."
Brownie está na faixa dos 20 anos, assim como a maioria das centenas de jovens recrutados pela Sama, empresa de terceirização de mão-de-obra sediada em San Francisco, para trabalhar no centro de operações mantido em Nairóbi, centro de moderação do Facebook.
Sul-africano, Brownie é um dos 184 queixosos que processaram Sama e Meta por supostas violações de direitos humanos e rescisão indevida de contratos. O processo movido é um dos maiores do mundo desse tipo. Porém, é o terceiro contra a Meta no Quênia, apenas.
Os advogados envolvidos no caso afirmam que, juntos, eles têm implicações potencialmente mundiais para as condições de emprego de dezenas de milhares de moderadores, "empregados para filtrar o material mais tóxico de mídia social do planeta".
Não é o primeiro
Em 2020, a rede social aceitou acordo, no qual pagou US$ 52 milhões para encerrar processo e prover tratamentos de saúde mental para moderadores de conteúdo estadunidenses. Moderadores irlandeses, por sua vez, buscam indenização por transtorno de estresse pós-traumático.
Os casos apresentado no Quênia são os primeiros apresentados fora dos EUA que visam mudar a maneira como moderadores de conteúdo do Facebook são tratados.
Se forem bem-sucedidos, podem levar a várias outras ações onde a Meta e demais redes sociais analisam conteúdos publicados via empresas terceirizadas, podendo melhorar as condições de milhares de trabalhadores que possuem salários que não se equiparam ao tipo de serviço desgastante e degradante que possuem.
Os advogados que cuidam das ações comparam a era industrial ao que seus clientes sofrem - da mesma forma que inalar pó de carvão destruíam os corpos dos trabalhadores naquela época, as mentes dos trabalhadores que atuam na "modera fábrica digital" podem ser arruinadas.
A Meta foi procurada para comentar sobre as ações, mas afirmou que não comenta casos em curso. Neema Mutemi, professora da Universidade de Nairóbi que está auxiliando na divulgação do caso de Brownie, afirma que "essas são questões de primeira linha para os direitos trabalhistas nesta geração".
Guerra online
Nos últimos anos, a Meta sofre pressão cada vez maior para moderar conteúdos ofensivos e pejorativos, bem como a desinformação em seus serviços.
Em Mianmar, a empresa enfrentou acusações de que seus algoritmos reforçariam a retórico do ódio, e de que não conseguiam remover as postagens incitadoras de violência contra a minoria rohingya, povo que perdeu milhares de pessoas e sofreu êxodo de centenas de milhares de refugiados para Bangladesh.
Já na Índia, especialistas indicam que a empresa não conseguiu impedir a desinformação e o incitamento à violência, levando a tumultos em seu maior mercado nacional.
Em 2021, Frances Haugen vazou milhares de documentos internos, que mostram a abordagem para proteger seus usuários. Ela disse ao Senado dos EUA que o Facebook priorizava "o lucro em detrimento da segurança".
Tais documentos indicaram que a Meta falhou em filtrar conteúdo polêmico e na proteção dos usuários nos países não ocidentais, a exemplo: Etiópia, Afeganistão e Líbia, mesmo que pesquisas internas da rede social classifiquem tais regiões como de alto risco, dado o cenário político frágil e uso frequente da retórica de ódio.
Investimentos
Ultimamente, a Meta vem investindo bilhões de dólares visando combater danos em suas plataformas, recrutando em torno de 40 mil pessoas para trabalhar nas áreas de segurança e proteção. Muitas delas são contratadas por terceirizadas, como Accenture, Cognizant e Covalen.
Desses, cerca de 15 mil são moderadores de conteúdo. Além dos EUA, a Meta tem terceirizadas em mais de 20 lugares no mundo todo, como Índia, Filipinas, Irlanda e Polônia, ajudando a filtrar conteúdo em vários outros idiomas.
A Sama começou a moderar o conteúdo da Meta em 2019. Antes, ela já rotulava dados para treinamento de software de IA para a empresa de Mark Zuckerberg e outras, com a Tesla. A assunção do novo compromisso faria parte de nova central africana, concentrada na filtragem de conteúdo em idiomas africanos.
A empresa nunca tinha feito isso antes, mas sua equipe local apoiou a ideia e trouxe de Burundi, Etiópia, Quênia, Somália, África do Sul, Uganda, entre outros.
Não deu certo: após quatro anos, a Sama saiu do setor e encerrou seu contrato com a Meta em janeiro deste ano, além de demitir alguns dos supervisores executivos. Brownie, recrutado em 2019 na África do Sul, está entre os dispensados.
A presidente-executiva da Sama, Wendy Gonzalez, disse ao Financial Times que "é um trabalho importante, mas acho que está se tornando muito, muito desafiador. Optamos por sair completamente deste negócio". O setor era apenas 2% do faturamento da empresa.
"As coisas que você vê são indeléveis. Muitos não conseguem dormir agora", afirma Kauna Ibrahim Malgwi, nigeriana formada em psicologia que também começou na central em 2019 moderando conteúdo em hauçá, idioma falado na África Ocidental. A moça passou a tomar antidepressivos.
Segundo Cocri Crider, diretora do Foxglove, escritório de advocacia sem fins lucrativos que apoia antigos moderadores da Sama, alega não haver proteção adequada por parte da Meta. "Policiais que investigam casos de imagens de abusos infantil contam com armada de psiquiatras e limites rígidos de materiais que podem ver."
Já os conselheiros contratados pela Sama "não são qualificados para diagnosticar ou tratar o transtorno de estresse pós-traumático. Esses 'coaches' se limitam a recomendar que as pessoas façam exercícios de respiração e que pintem os dedos. Não são profissionais".
Por sua vez, a Sama afirmou que tais profissionais possuem qualificações conferidas pelo Quênia. No caso do processo contra as demissões, a Meta entende que os tribunais quenianos não têm jurisdição para julgá-las.
Porém, em 20 de abril, um juiz determinou que isso pode acontecer. A empresa estadunidense está recorrendo da decisão da autoridade queniana.
"Se a Shell viesse e despejasse coisas na conta do Quênia, seria muito óbvio se o Quênia tem ou não jurisdição. Não se trata de algo físico, tangível. Trata-se de tecnologia. Mas o argumento é o mesmo. Eles vieram aqui para causar danos." (Mercy Mutemi, advogada queniana do Mzili and Sumbi Advocates, representante dos moderadores).
Não é o primeiro - Parte dois
Engana-se quem pensa que este é o único processo judicial movido em prol dos moderadores de conteúdo pelo escritório de Mutemi, com apoio do Foxglove. O primeiro é do ano passado, em nome de Daniel Motaung, sul-africano que processou Sama e Meta.
Motaung diz ter sido demitido injustamente após ter tentado formar sindicato para pressionar por melhores salários e condições de trabalho. Afirma também ter sido atraído para a vaga com pretextos, sem saber das verdadeiras implicações do cargo.
A Sama afirma que os moderadores sabem bem o que fariam, durante os processos de contratação e treinamento, e que o reclamante foi demitido por violar os códigos de conduta da empresa. "No que diz respeito à formação do sindicato, temos normas em vigor quanto à liberdade de associação. Se um sindicato estava sendo formado, isso não seria problema", diz Gonzalez.
Os moderadores de fora do Quênia recebem cerca de US$ 564 (taxa de câmbio de 2020), além de subsídio para para expatriados. Eram turnos de nove horas, com uma hora de intervalo duas semanas durante o dia e duas semanas à noite.
Enquanto a Sama alega que o salário pago (US$ 2,20 por hora) é "significativo" - várias vezes mais altos que o salário mínimo e equivalentes aos de paramédicos e professores de nível superior no Quênia -, com dados indicando ser quatro vezes acima do mínimo, há quem contrarie. "US$ 2,20 por hora para se submeter a repetidas imagens de assassinato, tortura e abuso infantil? É uma ninharia, defende Crider.
Este mês, moderadores de Nairóbi votara para formar o que os advogados indicam ser o primeiro sindicato de moderadores de conteúdo do mundo, com Motaung afirmando ser "momento histórico".
A terceira ação contra o Facebook no Quênia trata-se das possíveis consequências trazidas pelo material postado na rede. A ação afirma que a falha da plataforma em lidar com a retórica de ódio e incitação à violência só piorou a intolerância étnica na guerra civil da Etiópia, que durou dois anos e acabou em novembro passado.
Para Crider, os três casos se conectam, pois o tratamento inadequado aos moderadores resulta diretamente na disseminação de conteúdo inseguro, veiculado sem controle.
Sobre a guerra civil, um dos dois autores da ação, Abrham Meareg, diz que seu pai, professor de química, foi assassinado após um post do Facebook revelar seu endereço e afirmar que ele deveria ser morto. Meareg conta que pediu várias vezes a remoção do conteúdo, sem sucesso.
À época, a Sama tinha 25 pessoas para moderar o conteúdo etiópio e em três idiomas: amárico, tifrínio e oromo. O conflito pode ter causado até 600 mil mortes.
Advogados quenianos querem um fundo indenizatório de US$ 1,6 bilhão, além de melhores condições de trabalho para os futuros moderadores e mudanças no algoritmo do Facebook para evitar mais tragédias no futuro.
Os advogados afirmam que a concorrência com outras plataformas faz o Facebook maximizar, deliberadamente, o envolvimento do usuário visando o lucro, podendo ajudar a viralizar conteúdos inseguros e perigosos.
Gonzalez admite a deficiência da regulamentação da moderação de conteúdo, afirmando que a questão deveria ser "prioritária" para líderes de empresas de mídia social.
"As plataformas, e não só esta [Facebook] em particular, como outras também, estão meio que à solta. É preciso haver controles, contrapesos e proteções." (Wendy Gonzalez, presidente-executiva da Sama).
Adeus, humanos, olá IA
A Meta segue com dezenas de milhares de moderadores humanos sob contrato, mas já conta com IA capaz de fazer o mesmo. No último trimestre, ela afirmou que 98% do conteúdo violento e explícito da plataforma foi detectado via IA.
Mas críticos apontam que a tecnologia ainda é deficitária para captar nuances necessárias para moderar imagens e a fala humana, sendo prova disso a gigantesca quantidade de conteúdos nocivos online em lugares, como a Etiópia.
Além da realidade comum
Os moderadores de conteúdo são obrigados a trabalhar de forma anônima, assinando acordos de confidencialidade que os proíbem de detalhar sua vida laboral até mesmo para sua família.
Ou seja, enquanto funcionários de trabalhos comuns chegam em casa e compartilham como foi sua jornada de trabalho, os moderadores não podem exprimir sequer o que sentem, devem guardar tudo para si.
Segundo Gonzalez, isso acontece para proteger a confidencialidade de seus clientes. Já Frank Mugisha, ex-funcionário da Sama em Uganda, afirma que o motivo é outro. "Nunca tive a chance de compartilhar minha história com ninguém, porque minha situação sempre foi mantida em segredo , um segredo sujo."
Os ex-funcionários da Sama no Quênia estrangeiros correm o risco de serem expulsos do país. Porém, um tribunal concedeu liminar provisória, que impede que Meta e Sama rescindam seus contratos até o julgamento da validade das demissões.
O problema é que, mesmo com a liminar, muitos desses ex-funcionários não recebem salários desde abril, quando houve a rescisão efetiva entre Sama e Meta, o que pode provocar o despejo de vários deles por falta de pagamento de aluguel.
Além de afirmarem não saber do que se tratava exatamente a função a ser desempenhada na Sama, os vários moderadores africanos também dizem que seus responsáveis faziam forte pressão para que cumprissem metas de ver vídeos a cada 50 ou 55 segundos.
A Meta alega não realizar tal cota e que eles "não são pressionados a tomar decisões precipitadas", apesar de afirmar que "eficiência e eficácia" são fatores importantes no trabalho.
Outra moderadora, a etíope Fasica Gebrekidan, conseguiu emprego na Sama logo após escapar da guerra civil em seu país, ainda em 2021. Quando soube que trabalharia indiretamente para a Meta, ela pensou ser a garota mais sortuda do mundo, mas que "não esperava que todos os dias tivesse que ver corpos desmembrados por ataques de 'drones'".
Até agora, ela não pôde falar da natureza de seu trabalho sequer para sua mãe. "Sei que o que faço não é um trabalho normal", diz a formada em jornalismo. "Mas me considero heroína por filtrar todo aquele material tóxico e negativo."
Com informações de Folha
***
Por Euler de França Belém*: A Câmara dos Deputados deve votar na terça-feira, 2, o projeto de lei 2630/2020 - conhecido como PL das Fake News. O projeto provocou a ira de bolsonaristas, de alguns não bolsonaristas e, também, das big techs - que, a rigor, se tornaram ditaduras transnacionais, se comportando como se não estivessem acessíveis às leis dos Estados nacionais.
Pintura de Tommy Ingberg (reprodução/jornal opção) |
Google, Twitter, Tik Tok, Meta (empresa que reúne Facebook, WhatsApp e Instagram) e Telegram não expressam isto, mas agem como se estivessem acima das leis dos países. De fato, estão, ou melhor, estavam. Porque, ao menos na Europa, os Estados nacionais começam a enquadrá-las. Alemanha, França e Espanha, para citar três países, estão jogando pesado, e dentro das leis, para coibir os abusos das big techs, ou seja, das redes sociais, das plataformas.
O argumento básico das big techs é vulgar, digamos: não divulgam material próprio sobre temas que constrangem e colocam a vida das pessoas em risco - tão-somente acolhem e, ainda que indiretamente divulgam.
Noutras palavras, os negócios das big techs, como as redes sociais, não teriam responsabilidade por aquilo que divulgam. Elas atuam como se fossem plataformas neutras - um quadro em branco - a serem utilizadas por quem quiser. Este é um mito que muitos, sobretudo os libertários, compram e passam a defender. Ou seja, a defender um argumento que não é seu, que não defende seus direitos, e é densamente enganoso.
Na verdade, por mais que o tema seja discutível, o incentivo ao crime, à violência - como ataques a alunos e professores em escolas -, tem alguma participação das redes sociais, que são espécies de grandes teatros onde se aprende a atuar, não em termos de ficção, e sim na vida real. Apreende-se tudo - do bem ao mal.
O mito da neutralidade das redes sociais
Então, não há neutralidade alguma por parte das big techs e seus vários empreendimentos. Elas são sujeitos, espécies de sócias daquilo que divulgam e, de alguma maneira, impulsionam. Portanto, precisam ser responsabilizadas judicialmente por aquilo que acolhem, disponibilizam e, ainda que indiretamente, incentivam.
Fala-se em censura à liberdade de expressão. Ora, o projeto que está na Câmara dos Deputados não versa, em nenhum lugar, sobre censurar a liberdade de expressão. O que se busca, isto sim, é responsabilizar aqueles que cometem determinados crimes - como divulgar notícias falsas ou, mesmo, incentivar agressões e, até, assassinatos.
O que querem os neonazistas? Primeiro, nem são neonazistas, porque, na prática, repetem aquilo que o poderoso chefão Adolf Hitler dizia e fazia, entre as décadas de 1920, 1930 e 1940. Segundo, querem a destruição da democracia, o único regime que, de tão aberto, permite que os extremistas de direita se associem, não para radicalizá-las, em sim para tentar eliminá-la, substituindo-a por um discurso e uma práticas únicos.
As redes sociais estão cobertas de razão, quando, em nome da liberdade de expressão, abrem espaço generoso aos nazistas? Pode-se falar em liberticídio. Porque ditaduras, e não democracias, não relutam em exercer um controle total sobre a liberdade de exprimir. Sob o nazismo, como o que vigorou na Alemanha entre 1933 3 1945, não há mínimo espaço para a apresentação de divergências. Quem diverge vai preso e, por certo, pode ser condenado à morte.
Não se está sugerindo que as redes sociais são nazistas, por acolher o discurso da extremíssima direita. Não é isto. O que está se dizendo é que o discurso do ódio, nazista ou não, ao ganhar amplo espaço nas redes sociais, em todas elas, está, de alguma maneira, sob sua proteção. Por isso, responsabilizá-las não fere a liberdade de expressão. Na verdade, é uma maneira de defender a liberdade de expressão contra aqueles que não a aceitam de fato.
O que se cobra é que as big techs, com suas vastas redes, sejam mais responsáveis. Frise-se que, em alguns casos, as redes adotaram procedimentos razoavelmente eficazes.
A Lei de Serviços Digitais (Digital Services Act) da União Europeia, que inspira o projeto brasileiro, é razoável e está começando a enquadrar as bigs techs. Então, se é assim, por que elas e seus lobbies sugerem que é preciso de mais prazo para discutir a questão? Porque não querem nenhum controle. Com as leis mais eficazes, as, digamos, caixas cinzas das big techs, com o uso de inteligência artificial para a invasão da vida privada dos usuários das redes sociais - o que, isto sim, fere o direito à privacidade -, poderão ser, aos poucos, abertas. Seu conteúdo, sabe-se, é assustador. Porém, se divulgado de maneira ampla, será, por certo, ainda mais espantoso.
O que as big techs temem é mais do que uma lei para fiscalizá-las - para multá-las (têm dinheiro sobrando), em casos de descumprimento de decisões judiciais. O que se teme é que as leis avancem, depois das primeiras, e mostrem como se tornou "proprietária" da vida das pessoas, numa espécie de controle que deixaria Ievguêni Zamiátin, autor de "Nós", e George Orwell, autor de "1984" - romances distópicos - altamente perplexos. Um deles certamente diria, quem sabe: " O que descrevemos é "frango de granja" em relação ao que as big techs estão fazendo com a vida privada dos indivíduos". A rigor, praticamente não há mais vida privada.
As big techs criaram, digamos assim, uma "ciência do comportamento", que pode ser traduzida como controle, cada vez mais absoluto, da vida das pessoas. Bastou ligar o celular para ser inteiramente mapeado. Faça uma viagem para qualquer lugar, levando seu celular, e depois verifique que foi acompanhado pelo Google - que sabe tudo sobre você, a respeito do que comprou e visitou. Cada vez mais, o indivíduo perde sua intimidade - sua liberdade -, mas os dirigentes do Google, do Facebook, do Twitter e do Instagram sugerem que o projeto de lei brasileiro é contrário à liberdade de expressão. Como diz o vulgo, vale rir para não chorar.
O projeto lei 2630 é uma maneira de proteger, de alguma maneira, os cidadãos, ou seja, uma forma de manter a cidadania - cada vez mais corrompida e vilipendiada pelas big techs. E mais: deve ser seguido por outros. Porque as big techs, com o uso fabuloso da inteligência artificial - que veio para ficar, e é incontrolável (para o bem, muito, ou para o mal, às vezes) -, são hábeis em burlar os cercos dos Estados Nacionais. Elas rápidas e os países, com suas leis, são lentos. Até porque, na democracia - e não sob regimes ditatoriais, como os nazistas -, é preciso discutir tudo, o que é positivo, mas demora-se a criar leis e colocá-las em prática. Enquanto isto, aquilo que parece um território sem lei - as nações galácticas, como Google, Facebook, Twitter, Instagram, Tik Tok -, tem "leis" próprias, as das empresas.
Ao se reinventar, com uso da inteligência artificial, o capitalismo quer escapar, inteiramente, do controle do Estado. Mas é o Estado que, bem ou mal, está a serviço dos indivíduos, da sociedade. O mercado está a serviço de si próprio, do imediato. No momento, as big techs criaram uma servidão voluntária... tanto que são defendidas nas redes sociais pelos inocentes úteis de sempre. Tal crítica não deve levar à demonização das redes sociais. O que se precisa é de regulação, e não de destruí-las. Que suas regras sejam claras e afeitas às eis de cada país. O que está se exigindo é pouco... e as big techs, que estão jogando para plateias que não sabem o que está realmente acontecendo - nos e fora dos bastidores - sabem disso.
*Euler de França Belém, é jornalista e editor-chefe do Jornal Opção
***
A reportagem é de Gabriela Soares, no Lupa: Após os ataques golpistas, grupos de esquerda e de direita no Telegram intensificaram a estratégia de se infiltrar em chats de adversários políticos para coletar informações. De um lado, o foco é mapear quem os esquerdistas apontam como responsáveis pelos atos de 8 de janeiro. Do outro, até forças-tarefas foram montadas para ajudar na identificação de financiadores e golpistas.
A disputa virtual, em um clima de "guerra fria", também resulta em outros efeitos colaterais, como cautela e desconfiança, que cresceram nos grupos enquanto temores da presença de "espiões" se reservaram ambos nos lados.
O Google Trends mostrou que, entre os dias 9 e 10 de janeiro, houve um pico nas buscas pelos termos "infiltrado" e "infiltrados". A ferramenta Crowdtangle revelou que o mesmo padrão se repetiu no Facebook e no Instagram.
Postagens públicas no Instagram com os termos "infiltrados" e "infiltrado", de 1º a 17 de janeiro/2023. Foto: reprodução |
Postagens públicas no Facebook com os termos "infiltrados" e "infiltrado, de 1º a 17 de janeiro/2023. Foto: reprodução |
Reprodução/Lupa |
Reprodução/Lupa |
Imagem/reprodução: Lupa |
Imagem/reprodução: Lupa |
Imagem/reprodução: Lupa |
©Blog do Guara | Licença Creative Commons 3.0 | Template exclusivo Dicas Blogger