Mostrando postagens com marcador moderação de conteúdos. Mostrar todas as postagens
Mostrando postagens com marcador moderação de conteúdos. Mostrar todas as postagens

sexta-feira, 24 de janeiro de 2025

Zuckerberg sinaliza que big techs querem governar a política mundial

Por Roseli Fígaro, em Correio Braziliense: Depois da controvertida participação do X na campanha eleitoral dos Estados Unidos da América (EUA), que acabou por eleger Donald Trump, Elon Musk vai assumir um cargo no governo para sanear a estrutura do Estado. Juntou-se a ele o CEO da Meta, Mark Zuckerberg, cujas declarações atacam as ações dos EUA, dos países latino-americanos e da União Europeia em busca da regulação das redes sociais.

www.seuguara.com.br/Mark Zuckerberg/big techs/EUA/política mundial/

Zuckerberg classificou a moderação de conteúdo, mesmo a autorregulação, de "censura e ataque à liberdade de expressão". Ao usar o termo liberdade de expressão, dá o recado para os ingênuos que vinham atestando o papel de bom mocismo dos empresários e financistas das empresas de redes sociais digitais, as usualmente chamadas de big techs.

A ação desses empresários que controlam boa parte da produção e circulação de informações no mundo mostra uma mudança tática. As recentes declarações tanto de Zuckerberg quanto de Musk apontam para uma atitude mais direta e não dissimulada: governarão eles mesmos.


A mudança tática dessas lideranças aponta que as questões relativas à geopolítica sofrerão alterações. As medidas econômicas contra a China e a Rússia também se estenderão a todos - regiões e países - que não obedecerem aso determinantes daqueles que regerão o governo Trump, ou seja, as medidas que favoreçam diretamente as big techs. O ataque à autodeterminação e à soberania dos países fica explícito.


Dessa maneira, para que os interesses das big techs ocupem esse lugar de protagonismo nos rumos da governança global, o jornalismo e a circulação de informações devem ser cerceados. Pois a desinformação, defendida por essas empresas ao recusarem a moderação de conteúdos, é um instrumento político que combate as forças democráticas, impede o exercício dos direitos civis e o debate de ideias sem discurso de ódio. O jornalismo, de outra parte, de modo geral, trabalha para a circulação de informações devidamente apuradas e desenvolve mecanismos de moderação de conteúdos e de checagem.


E mais: a desinformação, propugnada pelas big techs que negam a moderação de conteúdos, gera resultados eleitorais que beneficiam os interesses particulares dessas corporações. As big techs alimentam-se da desinformação, da polarização, da discórdia, da quebra dos laços comunitários e, sobretudo, da perda da noção de cidadania, dos direitos civis e trabalhistas porque não querem nenhuma regulamentação para seus negócios e lucros estratosféricos, gerados graças aos dados captados dos usuários.


Mas o ataque não para aí. Estende-se, sobretudo, às camadas subalternas, às maiorias de negros(as), pobres, imigrantes, populações LGBTQIA e a todas as pessoas que cabem no quadro caracterizado pela diversidade. Ao atualizar suas políticas sobre o tipo de conteúdo que poderá ser removido dos próprios sites, as big techs, como o X e a Meta (Instagram, Tik Tok...), passam a permitir o uso de linguagem ofensiva a questões de gênero, etnia, raça, orientação sexual, entre outros direitos identitários. Ou seja, mulheres, pessoas negras, indígenas, transgêneras, não binárias, PCDs e imigrantes serão alvos fáceis para os discursos de ódio nas redes sociais sob o aval da negação de moderação de conteúdos por parte das big techs.   


Ficou evidente que a questão da diversidade não interessa mais a tais empresas. Logo depois da declaração de Zucherberg, a Meta anunciou o encerramento do seu apoio a programas de diversidade e inclusão. O anúncio feito pelo CEO fortalece o movimento conservador antidireitos civis em crescimento nos EUA. A influência desses grupos é, inclusive, política, com as recentes críticas feitas por apoiadores de Donald Trump à candidatura de Kamala Harris. 

www.seuguara.com.br/Donald Trump/presidente dos EUA/big techs/

A diversidade também parece não ser lucrativa para os capitalistas. Eles apostam no discurso da meritocracia para ofuscar o propósito da exclusão com base no darwinismo social e na eugenia. No qae diz respeito às redes digitais, Zuckerberg deu a largada. 


Uma dica: para ajudar as pessoas a refletirem sobre todas essas questões, pesquisadores da USP preparam uma cartilha educativa produzida a partir de estudo sobre os Termos de Uso e Política de Privacidade da empresa Meta e seus produtos: Facebook, Instagram e WhatsApp. O Centro de Pesquisa em Comunicação e Trabalho (CPCT), sediado na Escola de Comunicações e Artes da USP (ECA/USP), coordenou essa pesquisa intitulada Meta: se apropriar de seus dados. O caminho das informações pessoais no ambiente digital.


VIA

***


Leia Mais ►

quarta-feira, 15 de janeiro de 2025

Tudo sobre as novas políticas de checagem e moderação da Meta

Aos Fatos: O governo federal convocou para quinta-feira (16) uma audiência pública para discutir com a sociedade as mudanças nas políticas de moderação de conteúdo e verificação de fatos da Meta - dona de Facebook, Instagram, WhatsApp e Treads.  

www.seuguara.com.br/checagem de fatos/moderação/Meta/Mark Zuckerberg/redes sociais/

Anunciada no último dia 7 pelo CEO e cofundador da empresa, Mark Zuckerberg, a mudança marca o alinhamento ideológico da big tech ao governo de Donald Trump. Também levantou uma série de preocupações sobre o impacto na circulação de desinformação nas redes e no respeito aos direitos de minorias, como de imigrantes e da comunidade LGBTQIA+. 


Considerado um retrocesso por especialistas em direito digital, o anúncio de Zuckerberg também foi criticado por associações de checadores. Para as organizações de verificação de fatos, o CEO da Meta deturpou o trabalho dos profissionais.


Entenda o assunto a partir do que publicamos até agora: 


O que aconteceu


  • Meta encerra checagem de fatos nos EUA e especialistas veem retrocesso (7.jan.2025)

Em vídeo, Mark Zuckerberg anuncia mudanças na política de moderação de conteúdo e o fim do programa de checagem de fatos nos Estados Unidos. Medidas são criticadas por especialistas, que apontam aumento potencial da desinformação, questionam a eficiência do modelo proposto para substituir a checagem profissional e classificam a mudança como "oportunista". Anúncio da Meta marca alinhamento ideológico da empresa ao governo de Donald Trump.


  • Nova política da Meta desrespeita a lei no Brasil, diz AGU (14.jan.2025)

O governo federal considerou nesta terça-feira (14) que a nova política anunciada pela Meta para moderar discursos de ódio, já em vigor no Brasil, não está adequada à lei brasileira. Diante disso, o Executivo anunciou uma audiência pública para discutir os efeitos da mudança e a resposta a ser adotada. O posicionamento foi divulgado pela AGU (Advocacia-Geral da União) após análise da resposta da plataforma à notificação extrajudicial enviada à empresa na última sexta-feira (10).


Análise da notícia

  • Oportunismo de Zuckerberg é prenúncio do que virá no resto do mundo (8.jan.2025)

Na newsletter Plataforma, o editor-executivo do Aos Fatos Alexandre Aragão analisa as incongruências do anúncio de Mark Zuckerberg, ao alinhar a empresa aos interesses de Donald Trump.

  • Entenda das diferenças entre checagem de fatos e moderação de conteúdo (13.jan.2025)

Atividades de checagem de fatos e moderação de conteúdos possuem diferentes definições, objetivos e responsáveis. A checagem é feita por profissionais ligados a organizações jornalísticas e identifica postagens falsas e enganosas. Já a moderação é feita por inteligência artificial ou equipes contratadas pela Metra para identificar publicações que violam suas diretrizes. 


Por que é importante checar fatos 

  • 'Notas da comunidade' não são eficientes para combater desinformação, apontam estudos (8.jan.2025)    
Entre as mudanças anunciadas pela Meta está a substituição do programa de verificação de fatos independente pelo modelo de notas da comunidade, atualmente adotado pelo X. Estudos apontam que sistema de checagem colaborativo não reduz engajamento em posts enganosos e revelam que maior parte das notas enviadas por usuários sequer são exibidas. Aos Fatos também já mostrou como o modelo foi capturado por grupos para uso político.


  • Checagem coíbe fraude e exploração de tragédias em redes da Meta (10.jan.2025)

Ao anunciar o fim da parceria da Meta com organizações de checagem de fatos nos Estados Unidos, Mark Zuckerberg afirmou que "verificadores têm sido politicamente tendenciosos demais". Além de não ser verdadeira, a afirmação ignora que atuação de checadores não se limita a temas políticos e eleitorais. A atividade combate também golpes financeiros, caça-cliques que exploram tragédias e outros tipos de posts nocivos sem viés político.


O que dizem os checadores


Em comunicado, organizações de checagem integrantes da rewde LatamChequea criticam o fundador da Meta por associar o jornalismo de verificação à censura. Para as organizações, Zuckerberg omite que os checadores não têm o poder de decidir o que acontece com os conteúdos considerados falsos ou enganosos. 


  • Carta aberta dos checadores de fato do mundo a Mark Zuckerberg, nove anos depois (9.jan.2025)

Grupo de checadores de diversos países respondem ao anúncio da Meta ressaltando profissionalismo da atividade e lembrando que "o acesso à verdade alimenta a liberdade de expressão", por dar à sociedade o poder de fazer escolhas  alinhadas com seus valores.

***

Leia Mais ►

domingo, 21 de maio de 2023

Moderadores do Facebook pedem aumento pelos horrores que são obrigados a assistir

Por Rodrigo Mozelli, no Olhar Digital: Imagine que, em seu trabalho, Trevin Brownie viu mais de mil pessoas serem decapitadas. Nesse emprego, ele precisava assistir um novo vídeo do Facebook a cada 55 segundos, mais ou menos, ele conta. Após, ele removia e o categorizava como conteúdo nocivo e explícito. Ele recorda que, no primeiro dia de trabalho, a repulsa o fez vomitar, pois viu um vídeo no qual um homem se suicidou na frente de seu filho de três anos.

www.seuguara.com.br/Facebook/moderadores/
Reprodução/Imagem: TY Lim/Shutterstock

"Você vê pornografia infantil, zoofilia, necrofilia, violência contra pessoas, violência contra animais, estupros. Como usuário, você não vê coisas como essas no Facebook. É meu trabalho, como moderador, garantir que você não veja coisas como essas", [diz] Trevin Broenie, ex-funcionário do Facebook.


Ele pontua que, após algum tempo vendo vídeos assim, eles os afeta de forma medonha. "Você chega a um ponto, depois de ter visto 100 decapitações, em que começa a torcer para que a próxima seja mais horrível. É um tipo de vício."

Brownie está na faixa dos 20 anos, assim como a maioria das centenas de jovens recrutados pela Sama, empresa de terceirização de mão-de-obra sediada em San Francisco, para trabalhar no centro de operações mantido em Nairóbi, centro de moderação do Facebook.


Sul-africano, Brownie é um dos 184 queixosos que processaram Sama e Meta por supostas violações de direitos humanos e rescisão indevida de contratos. O processo movido é um dos maiores do mundo desse tipo. Porém, é o terceiro contra a Meta no Quênia, apenas.

Os advogados envolvidos no caso afirmam que, juntos, eles têm implicações potencialmente mundiais para as condições de emprego de dezenas de milhares de moderadores, "empregados para filtrar o material mais tóxico de mídia social do planeta".


Não é o primeiro

Em 2020, a rede social aceitou acordo, no qual pagou US$ 52 milhões para encerrar processo e prover tratamentos de saúde mental para moderadores de conteúdo estadunidenses. Moderadores irlandeses, por sua vez, buscam indenização por transtorno de estresse pós-traumático.

Os casos apresentado no Quênia são os primeiros apresentados fora dos EUA que visam mudar a maneira como moderadores de conteúdo do Facebook são tratados.


Se forem bem-sucedidos, podem levar a várias outras ações onde a Meta e demais redes sociais analisam conteúdos publicados via empresas terceirizadas, podendo melhorar as condições de milhares de trabalhadores que possuem salários que não se equiparam ao tipo de serviço desgastante e degradante que possuem.

Os advogados que cuidam das ações comparam a era industrial ao que seus clientes sofrem - da mesma forma que inalar pó de carvão destruíam os corpos dos trabalhadores naquela época, as mentes dos trabalhadores que atuam na "modera fábrica digital" podem ser arruinadas.

A Meta foi procurada para comentar sobre as ações, mas afirmou que não comenta casos em curso. Neema Mutemi, professora da Universidade de Nairóbi que está auxiliando na divulgação do caso de Brownie, afirma que "essas são questões de primeira linha para os direitos trabalhistas nesta geração". 


Guerra online

Nos últimos anos, a Meta sofre pressão cada vez maior para moderar conteúdos ofensivos e pejorativos, bem como a desinformação em seus serviços.

Em Mianmar, a empresa enfrentou acusações de que seus algoritmos reforçariam a retórico do ódio, e de que não conseguiam remover as postagens incitadoras de violência contra a minoria rohingya, povo que perdeu milhares de pessoas e sofreu êxodo de centenas de milhares de refugiados para Bangladesh.


Já na Índia, especialistas indicam que a empresa não conseguiu impedir a desinformação e o incitamento à violência, levando a tumultos em seu maior mercado nacional.

Em 2021, Frances Haugen vazou milhares de documentos internos, que mostram a abordagem para proteger seus usuários. Ela disse ao Senado dos EUA que o Facebook priorizava "o lucro em detrimento da segurança". 

Tais documentos indicaram que a Meta falhou em filtrar conteúdo polêmico e na proteção dos usuários nos países não ocidentais, a exemplo: Etiópia, Afeganistão e Líbia, mesmo que pesquisas internas da rede social classifiquem tais regiões como de alto risco, dado o cenário político frágil e uso frequente da retórica de ódio.


Investimentos

Ultimamente, a Meta vem investindo bilhões de dólares visando combater danos em suas plataformas, recrutando em torno de 40 mil pessoas para trabalhar nas áreas de segurança e proteção. Muitas delas são contratadas por terceirizadas, como Accenture, Cognizant e Covalen.

Desses, cerca de 15 mil são moderadores de conteúdo. Além dos EUA, a Meta tem terceirizadas em mais de 20 lugares no mundo todo, como Índia, Filipinas, Irlanda e Polônia, ajudando a filtrar conteúdo em vários outros idiomas.


A Sama começou a moderar o conteúdo da Meta em 2019. Antes, ela já rotulava dados para treinamento de software de IA para a empresa de Mark Zuckerberg e outras, com a Tesla. A assunção do novo compromisso faria parte de nova central africana, concentrada na filtragem de conteúdo em idiomas africanos.

A empresa nunca tinha feito isso antes, mas sua equipe local apoiou a ideia e trouxe de Burundi, Etiópia, Quênia, Somália, África do Sul, Uganda, entre outros. 


Não deu certo: após quatro anos, a Sama saiu do setor e encerrou seu contrato com a Meta em janeiro deste ano, além de demitir alguns dos supervisores executivos. Brownie, recrutado em 2019 na África do Sul, está entre os dispensados.

A presidente-executiva da Sama, Wendy Gonzalez, disse ao Financial Times que "é um trabalho importante, mas acho que está se tornando muito, muito desafiador. Optamos por sair completamente deste negócio". O setor era apenas 2% do faturamento da empresa.


"As coisas que você vê são indeléveis. Muitos não conseguem dormir agora", afirma Kauna Ibrahim Malgwi, nigeriana formada em psicologia que também começou na central em 2019 moderando conteúdo em hauçá, idioma falado na África Ocidental. A moça passou a tomar antidepressivos.

Segundo Cocri Crider, diretora do Foxglove, escritório de advocacia sem fins lucrativos que apoia antigos moderadores da Sama, alega não haver proteção adequada por parte da Meta. "Policiais que investigam casos de imagens de abusos infantil contam com armada de psiquiatras e limites rígidos de materiais que podem ver."


Já os conselheiros contratados pela Sama "não são qualificados para diagnosticar ou tratar o transtorno de estresse pós-traumático. Esses 'coaches' se limitam a recomendar que as pessoas façam exercícios de respiração e que pintem os dedos. Não são profissionais".

Por sua vez, a Sama afirmou que tais profissionais possuem qualificações conferidas pelo Quênia. No caso do processo contra as demissões, a Meta entende que os tribunais quenianos não têm jurisdição para julgá-las. 

Porém, em 20 de abril, um juiz determinou que isso pode acontecer. A empresa estadunidense está recorrendo da decisão da autoridade queniana.


"Se a Shell viesse e despejasse coisas na conta do Quênia, seria muito óbvio se o Quênia tem ou não jurisdição. Não se trata de algo físico, tangível. Trata-se de tecnologia. Mas o argumento é o mesmo. Eles vieram aqui para causar danos." (Mercy Mutemi, advogada queniana do Mzili and Sumbi Advocates, representante dos moderadores).


Não é o primeiro - Parte dois


Engana-se quem pensa que este é o único processo judicial movido em prol dos moderadores de conteúdo pelo escritório de Mutemi, com apoio do Foxglove. O primeiro é do ano passado, em nome de Daniel Motaung, sul-africano que processou Sama e Meta.

Motaung diz ter sido demitido injustamente após ter tentado formar sindicato para pressionar por melhores salários e condições de trabalho. Afirma também ter sido atraído para a vaga com pretextos, sem saber das verdadeiras implicações do cargo.


A Sama afirma que os moderadores sabem bem o que fariam, durante os processos de contratação e treinamento, e que o reclamante foi demitido por violar os códigos de conduta da empresa. "No que diz respeito à formação do sindicato, temos normas em vigor quanto à liberdade de associação. Se um sindicato estava sendo formado, isso não seria problema", diz Gonzalez.

Os moderadores de fora do Quênia recebem cerca de US$ 564 (taxa de câmbio de 2020), além de subsídio para para expatriados. Eram turnos de nove horas, com uma hora de intervalo duas semanas durante o dia e duas semanas à noite.


Enquanto a Sama alega que o salário pago (US$ 2,20 por hora) é "significativo" - várias vezes mais altos que o salário mínimo e equivalentes aos de paramédicos e professores de nível superior no Quênia -, com dados indicando ser quatro vezes acima do mínimo, há quem contrarie. "US$ 2,20 por hora para se submeter a repetidas imagens de assassinato, tortura e abuso infantil? É uma ninharia, defende Crider.

Este mês, moderadores de Nairóbi votara para formar o que os advogados indicam ser o primeiro sindicato de moderadores de conteúdo do mundo, com Motaung afirmando ser "momento histórico".


A terceira ação contra o Facebook no Quênia trata-se das possíveis consequências trazidas pelo material postado na rede. A ação afirma que a falha da plataforma em lidar com a retórica de ódio e incitação à violência só piorou a intolerância étnica na guerra civil da Etiópia, que durou dois anos e acabou em novembro passado.

Para Crider, os três casos se conectam, pois o tratamento inadequado aos moderadores resulta diretamente na disseminação de conteúdo inseguro, veiculado sem controle.


Sobre a guerra civil, um dos dois autores da ação, Abrham Meareg, diz que seu pai, professor de química, foi assassinado após um post do Facebook revelar seu endereço e afirmar que ele deveria ser morto. Meareg conta que pediu várias vezes a remoção do conteúdo, sem sucesso.

À época, a Sama tinha 25 pessoas para moderar o conteúdo etiópio e em três idiomas: amárico, tifrínio e oromo. O conflito pode ter causado até 600 mil mortes.


Advogados quenianos querem um fundo indenizatório de US$ 1,6 bilhão, além de melhores condições de trabalho para os futuros moderadores e mudanças no algoritmo do Facebook para evitar mais tragédias no futuro.

Os advogados afirmam que a concorrência com outras plataformas faz o Facebook maximizar, deliberadamente, o envolvimento do usuário visando o lucro, podendo ajudar a viralizar conteúdos inseguros e perigosos.

Gonzalez admite a deficiência da regulamentação da moderação de conteúdo, afirmando que a questão deveria ser "prioritária" para líderes de empresas de mídia social.


"As plataformas, e não só esta [Facebook] em particular, como outras também, estão meio que à solta. É preciso haver controles, contrapesos e proteções." (Wendy Gonzalez, presidente-executiva da Sama).


Adeus, humanos, olá IA


A Meta segue com dezenas de milhares de moderadores humanos sob contrato, mas já conta com IA capaz de fazer o mesmo. No último trimestre, ela afirmou que 98% do conteúdo violento e explícito da plataforma foi detectado via IA.

Mas críticos apontam que a tecnologia ainda é deficitária para captar nuances necessárias para moderar imagens e a fala humana, sendo prova disso a gigantesca quantidade de conteúdos nocivos online em lugares, como a Etiópia.


Além da realidade comum


Os moderadores de conteúdo são obrigados a trabalhar de forma anônima, assinando acordos de confidencialidade que os proíbem de detalhar sua vida laboral até mesmo para sua família.

Ou seja, enquanto funcionários de trabalhos comuns chegam em casa e compartilham como foi sua jornada de trabalho, os moderadores não podem exprimir sequer o que sentem, devem guardar tudo para si.


Segundo Gonzalez, isso acontece para proteger a confidencialidade de seus clientes. Já Frank Mugisha, ex-funcionário da Sama em Uganda, afirma que o motivo é outro. "Nunca tive a chance de compartilhar minha história com ninguém, porque minha situação sempre foi mantida em segredo , um segredo sujo."

Os ex-funcionários da Sama no Quênia estrangeiros correm o risco de serem expulsos do país. Porém, um tribunal concedeu liminar provisória, que impede que Meta e Sama rescindam seus contratos até o julgamento da validade das demissões. 


O problema é que, mesmo com a liminar, muitos desses ex-funcionários não recebem salários desde abril, quando houve a rescisão efetiva entre Sama e Meta, o que pode provocar o despejo de vários deles por falta de pagamento de aluguel.

Além de afirmarem não saber do que se tratava exatamente a função a ser desempenhada na Sama, os vários moderadores africanos também dizem que seus responsáveis faziam forte pressão para que cumprissem metas de ver vídeos a cada 50 ou 55 segundos.

A Meta alega não realizar tal cota e que eles "não são pressionados a tomar decisões precipitadas", apesar de afirmar que "eficiência e eficácia" são fatores importantes no trabalho.


Outra moderadora, a etíope Fasica Gebrekidan, conseguiu emprego na Sama logo após escapar da guerra civil em seu país, ainda em 2021. Quando soube que trabalharia indiretamente para a Meta, ela pensou ser a garota mais sortuda do mundo, mas que "não esperava que todos os dias tivesse que ver corpos desmembrados por ataques de 'drones'".

Até agora, ela não pôde falar da natureza de seu trabalho sequer para sua mãe. "Sei que o que faço não é um trabalho normal", diz a formada em jornalismo. "Mas me considero heroína por filtrar todo aquele material tóxico e negativo."

Com informações de Folha

***


Leia Mais ►

Arquivos

Site Meter

  ©Blog do Guara | Licença Creative Commons 3.0 | Template exclusivo Dicas Blogger