Mostrando postagens com marcador Meta. Mostrar todas as postagens
Mostrando postagens com marcador Meta. Mostrar todas as postagens

terça-feira, 11 de fevereiro de 2025

Pesquisa aponta que 41% dos brasileiros desaprovam o fim da checagem nas redes sociais

Poder/360: Uma pesquisa feita pela Broadminded, que avalia tendências de comunicação na América Latina, aponta que 41% dos brasileiros não aprovam a determinação da Meta, empresa dona do Facebook, Instagram e WhatsApp, em encerrar o programa de checagem independente de fatos.

www.seuguara.com.br/pesquisa/checagem de fatos/redes sociais/

O levantamento aponta que 9 de cada 10 usuários avaliam que a empresa deveria ter uma maior responsabilidade na remoção de conteúdos impróprios, assim como a colaboração com as autoridades. A decisão da Meta, do empresário Mark Zuckerberg, por enquanto, é válida apenas nos Estados Unidos. 

Dentre os países que fizeram parte do estudo, a taxa de rejeição do Brasil é a maior. A avaliação negativa nos outros países é de:

  • Argentina: 28%;
  • México: 31%;
  • Colômbia: 35%;
  • Chile: 30%;
  • Peru: 26%


A Meta também anunciou no dia 7 de janeiro a flexibilização das regras que limitam o discurso de ódio nas plataformas digitais, assim como a redução do alcance dos filtros automáticos que retiram conteúdos.


Para 87% dos entrevistados, a Meta deveria ter obrigação legal de remover contas e conteúdos, assim como colaborar com as autoridades em casos que representem riscos no mundo real. O levantamento escutou 3.200 pessoas durante o mês de janeiro.

A pesquisa aponta ainda que 54% dos brasileiros já foram expostos à desinformação nas redes sociais da Meta, e 43% já encontraram discurso de ódio nas plataformas; 29% dizem que já acreditou em fake news nas redes sociais. Ao desconfiar de uma informação vista na internet, 53% recorreram  à imprensa e 57% buscam na internet. 


Atualmente, as plataformas são responsabilizadas por conteúdos publicados por terceiros em caso de decisão judicial. O debate sobre a responsabilização das redes sociais está sendo debatido no Supremo Tribunal Federal (STF). "Aqui é uma terra que tem lei. As redes sociais não são terra sem lei. No Brasil, só continuarão a operar se respeitarem a legislação brasileira, independentemente de bravatas de dirigentes das big techs", disse o ministro Alexandre de Moraes, após o anúncio da decisão da Meta.


Eis a pesquisa completa, em inglês (PDF -167kB)

***


Leia Mais ►

terça-feira, 28 de janeiro de 2025

DeepSeek: novo modelo de IA chinesa supera ChatGPT nos EUA e derruba ações de empresas

ICL/Notícias: A queda das ações de empresas vinculadas às IAs, como a Nvidia e a Oracle, nesta segunda-feira (27), está ligada à ascensão do assistente de inteligência artificial DeepSeek - de uma startup chinesa. O novato ultrapassou recentemente o seu concorrente, o ChatGPT, em número de downloads na App Store, e se tornou o aplicativo gratuito com a melhor avaliação na loja Apple americana.

www.seuguara.com.br/Deepseek/Inteligência Artificial/China/

De acordo com o índice da Nasdaq - bolsa norte-americana que reúne empresas de tecnologia - as ações da Nvidia tiveram uma queda de 10%, enquanto as da Oracle recuaram 8% nas negociações pré-abertura. Os contratos futuros do Nasdaq 100 caíam quase 4%, sugerindo que o índice pode registrar sua maior queda diária desde setembro de 2022 se essas perdas forem mantidas.


Novo modelo de IA: DeepSeek


Lançado no último dia 10, a DeepSeek vem na contramão das empresas norte-americanas que têm investido na tecnologia de IA - como a Apple, Microsoft e Meta -, trazendo uma alternativa viável e mais barata de inteligência artificial e colocando em questão a sustentabilidade dos gastos, além do domínio ocidental no setor.


Segunda startup chinesa dona do assistente de IA, seu modelo usa menos dados a um custo bem menor do que modelos da empresas já estabelecidas. Isso significa um possível ponto de virada no nível de investimento necessário para a inteligências artificiais.

De acordo com a startup, o modelo DeepSeek-V3 "lidera a tabela de classificação entre os modelos de código aberto e rivaliza com os modelos de código fechado mais avançados globalmente".


Esse novo modelo de IA impressionou executivos do Vale do Silício e engenheiros de tecnologia, que colocaram o advento chinês no nível dos modelos mais avançados da OpenAI e da Meta. "Eles também são mais baratos. O DeepSeek-R1, lançado na semana passada, é de 20 a 50 vezes mais barato de usar, dependendo da tarefa, do que o modelo OpenAI o1, de acordo com uma postagem na conta oficial do WeChat da DeepSeek", disseram. 


Segundo a empresa, o treinamento do DeepSeek-V3 exigiu em poder de computação dos chips Nvidia H800 um valor abaixo de US$ 6 milhões.

Sediada em Hangzhou, na China, a startup DeepSeek tem como acionista controlador Liang Wenfeng, cofundador do fundo de hedge quantitativo High-Flyer. Liang tem investido em IA desde 2023, mesmo ano em que a DeepSeek foi fundada.


Leia também:

***
Leia Mais ►

quarta-feira, 15 de janeiro de 2025

Tudo sobre as novas políticas de checagem e moderação da Meta

Aos Fatos: O governo federal convocou para quinta-feira (16) uma audiência pública para discutir com a sociedade as mudanças nas políticas de moderação de conteúdo e verificação de fatos da Meta - dona de Facebook, Instagram, WhatsApp e Treads.  

www.seuguara.com.br/checagem de fatos/moderação/Meta/Mark Zuckerberg/redes sociais/

Anunciada no último dia 7 pelo CEO e cofundador da empresa, Mark Zuckerberg, a mudança marca o alinhamento ideológico da big tech ao governo de Donald Trump. Também levantou uma série de preocupações sobre o impacto na circulação de desinformação nas redes e no respeito aos direitos de minorias, como de imigrantes e da comunidade LGBTQIA+. 


Considerado um retrocesso por especialistas em direito digital, o anúncio de Zuckerberg também foi criticado por associações de checadores. Para as organizações de verificação de fatos, o CEO da Meta deturpou o trabalho dos profissionais.


Entenda o assunto a partir do que publicamos até agora: 


O que aconteceu


  • Meta encerra checagem de fatos nos EUA e especialistas veem retrocesso (7.jan.2025)

Em vídeo, Mark Zuckerberg anuncia mudanças na política de moderação de conteúdo e o fim do programa de checagem de fatos nos Estados Unidos. Medidas são criticadas por especialistas, que apontam aumento potencial da desinformação, questionam a eficiência do modelo proposto para substituir a checagem profissional e classificam a mudança como "oportunista". Anúncio da Meta marca alinhamento ideológico da empresa ao governo de Donald Trump.


  • Nova política da Meta desrespeita a lei no Brasil, diz AGU (14.jan.2025)

O governo federal considerou nesta terça-feira (14) que a nova política anunciada pela Meta para moderar discursos de ódio, já em vigor no Brasil, não está adequada à lei brasileira. Diante disso, o Executivo anunciou uma audiência pública para discutir os efeitos da mudança e a resposta a ser adotada. O posicionamento foi divulgado pela AGU (Advocacia-Geral da União) após análise da resposta da plataforma à notificação extrajudicial enviada à empresa na última sexta-feira (10).


Análise da notícia

  • Oportunismo de Zuckerberg é prenúncio do que virá no resto do mundo (8.jan.2025)

Na newsletter Plataforma, o editor-executivo do Aos Fatos Alexandre Aragão analisa as incongruências do anúncio de Mark Zuckerberg, ao alinhar a empresa aos interesses de Donald Trump.

  • Entenda das diferenças entre checagem de fatos e moderação de conteúdo (13.jan.2025)

Atividades de checagem de fatos e moderação de conteúdos possuem diferentes definições, objetivos e responsáveis. A checagem é feita por profissionais ligados a organizações jornalísticas e identifica postagens falsas e enganosas. Já a moderação é feita por inteligência artificial ou equipes contratadas pela Metra para identificar publicações que violam suas diretrizes. 


Por que é importante checar fatos 

  • 'Notas da comunidade' não são eficientes para combater desinformação, apontam estudos (8.jan.2025)    
Entre as mudanças anunciadas pela Meta está a substituição do programa de verificação de fatos independente pelo modelo de notas da comunidade, atualmente adotado pelo X. Estudos apontam que sistema de checagem colaborativo não reduz engajamento em posts enganosos e revelam que maior parte das notas enviadas por usuários sequer são exibidas. Aos Fatos também já mostrou como o modelo foi capturado por grupos para uso político.


  • Checagem coíbe fraude e exploração de tragédias em redes da Meta (10.jan.2025)

Ao anunciar o fim da parceria da Meta com organizações de checagem de fatos nos Estados Unidos, Mark Zuckerberg afirmou que "verificadores têm sido politicamente tendenciosos demais". Além de não ser verdadeira, a afirmação ignora que atuação de checadores não se limita a temas políticos e eleitorais. A atividade combate também golpes financeiros, caça-cliques que exploram tragédias e outros tipos de posts nocivos sem viés político.


O que dizem os checadores


Em comunicado, organizações de checagem integrantes da rewde LatamChequea criticam o fundador da Meta por associar o jornalismo de verificação à censura. Para as organizações, Zuckerberg omite que os checadores não têm o poder de decidir o que acontece com os conteúdos considerados falsos ou enganosos. 


  • Carta aberta dos checadores de fato do mundo a Mark Zuckerberg, nove anos depois (9.jan.2025)

Grupo de checadores de diversos países respondem ao anúncio da Meta ressaltando profissionalismo da atividade e lembrando que "o acesso à verdade alimenta a liberdade de expressão", por dar à sociedade o poder de fazer escolhas  alinhadas com seus valores.

***

Leia Mais ►

terça-feira, 14 de janeiro de 2025

Por enquanto, fim da checagem de fatos é limitado aos EUA, diz Meta

Lucas Pordeus Léon, repórter da Agência Brasil: O fim do serviço de checagem de fatos da Meta – companhia que controla Facebook, Instagram e Whatsapp – ocorreu apenas nos Estados Unidos (EUA), pelo menos por enquanto, informou a gigante da tecnologia ao responder questionamentos da Advocacia-Geral da União (AGU).

www.seuguara.com.br/Meta/checagem de fatos/limite/EUA/

“Neste momento, essa mudança somente será aplicada nos Estados Unidos. Planejamos criar, testar e melhorar as Notas da Comunidade nos Estados Unidos antes de qualquer expansão para outros países”, informou a big tech estadunidense, destacando a intenção de expandir a mudança para os outros países.


Desde 2016, a Meta oferece no Facebook e no Instagram um serviço de checagem de fatos, realizado por jornalistas e especialistas em cerca de 115 países, que apura se informações que circulavam nas redes eram verdadeiras ou falsas e oferecia a contextualização aos usuários.

Com o fim da checagem de fatos, a Meta passou a adotar a política de “notas da comunidade”. Com isso, apenas usuários previamente cadastrados podem contestar alguma informação que circula nas plataformas.


Ofensas preconceituosas

Ao mesmo tempo em que diz proteger os direitos humanos e a segurança de grupos vulneráveis no documento enviado à AGU, a Meta defendeu alterações na política sobre discurso de ódio que passou a permitir insultos preconceituosos contra mulheres, imigrantes e homossexuais. A companhia confirmou que essas mudanças já estão em vigor no Brasil.

“Tais atualizações procuram simplificar o conteúdo da política de modo a permitir um debate mais amplo e conversas sobre temas que são parte de discussões em voga na sociedade”, explicou a companhia, alegando que a política antes em vigor havia limitado o “debate político legítimo e, com frequência, impedindo a livre expressão que pretendemos viabilizar”.


Sobre isso, a AGU destacou que causa grave preocupação a confirmação da alteração da política sobre discurso de ódio no Brasil porque “pode representar terreno fértil para violação da legislação e de preceitos constitucionais que protegem direitos fundamentais dos cidadãos brasileiros”, acrescentando que as mudanças informadas pela Meta “não estão adequadas à legislação brasileira e não são suficientes para proteção dos direitos fundamentais”.

A AGU destacou ainda que a nova posição da Meta contraria a defesa que a companhia fez no julgamento sobre o Marco Civil da Internet no Supremo Tribunal Federal (STF). “Em tais manifestações, representantes da empresa asseguraram que as então políticas de governança de conteúdo eram suficientes para a proteção dos direitos fundamentais dos usuários”, diz a pasta.


A AGU vai promover uma audiência pública, nesta quinta-feira (16), para discutir com órgãos governamentais e entidades da sociedade civil as ações para lidar com o tema das redes sociais a partir das mudanças anunciadas pela Meta.

“A audiência vai discutir os efeitos da nova política implementada pela Meta, o dever de cuidado das plataformas digitais, os riscos da substituição do Programa de Verificação de Fatos no exterior e as medidas a serem ser adotadas com o objetivo de assegurar o cumprimento da legislação nacional e a proteção de direitos”, diz o comunicado da AGU.



Entenda

Na semana passada, a Meta anunciou uma série de mudanças e o alinhamento da política da empresa à agenda de governo do presidente eleito dos Estados Unidos, Donald Trump, que defende a desregulamentação do ambiente digital e é contrário à política de checagem de fatos. Em seguida, a Meta liberou a possibilidade de ofensas preconceituosas nas plataformas.

Edição: Érica Santana

***

Leia Mais ►

sexta-feira, 10 de janeiro de 2025

Meta tem 72 horas para esclarecer dúvidas do governo brasileiro

Por Pedro Peduzzi, repórter da Agência Brasil: A empresa Meta, responsável por redes sociais como Instagram, Facebook e WhatsApp, terá prazo de 72 horas para esclarecer dúvidas do governo brasileiro sobre a mudança nas políticas de moderação de conteúdos anunciada pelo CEO Mark Zuckerberg. A notificação estabelecendo o prazo será apresentada ainda nesta sexta-feira (10) pela Advocacia-Geral da União (AGU), informou o Palácio do Planalto.

www.seuguara.com.br/Rui Costa/Casa Civil/notificação/Meta/Facebook/

“Nós apresentaremos uma notificação judicial, e a empresa terá 72 horas para informar o governo brasileiro qual é, de fato, a política da Meta para o Brasil”, informou o advogado-geral da União, Jorge Messias, após participar, em Brasília, de reunião com o presidente Luiz Inácio Lula da Silva e o ministro-chefe da Casa Civil, Rui Costa (foto).


Segundo Rui Costa, o governo vê com muita preocupação o anúncio de que a Meta não fará mais controle de conteúdo. “Isso impacta de forma muito grande a sociedade brasileira. Impacta nas crianças, quando se fala de conteúdo impróprio e de tráfico de crianças. Impacta na segurança pública, quando se trata de informações que dizem respeito à segurança das pessoas, à prática criminosa”, disse Costa. Ele citou também exemplos de impacto envolvendo os mais diversos tipos de discriminação por raça, credo, gênero e regional, ao acabar por promover discursos de ódio.


O ministro mencionou ainda o caso do uso da inteligência artificial para produzir um vídeo com informações falsas atribuídas ao ministro da Fazenda, Fernando Haddad. De acordo com Costa, vídeos como esse impactam inclusive a economia do país.

“As pessoas acabam não conseguindo distinguir o que é verdade do que é mentira. Isso acaba impactando no país, na nação, nas pessoas e na economia. Estamos falando de soberania nacional”, enfatizou.


Diante da situação, o governo pretende criar um grupo de trabalho envolvendo ministérios e o setor de comunicações, na busca de aperfeiçoamento do arcabouço legal brasileiro. “Buscaremos interlocução com as entidades que representam os meios de comunicação em geral, inclusive a imprensa brasileira, buscando manter o princípio fundamental da democracia, que é a total liberdade de expressão. Não se pode ter diferenciação de tratamento entre uma TV que opera no Brasil, sujeita a um conjunto de regulamentos, e alguém que tem o alcance gigantesco [das redes sociais]”, argumentou.

No entanto, ressaltou o ministro, liberdade de expressão de opinião sobre qualquer tema não significa ausência de responsabilidade de crimes cometidos.


AGU

O advogado-geral da União disse que a sociedade brasileira não ficará à mercê desse tipo de política que a Meta tenta emplacar. “Nossa preocupação neste momento é que a empresa venha a público [para se manifestar claramente], já que ela não foi transparente em momento algum.”

Segundo Jorge Messias, a AGU protocolará, ainda hoje, notificação para que a Meta explique às autoridades brasileiras o que a empresa fará para proteger crianças, adolescentes, mulheres e pequenos comerciantes, entre outros, que usam a plataforma como um modelo de negócio.

“Tem uma série de pessoas que usam frequentemente essa plataforma e que estarão muito vulneráveis pretensamente à nova política. Não sabemos claramente qual é a nova política em razão da ausência de transparência dessa empresa”, argumentou, ao lembrar que o Brasil tem uma legislação muito rigorosa na proteção de tais públicos.


Edição: Nádia Franco

***

Leia Mais ►

quinta-feira, 9 de janeiro de 2025

O fact-checking não é censura: é uma ferramenta que empodera os cidadãos

Aos Fatos: Comunicado das organizações que integram a rede LatamChequea sobre as mudanças anunciadas pela Meta em sua política de moderação de conteúdos. "A Meta anunciou nesta terça-feira o fim do programa de verificação independente de fatos (Third Party Fact Checking, ou 3PFC) nos Estados Unidos, que será substituído por um sistema de notas da comunidade semelhante ao utilizado pela plataforma X (antigo Twitter).

www.seuguara.com.br/Meta/agências checadoras/desinformação/fake news/fact-checking/

Mark Zuckerberg, CEO da empresa dona do Facebook, Instagram, Threads e WhatsApp, afirmou, ao justificar a decisão - e sem apresentar evidências -, que o sistema de checagem tinha "muitos erros" e promovia "muita censura", acusando os checadores de viés político.


Nos preocupa que, ao justificar sua decisão, o fundador da Meta associe o jornalismo de verificação à censura, quando, em nenhum caso, os checadores decidem o que acontece com os conteúdos. Nosso trabalho termina ao apontar se as postagens são verdadeiras, falsas ou enganosas, após um rigoroso processo de verificação que segue um método público.

Os checadores sempre defendem a liberdade de expressão e buscam fornecer evidências, informações verificadas e contexto sobre o que circula para empoderar os usuários em sua tomada de decisões - e não eliminar ou censurar conteúdos.


Impacto positivo no combate à desinformação


O jornalismo de verificação não começou com o Programa da Meta, e há organizações na região dedicadas a essa trabalho desde 2010. O trabalho dos checadores foi avaliado muitas vezes, demostrando que contribuiu para corrigir percepções equivocadas sobre um tema em diferentes contextos e que ajuda a limitar a disseminação da desinformação, entre outras coisas. Mesmo no caso das etiquetas em redes sociais, como as utilizadas pela Meta, elas mostraram ter um efeito positivo ao reduzir crenças em desinformação.


O programa de verificadores independentes de fatos é um sistema implementado pela Meta desde 2016 para ajudar a combater a desinformação em suas redes sociais, do qual participam vários membros da LatamChequea. Nele, os jornalistas checadores, certificados pele Rede Internacional de Checagem de Fatos (IFCN, na sigla em inglês), analisam postagens potencialmente desinformativas e, caso as evidências mostrem que são verdadeiras, falsas ou enganosas, as rotulam. Depois, é a empresa - não os verificadores - que decidem o que fazer com essas informações.

Conforme explicado várias vezes pela Meta, a política da plataforma é reduzir a visibilidade do conteúdo, adicionar contexto às postagens e alertar aqueles que compartilham o conteúdo de que há novas informações disponíveis. O conteúdo falso não é excluído nem deixa de estar acessível.


Desde que os checadores começaram a trabalhar com a Meta, não houve acusações de viés por parte da empresa, e um dos requisitos do programa é possuir a certificação da IFCN, o que inclui uma análise do conteúdo publicado para comprovar a ausência de viés político - um dos princípios básicos do jornalismo de verificação. De acordo com as próprias regras do programa, não são checadas postagens de políticos.

A Meta também não apresentou evidências de erros no trabalho dos checadores. Segundo dados apresentados pela empresa à União Europeia, do conteúdo que teve a visibilidade reduzida por erro, apenas 3,15% foi devido ao trabalho de verificação, o menor percentual entre todas as categorias, como destacou a Rede Europeia de Padrões de Verificação de Fatos (EFCSN, na sigla em inglês). 


Decisões como a anunciada pela Meta tendem a aumentar a opacidade e a retirar a visibilidade de uma comunidade que navega nas sombras da desinformação. A eliminação desse tipo de programa, que busca neutralizar os efeitos da desinformação, beneficia atores interessados em influenciar a opinião pública ou lucrar com inverdades. Em tempos em que diferenciar o verdadeiro do falso se torna um desafio, essa decisão traz consigo uma certeza: é verdadeiro que os produtores de desinformação comemoram essa decisão e se preparam para aproveitar essa janela de oportunidade.


O jornalismo de verificação, mais necessário do que nunca


A desinformação pode minar a confiança nos sistemas democráticos, confundir os cidadãos e até levá-los a tomar decisões perigosas sobre sua saúde, entre outras consequências. Os checadores têm um papel fundamental, como destaca a Organização dos Estados Americanos (OEA): 

"As agências verificadores, que nos últimos anos cresceram exponencialmente em nossa região, desempenham um papel importante no combate à desinformação. Por meio da verificação do discurso público, oferecem um serviço que pode ajudar os cidadãos a navegar em um debate público complexo e - muitas vezes - contaminado por informações falsas." 

O jornalismo de verificação foi vital em momentos como a pandemia, as eleições e os protestos sociais, sendo uma da muitas estratégias necessárias para combater a desinformação. Medidas e acusações sem evidências prejudicam o ecossistema informativo.


É essencial que governos, organizações internacionais e plataformas como a Meta trabalhem em conjunto para garantir a transparência nas política de moderação de conteúdo e para reforçar a regulamentação do ambiente digital. Somente assim será possível proteger os direitos humanos e assegurar o equilíbrio entre a liberdade de expressão e a integridade informativa.

A rede de checadores latino-americanos LatamChequea reafirma seu compromisso com a evidência, os dados e o acesso à informação para os cidadãos. Continuaremos trabalhando com altos padrões jornalísticos para combater a desinformação, promover o debate público informado e fortalecer aliança internacionais que defendam a transparência no ambiente digital.

***

A LatamChequea é a rede latino-americana de checadores, reunindo 47 organizações de 21 países.

***


Leia Mais ►

Zuckerberg e a nova etapa do capitalismo: a ditadura das big techs, por Luís Nassif

Por Luís Nassif, no GGN: As declarações de Mark Zuckerberg, da Meta, de que irá encerrar o programa "fact cheking" é uma revanche contra o Estado profundo norte-americano. Em meu livro "A Conspiração Lava Jato - o jogo político que comprometeu o futuro do país" narro em detalhes essa história. A eleição de Barack Obama definiu duas formas de atuação política na rede. De um lado, o Partido Republicano adotando o estilo Steve Bannon, com o apoio central da Fox News. A emissora criava as notícias falsas e as redes sociais se incumbiam de disseminar. A reação do Partido Democrata se deu através da militância digital. 

www.seuguara.com.brMark Suckerberg/Meta/big techs/redes sociais/EUA/checagem de fatos/

Ambos os lados perceberam ter em mãos um instrumento para tentar influenciar a política em outros países.

A primeira tentativa de instrumentalizar as redes deu-se em torno da participação de hackers russos na campanha que elegeu Donald Trump. Um blog de pouca penetração apareceu com supostos estudos acadêmicos tentando comprovar que o alcance da campanha foi centenas de vezes maior do que se percebia. 

Seu trabalho foi apresentado a diversos veículos da mídia norte-americana, e apenas um deu guarida: o Washington Post, que acabara de ser adquirido por Jeff Bezos, o dono da Amazon. A decisão do jornal foi duramente criticada pelos demais veículos, por se tratar de um trabalho direcionado e falho.


Mesmo assim, foi a brecha que precisava o Congresso para enquadrar as redes sociais. Zucherberg foi convocado a uma sessão pesada. Saiu de lá direto para o Atlantic Council, um think tank ligado ao Estado profundo norte-americano -  integrado por membros do Departamento de Estado, potentados árabes, empresas com problemas de reputação e procuradores gerais de países atrasado, como foi o caso de Rodrigo Janot, do Brasil. Foi o principal estimulador da Lava Jato e dos primeiro movimentos da sociedade civil, bancados pelos bilionários do Partido Democrata, como o Viva Rio.


O Atlantic Council foi contratado para definir uma estratégia para Zuckerberg. Consistiu na tentativa de montar uma rede mundial de agências de checagem, reunidas em torno de uma associação.

Tempos depois, blogueiros independentes levantaram os dados técnicos do tal blog e constataram que era um domínio de propriedade do próprio Atlantic Council.

A intenção inicial era barrar a disseminação de notícias de esquerda. Os bilionários financiavam diversas ONGs e portais noticiosos, muitos deles com reportagens proveitosas sobre abusos a direito humanos, mas sem estabelecer vínculos com o modelo econômico e a financeirização.

Por isso, na fase inicial - quando as "primaveras" prosperavam por todos os cantos - os grandes adversários a serem combatidos eram os blogs enquadrados como de esquerda.


Os ecos desse modelo chegaram ao país. Primeiro, através de uma pesquisa de um professor da Universidade de São Paulo, Pablo Ortellado, contratado pela revista Veja - através da Agência Pública -, para um trabalho de identificação de blogs radicais. Ele colocou no mesmo nível blogs de ultradireita, conhecidos por espalhar fake news, com os principais blogs críticos da mídia. O trabalho de Ortellado foi apresentado pela Veja em um seminário para o mercado publicitário, resultando no bloqueio de publicidade para esses portais.

O próprio Ortellado teve papel dúbio nas manifestações de 2013, tornando-se uma espécie de mentor dos black blocs - o grupo violento, cujas ações visavam claramente desmoralizar os movimentos iniciais, de cunho progressista, jogando o movimento nas mãos da direita. 


O passo seguinte foi montar, no Brasil, uma associação de agências de checagem, para se integrar à rede proposta pelo Atlantic Council. A rede foi constituída apenas por agências de checagem da mídia corporativa e de portais alinhados politicamente. 

A primeira jogada pesada foi quando o Papa Francisco mandou um terço bento para Lula, já preso em Curitiba. Uma das agências denunciou dois portais de esquerda por fake news. Se não fosse verdade, no mínimo seria uma barriga, jamais uma fake news - a notícia falsa com intenção de promover ódio. Imediatamente bloqueados pelo Facebook. Dias depois, o próprio Papa confirmou o envio do terço e a trama se desfez. 


Tempos atrás, o Congresso pressionou novamente as big techs, em uma sessão dura.


 

Agora, com a vitória de Trump, há a revanche de Zuckerberg, inaugurando oficialmente a nova etapa da globalização: a ditadura das big techs, como extensão do poder norte-americano.



Nunca é demais lembrar que, até se tornar uma ameaça mundial, Hitler e Mussolini foram apoiados por forças econômicas norte-americanas, que viam no nacionalismo exacerbado uma maneira de enfraquecer o movimento sindical e a ameaça das esquerdas.

***


Leia Mais ►

Meta se alinha a Trump, mira Justiça latina e facilita fake news sob bandeira anticensura

Por Laura Scofield, no Agência Pública: A Meta está alinhada ao discurso de Donald Trump e promete “trabalhar” com o presidente eleito nos Estados Unidos “para pressionar governos ao redor do mundo que estão perseguindo empresas americanas e pressionando para censurar mais”. O dono da empresa, Mark Zuckerberg, afirmou em anúncio nesta terça-feira (7) que pretende contar com o “apoio do governo dos EUA” para, por exemplo, combater supostos “tribunais secretos” latino-americanos “que podem ordenar que as empresas retirem conteúdos do ar discretamente”. A Meta detém redes sociais como Facebook, Instagram, Threads e WhatsApp.
Leia Mais ►

terça-feira, 7 de janeiro de 2025

Meta elimina checagem de fatos externa e adota modelo do X

Para evitar o que chamou de "vieses", dona do Facebook e Instagram terá notas da comunidade como as do X, em vez de checagem de fatos terceirizada. Justificativa de Zuckerberg coincide com discurso de Trump e Musk.
Leia Mais ►

quarta-feira, 26 de junho de 2024

Meta deve excluir novos perfis de Monark, determina Moraes

O Cafezinho: O ministro Alexandre de Moraes, do Supremo Tribunal Federal (STF), determinou que a Meta remova os perfis recém-criados pelo influenciador Monark nas redes sociais Instagram e Facebook, estabelecendo um prazo de duas horas para a ação. Em caso de descumprimento, a empresa enfrentará uma multa diária de R$ 100 mil. 

www.seuguara.com.br/Alexandre de Moraes/Monark/Meta/redes sociais/Ordem judicial/


Desobediência judicial e Investigações


Em janeiro, a Polícia Federal identificou que Monark teria violado uma decisão judicial ao criar novos perfis para disseminar desinformação, ação que já havia sido proibida pelo STF. A investigação apontou que o influenciador também tentou lucrar com esse conteúdo.

De acordo com o Código Penal, quem desrespeita uma ordem judicial pode ser punido com detenção de três meses a dois anos, ou com multa. A PF destacou que Monark demonstrou uma "reiterada recusa em acatar a determinação judicial de  cessar a divulgação de notícias fraudulentas".


Em abril, a Procuradoria-Geral da República (PGR) indicou que Monark continuava a desobedecer a decisão judicial e sugeriu que a Polícia Federal aprofundasse as investigações. O procurador-geral da República, Paulo Gonet, afirmou que são necessários mais elementos para determinar se há motivos suficientes para uma acusação formal contra o influenciador.

***


Leia Mais ►

domingo, 21 de maio de 2023

Moderadores do Facebook pedem aumento pelos horrores que são obrigados a assistir

Por Rodrigo Mozelli, no Olhar Digital: Imagine que, em seu trabalho, Trevin Brownie viu mais de mil pessoas serem decapitadas. Nesse emprego, ele precisava assistir um novo vídeo do Facebook a cada 55 segundos, mais ou menos, ele conta. Após, ele removia e o categorizava como conteúdo nocivo e explícito. Ele recorda que, no primeiro dia de trabalho, a repulsa o fez vomitar, pois viu um vídeo no qual um homem se suicidou na frente de seu filho de três anos.

www.seuguara.com.br/Facebook/moderadores/
Reprodução/Imagem: TY Lim/Shutterstock

"Você vê pornografia infantil, zoofilia, necrofilia, violência contra pessoas, violência contra animais, estupros. Como usuário, você não vê coisas como essas no Facebook. É meu trabalho, como moderador, garantir que você não veja coisas como essas", [diz] Trevin Broenie, ex-funcionário do Facebook.


Ele pontua que, após algum tempo vendo vídeos assim, eles os afeta de forma medonha. "Você chega a um ponto, depois de ter visto 100 decapitações, em que começa a torcer para que a próxima seja mais horrível. É um tipo de vício."

Brownie está na faixa dos 20 anos, assim como a maioria das centenas de jovens recrutados pela Sama, empresa de terceirização de mão-de-obra sediada em San Francisco, para trabalhar no centro de operações mantido em Nairóbi, centro de moderação do Facebook.


Sul-africano, Brownie é um dos 184 queixosos que processaram Sama e Meta por supostas violações de direitos humanos e rescisão indevida de contratos. O processo movido é um dos maiores do mundo desse tipo. Porém, é o terceiro contra a Meta no Quênia, apenas.

Os advogados envolvidos no caso afirmam que, juntos, eles têm implicações potencialmente mundiais para as condições de emprego de dezenas de milhares de moderadores, "empregados para filtrar o material mais tóxico de mídia social do planeta".


Não é o primeiro

Em 2020, a rede social aceitou acordo, no qual pagou US$ 52 milhões para encerrar processo e prover tratamentos de saúde mental para moderadores de conteúdo estadunidenses. Moderadores irlandeses, por sua vez, buscam indenização por transtorno de estresse pós-traumático.

Os casos apresentado no Quênia são os primeiros apresentados fora dos EUA que visam mudar a maneira como moderadores de conteúdo do Facebook são tratados.


Se forem bem-sucedidos, podem levar a várias outras ações onde a Meta e demais redes sociais analisam conteúdos publicados via empresas terceirizadas, podendo melhorar as condições de milhares de trabalhadores que possuem salários que não se equiparam ao tipo de serviço desgastante e degradante que possuem.

Os advogados que cuidam das ações comparam a era industrial ao que seus clientes sofrem - da mesma forma que inalar pó de carvão destruíam os corpos dos trabalhadores naquela época, as mentes dos trabalhadores que atuam na "modera fábrica digital" podem ser arruinadas.

A Meta foi procurada para comentar sobre as ações, mas afirmou que não comenta casos em curso. Neema Mutemi, professora da Universidade de Nairóbi que está auxiliando na divulgação do caso de Brownie, afirma que "essas são questões de primeira linha para os direitos trabalhistas nesta geração". 


Guerra online

Nos últimos anos, a Meta sofre pressão cada vez maior para moderar conteúdos ofensivos e pejorativos, bem como a desinformação em seus serviços.

Em Mianmar, a empresa enfrentou acusações de que seus algoritmos reforçariam a retórico do ódio, e de que não conseguiam remover as postagens incitadoras de violência contra a minoria rohingya, povo que perdeu milhares de pessoas e sofreu êxodo de centenas de milhares de refugiados para Bangladesh.


Já na Índia, especialistas indicam que a empresa não conseguiu impedir a desinformação e o incitamento à violência, levando a tumultos em seu maior mercado nacional.

Em 2021, Frances Haugen vazou milhares de documentos internos, que mostram a abordagem para proteger seus usuários. Ela disse ao Senado dos EUA que o Facebook priorizava "o lucro em detrimento da segurança". 

Tais documentos indicaram que a Meta falhou em filtrar conteúdo polêmico e na proteção dos usuários nos países não ocidentais, a exemplo: Etiópia, Afeganistão e Líbia, mesmo que pesquisas internas da rede social classifiquem tais regiões como de alto risco, dado o cenário político frágil e uso frequente da retórica de ódio.


Investimentos

Ultimamente, a Meta vem investindo bilhões de dólares visando combater danos em suas plataformas, recrutando em torno de 40 mil pessoas para trabalhar nas áreas de segurança e proteção. Muitas delas são contratadas por terceirizadas, como Accenture, Cognizant e Covalen.

Desses, cerca de 15 mil são moderadores de conteúdo. Além dos EUA, a Meta tem terceirizadas em mais de 20 lugares no mundo todo, como Índia, Filipinas, Irlanda e Polônia, ajudando a filtrar conteúdo em vários outros idiomas.


A Sama começou a moderar o conteúdo da Meta em 2019. Antes, ela já rotulava dados para treinamento de software de IA para a empresa de Mark Zuckerberg e outras, com a Tesla. A assunção do novo compromisso faria parte de nova central africana, concentrada na filtragem de conteúdo em idiomas africanos.

A empresa nunca tinha feito isso antes, mas sua equipe local apoiou a ideia e trouxe de Burundi, Etiópia, Quênia, Somália, África do Sul, Uganda, entre outros. 


Não deu certo: após quatro anos, a Sama saiu do setor e encerrou seu contrato com a Meta em janeiro deste ano, além de demitir alguns dos supervisores executivos. Brownie, recrutado em 2019 na África do Sul, está entre os dispensados.

A presidente-executiva da Sama, Wendy Gonzalez, disse ao Financial Times que "é um trabalho importante, mas acho que está se tornando muito, muito desafiador. Optamos por sair completamente deste negócio". O setor era apenas 2% do faturamento da empresa.


"As coisas que você vê são indeléveis. Muitos não conseguem dormir agora", afirma Kauna Ibrahim Malgwi, nigeriana formada em psicologia que também começou na central em 2019 moderando conteúdo em hauçá, idioma falado na África Ocidental. A moça passou a tomar antidepressivos.

Segundo Cocri Crider, diretora do Foxglove, escritório de advocacia sem fins lucrativos que apoia antigos moderadores da Sama, alega não haver proteção adequada por parte da Meta. "Policiais que investigam casos de imagens de abusos infantil contam com armada de psiquiatras e limites rígidos de materiais que podem ver."


Já os conselheiros contratados pela Sama "não são qualificados para diagnosticar ou tratar o transtorno de estresse pós-traumático. Esses 'coaches' se limitam a recomendar que as pessoas façam exercícios de respiração e que pintem os dedos. Não são profissionais".

Por sua vez, a Sama afirmou que tais profissionais possuem qualificações conferidas pelo Quênia. No caso do processo contra as demissões, a Meta entende que os tribunais quenianos não têm jurisdição para julgá-las. 

Porém, em 20 de abril, um juiz determinou que isso pode acontecer. A empresa estadunidense está recorrendo da decisão da autoridade queniana.


"Se a Shell viesse e despejasse coisas na conta do Quênia, seria muito óbvio se o Quênia tem ou não jurisdição. Não se trata de algo físico, tangível. Trata-se de tecnologia. Mas o argumento é o mesmo. Eles vieram aqui para causar danos." (Mercy Mutemi, advogada queniana do Mzili and Sumbi Advocates, representante dos moderadores).


Não é o primeiro - Parte dois


Engana-se quem pensa que este é o único processo judicial movido em prol dos moderadores de conteúdo pelo escritório de Mutemi, com apoio do Foxglove. O primeiro é do ano passado, em nome de Daniel Motaung, sul-africano que processou Sama e Meta.

Motaung diz ter sido demitido injustamente após ter tentado formar sindicato para pressionar por melhores salários e condições de trabalho. Afirma também ter sido atraído para a vaga com pretextos, sem saber das verdadeiras implicações do cargo.


A Sama afirma que os moderadores sabem bem o que fariam, durante os processos de contratação e treinamento, e que o reclamante foi demitido por violar os códigos de conduta da empresa. "No que diz respeito à formação do sindicato, temos normas em vigor quanto à liberdade de associação. Se um sindicato estava sendo formado, isso não seria problema", diz Gonzalez.

Os moderadores de fora do Quênia recebem cerca de US$ 564 (taxa de câmbio de 2020), além de subsídio para para expatriados. Eram turnos de nove horas, com uma hora de intervalo duas semanas durante o dia e duas semanas à noite.


Enquanto a Sama alega que o salário pago (US$ 2,20 por hora) é "significativo" - várias vezes mais altos que o salário mínimo e equivalentes aos de paramédicos e professores de nível superior no Quênia -, com dados indicando ser quatro vezes acima do mínimo, há quem contrarie. "US$ 2,20 por hora para se submeter a repetidas imagens de assassinato, tortura e abuso infantil? É uma ninharia, defende Crider.

Este mês, moderadores de Nairóbi votara para formar o que os advogados indicam ser o primeiro sindicato de moderadores de conteúdo do mundo, com Motaung afirmando ser "momento histórico".


A terceira ação contra o Facebook no Quênia trata-se das possíveis consequências trazidas pelo material postado na rede. A ação afirma que a falha da plataforma em lidar com a retórica de ódio e incitação à violência só piorou a intolerância étnica na guerra civil da Etiópia, que durou dois anos e acabou em novembro passado.

Para Crider, os três casos se conectam, pois o tratamento inadequado aos moderadores resulta diretamente na disseminação de conteúdo inseguro, veiculado sem controle.


Sobre a guerra civil, um dos dois autores da ação, Abrham Meareg, diz que seu pai, professor de química, foi assassinado após um post do Facebook revelar seu endereço e afirmar que ele deveria ser morto. Meareg conta que pediu várias vezes a remoção do conteúdo, sem sucesso.

À época, a Sama tinha 25 pessoas para moderar o conteúdo etiópio e em três idiomas: amárico, tifrínio e oromo. O conflito pode ter causado até 600 mil mortes.


Advogados quenianos querem um fundo indenizatório de US$ 1,6 bilhão, além de melhores condições de trabalho para os futuros moderadores e mudanças no algoritmo do Facebook para evitar mais tragédias no futuro.

Os advogados afirmam que a concorrência com outras plataformas faz o Facebook maximizar, deliberadamente, o envolvimento do usuário visando o lucro, podendo ajudar a viralizar conteúdos inseguros e perigosos.

Gonzalez admite a deficiência da regulamentação da moderação de conteúdo, afirmando que a questão deveria ser "prioritária" para líderes de empresas de mídia social.


"As plataformas, e não só esta [Facebook] em particular, como outras também, estão meio que à solta. É preciso haver controles, contrapesos e proteções." (Wendy Gonzalez, presidente-executiva da Sama).


Adeus, humanos, olá IA


A Meta segue com dezenas de milhares de moderadores humanos sob contrato, mas já conta com IA capaz de fazer o mesmo. No último trimestre, ela afirmou que 98% do conteúdo violento e explícito da plataforma foi detectado via IA.

Mas críticos apontam que a tecnologia ainda é deficitária para captar nuances necessárias para moderar imagens e a fala humana, sendo prova disso a gigantesca quantidade de conteúdos nocivos online em lugares, como a Etiópia.


Além da realidade comum


Os moderadores de conteúdo são obrigados a trabalhar de forma anônima, assinando acordos de confidencialidade que os proíbem de detalhar sua vida laboral até mesmo para sua família.

Ou seja, enquanto funcionários de trabalhos comuns chegam em casa e compartilham como foi sua jornada de trabalho, os moderadores não podem exprimir sequer o que sentem, devem guardar tudo para si.


Segundo Gonzalez, isso acontece para proteger a confidencialidade de seus clientes. Já Frank Mugisha, ex-funcionário da Sama em Uganda, afirma que o motivo é outro. "Nunca tive a chance de compartilhar minha história com ninguém, porque minha situação sempre foi mantida em segredo , um segredo sujo."

Os ex-funcionários da Sama no Quênia estrangeiros correm o risco de serem expulsos do país. Porém, um tribunal concedeu liminar provisória, que impede que Meta e Sama rescindam seus contratos até o julgamento da validade das demissões. 


O problema é que, mesmo com a liminar, muitos desses ex-funcionários não recebem salários desde abril, quando houve a rescisão efetiva entre Sama e Meta, o que pode provocar o despejo de vários deles por falta de pagamento de aluguel.

Além de afirmarem não saber do que se tratava exatamente a função a ser desempenhada na Sama, os vários moderadores africanos também dizem que seus responsáveis faziam forte pressão para que cumprissem metas de ver vídeos a cada 50 ou 55 segundos.

A Meta alega não realizar tal cota e que eles "não são pressionados a tomar decisões precipitadas", apesar de afirmar que "eficiência e eficácia" são fatores importantes no trabalho.


Outra moderadora, a etíope Fasica Gebrekidan, conseguiu emprego na Sama logo após escapar da guerra civil em seu país, ainda em 2021. Quando soube que trabalharia indiretamente para a Meta, ela pensou ser a garota mais sortuda do mundo, mas que "não esperava que todos os dias tivesse que ver corpos desmembrados por ataques de 'drones'".

Até agora, ela não pôde falar da natureza de seu trabalho sequer para sua mãe. "Sei que o que faço não é um trabalho normal", diz a formada em jornalismo. "Mas me considero heroína por filtrar todo aquele material tóxico e negativo."

Com informações de Folha

***


Leia Mais ►

sexta-feira, 8 de abril de 2022

Facebook e Instagram removem contas vinculadas a militares por desinformação sobre a Amazônia

Por Redação Ucho.info: A Meta, proprietária do Facebook e do Instagram, anunciou nesta quinta-feira (7) que removeu uma rede de perfis falsos ligados a militares brasileiros que promoviam a desinformação sobre questões ambientais, como o desmatamento da Amazônia.
Leia Mais ►

Arquivos

Site Meter

  ©Blog do Guara | Licença Creative Commons 3.0 | Template exclusivo Dicas Blogger