“`json
{
"title": "TikTok e Meta: como gigantes ignoraram segurança para vencer corrida por atenção e engajamento, revelam ex-funcionários",
"subtitle": "Denúncias internas e pesquisas secretas expõem como algoritmos foram ajustados para maximizar lucros, priorizando conteúdo nocivo em detrimento da proteção de usuários.",
"content_html": "<h2>Ex-funcionários revelam que TikTok e Meta ignoraram segurança para vencer corrida por atenção e engajamento</h2><p>As gigantes das redes sociais TikTok e Meta, que controla Facebook e Instagram, permitiram a amplificação de conteúdo nocivo nos feeds dos usuários, mesmo cientes de que seus algoritmos funcionavam com base na indignação para impulsionar o engajamento. Essa é a grave denúncia de mais de uma dúzia de ex-funcionários e insiders à BBC, que expuseram como as empresas assumiram riscos significativos em questões como violência, chantagem sexual e terrorismo.</p><p>A disputa acirrada pela atenção e pelo tempo de tela dos usuários, especialmente após o crescimento explosivo do TikTok, levou a decisões que colocaram o lucro e a expansão à frente da segurança. Este cenário alarmante foi detalhado por fontes que participaram de um documentário da BBC, Inside the Rage Machine, e cujas informações foram repercutidas pelo g1.</p><p>As revelações pintam um quadro de uma indústria onde a busca incessante por engajamento resultou em uma flexibilização deliberada das salvaguardas, impactando desde adolescentes até a propagação de discursos de ódio e teorias conspiratórias, conforme informações divulgadas pelo g1.</p><h3>A Disputa por Engajamento e o Conteúdo Nocivo</h3><p>Um engenheiro da Meta relatou ter recebido orientações diretas para permitir mais conteúdo "limítrofe" nos feeds, incluindo misoginia e teorias conspiratórias, com o objetivo de competir com o TikTok. Segundo ele, a justificativa era a queda no preço das ações da empresa, um claro sinal de que a pressão de mercado influenciava as decisões sobre <b>segurança</b> e moderação.</p><p>Matt Motyl, pesquisador sênior da Meta, confirmou à BBC que o Instagram Reels, lançado em 2020 para competir com o TikTok, foi introduzido sem proteções suficientes. Pesquisas internas da Meta, compartilhadas com a BBC, revelaram que os comentários no Reels apresentavam uma prevalência significativamente maior de bullying e assédio, discurso de ódio e violência, ou incitação à violência, em comparação com outras partes do Instagram. Houve um aumento de 75% em bullying e assédio, 19% em discurso de ódio e 7% em violência ou incitação à violência.</p><p>Enquanto a Meta investia na contratação de 700 funcionários para expandir o Reels, as equipes de segurança tiveram negado o pedido para contratar especialistas em proteção infantil e profissionais para a integridade das eleições. Isso demonstra um desequilíbrio de poder, onde o <b>engajamento</b> e a expansão eram priorizados sobre a proteção dos usuários.</p><h3>Algoritmos: Caixas-Pretas e a Priorização de Lucros</h3><p>Ruofan Ding, que atuou como engenheiro de aprendizado de máquina no TikTok de 2020 a 2024, descreveu os algoritmos como "caixas-pretas" cujo funcionamento interno é difícil de examinar. Ele afirmou que engenheiros frequentemente não prestam atenção ao conteúdo das publicações, tratando-as como meros "IDs, um número diferente". A dependência das equipes de segurança para remover conteúdo nocivo criava uma lacuna, especialmente quando o algoritmo era atualizado semanalmente para ganhar mais mercado, resultando em mais conteúdo "limítrofe" aparecendo após algum tempo de uso.</p><p>Documentos de pesquisa de alto nível da Meta, entregues à BBC por Motyl, mostram que a empresa estava ciente dos problemas causados por seu algoritmo. Um estudo interno indicou que o algoritmo oferecia aos criadores de conteúdo "um caminho que maximiza os lucros às custas do bem-estar de sua audiência", e que o "atual conjunto de incentivos financeiros que nossos algoritmos criam não parece estar alinhado com nossa missão" de aproximar as pessoas. O estudo alertava que o Facebook poderia "escolher permanecer inativo e continuar alimentando os usuários com conteúdo de qualidade duvidosa, mas isso só funciona por algum tempo".</p><p>Conteúdo limítrofe, um termo usado pelas empresas, refere-se a publicações prejudiciais, mas que não violam explicitamente as regras, como posts misóginos, racistas, sexualizados e teorias conspiratórias. A pesquisa interna da Meta confirmou que conteúdos sensíveis, que provocam indignação, geram mais reações e <b>engajamento</b>, levando os algoritmos a entender que os usuários desejam ver mais desse tipo de material.</p><h3>O Dilema da Segurança Infantil e a Pressão Política</h3><p>Um integrante da equipe de confiança e <b>segurança</b> do TikTok, identificado como Nick, deu à BBC acesso a painéis internos da empresa, revelando que o volume de casos era grande demais para garantir a segurança dos usuários, especialmente adolescentes e crianças. Ele apontou que cortes e reorganização de equipes de moderação, com a substituição de funções por inteligência artificial, reduziram a capacidade da empresa de lidar eficazmente com conteúdo nocivo.</p><p>Nick mostrou evidências de que o TikTok priorizava casos envolvendo políticos, como um que comparava um político a uma galinha, em detrimento de denúncias graves de danos a adolescentes. Exemplos incluem um jovem de 17 anos vítima de cyberbullying e uma jovem de 16 anos no Iraque com imagens sexualizadas supostamente dela sendo compartilhadas. Para Nick, a empresa se preocupa menos com a segurança das crianças do que em manter um "relacionamento forte" com políticos e governos para evitar regulações ou proibições.</p><p>Adolescentes entrevistados pela BBC relataram que as ferramentas para indicar que não querem ver conteúdo problemático não funcionam, e que continuam recebendo recomendações de violência e discurso de ódio. Calum, hoje com 19 anos, descreveu ter sido "radicalizado pelo algoritmo" desde os 14 anos, que o levava a adotar visões racistas e misóginas. Especialistas da polícia antiterrorismo no Reino Unido também observaram um aumento e uma "normalização" de posts antissemitas, racistas, violentos e de extrema direita. O conselho de Nick aos pais é categórico: "Apaguem o aplicativo. Mantenham as crianças o mais longe possível dele pelo maior tempo possível."</p><h3>Respostas das Empresas e o Caminho para a Regulação</h3><p>Em resposta às acusações, a Meta afirmou que "qualquer sugestão de que ampliamos deliberadamente o conteúdo nocivo para ganho financeiro é incorreta", e que possui "políticas rigorosas para proteger os usuários" e fez "investimentos significativos em segurança". A empresa também mencionou mudanças para proteger adolescentes online, como o recurso Teen Accounts.</p><p>O TikTok, por sua vez, classificou as alegações como "fabricadas" e rejeitou a ideia de que conteúdo político tenha prioridade sobre a segurança dos jovens. A empresa declarou investir em tecnologia para impedir que conteúdo nocivo seja visualizado, manter regras rígidas de recomendação e oferecer ferramentas de personalização para os usuários. Um porta-voz do TikTok afirmou que as críticas "ignoram a realidade de como o TikTok permite que milhões de pessoas descubram novos interesses, encontrem comunidade e sustentem uma economia vibrante de criadores".</p><p>No entanto, a pressão por <b>engajamento</b> e lucros, combinada com a complexidade dos <b>algoritmos</b>, levanta sérias questões sobre a responsabilidade das plataformas. Brandon Silverman, cuja ferramenta Crowdtangle foi comprada pelo Facebook, observou que o CEO Mark Zuckerberg estava "muito paranoico" com a concorrência, priorizando a expansão do Reels em detrimento das equipes de <b>segurança</b>. As revelações dos denunciantes sugerem que, apesar das declarações públicas, a proteção dos usuários foi muitas vezes sacrificada na corrida implacável pela atenção digital.</p>"
}
“`
