Ler Resumo

Em 17 de maio de 1990, a Organização Mundial da Saúde retirou a homossexualidade do Código Internacional de Doenças. Foi uma vitória histórica do movimento LGBTQIAPN+. Uma prova de que regimes classificatórios que desumanizam podem ser sempre contestados. Trinta e cinco anos depois, a data de combate ao preconceito impõe outra pergunta que o campo dos direitos humanos ainda não respondeu: o que acontece quando a patologia sai do manual e se inscreve no algoritmo?

Em 2024, o modelo de inteligência artificial LLaMA 4, da Meta, recomendou conteúdos associados à “terapia de conversão” para pessoas que buscavam informações sobre homossexualidade, prática denunciada pela organização GLAAD (Gay & Lesbian Alliance Against Defamation). O resultado não foi programado explicitamente: o modelo apenas reproduziu padrões latentes nos dados com que foi treinado. Dados esses que condensam séculos de produção cultural marcada pela patologização das dissidências sexuais, de modo que o previsível aconteceu. A violência histórica se inscreveu no código.

Esse episódio expressa o que temos denominado como violência algorítmica. Um conjunto de processos pelos quais sistemas automatizados de moderação, recomendação e classificação de conteúdo produzem efeitos discriminatórios sobre populações LGBTQIAPN+. Sua natureza é estrutural, inscrita nas arquiteturas das plataformas, nas bases de dados que alimentam os modelos e nas políticas corporativas que definem hierarquias de visibilidade.

O padrão é consistente e documentado. O TikTok, por exemplo, proibiu, em diretrizes internas tornadas públicas, expressões de afeto entre pessoas LGBTQIAPN+ e registros de ativismo político. O YouTube desmonetiza vídeos educativos sobre identidade de gênero enquanto canais com discurso de ódio operam sem restrições equivalentes. A pesquisadora Amanda Chami nomeia essa seletividade como discriminação estrutural programada, operada de dentro da arquitetura das plataformas.

A dimensão geopolítica aprofunda o quadro. Em países onde a homossexualidade é criminalizada, tecnologias que alegam inferir a orientação sexual integram infraestruturas de vigilância com consequências letais. Entre 2013 e 2017, 129 das 232 pessoas presas no Egito sob acusação de homossexualidade foram capturadas pela polícia do país através de perfis falsos criados no Grindr (aplicativo de relacionamentos), explorando funcionalidades de geolocalização e anonimato da plataforma.

Continua após a publicidade

O cenário se agrava ainda mais quando observamos quem controla essa infraestrutura. Na posse de Donald Trump, em janeiro de 2025, estavam presentes Mark Zuckerberg, Elon Musk, Jeff Bezos, Sam Altman e o CEO do TikTok, fortunas que somadas ultrapassam cinco trilhões de reais. Os líderes das Big Techs hoje financiam guerras culturais contra feminismos e populações LGBTQIAPN+, construindo infraestruturas que naturalizam hierarquias de gênero, raça e sexualidade. Estamos diante do que nomeamos fascismo digital: um regime sociotécnico que articula autoritarismo político, conservadorismo moral e infraestruturas digitais para excluir pessoas.

O 17 de maio convoca uma ampliação dessa discussão. No Brasil, iniciativas da sociedade civil, como o Código Não Binário, Coding Rigths e MariaLab e Tecnologia MTST, e de universidades como o Jararaca Lab e o Observatório LGBTI+ de enfrentamento à violência algorítmica e extrativismo de dados, entre tantas outras, demonstram que a disputa das infraestruturas digitais não é só politicamente viável, mas necessária.

Em 1990, o movimento disputou os regimes de saber da medicina. Hoje, precisa disputar também os regimes de saber dos algoritmos.

Continua após a publicidade

* Bruna Irineu e Larissa Pelúcio são pesquisadoras, professoras e coautoras do livro Violência Algorítmica e Vidas LGBTQIAPN+: ensaios sobre tecnologia, poder e resistência na era digital (ABETH)

Violência Algorítmica e Vidas LGBTQIAPN+

violencia-algoritmica



Source link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *