Opinião

Moderação de conteúdo contra a mulher: como a LGPD pode ser uma aliada

Autores

  • Ana Carolina Reis Figueiredo

    é advogada de Privacidade e Proteção de Dados do Opice Blum Bruno e Vainzof Advogados Associados.

  • Anna Sambo Budahazi

    é advogada das áreas de proteção de dados e tecnologia mídia e entretenimento do Opice Blum Bruno & Vainzof Advogados Associados e e co-fundadora de Núcleo de Proteção de Dados Pessoais da Universidade de São Paulo (USP).

6 de maio de 2023, 15h27

É comum ouvirmos falar sobre moderação de conteúdo nas redes sociais. A pergunta é: como ela funciona? Com o objetivo de banir postagens com conteúdo ilícito ou "inadequado", a moderação de conteúdo é realizada pelas mídias sociais da seguinte forma: ferramentas de inteligência artificial (IA), desenvolvidas por grandes empresas de tecnologia (como Google e Microsoft), analisam postagens feitas nas plataformas para identificação de imagens violentas ou pornográficas e de discursos de ódio ou discriminatórios, e, em seguida, enviam um alerta às plataformas, permitindo que elas exerçam o controle sobre a disponibilidade e a difusão desse tipo de conteúdo [1].

Em que pese seja possível conhecer parte dos critérios e parâmetros utilizados na construção dos algoritmos que auxiliam as plataformas na identificação desses conteúdos, uma vez desenvolvida a IA, ela passa a funcionar como uma caixa preta [2], resultando em barreiras para compreender  na prática  o porquê se chegou à conclusão de banir determinado conteúdo.

Sem dúvidas, os parâmetros e critérios utilizados pela IA não conseguem se distanciar de conceitos e preconceitos da sociedade em que ela foi criada e está inserida [3], sendo esse um dos principais pontos de discussão sobre a utilização desse tipo de ferramenta. Entre os diferentes vieses, já foi descoberto que as decisões automatizadas apresentam bias de gênero: após diversos testes, jornalistas do The Guardian concluíram que as plataformas de mídias sociais classificam as imagens e limitam o alcance do conteúdo que eles consideram com viés mais sexualizado, especialmente quando há fotos de mulheres [4].

Em um dos testes, o fotógrafo, com calças compridas e peito descoberto, recebe uma pontuação de 22% de "picante". Quando veste um sutiã, a pontuação sobe para 99%. Segundo Kate Crawford, professora da Universidade do Sul da Califórnia e autora do Atlas da IA, trata-se de um resultado de informações descontextualizadas onde um sutiã é analisado como "inadequado", e não como uma peça de roupa cotidiana.

Ainda, pesquisas mostram outros cenários em que também foi possível verificar o viés de gênero dos algoritmos. Alguns exemplos são: 1) em imagens que mostram como fazer exame clínico de mama, divulgadas pelo Instituto Nacional do Câncer dos EUA, a IA do Google considerou como 82% "inadequadas", e a Amazon classificou como "nudez explícita"; 2) em fotos de barriga de grávida, o Google classificou como "muito provável que contenha conteúdo picante".

O algoritmo da Microsoft estava 90% confiante de que a imagem era "sexualmente sugestiva por natureza"; 3) em duas fotos que retratam homens e mulheres usando roupas íntimas, a ferramenta da Microsoft classificou a imagem das mulheres como "picante" e deu uma pontuação de 96%. Por outro lado, a foto com os homens foi classificada como "não picante" com uma pontuação de 14%; 4) até 2014, fotos de amamentação poderiam ser consideradas como “pornográficas” pelo Facebook. A alteração da política de uso veio com uma onda de manifestações por meio do hashtag #FreeTheNipple.

Na falta de regulação específica, a LGPD pode ser uma aliada
Ainda que a responsabilização das plataformas em relação à moderação de conteúdo esteja prevista no Marco Civil da Internet [5] e esteja em trâmite no Congresso a aprovação do Marco Legal da IA (Projeto de Lei nº 21/2020), com a previsão de algumas orientações quanto ao seu uso, não há legislação que regule o tema no Brasil ou que estabeleça princípios basilares que devem ser observados especificamente quando da prática dessa atividade pelas mídias sociais, ficando a cargo das próprias plataformas o estabelecimento desses parâmetros, por meio de suas políticas e da utilização de ferramentas de IA disponibilizadas por terceiros.

Nesse contexto, considerando especialmente que 1) a proteção de dados pessoais é um direito fundamental (artigo 5º, LXXIX, CF); e 2) nas atividades relacionadas à moderação de conteúdo, as plataformas fazem uso de técnicas computacionais cada vez mais avançadas para realizar o tratamento dos dados de forma massiva e por meio do "big data" [6] — o que pode envolver dados pessoais simples e sensíveis, dados de crianças, e de mulheres de todos lugares e etnia — as disposições da Lei Geral de Proteção de Dados (Lei Federal nº 13.709/2018 ou LGPD) podem ser aliadas no combate à discriminação das mulheres frente ao cenário moderação de conteúdo [7].

A lei determina que os tratamentos de dados pessoais pelas plataformas devem observar os princípios da transparência e da não-discriminação (artigo 6º, incisos VI e IX, LGPD), bem como garante às usuárias femininas o exercício do direito de revisão das decisões automatizadas que foram tomadas no âmbito de um banimento, por exemplo.

É fundamental que as plataformas garantam que as usuárias terão acesso às informações relevantes sobre as atividades de tratamento de dados pessoais realizadas no âmbito da moderação de conteúdo. A disponibilização dessas informações pelas plataformas deve ocorrer de forma clara, de fácil acesso, sem barreiras ao usuário para o seu alcance e compreensão.

Quanto ao princípio da não-discriminação, as mulheres não devem sofrer discriminação ilícita ou abusiva pelas plataformas em razão do gênero. Assim, deverão ser adotadas medidas necessárias para que as decisões relacionadas à moderação de conteúdo não sejam estruturadas resultando na eliminação ou na restrição de postagens de forma evidentemente discriminatória, silenciando ativismos ou postagens com conteúdo natural de "ser mulher".

A LGPD também pode ser uma aliada às mulheres na luta contra a discriminação por meio da garantia do exercício do direito de revisão das decisões automatizadas (artigo 20, §1º da LGPD) pelas usuárias, já que estabelece que as plataformas devem disponibilizar informações claras e adequadas sobre os critérios e parâmetros utilizados na tomada de decisão automatizada no âmbito da moderação de conteúdo.

Sobre esse direito, ao mesmo tempo que pode representar um mecanismo para evidenciar a não adoção de eventuais parâmetros e critérios discriminatórios pelo moderador, também pode reafirmá-los, reforçando a discriminação das mulheres. Por isso, o exercício desse direito vale a atenção dos moderadores.

Assim, os mecanismos relacionados à transparência, não-discriminação e ao direito à revisão de decisões automatizadas previstos na LGPD se mostram como grandes aliados das mulheres na luta contra o tratamento discriminatório na moderação de conteúdo. Nesse cenário, cumprir as disposições da Lei significa que as plataformas devem 1) disponibilizar informações pertinentes e condizentes com a realidade das atividades de tratamento de dados pessoais realizadas por elas na moderação de conteúdo; bem como 2) adotar medidas que garantam que as mulheres não serão discriminadas de forma ilícita ou abusiva; e 3) permitir que decisões automatizadas sejam revisadas de forma a não reforçar eventual discriminação sofrida pelas mulheres no âmbito da moderação de conteúdo.


[1] Como resultado desse controle, há a exclusão das postagens consideradas ilícitas ou inadequadas ou, ainda, a diminuição do alcance das postagens feitas pelos usuários que já tiverem conteúdos banidos ("shadownbanning"). Muitas vezes o alcance de uma postagem é suprimido sem conhecimento do usuário e sem justificativas claras por parte das plataformas, podendo, inclusive, resultar na eliminação ou, em casos extremos, suspensão ou bloqueio da conta do usuário.

[2] O’NEILL, Cathay. Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy. Crown New York, 2016; PARKS, Lisa. Dirty Data: Content Moderation, Regulatory Outsorcing and The Cleaners. University of California Press, volume 73, nº 1 (Fall 2019).

[3] Promotion and protection of theright to freedom of opinion and expression. United Nations Document, 30 July 2021, UNDOC/GEN/A/76/258N21/212/16.

[4] MAURO, Gianluca e SCHELLMANN, Hilke, Biased AI Allgorithms Racy Woman Bodies. The Guardian, 8 de Fevereiro de 2022.

[5] Artigo 21, MCI.

[6] O moderador, por um lado, cria perfis a partir de dados pessoais para buscar extrair um racional para o algoritmo. Por outro, adentra nos perfis dos titulares para análise do conteúdo e, potencialmente, diminuição da propagação da imagem, eliminação do post ou bloqueio da conta.

[7] MULHOLLAND, Caitlin e FRAJHOF, Isabella. Inteligência Artificial e a Lei Geral de Proteção de Dados Pessoais: breves anotações sobre o direito à explicação perante a tomada de decisões por meio de machine learning. Thomson Reuters ProView  Inteligência Artificial e Direito  Ed. 2020.

Autores

Tags:

Encontrou um erro? Avise nossa equipe!