Resolvendo o problema da publicidade racialmente discriminatória no Facebook

Embora os perfis do Facebook não possam declarar explicitamente a raça ou etnia dos usuários, minha pesquisa demonstra que os algoritmos de publicidade atuais do Facebook podem discriminar por esses fatores. Com base na pesquisa realizada em 2020 e 2021, usei as ferramentas de publicidade do Facebook para testar como os anunciantes podem usar suas opções de segmentação, como grupos de afinidade multiculturais, públicos semelhantes e públicos especiais de anúncios para garantir que seus anúncios alcancem brancos, afro-americanos, asiáticos ou hispânicos Comercial. O que descobri é que a discriminação por raça e etnia nas plataformas do Facebook é uma ameaça significativa ao interesse público por dois motivos. Em primeiro lugar, é uma violação das leis de direitos civis existentes que protegem os consumidores marginalizados contra os danos da publicidade e a discriminação por raça e etnia, especialmente nas áreas de habitação, emprego e crédito. Em segundo lugar, essas mesmas ferramentas de publicidade do Facebook podem ser usadas para disseminar desinformação direcionada e mensagens políticas polêmicas para grupos demográficos vulneráveis. Para resolver essas preocupações, os reguladores, grupos de defesa e a indústria devem abordar diretamente essas questões com o Facebook e outras plataformas de publicidade para garantir que a publicidade online seja transparente e justa para todos os americanos.

Preconceito racial e discriminação na segmentação de anúncios do Facebook


Reclamações de longa data do Facebook em publicidade

Nos últimos 5 anos, o Facebook tem enfrentado repetidas críticas, ações judiciais e controvérsias sobre o potencial de discriminação em sua plataforma de anúncios . Jornalistas demonstraram como é fácil excluir usuários que o Facebook classificou algoritmicamente em certos grupos de afinidade racial ou étnica a partir de sendo segmentado por anúncios de habitação ou emprego . Os pesquisadores também demonstraram preconceitos raciais e étnicos nos algoritmos Lookalike Audience e Special Ad Audience do Facebook, que identificam novos usuários do Facebook semelhantes aos clientes existentes de um anunciante. Em resposta a essas alegações, o Facebook foi processado pelo National Fair Housing Alliance , a ACLU , a Trabalhadores de Comunicação da América , a Departamento de Habitação e Desenvolvimento Urbano dos EUA (HUD) , e outras sobre questões de discriminação em sua plataforma de publicidade e violações de leis de direitos civis, como o Fair Housing Act e a Lei dos Direitos Civis de 1964 , que expressa intolerância a quaisquer formas de discriminação racial.

repartição dos eleitores para trunfo

Também existem controvérsias em andamento sobre como a plataforma do Facebook pode ser usada por atores políticos, ambos esqueceram e doméstico , espalhar desinformação e alvo minorias raciais e étnicas nos ciclos eleitorais de 2016 e 2020. Em julho de 2020, um boicote de alto perfil da plataforma de publicidade do Facebook para Stop Hate for Profit foi organizado por direitos civis e grupos de defesa, incluindo a NAACP, a Liga Anti-Difamação, Color of Change e outras organizações sobre desinformação e violações dos direitos civis. Esses grupos convocaram grandes corporações a parar de anunciar no Facebook durante todo o mês de julho. Mais de 1.000 grandes empresas incluindo Microsoft, Starbucks, Target e outros participaram do boicote.



Em 8 de julho de 2020, o Facebook lançou seu próprio auditoria de direitos civis conduzido por Laura Murphy, ex-Diretora do Escritório Legislativo da ACLU, e advogados do escritório de advocacia Relman Colfax. A auditoria criticou o Facebook por ter colocado maior ênfase na liberdade de expressão do que no valor da não discriminação. Buscando dar passos concretos para a redução da discriminação, em 11 de agosto de 2020, o Facebook anunciou que iria retirar o seus polêmicos grupos de afinidade multicultural que permitiam aos anunciantes atingir os usuários que o Facebook classificou como afro-americano (EUA), asiático-americano (EUA) ou hispânico (EUA - todos).

O Facebook abordou suficientemente os danos discriminatórios dos anúncios?

Não.

Nem todos os casos de discriminação publicitária podem ser ilegais. Tendo isso em mente, elaborei um estudo de pesquisa e testei o grau em que as diferentes ferramentas na plataforma de anúncios do Facebook podem - intencionalmente ou não - realizar discriminação racial e étnica, seguindo o Critérios do Fair Housing Act o que torna ilegal a publicação de um anúncio que indique qualquer preferência, limitação ou discriminação com base na raça ou etnia.

Até o momento, o Facebook oferece aos anunciantes quatro maneiras principais de direcionar anúncios:

  1. As opções de segmentação detalhada são grupos predefinidos de usuários do Facebook que compartilham atributos comuns com base na análise de dados do Facebook de seus comportamentos online,
  2. Os públicos-alvo personalizados permitem que um anunciante carregue sua própria lista de clientes ou indivíduos para o Facebook atingir,
  3. Públicos-alvo semelhantes permitem que um anunciante alcance pessoas que o Facebook considera semelhantes a um público-alvo personalizado designado e
  4. Públicos-alvo de anúncios especiais permitem que um anunciante crie um público-alvo semelhante que encontra pessoas semelhantes ao público-alvo personalizado designado no comportamento on-line, sem considerar atributos confidenciais como idade, sexo ou código postal, especificamente para anúncios de habitação, emprego e crédito que são regulamentados pelo anti - Leis de discriminação.

Conduzi meu estudo em janeiro de 2020 e novamente em janeiro de 2021, antes e depois do boicote Stop Hate for Profit em julho de 2020. Como o Facebook não oferece mais grupos de afinidade multiculturais - afro-americanos (EUA), asiático-americanos (EUA) e hispânicos ( EUA - Todos) - como opções de segmentação para anunciantes em 2021, examinei os grupos de interesse cultural de som semelhante que o Facebook ainda oferecia como opções de segmentação, como cultura afro-americana, cultura asiático-americana e cultura hispano-americana. Em ambos os anos, testei quantos usuários minoritários poderiam ser visados ​​por essas opções de publicidade relacionadas a raça e etnia do Facebook.

Figura 1: Exemplo da diferença nas opções de segmentação de anúncios do Facebook, 2020 a 2021

Ano disponível Opção de segmentação Hierarquia de categoria de segmentação Descrição Tamanho
2020 Afro-americano (EUA) Comportamentos> Afinidade multicultural Pessoas que moram nos Estados Unidos e cujas atividades no Facebook se alinham com a afinidade multicultural afro-americana 87.203.689
2021 Cultura afro-americana Interesses> interesses adicionais Pessoas que manifestaram interesse ou gostaram de páginas relacionadas à cultura afro-americana 79.388.010
Observação: O Facebook ofereceu a opção de segmentação Afro-americana (EUA) até agosto de 2020, mas continuou a oferecer a opção de segmentação Cultura Afro-americana em 2021.

Eu também testei se outras ferramentas de publicidade do Facebook, como Públicos-alvo semelhantes e Públicos-alvo de anúncios especiais, podem discriminar por raça e etnia. Para esses testes, usei o conjunto de dados de registro eleitoral mais recente da Carolina do Norte, que contém informações de raça e etnia fornecidas pelos eleitores. Nos dados eleitorais da Carolina do Norte, havia aproximadamente 4,0 milhões de eleitores ativos brancos, 1,2 milhão de afro-americanos, 90.000 asiáticos e 180.000 hispânicos. Criei diferentes subamostras racial e etnicamente homogêneas de eleitores com Públicos-alvo personalizados do Facebook e, em seguida, pedi ao Facebook para encontrar outros usuários semelhantes para direcionar os anúncios usando suas ferramentas semelhantes e público-alvo especial.

Embora o Facebook não permita consultas demográficas diretas para um público sósia ou de anúncio especial, pude aproveitar as estimativas de alcance diário da ferramenta de planejamento de anúncios do Facebook para observar indiretamente a divisão racial e étnica de um determinado público sósia ou de anúncio especial na Carolina do Norte eleitores. Por exemplo, um público semelhante com base em 10.000 eleitores afro-americanos em 2021 teve uma sobreposição no alcance diário estimado de 139.000 usuários com uma amostra de 1 milhão de eleitores afro-americanos, mas apenas uma sobreposição de 17.000 usuários com uma amostra de 1 milhão de eleitores brancos. Isso indica que os afro-americanos provavelmente estavam superrepresentados no público semelhante, pois ao cruzar o público semelhante com uma amostra combinada de 2 milhões de eleitores que era 50% afro-americano e 50% branco na linha de base, descobri que 89% do público semelhante a sobreposição foi com eleitores afro-americanos e apenas 11% com eleitores brancos. Eu repliquei um processo semelhante para testar a demografia de públicos semelhantes e de anúncios especiais com base em eleitores brancos, asiáticos e hispânicos. Mais detalhes sobre a metodologia podem ser encontrado aqui .

Figura 2: Sobreposição de um público semelhante ao Facebook com base em afro-americanos com amostras de eleitores da Carolina do Norte com base em raça

Sobreposição de um público semelhante ao Facebook com base em afro-americanos com amostras de eleitores da Carolina do Norte com base em raça

Um público semelhante de 2,3 milhões de usuários do Facebook nos EUA com base em uma lista de clientes de afro-americanos tinha 139.000 usuários em comum com a amostra de 1 milhão de eleitores afro-americanos e apenas 17.000 usuários em comum com a amostra de 1 milhão de eleitores brancos.

estados unidos e relações com a Turquia

Uma grande preocupação sobre a discriminação algorítmica é se os computadores estão reforçando os padrões existentes de discriminação que os humanos fizeram nos Estados Unidos. Pesquisadores de ciências sociais encontraram em emprego , habitação , empréstimo , e outros aspectos da vida, proxies raciais como o de alguém nome e vizinhança pode aumentar o grau de discriminação dos tomadores de decisão humanos. Assim, usei um frequentemente citado algoritmo de computador treinado nos nomes de 13 milhões de eleitores na Flórida para identificar nomes comumente usados ​​para cada grupo demográfico e PIOLHO. Dados de censo para identificar os códigos postais de enclave étnico. Em seguida, testei se o uso de amostras de eleitores com base em proxies raciais comumente usados, como nomes e CEPs, pode afetar o grau de parcialidade nos Públicos-alvo semelhantes e Especiais resultantes. Por exemplo, um público semelhante com base em eleitores afro-americanos com nomes afro-americanos comuns e que vivem na maioria dos códigos postais afro-americanos teria ainda mais probabilidade de super-representar afro-americanos acima da linha de base de 50%?

O Facebook ainda tem um problema de discriminação por raça e etnia em sua plataforma de publicidade

Meu estudo de pesquisa da plataforma de anúncios do Facebook em 2020 e 2021 teve três descobertas principais. A plataforma de anúncios do Facebook ainda oferece várias maneiras de discriminação por raça e etnia, apesar do boicote histórico que enfrentou em 2020, e malfeitores podem explorar essas vulnerabilidades na nova economia digital.

Descoberta 1: as opções de segmentação racial e étnica do Facebook eram ainda mais precisas em 2021 do que em 2020.

Em 2021, certos grupos de interesse cultural racial e étnico que o Facebook ainda oferecia aos anunciantes eram ainda mais precisos na segmentação de usuários minoritários do que os antigos grupos de afinidade multicultural que o Facebook se aposentou em agosto de 2020. Por exemplo, em 2020, 150.000 eleitores afro-americanos na Carolina do Norte poderiam ser alcançado pela opção de segmentação afro-americana (EUA) do Facebook a cada dia, o que é um pouco mais do que os 142.000 que podem ser alcançados pela opção de segmentação da cultura afro-americana do Facebook em 2021. No entanto, houve uma diminuição dramática no número de eleitores brancos que pode ser alcançado pelas mesmas opções de segmentação, de 428.000 em 2020 para apenas 109.000 em 2021. Isso significa que em 2020, a opção de segmentação afro-americana (EUA) do Facebook provavelmente alcançaria quase três vezes mais usuários brancos do que usuários afro-americanos, enquanto em 2021, a opção de segmentação da cultura afro-americana do Facebook tornou-se significativamente mais precisa ao atingir quase o mesmo número de usuários afro-americanos, enquanto visando 75% menos usuários brancos.

Figura 3: Número de eleitores da Carolina do Norte por raça, alcançado pelas opções de segmentação relacionadas aos afro-americanos do Facebook, 2020 e 2021

Número de eleitores da Carolina do Norte por raça alcançado pelas opções de segmentação relacionadas a afro-americanos do Facebook, 2020 e 2021

O número de eleitores brancos na Carolina do Norte que podem ser alcançados pelas duas opções de segmentação relacionadas aos afro-americanos do Facebook diminuiu 75% em 2021 vs. 2020, enquanto o número de eleitores afro-americanos que podem ser alcançados pelas mesmas duas opções de segmentação permaneceu quase estável durante o mesmo período de tempo.

Descoberta 2: os algoritmos do Facebook para encontrar novos públicos para um anunciante permitem fortes preconceitos raciais e étnicos, o que inclui o algoritmo que o Facebook projetou explicitamente para evitar a discriminação.

Os públicos semelhantes e de anúncios especiais do Facebook podem ser influenciados por raça e etnia em 2020 e 2021, dependendo dos dados demográficos de uma lista de clientes que um anunciante fornece ao Facebook. Por exemplo, em 2020, um público semelhante com base em eleitores afro-americanos na Carolina do Norte teve uma participação na amostra de 83% dos afro-americanos, que aumentou para 89% em 2021. Assim, esses públicos semelhantes representaram significativamente os afro-americanos acima dos 50 esperados % de participação da amostra de linha de base (Figura 4). Da mesma forma, Públicos semelhantes com base em eleitores brancos tiveram uma participação na amostra de 73% de brancos em 2020 e 71% em 2021, representando significativamente os brancos acima da linha de base de 50%. Outros testes descobriram que Públicos semelhantes baseados em eleitores asiáticos ou hispânicos também representariam significativamente os asiáticos ou hispânicos acima da parcela esperada.

Eu também encontrei um alto grau de preconceito racial e étnico ao testar a ferramenta Special Ad Audience que o Facebook projetou para evitar explicitamente o uso de atributos demográficos confidenciais ao encontrar usuários semelhantes à lista de clientes de um anunciante. Por exemplo, em 2020, a audiência de um anúncio especial com base em eleitores afro-americanos teve uma participação na amostra de 83% dos afro-americanos, que diminuiu ligeiramente para 76% em 2021 (Figura 4). Os públicos de anúncios especiais com base em eleitores brancos tiveram uma participação de amostra igualmente alta de 83% de brancos em 2020 e 81% em 2021. Por fim, também descobri que os públicos de anúncios especiais com base em eleitores hispânicos representaram significativamente os hispânicos em 2020 e 2021. Isso A descoberta é especialmente problemática, pois significa que os anunciantes de habitação, crédito e emprego podem usar a ferramenta de público de anúncios especiais que o Facebook criou para esses setores legalmente protegidos para perseguir a discriminação por raça e etnia. Isso também prejudica as metas de 2019 liquidação legal entre o Facebook e a ACLU, que exigia que o Facebook criasse uma solução alternativa de segmentação de anúncios para esses setores em que um anunciante não pode segmentar anúncios com base na idade, sexo, raça ou categorias dos usuários do Facebook associadas à participação em grupos protegidos ou com base em Código postal ou uma área geográfica.

Descoberta 3: proxies raciais, como nomes e CEPs, podem aumentar o viés dos algoritmos de segmentação de anúncios do Facebook.

Em 2020 e 2021, o grau de preconceito racial e étnico nos Públicos-alvo semelhantes e especiais do Facebook é maior quando o algoritmo de segmentação de anúncios tenta encontrar usuários semelhantes a indivíduos com características estereotipadas racialmente, como seu nome ou bairro. Por exemplo, um público semelhante com base em eleitores afro-americanos com nomes afro-americanos comumente dados e que vivem na maioria dos códigos postais afro-americanos teve uma participação de amostra muito alta de 93% de afro-americanos em 2020, que aumentou para 94% em 2021 (Figura 4). No caso mais extremo, em 2021, descobri que um público semelhante com base em eleitores asiáticos com nomes asiáticos comumente fornecidos e que vivem em códigos postais asiáticos populares tinha uma amostra de 100% de asiáticos.

Também descobri que o uso de nomes e CEPs estereotipados racialmente pode aumentar as oportunidades de discriminação mais precisa no uso de Públicos-alvo de Anúncios Especiais. Por exemplo, em 2020, um público de anúncio especial com base em eleitores afro-americanos com nomes afro-americanos comumente dados e que vivem na maioria dos códigos postais afro-americanos teve uma participação na amostra de 97% dos afro-americanos, que foi ainda maior do que a amostra de 83% parcela observada ao testar o público do anúncio especial com base em uma amostra genérica de eleitores afro-americanos (Figura 4).

Figura 4: Amostra de participação de eleitores afro-americanos em públicos semelhantes (parte superior) e públicos de anúncios especiais (parte inferior) com base em listas de eleitores da Carolina do Norte com características diferentes

Amostra de participação de eleitores afro-americanos em públicos semelhantes (em cima) e de anúncios especiais (embaixo) com base em listas de eleitores da Carolina do Norte com características diferentes

O gráfico superior mostra como as audiências semelhantes baseadas em afro-americanos representam significativamente os eleitores afro-americanos. Eles têm uma participação na amostra de 83% e 89% em 2020 e 2021, respectivamente, o que aumenta para mais de 93% em ambos os anos, quando o público-alvo é baseado em eleitores afro-americanos com nomes comuns e em CEPs majoritariamente afro-americanos. O gráfico inferior mostra resultados semelhantes em testes com públicos de anúncios especiais, que é uma ferramenta criada explicitamente pelo Facebook para lidar com a discriminação.

iremos para a guerra com isis?

O que está causando essas descobertas da pesquisa?

Com base na pesquisa de discriminação algorítmica, é provável que uma combinação de múltiplas causas contribuiu para os resultados tendenciosos observados neste estudo. Um dos principais fatores é que os algoritmos de computador tendem a replicar padrões e comportamentos existentes na sociedade. Os algoritmos Lookalike e Special Ad Audience do Facebook estão usando as enormes quantidades de dados que o Facebook tem sobre seus usuários, a fim de identificar quais usuários são mais semelhantes entre si e, portanto, mais propensos a responder bem ao mesmo tipo de anúncio. Quando se trata de grupos demográficos, os pesquisadores descobriram que grupos raciais e étnicos tendem a se comportar de maneira diferente um do outro conectados e que os americanos tendem a ter redes de amigos racialmente homogêneas . Assim, os usuários dentro de um grupo racial ou étnico podem parecer mais semelhantes uns aos outros aos olhos dos algoritmos do Facebook do que usuários em grupos diferentes entre si. No entanto, isso não significa que o Facebook deva facilitar a segmentação discriminatória de minorias raciais e étnicas com anúncios, nem que proxies raciais comumente usados, como nome ou código postal, também devam influenciar o mundo digital criado pelos algoritmos de publicidade do Facebook. Afinal, as duras leis de direitos civis nos EUA aumentaram intencionalmente o interesse da sociedade em reduzir a discriminação acima do interesse privado de proprietários, empregadores e credores para maximizar os lucros por meio de uma possível discriminação. Seria um retrocesso fazer novas concessões à discriminação no Facebook simplesmente porque o tomador de decisão agora é um computador em vez de um humano.

Dadas essas descobertas, os formuladores de políticas têm um papel na mitigação dos preconceitos ativados por empresas como o Facebook e outros anunciantes que dependem de ferramentas online.

Os legisladores, reguladores e grupos da sociedade civil devem exigir e exigir maior transparência por parte do Facebook e seus anunciantes

Claramente, no cerne dos problemas, está a falta de transparência do Facebook para o público e seus anunciantes sobre como sua plataforma de anúncios pode discriminar por raça e etnia. Isso pode ser explorado por anunciantes discriminatórios, ao mesmo tempo que prejudica os objetivos dos não discriminatórios.

Por exemplo, anunciantes discriminatórios podem já saber que a opção de segmentação da cultura afro-americana contém menos usuários brancos do que a opção afro-americana (EUA) removida pelo Facebook em 2020. Os anunciantes discriminatórios também podem estar usando técnicas de variável proxy semelhantes às testadas neste estudo com base em nomes racialmente estereotipados e CEPs para criar públicos parecidos com anúncios especiais e parecidos. Por outro lado, os anunciantes não discriminatórios podem estar escolhendo acidentalmente configurações de segmentação semelhantes às discriminatórias, mas não sabem como a plataforma de anúncios do Facebook está realizando uma segmentação preconceituosa racial e etnicamente em seu nome.

O Facebook pode reverter essa falta de transparência por meio de mais responsabilidade corporativa, declaração de transparência, divulgação para anunciantes e uma robusta engenharia anti-discriminação. No entanto, é de vital importância que os reguladores, grupos de defesa e grupos da indústria possam responder para melhorar esses resultados.

Recomendação 1: Exija que o Facebook e os anunciantes divulguem seus dados de segmentação de anúncios.

Plataformas de publicidade como o Facebook devem fornecer maior transparência sobre a maneira como os anunciantes estão usando suas ferramentas para direcionar os anúncios. Os reguladores podem exigir Biblioteca de anúncios do Facebook para anúncios políticos, de habitação, de emprego e relacionados a crédito para mostrar os metadados relevantes para estabelecer um vínculo causal robusto para ações judiciais por discriminação racial ou étnica. Isso é especialmente importante uma vez que a implementação do Departamento de Habitação e Desenvolvimento Urbano (HUD) do Padrão de Impacto Disparado do Fair Housing Act publicado em 24 de setembro de 2020 agora exige que o requerente apresente evidências de um vínculo causal robusto a fim de trazer um processo de discriminação por impacto díspar em primeiro lugar. Facebook começou a compartilhar metadados relevantes para anúncios políticos com pesquisadores aprovados em 2021, mas não libera nenhum anúncio segmentando metadados para anúncios relacionados a habitação, emprego e crédito.

Recomendação 2: Realize auditorias de polarização algorítmica regulares da plataforma de anúncios do Facebook.

As futuras auditorias de direitos civis da plataforma do Facebook devem testar suas tecnologias quanto ao viés algorítmico com base em raça, etnia, gênero, orientação sexual e outras classes protegidas. Em julho de 2020, o Facebook lançou seu primeiro auditoria de direitos civis focado principalmente em discurso político, desinformação e questões legais durante o boicote Stop Hate for Profit. Os grupos de direitos civis que organizaram o boicote pediram auditorias regulares da plataforma do Facebook. Essas futuras auditorias de direitos civis podem se basear nos esforços técnicos por mim e por outros pesquisadores . Idealmente, se fornecido um acesso ainda mais profundo aos dados e sistemas do Facebook, essas auditorias podem ir ainda mais longe ao examinar por que esses preconceitos raciais e étnicos existem e como lidar com eles. Desde 2014, muitas grandes empresas de tecnologia dos EUA, como Facebook, Apple, Google, Microsoft, Amazon, Twitter e outras participaram da norma de lançamento relacionada relatórios anuais de diversidade da força de trabalho . Reguladores federais como a Federal Trade Commission (FTC) também podem auditar a plataforma de anúncios do Facebook para discriminação e use seus poderes de aplicação para tratar de violações da Seção 5 da Lei FTC, da Lei de Relatórios de Crédito Justo e da Lei de Oportunidades Iguais de Crédito.

Recomendação 3: Projetar soluções antidiscriminação usando uma abordagem mais eficaz de justiça por meio da conscientização.

Tecnologia e política de tecnologia precisam ir além justiça através da inconsciência - a ideia de que a discriminação é evitada pela eliminação do uso de variáveis ​​de classe protegidas ou proxies próximos - a fim de realmente abordar a discriminação algorítmica. Por exemplo, o Facebook criou a ferramenta Special Ad Audiences como uma alternativa aos Lookalike Audiences para não usar explicitamente atributos confidenciais, como idade, sexo ou código postal ao considerar quais usuários são semelhantes o suficiente ao público de origem para serem incluídos. No entanto, minha pesquisa demonstra que os públicos-alvo de anúncios especiais baseados em afro-americanos ou brancos podem ser tendenciosos para a raça que é mais dominante na lista de clientes usada para criar o público, assim como os públicos-alvo semelhantes.

Pesquisa estatística rotulou esse fenômeno como Rashomon ou efeito de multiplicidade. Dado um grande conjunto de dados com muitas variáveis, existe um grande número de modelos potenciais que podem funcionar de forma aproximadamente igual. como um modelo proibido que usa variáveis ​​de classe protegidas . Assim, embora o algoritmo de Públicos-alvo de anúncios especiais para localizar usuários semelhantes a uma lista de clientes não use atributos demográficos da mesma forma que o algoritmo de Públicos-alvo semelhantes, os dois algoritmos podem acabar tomando decisões funcionalmente comparáveis ​​sobre quais usuários são considerados semelhantes o suficiente para ser incluído.

Há riscos de política pública em continuar a implementar um padrão de justiça por meio do desconhecimento, que se mostrou estatisticamente ineficaz. Por exemplo, a redação proposta inicialmente em 19 de agosto de 2019 pelo Departamento de Habitação e Desenvolvimento Urbano (HUD) para seu Padrão de Impacto Disparado atualizado , provavelmente teria protegido injustamente empresas como o Facebook de serem processadas por discriminação simplesmente porque seu algoritmo de audiência especial de anúncios segue a justiça por meio do desconhecimento e não depende de fatores que são substitutos ou proxies para classes protegidas sob o Fair Housing Act.

Em vez disso, a abordagem mais eficaz é usar a justiça por meio da conscientização para criar ferramentas antidiscriminação, que poderiam então considerar com precisão as experiências de diferentes grupos raciais e étnicos na plataforma. Assim, empresas de tecnologia como o Facebook precisariam aprender as informações demográficas de seus usuários. Uma maneira é pedir diretamente a seus usuários que forneçam sua raça e etnia de forma voluntária, como com Auto-ID do LinkedIn . Outra forma é usar avaliadores algorítmicos ou humanos para gerar essas informações para suas ferramentas de teste antidiscriminação. Esta foi a abordagem adotada pelo Airbnb's Projeto Farol , lançado em 2020 para estudar a lacuna de experiência racial para hóspedes e anfitriões no Airbnb. O Projeto Lighthouse usou um empreiteiro terceirizado para avaliar a raça percebida de um indivíduo com base em seu nome e foto de perfil. Em dezembro de 2009, Pesquisadores do Facebook usou uma metodologia relacionada, comparando os sobrenomes dos usuários do Facebook ao conjunto de dados de Sobrenomes de Ocorrência Freqüente do Censo dos EUA, a fim de demonstrar como o Facebook estava se tornando cada vez mais diverso com o tempo, tendo mais usuários afro-americanos e hispânicos.

idade média dos eleitores do trunfo

Os danos da publicidade discriminatória no Facebook que visam grupos demográficos específicos são reais. Os anúncios do Facebook têm oportunidades de emprego reduzidas , semeou divisão política e desinformação , e até mesmo minou os esforços de saúde pública para responder à pandemia COVID-19. Minha pesquisa mostra como o Facebook continua a oferecer aos anunciantes inúmeras ferramentas para facilitar a segmentação discriminatória de anúncios por raça e etnia, apesar do boicote Stop Hate for Profit de julho de 2020. Para resolver esse problema, reguladores e grupos de defesa podem impor e exigir mais anúncios visando transparência, auditoria de polarização mais algorítmica e justiça por meio da abordagem de conscientização pelo Facebook e seus anunciantes.

Em julho de 2020, Diretor de Operações do Facebook Sheryl Sandberg afirmou que sua auditoria de direitos civis foi o início da jornada, não o fim. Enfrentando um longo caminho pela frente, é hora do Facebook continuar trilhando o caminho para criar sistemas de publicidade mais justos e menos prejudiciais.