A nova orientação da Casa Branca minimiza importantes danos à IA

Depois de uma Ordem Executiva de fevereiro de 2019 , o Escritório de Gestão e Orçamento dos Estados Unidos (OMB) emitiu seu orientação final sobre a regulamentação da inteligência artificial (AI) em 17 de novembro de 2020. Este documento apresenta a estratégia do governo dos EUA para a supervisão de IA e, como tal, merece um exame cuidadoso. A orientação da Casa Branca é fundamentada e reflete uma compreensão diferenciada da IA; no entanto, também existem motivos reais de preocupação em relação ao impacto de longo prazo na regulamentação da IA.

Para começar, há muitos aspectos positivos nas orientações regulatórias de IA da Casa Branca. Seu escopo é razoável, reconhecendo que a regulamentação da IA ​​do setor privado é fundamentalmente diferente da implantação de sistemas de IA do governo, deixando este último para um documento separado. Também defende apropriadamente uma abordagem para IA onde a regulamentação é específica para o setor e tipo de aplicação de IA, ao invés de políticas abrangentes que não fazem sentido em todo o amplo espectro de uso de IA. O documento OMB adota uma abordagem baseada em risco, sugerindo a priorização de proteções mais fortes para sistemas de IA que demonstram o potencial para risco mais alto. O documento também pede que as agências federais trabalhem com os organismos de normalização, especificamente pedindo-lhes que cumpram o National Institute of Standards and Technology’s plano de envolvimento federal para o desenvolvimento de padrões técnicos de IA .

Outros aspectos da orientação são menos positivos. O tom do documento é muito insistente na promessa de desenvolvimento e inovação da IA, especialmente para o crescimento econômico, a redação que promove a inovação e o crescimento da IA ​​é uma alta prioridade do governo dos EUA. Isso é compreensível, pois as contas da economia digital por mais de 9% do PIB e estava crescendo 6,8% ao ano antes da pandemia de COVID-19. A IA é uma grande parte desse setor e está se expandindo para muitos outros setores também. No entanto, embora o valor econômico da IA ​​seja importante, a orientação é excessivamente focada em argumentar que a regulamentação não deve impedir sua inovação e implantação. O documento observa uma série de abordagens não regulamentares para IA e tem uma seção sobre a redução de barreiras para a implantação e uso de IA, mas não é equilibrado por uma ampla contextualização dos danos da IA.



A orientação do OMB afirma com destaque que muitas aplicações de IA não necessariamente levantam questões novas. Essa afirmação é parcialmente verdadeira, pois o governo não precisa se preocupar com muitas aplicações de IA. No entanto, o inverso também é verdadeiro: muitas aplicações de IA do setor privado certamente levantam questões novas. Os sistemas de IA podem sistematizar a discriminação e redistribuir o poder dos consumidores e funcionários da linha de frente. Os sistemas de IA também podem permitir a vigilância corporativa em grande escala. Eles podem fazer tudo isso, ao mesmo tempo que tornam os processos mais difíceis de entender para os indivíduos e potencialmente prejudicam seus recursos legais para danos.

Estados Unidos e relações com a China hoje

Essas questões não são totalmente ignoradas no documento da Casa Branca. Ele lista dez princípios para a administração de aplicações de IA, que são consistentes com as recomendações dos principais especialistas em IA éticos. Essa lista inclui: Confiança Pública em IA, Participação Pública, Avaliação e Gestão de Riscos, Justiça e Não Discriminação e Divulgação e Transparência. O problema é que esses critérios são estruturados como uma lista de verificação que deve ser trabalhada antes que as agências possam implementar quaisquer novas regras de IA. Imediatamente antes da lista de princípios, a orientação afirma que as agências devem considerar a nova regulamentação apenas ... à luz da seção anterior ... que a regulamentação federal é necessária. Combinado com o enquadramento anti-regulatório mais amplo do documento, isso sugere uma intenção de antecipar as ações regulatórias.

A preempção é problemática porque já sabemos que existem áreas que requerem fiscalização e regulamentação mais rígidas. A Food and Drug Administration é considerando como adaptar suas regras para garantir a segurança dos dispositivos médicos aprimorados com IA e, ao mesmo tempo, permitir que sejam atualizados com novos dados. O Departamento de Trabalho e a Comissão de Oportunidades Iguais de Emprego terão de examinar como as ferramentas algorítmicas afetam a remuneração do trabalhador, a segurança no local de trabalho e os processos de contratação. Saúde e Serviços Humanos tem que aprender a fazer cumprir proteções legais contra a discriminação em serviços de saúde alocados algoritmicamente. Da mesma forma, Departamento de Transporte precisa de novas regras para garantir a segurança dos veículos autônomos.

Na ausência de regulamentos e processos de aplicação atualizados, o status quo torna mais fácil contornar a lei usando algoritmos. Supervisão de algoritmos requer novas ideias , conhecimento técnico e capacidade adicional, e a Casa Branca e o OMB devem encorajar as agências a enfrentar os novos riscos da IA. Infelizmente, em uma regra finalizada sobre padrões de impacto díspares, Habitação e Desenvolvimento Urbano ignorou os novos desafios da IA, tornando impossível para que os reclamantes provem que foram discriminados por algoritmos.

salário mínimo e estatísticas de pobreza

Além da influência direta na regulamentação da agência, esta orientação também pode afetar o papel futuro do OMB, especialmente seu braço de revisão regulatória, o Office of Information and Regulatory Affairs (OIRA). Às vezes, em seus quarenta anos de história, OIRA jogou uma função de gatekeeper regulatório ativo. Esta função é especialmente focada em 'ações regulatórias significativas', que incluem regras que são estimadas em um impacto econômico de mais de US $ 100 milhões ou, alternativamente, regulamentações que levantar novas questões legais ou políticas . Embora algumas regulamentações de IA provavelmente atendam aos critérios de impacto econômico, certamente muitas outras irão levantar questões novas na lei e na política. A equipe relativamente pequena do OIRA, dividida em grupos designados a diferentes agências federais, pode não ter a experiência em IA necessária para avaliar com eficácia essas novas regras emergentes. Não se sabe exatamente como essa questão se desenvolverá, mas é possível que a orientação da Casa Branca, conforme interpretada por OIRA, crie novos encargos de compliance.

Pode não demorar muito para descobrir o impacto que essa orientação terá. Talvez a contribuição mais valiosa dessa orientação seja que ela exige que as agências federais forneçam planos de conformidade dentro de seis meses (até 17 de maio de 2021). Com o influxo de novas nomeações da administração Biden, é possível que este documento conduza novas ideias e um grau de ação sem precedentes para construir regulamentos de IA sensatos e eficazes. Esperançosamente, OIRA irá trabalhar principalmente para promover a troca de conhecimento e cooperação entre agências, como Cass Sunstein argumentou .

Pode ser esse o caso. Ainda assim, há motivo para preocupação na estrutura deste documento, e seu efeito vai depender significativamente de como ele será interpretado e abordado por futuros funcionários da agência. É difícil imaginar que mudar essa orientação será uma das principais prioridades da Casa Branca de Biden, dados todos os seus outros problemas prementes. No entanto, existe um risco real de que este documento se torne uma força para manter o status quo, ao invés de tratar de graves danos à IA.