Clipping

A inteligência artificial está agravando a discriminação no mercado imobiliário dos EUA

Nos Estados Unidos, os proprietários de imóveis estão recorrendo cada vez mais a programas de IA para avaliar inquilinos em potencial. A prevalência de informações incorretas, desatualizadas ou enganosas em tais relatórios está aumentando os custos e as barreiras à habitação digna, especialmente entre pessoas não brancas.

Por: Rebecca Burns | Créditos da foto: Grand Warszawski / Getty Images. À medida que mega-proprietários anônimos e algoritmos proprietários ganham maior controle sobre o acesso à habitação, os defensores estão pedindo que os reguladores tomem medidas enérgicas

Quando Chris Robinson se candidatou a mudar-se para uma comunidade de idosos na Califórnia há cinco anos, o gerente da propriedade submeteu seu nome a um programa de triagem automatizada que, segundo relatos, usava inteligência artificial para detectar “locatários de alto risco”. Robinson, então com setenta e cinco anos, foi negado depois que o programa lhe atribuiu uma pontuação baixa — uma pontuação que ele posteriormente descobriu ter sido baseada em uma condenação passada por jogar lixo na rua.

Não apenas a queixa tinha pouca relevância para determinar se Robinson seria um bom inquilino, ele nem mesmo o havia cometido. O programa havia identificado o caso de um homem de trinta e três anos com o mesmo nome no Texas — onde Robinson nunca havia morado. Ele eventualmente corrigiu o erro, mas perdeu o apartamento e a taxa de inscrição, segundo uma ação coletiva federal que avançou para um acordo neste mês.

O escritório de crédito TransUnion, um dos principais atores americanos envolvidos na indústria de triagem de locatários de bilhões de dólares, concordou em pagar US$11,5 milhões para resolver alegações de que seus programas violaram as leis de relatórios de crédito justos.

Os proprietários estão cada vez mais recorrendo a programas de triagem de inteligência artificial (IA) com apoio de capital privado para ajudá-los a selecionar inquilinos, e casos resultantes como o de Robinson são apenas a ponta do iceberg. A prevalência de informações incorretas, desatualizadas ou enganosas em tais relatórios está aumentando os custos e as barreiras à habitação, de acordo com um relatório recente de reguladores federais de consumidores.

Mesmo quando os programas de triagem apresentam dados reais, defensores da habitação e privacidade alertam que algoritmos opacos estão perpetuando a discriminação de alta tecnologia em um mercado imobiliário já desigual — o mais recente exemplo de como a IA pode amplificar preconceitos existentes.

Além do processo contra a TransUnion, pelo menos outras quatro empresas de triagem de locatários, muitas das quais afirmam prever “risco de locação” por meio do uso de IA, enfrentam atualmente mais de noventa ações civis federais de direitos civis e consumidores, de acordo com nossa análise de registros judiciais. Os resultados desses casos, juntamente com novas regras potenciais de agências federais, podem ajudar a definir o tom para as futuras batalhas regulatórias sobre a IA, à medida que as preocupações aumentam sobre seus usos proliferantes.

No mês passado, quinze procuradores-gerais estaduais enviaram uma carta urgindo os reguladores a garantir que “os candidatos a moradia tenham acesso a todos os dados que estão sendo usados para tomar decisões sobre sua ‘dignidade’ como inquilinos” — e que as empresas de triagem estejam cumprindo a lei de direitos civis. Os reguladores federais estão atualmente considerando regulamentações adicionais para programas de triagem de locatários.

Mas essas medidas são fortemente opostas por grupos de lobby do setor imobiliáriogestão de propriedades e indústrias de dados do consumidor — estes últimos também lutaram contra a legislação estadual para conter o uso de Big Data na habitação, emprego e outras decisões de alto risco.

A Associação da Indústria de Dados do Consumidor dos EUA, um grupo de lobby de empresas de triagem e relatórios de crédito, informou que gastou mais de US $400.000 este ano até agora em lobby nos estados que estão considerando legislação para aumentar a transparência no desenvolvimento e uso de IA.

Em uma carta de junho de 2021 aos reguladores federais de consumidores, o grupo do setor argumentou contra a necessidade de supervisão adicional da IA em tecnologias financeiras. Ao incentivar ferramentas precisas e preditivas que criam oportunidades de lucro, a carta dizia: “O próprio mercado regula inherentemente o sistema de IA”.

“Eles não são neutros”

Aexplosão de programas automatizados de triagem de locatários tem caminhado lado a lado com a consolidação da habitação após a crise de execuções hipotecárias de 2008. O americano médio agora gasta mais de um terço de sua renda em habitação, uma tendência impulsionada em parte por proprietários de Wall Street que aumentam os aluguéis, cobram taxas e recorrem cada vez mais a sistemas automatizados para gerenciar seus vastos portfólios em todo o país.

Estima-se que duas mil empresas de triagem de terceiros ofereçam a mega-proprietários, que muitas vezes carecem de equipe no local, uma alternativa mais rápida às verificações de antecedentes tradicionais.

A tecnologia também despertou o interesse de empresas de capital privado e capital de risco, com bilhões de dólares investidos em empresas com nomes como TurboTenantRentSpree e LandlordStation — esta última com o slogan: “Trabalhamos duro para tornar sua vida um pouco mais fácil!”

Os custos dos relatórios de triagem variam, mas muitas vezes são pagos pelos inquilinos, e aqueles que recebem pontuações baixas o suficiente para uma “aceitação condicional” muitas vezes são forçados a pagar depósitos mais altos, de acordo com reportagem da ProPublica.

maioria das empresas de triagem diz que seus algoritmos se baseiam nos mesmos tipos de registros que muitos proprietários verificariam por conta própria, incluindo relatórios de pontuação de crédito e históricos criminais. Essa prática de longa data já aumentou as barreiras para moradias de alta qualidade para muitas pessoas de cor. Pesquisas disponíveis descobriram que registros criminais geralmente não são um bom indicador de como alguém se comportará como inquilino, enquanto a instabilidade habitacional está intimamente associada à reincidência.

Muitas cidades americanas já limitam o uso de verificações de antecedentes em solicitações de moradia. Mas quando essas decisões são terceirizadas para algoritmos não regulamentados, “Isso afasta ainda mais os problemas existentes de acesso à habitação da responsabilidade e transparência”, disse Hannah Holloway, diretora de política e pesquisa na TechEquity Collaborative, uma organização sem fins lucrativos que avalia o impacto dos programas de triagem de locatários.

Holloway dá o exemplo da empresa de triagem Naborly, que diz comparar as “características únicas de um inquilino” com as características da propriedade alugada pelo proprietário. Um relatório de amostra disponível online avalia os candidatos em categorias como “estabilidade de renda e emprego” e “análise de comportamento do consumidor”, que são usadas para produzir uma série de classificações que indicam a probabilidade prevista de um inquilino pagar atrasado, sair cedo ou uma série de outros resultados.

“Não sabemos quais são suas fontes de dados, ou com que frequência eles estão verificando essas informações e atualizando-as”, disse Holloway. E embora algumas características possam ser bastante objetivas, ela observou: “Se eu sou um inquilino, eu não tenho ideia de como eles estão usando essas informações para chegar a uma previsão sobre se eu vou danificar a propriedade ou perder um pagamento.”

A Naborly não respondeu a um pedido de comentário da Jacobin.

Essas empresas de triagem argumentam que a decisão sobre aceitar um inquilino ainda cabe ao proprietário. Mas um estudo comportamental recente que utilizou relatórios de triagem simulados descobriu que os proprietários confiavam principalmente nas pontuações retornadas, em vez dos dados subjacentes — mesmo que os dados subjacentes frequentemente contivessem contexto crítico, como quando uma acusação criminal ou ação de despejo tinha sido eventualmente retirada.

Wonyoung So, autor do estudo e candidato a doutorado no departamento de estudos urbanos e planejamento do MIT, chama isso de “viés de automação”. De acordo com So, “Os sistemas de tomada de decisão automatizada parecem oferecer essas recomendações neutras, mas de forma alguma são neutras.”

“Não é uma desculpa para o comportamento ilegal”

Em abril, o Escritório de Proteção Financeira do Consumidor (CFPB, na sigla em inglês) e outras três agências federais divulgaram uma declaração conjunta afirmando que sistemas automatizados “não são uma desculpa para comportamento ilegal” — e que eles aplicariam as leis de direitos civis, proteção ao consumidor e concorrência justa em relação a essas tecnologias.

O CFPB recebeu milhares de reclamações de consumidores sobre relatórios de triagem, e junto com a Comissão Federal de Comércio, recentemente concluiu a coleta de opiniões públicas sobre os programas — um possível primeiro passo em direção a regulamentações adicionais.

Enquanto grupos de consumidores e especialistas em análise de dados opinaram pedindo maior supervisão e auditorias algorítmicas de agências federais, alguns grupos de lobby do setor pintaram a ação como excesso regulatório.

O Conselho Nacional de Habitação Multifamiliar, que representa grandes proprietários e empresas de triagem, advertiu contra “medidas de relatório que interrompam indevidamente práticas operacionais e de gestão de propriedades necessárias”.

A Associação da Indústria de Dados do Consumidor, que alertou anteriormente os reguladores federais contra “permitir que os estados restrinjam o uso de IA”, também se opôs repetidamente aos esforços iniciais dos estados para conter a IA — incluindo um projeto de lei da Califórnia que teria exigido que proprietários e empresas de gestão de propriedades conduzissem e submetessem avaliações anuais de impacto das ferramentas aos reguladores estaduais. O projeto de lei morreu em comissão no início deste ano.

Em resposta às nossas perguntas, um porta-voz do grupo forneceu uma declaração que dizia: “Para preservar o estoque habitacional existente e continuar a construir o suprimento, os proprietários devem ser capazes de avaliar a confiabilidade de um futuro residente em pagar o aluguel.”

“Os estatutos simplesmente não estão acompanhando”

Ironicamente, as empresas de triagem têm há muito tempo comercializado seus serviços como ajudando os proprietários a reduzir o risco de processos judiciais baseados em decisões em dados objetivos.

Por mais de uma década, grupos do setor argumentaram que algoritmos não discriminam. Em 2013, a Associação da Indústria de Dados do Consumidor apresentou um parecer de amigo da corte (amicus curiae) em um caso da Suprema Corte relacionado ao chamado padrão de impacto desproporcional sob a lei de habitação justa — que sustenta que políticas aparentemente neutras ainda podem ter efeitos discriminatórios.

O grupo de lobby argumentou no parecer que responsabilizar as empresas por impacto desproporcional prejudicaria seus membros, que fornecem informações preditivas “racialmente neutras”, e acabaria forçando os proprietários a fazer uma “escolha de Hobson” entre renunciar a essas informações ou enfrentar processos judiciais.

Esse caso foi resolvido, mas um caso subsequente da Suprema Corte, no qual o grupo do setor também se envolveu, sustentou que não é necessária uma prova de discriminação intencional para apresentar ações de habitação justa — o impacto de uma ação ou política é o que importa.

Agora, as próprias empresas de triagem estão sujeitas a uma série de ações federais alegando que, longe de serem racialmente neutras, estão desrespeitando a lei de direitos civis por meio de critérios que negam desproporcionalmente a moradia a pessoas não brancas.

De acordo com um processo movido em 2018, um homem de Connecticut incapaz de andar ou cuidar de si mesmo após um acidente teve sua inscrição habitacional negada devido a um relatório de triagem da CoreLogic Rental Solutions, agora conhecida como SafeRent Solutions. O homem, Mikhail Arroyo, havia tentado morar com a mãe, a quem disseram apenas que ele tinha registros criminais “desqualificadores”. Ela não pôde obter mais informações sobre quais eram esses registros – uma suposta violação das leis federais de relatórios de crédito justos.

O histórico de Arroyo consiste em uma única acusação de furto em lojas quando ele tinha vinte anos, e ela foi eventualmente retirada, de acordo com a queixa. Seus advogados também argumentam que desqualificar candidatos com base em um registro de prisão é uma violação da lei de habitação justa, porque pessoas de cor têm mais probabilidade de serem presas em Connecticut e em todos os Estados Unidos.

Outra ação federal pendente contra a SafeRent alega que a empresa está discriminando candidatos a aluguel negros e hispânicos que usam vales de habitação financiados pelo governo federal.

O algoritmo da SafeRent é proprietário, mas a empresa diz que se baseia em fatores como registros de falência, históricos de despejo e pontuações de crédito. A reclamação observa que cerca de 45% dos consumidores negros e 32% dos consumidores hispânicos têm pontuações de crédito subprime, em comparação com 18% dos consumidores brancos.

Em sua propaganda, a empresa afirma que os candidatos com altas pontuações geralmente “pagam em dia, tratam a propriedade com cuidado e permanecem por períodos mais longos, o que ajuda a administração a maximizar a receita operacional líquida”.

Mas a SafeRent não considera se os candidatos têm vales de habitação, de acordo com a ação – embora esses vales geralmente cubram a maior parte do aluguel dos inquilinos, aumentando drasticamente sua capacidade de pagar.

Advogados da SafeRent e CoreLogic não responderam a um pedido de comentário da Jacobin sobre o litígio.

Eric Dunn, diretor de litígios do Projeto de Lei Nacional de Habitação e um dos advogados que representam Arroyo, disse que esses cenários destacam a necessidade de regulamentação e fiscalização atualizadas.

A lei federal de relatórios de crédito justos, que governa as informações coletadas por agências de relatórios de crédito e fornece aos consumidores acesso periódico gratuito, “ainda fala sobre entrar em um escritório e olhar em uma pasta de manila”, disse ele. “As estatísticas simplesmente não acompanham a forma como a indústria opera.”

À medida que mega-proprietários anônimos e algoritmos proprietários ganham maior controle sobre o acesso à habitação, Dunn e outros defensores estão pedindo que os reguladores tomem medidas enérgicas contra taxas predatórias, garantam que os inquilinos tenham o direito de revisar e corrigir seus arquivos ou até mesmo pausar o uso dos programas até que possam ser avaliados.

“Não se pode exagerar que grande parte da tecnologia que impulsiona essa ascensão dos serviços de triagem de locatários digitalizados é uma caixa-preta”, escreveram So e quatro colegas do MIT em um comentário aos reguladores no mês passado. “Recomendamos que os reguladores estabeleçam uma moratória federal em serviços de triagem de locatários até que tais serviços possam ser comprovados como seguros, justos e não discriminatórios.”

 

Veja em: https://jacobin.com.br/2023/08/a-inteligencia-artificial-esta-contribuindo-para-a-discriminacao-no-mercado-imobiliario-dos-eua/

Comente aqui