Avaliação de Impacto de IA e sua relevância no contexto global

Um mundo onde a inteligência artificial (IA) influencia desde a escolha da música perfeita, quem a polícia irá abordar numa blitz, até a seleção de candidatos para aquela vaga dos sonhos poderia parecer utópico há alguns anos. Porém, esta já é a realidade rotineira na sociedade contemporânea, sendo possível graças aos avanços de tecnologias preditivas, do aprendizado de máquina e outras inovações tecnológicas.

Diante desse panorama, surge a questão: como podemos assegurar que as tecnologias impulsionadas pela inteligência artificial sejam desenvolvidas, implementadas e, acima de tudo, sustentadas de maneira responsável e ética, mesmo diante das inúmeras e constantes aplicações e atualizações?

A Avaliação de Impacto da Inteligência Artificial é uma das principais ferramentas que têm ganhado destaque no cenário global. Denominada AI Impact Assessment (AIIA), essa avaliação consiste num instrumento de governança que permite ao desenvolvedor ou aplicador da IA identificar e gerenciar possíveis riscos aos direitos fundamentais em tais sistemas. Considerando todo seu ciclo de vida, em especial no caso dos sistemas de IA de maior risco, a AIIA deve considerar questões como privacidade, discriminação, transparência, responsabilidade e segurança.

A adoção de uma abordagem de AIIA iterativa e contínua, com atualizações periódicas ao longo de todo o ciclo de vida dos sistemas de IA de alto risco, é essencial para garantir que a IA seja não apenas desenvolvida, mas continuamente revista a atualizada de forma ética e responsável. Isso é essencial pois, apesar do zelo e das boas intenções empenhados no projeto de um sistema de IA, é importante reconhecer o potencial que as decisões algorítmicas possuem de gerar resultados tendenciosos ou erroneamente prejudiciais.

Com frequência, os algoritmos são implementados sem a realização de testes adequados para identificar esses resultados indesejados antes que afetem negativamente as pessoas no mundo real. Embora o teste pré-implantação seja uma etapa importante, por si só, não é suficiente para evitar todos os problemas. Na ausência de mecanismos de controle adequados, os sistemas de IA podem amplificar, perpetuar ou agravar desfechos desiguais ou indesejáveis não só aos indivíduos, como também para a sociedade. No entanto, mediante a identificação preventiva e implementação temporal de controles apropriados identificados em AIIA, os sistemas de IA têm o potencial de atenuar e gerenciar tais desigualdades.

No contexto europeu, mais especificamente na proposta europeia de regulamentação denominada AI Act, que acaba de ser aprovada e visa estabelecer um framework legal abrangente para a governança da IA na União Europeia e que está em estágios finais de aprovação na data em que este artigo foi escrito, o AIIA desempenha papel crucial. Atua como ferramenta que pretende permitir que desenvolvedores e operadores de sistemas de IA identifiquem e mitiguem riscos, sejam estes de longo ou curto prazo, de alta ou baixa probabilidade, sistêmicos ou localizados, buscando a conformidade com os princípios do regulamento proposto, como a proteção dos direitos fundamentais, a segurança e a transparência.

No Brasil, a regulação da IA também está em pauta. Exemplos de projetos incluem o PL 5051/2019, que tramita em conjunto com o 21/2020 e 872/2021, e, claro, o mais recente PL 2338/2023 apresentado pelo presidente do Senado, Rodrigo Pacheco (PSD-MG).

Com diversas disposições que versam sobre avaliações relacionadas à IA, por exemplo, a Avaliação Preliminar, que consta no projeto como uma análise inicial que visa identificar e classificar potenciais riscos e benefícios associados à tecnologia proposta previamente a sua colocação no mercado ou utilização em serviço, enquanto a Avaliação de Impacto Algorítmico, também prevista no PL, busca analisar os efeitos dos sistemas de IA nos direitos e liberdades fundamentais dos indivíduos afetados, sendo obrigatória sempre que a IA for considerada de alto risco na Avaliação Preliminar, de forma bastante alinhada à avaliação prevista na proposta europeia. Detalhes das avaliações e suas nuances no Brasil podem ser acessadas no Relatório de Avaliação de Impacto Algorítmico para a proteção dos direitos fundamentais, publicado neste ano pelo Laboratório de Políticas Públicas e Internet.

Nos Estados Unidos, discussões também emergiram. Membros do Congresso americano apresentaram em 2022 o Algorithmic Accountability Act, que visa orientar a Federal Trade Commission (FTC) a exigir avaliações de impacto de sistemas de decisão automatizados e processos de decisão críticos aumentados e para outros fins, atualizando uma proposta legislativa de 2019 que levava o mesmo nome. O texto dispõe da “avaliação de impacto de sistemas de decisão automatizada” deverá ser exigida das entidades abrangidas sob a jurisdição da FTC que utilizam sistemas de decisão automatizada e processos de decisão crítica aumentada que possam gerar um impacto significativo sobre a vida dos consumidores. A avaliação deverá ser feita em conjunto por partes internas e externas interessadas no sistema, e deverá incluir diversos aspectos, inclusive a identificação do impacto em áreas como desempenho (por exemplo, precisão, robustez, confiabilidade), justiça (incluindo parcialidade e não discriminação), transparência, explicabilidade, contestabilidade, privacidade, segurança pessoal e pública, e meios para recorrer da decisão.

Outros frameworks e propostas existem ao redor do mundo. Por exemplo, o National Institute of Standards and Technology (NIST) lançou em janeiro deste ano o seu framework para gerenciamento de riscos de IA. Por vezes, processos de gerenciamento de riscos possuem como foco somente os impactos negativos, entretanto este framework vai além, apresentando abordagens que buscam também para identificar e maximizar os impactos e aplicações positivas das IAs.

Enquanto os trâmites regulatórios prosseguem, já se percebe que a regulação da IA será, em geral, feita com uma abordagem baseada em riscos. Legisladores e juristas ao redor do mundo parecem estar conscientes da inviabilidade de regulamentar uniforme e completamente a IA, seus subdomínios e infinitas aplicações. Se comparadas à outras regulações baseadas em riscos, as propostas de regulação de IA tem como diferenciais a centralidade na pessoa humana e a sua implementação prévia, em caráter preventivo, ou seja, antes da colocação do sistema no mercado ou utilização em serviço.

Em última análise, a ferramenta de AIIA e, de forma mais ampla, a própria regulamentação da IA, são fundamentais para garantir que a revolução da IA seja conduzida de forma ética e sustentável. Como a IA continua a moldar nosso presente (e futuro), é essencial garantir que as políticas e práticas adotadas promovam o bem-estar humano e a justiça social, ao mesmo tempo em que impulsionam a inovação e o progresso tecnológico. A AIIA é, sem dúvida, uma ferramenta-chave nesse processo e na construção de um futuro mais seguro e ético para todos e, quem sabe, possa ser utilizada não apenas para coibir práticas ou evitar o perpetuamento de desigualdades, mas para ajudar a “virar o jogo” na promoção da ética e dos direitos fundamentais.

Adicionar aos favoritos o Link permanente.