Pular para o conteúdo

AIE — Autoavaliação de Impacto Ético em IA (S)

Instrumento: Consultivo | Órgão responsável: SGD/MGI — Secretaria de Governo Digital | Status: Beta vigente


O Framework para Autoavaliação de Impacto Ético em Inteligência Artificial no Setor Público Federal (AIE) foi desenvolvido pelo Núcleo de IA da SGD/MGI como instrumento consultivo para auxiliar os órgãos da administração pública federal na implementação e governança ética de soluções de IA.

Seu objetivo é promover uma cultura de responsabilidade ética no desenvolvimento e uso de sistemas de IA no setor público, fornecendo princípios, recomendações e recursos adaptáveis à realidade de cada órgão.


O AIE Gov.BR orienta a avaliação a partir de 6 princípios éticos que devem nortear todo sistema de IA no setor público:

PrincípioDescrição resumida
Direitos Humanos, Dignidade e EquidadeRespeitar direitos fundamentais, promover equidade, evitar discriminações
Transparência, Explicabilidade e AuditabilidadeSistemas devem ser compreensíveis e auditáveis, especialmente em decisões de alto impacto
Segurança, Robustez e Não MaleficênciaSistemas seguros, resistentes a falhas e ataques, desenvolvidos sob o princípio de não causar danos
Privacidade e Proteção de DadosGarantir privacidade e proteção de dados em todas as fases do ciclo de vida, respeitando a LGPD
Supervisão Humana Efetiva e ResponsabilizaçãoSupervisão humana significativa em sistemas de alto impacto; responsabilização clara por decisões
Sustentabilidade Socioambiental e Bem-EstarConsiderar impactos socioambientais das soluções de IA; contribuir para o desenvolvimento sustentável

A avaliação é composta por duas etapas sequenciais:

Etapa 1 — Questionário de Avaliação de Riscos

Seção intitulada “Etapa 1 — Questionário de Avaliação de Riscos”

Classifica o projeto em um dos 4 níveis de risco:

NívelDescriçãoQuestionário Principal
BaixoRiscos éticos mínimos identificadosVersão Simplificada
MédioRequer atenção moderadaVersão Padrão
AltoAnálise aprofundada necessáriaVersão Completa
ExcessivoRisco crítico — projeto deve ser reavaliadoAvaliação interrompida

Situações de risco excessivo incluem: vigilância biométrica em massa, decisões totalmente autônomas sobre direitos, manipulação comportamental e perfis preditivos sem base legal.

Etapa 2 — Questionário Principal de Avaliação

Seção intitulada “Etapa 2 — Questionário Principal de Avaliação”

Aplicado conforme o nível apurado na Etapa 1. Analisa em profundidade os aspectos éticos e de governança, com pontuação ponderada por peso e severidade das respostas. Gera uma classificação de aderência ética em 5 níveis.


A avaliação deve ser realizada:

  • Nas fases iniciais de concepção e planejamento — não como adequação posterior
  • De forma colaborativa com equipe multidisciplinar: gestor, técnico, DPO, jurídico e, quando viável, usuários finais
  • Sempre que o escopo ou a natureza dos dados forem alterados de forma relevante

O relatório gerado pela ferramenta AIE (disponível em formatos JSON, TXT e Markdown) deve ser registrado no artefato:

GTI-AIE-0001--autoavaliacao-impacto-etico.md

Localizado em: artefatos/GTI-GovernancaTI/03-decisoes/

Este artefato integra o sistema de evidências do PV GTI e deve ser revisado sempre que o projeto mudar de escopo ou nível de risco.


O AIE foi elaborado com base em:

  • PL 2338/2023 — Marco Legal da IA (em tramitação)
  • LGPD — Lei 13.709/2018 — Proteção de dados pessoais
  • Recomendações UNESCO sobre Ética da IA (2021) — primeiro instrumento normativo global sobre IA, adotado por 193 países incluindo o Brasil
  • EBIA / PBIA — Estratégia e Plano Brasileiro de Inteligência Artificial
  • EU AI Act, Estratégia Pan-Canadense de IA e diretrizes OCDE como referências internacionais

A ferramenta de avaliação é disponibilizada como arquivo .html offline pelo site oficial do Governo Digital:

  1. Baixar o arquivo .zip exclusivamente pelo site oficial
  2. Extrair o arquivo
  3. Abrir o arquivo .html no navegador

O relatório final pode ser exportado em JSON, TXT ou Markdown.