RegulaçãoNotícia

Receita Federal lança política de IA ética com curador para modelos generativos e apresenta o modelo na ONU

Beatriz Oliveira·Editora de Tutoriais & Prática
6 min de leitura

Ouvir conteudo

Ouca este artigo narrado por uma voz natural, ideal para quem prefere consumir conteudo em audio.

Logotipo da Receita Federal com ícones de inteligência artificial e governança de dados

TL;DR: A Receita Federal publicou uma Política de Inteligência Artificial com pilares de controle humano, ética e soberania de dados. O destaque é a criação de um "Curador de IA Generativa", cargo responsável por monitorar erros e vieses dos modelos usados internamente. A política foi apresentada na ONU em 27 de março. Para empresas, o sinal é claro: a régua de governança de IA no setor público está subindo, e o fisco é quem está puxando esse movimento.

A Receita Federal não é conhecida por movimentos ousados em tecnologia. É conhecida por multas, cruzamentos de dados e pelo Leão. Por isso chama atenção quando o órgão publica, de forma inédita, uma política formal de uso ético de inteligência artificial e a leva até a ONU para apresentar como referência.

O anúncio foi divulgado pelo Fenacon, entidade representativa das empresas contábeis e de serviços fiscais no Brasil, com base em documentos da própria Receita Federal. Os detalhes completos da política estão emergindo agora, embora a apresentação na ONU tenha ocorrido em 27 de março.

O que está em jogo vai além de uma formalidade burocrática. A Receita Federal é um dos órgãos com maior volume de dados sensíveis do país. Quando ela define como vai usar IA e quem controla esse uso, está criando precedente para todo o setor público brasileiro.

O que a política estabelece

Segundo o Fenacon e a Receita Federal, a política se organiza em torno de três pilares centrais: controle humano sobre as decisões dos sistemas de IA, compromisso com ética no uso dos modelos, e soberania de dados como princípio inegociável.

Na prática, isso significa que nenhum modelo de inteligência artificial pode tomar decisões autônomas sem supervisão humana dentro do órgão. Isso é relevante porque a Receita já utiliza tecnologia em cruzamento de dados fiscais e análise de inconsistências, segundo informações públicas do próprio órgão. A política formaliza que um humano precisa estar no loop dessas decisões.

O ponto mais concreto e inédito da política é a criação do cargo de "Curador de IA Generativa". Essa figura tem a responsabilidade explícita de monitorar erros e vieses nos modelos generativos usados pelo órgão. Não é um comitê. Não é uma diretriz vaga. É um papel definido, com função clara.

O que é um curador de IA generativa e por que importa

A ideia por trás do curador não é nova no setor privado. Empresas que usam modelos generativos em escala já perceberam que esses sistemas cometem erros sistemáticos: reproduzem vieses dos dados de treinamento, alucinam informações, e podem gerar outputs discriminatórios se não forem monitorados de perto.

No contexto da Receita Federal, o risco é maior. Imagine um modelo generativo utilizado em processos internos do órgão e que, por viés nos dados, interpreta de forma diferente contribuintes de perfis distintos. O impacto não é abstrato: é uma empresa que recebe uma autuação indevida ou um alerta que não deveria ter sido disparado.

O curador de IA generativa é a resposta institucional a esse risco. Alguém com responsabilidade formal de responder quando o modelo erra. É um movimento ainda incomum entre organizações públicas, o que pode explicar por que a Receita levou isso à ONU como caso de referência.

Apresentação na ONU: o sinal político

A política foi apresentada em 27 de março na ONU, conforme divulgado pelo Fenacon com base em documentos da Receita Federal. O fato de o Brasil escolher a Receita Federal como exemplo de governança de IA ética em um fórum internacional não é acidental.

O país está construindo uma narrativa de que é capaz de usar IA no setor público com responsabilidade, em paralelo ao processo de regulação que avança no Congresso. Isso se conecta diretamente ao plano do governo federal para IA, que inclui investimentos significativos em soberania digital, conforme diretrizes do governo federal para o setor. A política da Receita funciona como prova de conceito: não apenas intenção, mas implementação.

Para o Brasil, ter um órgão do porte e da credibilidade técnica da Receita Federal como referência internacional em governança de IA é um ativo real de política externa e de imagem regulatória.

Impacto para empresas: o que muda na prática

Para donos de empresa, o impacto mais imediato não é uma nova obrigação legal, pelo menos não ainda. A política da Receita Federal regula o uso interno de IA pelo órgão, não impõe diretamente regras para contribuintes ou empresas do setor privado. Mas o efeito indireto é real e merece atenção.

Quando a Receita formaliza que seus modelos de IA precisam de supervisão humana e monitoramento de vieses, ela está sinalizando que espera o mesmo padrão de quem interage com ela. Empresas contábeis, escritórios tributários e fornecedores de tecnologia fiscal que usam IA nos seus próprios processos, seja para cruzar dados, gerar relatórios ou automatizar obrigações acessórias, precisam começar a pensar em governança com a mesma seriedade.

Além disso, a política abre um modelo replicável. É razoável esperar que outros órgãos da administração federal sigam caminho semelhante. Empresas de setores regulados que já usam IA internamente farão bem em documentar seus próprios processos de controle e monitoramento antes que isso se torne exigência formal.

O que ainda não sabemos

A política foi descrita em termos de pilares e criação de cargo, mas o documento completo não foi integralmente publicado em detalhes técnicos disponíveis publicamente até o momento desta reportagem. Não está claro, por exemplo, quais critérios o curador de IA generativa usará para avaliar vieses, nem como serão reportados os incidentes identificados.

Também não há informação sobre se a política se aplica a modelos de terceiros eventualmente contratados pela Receita ou apenas a sistemas desenvolvidos internamente. Essa distinção é importante, especialmente porque o mercado de soluções de IA para o setor público está crescendo e envolve contratos com fornecedores privados.

São perguntas que o detalhamento da política, conforme for divulgado pela Receita Federal, deverá responder.

Conclusão

A Receita Federal acaba de dar um passo que poucos órgãos públicos no mundo deram: publicou uma política de IA com dentes reais, criou uma função dedicada a monitorar modelos generativos e apresentou isso como referência em fórum internacional. Isso é positivo. Tanto pela seriedade com que trata o risco de vieses e erros quanto pelo efeito de régua que tende a elevar o padrão de toda a cadeia que orbita o fisco.

Para founders e gestores, o recado prático é este: comece a documentar como sua empresa usa IA, quem supervisiona essas decisões e como você detecta quando o modelo erra. Não porque a Receita vai bater na sua porta amanhã, mas porque esse será o padrão esperado antes do que você imagina.

Para aprofundar o contexto regulatório, leia também nossa cobertura sobre a regulação de IA no Brasil em 2026 e o plano de R$ 23 bilhões do governo federal para IA.

Continue lendo