Regulação de IA no Brasil

Regulação de IA no Brasil: o que muda em 2026

Por · · 4 min de leitura
Regulação de IA no Brasil: o que muda em 2026

A notícia publicada pela MIT Technology Review Brasil sobre poluição sonora e seus impactos nos animais pode parecer distante do universo das startups de inteligência artificial. Mas ela toca em um ponto central do debate regulatório global: a tecnologia humana produz externalidades que afetam terceiros, e cabe ao direito definir quem responde por isso.

No Brasil, essa lógica está sendo aplicada diretamente à IA. O PL 2.338/2023, apelidado de Marco Legal da IA, está em estágio avançado de tramitação no Senado Federal e propõe um regime de responsabilidade baseado em risco, semelhante ao modelo europeu do AI Act. A pergunta que founders e CTOs precisam responder não é mais "se" a regulação vai chegar, mas "quando" e "em que formato".

Este artigo apresenta o estado atual da regulação de IA no Brasil, as implicações jurídicas e contábeis para empresas do setor, e o que profissionais de tecnologia, direito e finanças devem fazer para se preparar.

Contexto jurídico e regulatório

O Marco Legal da IA e a lógica de risco

O PL 2.338/2023 classifica sistemas de IA em categorias de risco: mínimo, limitado, alto e inaceitável. Sistemas de alto risco incluem ferramentas usadas em crédito, saúde, seleção de pessoal, segurança pública e infraestrutura crítica. Para essas categorias, o projeto exige avaliação de conformidade, documentação técnica, supervisão humana e registro em cadastro nacional.

A responsabilidade civil proposta é objetiva para agentes de alto risco, ou seja, a empresa responde pelos danos causados independentemente de culpa. Isso representa uma ruptura com o modelo tradicional do Código Civil brasileiro, que em regra exige a prova de culpa para responsabilização. Para startups que operam em verticais sensíveis, o impacto é direto e imediato.

Normas setoriais já em vigor

Enquanto o PL 2.338/2023 não é aprovado, órgãos reguladores setoriais já editaram normas com efeitos práticos. O Banco Central publicou a Resolução BCB nº 85/2021, que trata de modelos de risco e exige governança de algoritmos em instituições financeiras. A ANPD (Autoridade Nacional de Proteção de Dados) emitiu orientações sobre decisões automatizadas com base na LGPD (Lei nº 13.709/2018), especialmente quanto ao direito de revisão humana previsto no artigo 20.

O artigo 20 da LGPD é particularmente relevante: ele garante ao titular o direito de solicitar revisão de decisões tomadas exclusivamente por meios automatizados que afetem seus interesses. Isso inclui desde concessão de crédito até triagem de currículos. Empresas que não possuem esse fluxo implementado já estão em desconformidade com a lei vigente.

Tributação e incentivos fiscais

Do ponto de vista contábil e fiscal, o desenvolvimento de IA pode ser enquadrado como pesquisa e desenvolvimento (P&D), habilitando empresas à Lei do Bem (Lei nº 11.196/2005), que permite dedução de até 80% dos gastos em P&D do IRPJ e CSLL. A qualificação depende de critérios técnicos específicos e de documentação robusta, o que exige planejamento desde o início do projeto.

Startups optantes pelo Simples Nacional não acessam a Lei do Bem, mas podem se beneficiar da isenção de contribuições previdenciárias sobre a folha para empresas de TI prevista na Lei nº 11.774/2008, ainda vigente para algumas categorias. O enquadramento correto no CNAE e a classificação contábil das despesas de IA são decisões que afetam diretamente a carga tributária e o compliance regulatório.

Impacto prático

Para founders e CTOs, o primeiro passo é mapear os sistemas de IA da empresa segundo a classificação de risco do PL 2.338/2023, mesmo antes de sua aprovação. Esse mapeamento serve tanto para antecipar obrigações legais quanto para demonstrar maturidade de governança a investidores e parceiros corporativos, que cada vez mais exigem due diligence de IA em processos de M&A e captação.

Advogados e contadores que atendem empresas de tecnologia precisam incluir a revisão de contratos de uso de IA, cláusulas de responsabilidade em APIs de terceiros e a adequação dos termos de serviço ao regime de transparência exigido pelo PL 2.338/2023. Contratos que transferem integralmente a responsabilidade ao usuário final têm sua validade questionada quando o sistema é classificado como de alto risco.

Investidores em deep tech devem incorporar a análise regulatória ao processo de due diligence. Startups sem política de governança de IA documentada, sem fluxo de revisão humana para decisões automatizadas e sem controles de viés algorítmico representam passivo jurídico que afeta valuation e pode inviabilizar rodadas futuras em mercados mais regulados, como Europa e Estados Unidos.

Considerações finais

A regulação de IA no Brasil não é uma ameaça ao setor: é uma oportunidade para empresas que se prepararem antes da obrigatoriedade. Governança de IA bem estruturada reduz litígios, aumenta confiança de clientes e abre portas para contratos com o setor público e com multinacionais que exigem conformidade como pré-requisito.

O momento para agir é agora, antes que a aprovação do PL 2.338/2023 imponha prazos apertados de adequação. Founders, CTOs, advogados e contadores que construírem esse conhecimento hoje estarão posicionados para liderar o mercado quando a regulação se tornar realidade formal.

Perguntas frequentes

O PL 2.338/2023 já está em vigor no Brasil?

Não. Em abril de 2026, o PL 2.338/2023 ainda está em tramitação no Congresso Nacional. No entanto, normas setoriais como a LGPD (Lei nº 13.709/2018) e resoluções do Banco Central já impõem obrigações concretas a sistemas de IA em operação no Brasil.

Minha startup de IA precisa se preocupar com a LGPD?

Sim. Qualquer sistema de IA que processe dados pessoais está sujeito à LGPD. O artigo 20 da lei garante ao titular o direito de revisão humana de decisões automatizadas que o afetem. Startups sem esse fluxo implementado já estão em desconformidade com a lei vigente.

Como classificar meu sistema de IA segundo o risco previsto no Marco Legal?

O PL 2.338/2023 classifica sistemas de IA em risco mínimo, limitado, alto e inaceitável. Sistemas de alto risco incluem aplicações em crédito, saúde, RH, segurança pública e infraestrutura crítica. A classificação deve ser feita com base na finalidade do sistema e na população afetada, preferencialmente com suporte jurídico especializado.

Posso deduzir gastos com desenvolvimento de IA do imposto de renda da empresa?

Sim, empresas tributadas pelo Lucro Real podem deduzir entre 60% e 80% dos gastos em P&D do IRPJ e CSLL pela Lei do Bem (Lei nº 11.196/2005), desde que as atividades se enquadrem como pesquisa tecnológica ou desenvolvimento de inovação. Empresas no Simples Nacional não têm acesso a esse benefício.

Investidores estrangeiros exigem conformidade regulatória de IA para investir no Brasil?

Sim, especialmente fundos com exposição à Europa e aos EUA. O AI Act europeu já está em vigor e impõe obrigações a qualquer sistema comercializado na União Europeia, independentemente da origem da empresa. Startups brasileiras que pretendem expandir internacionalmente precisam de governança de IA documentada para passar nos processos de due diligence.

Artigos relacionados

Mais artigos em breve.

Sobre os autores

Conteúdo produzido pela SAFIE, consultoria jurídico-contábil para empresas digitais e de tecnologia. A SAFIE é liderada por Lucas Mantovani e Italo Cunha.