A notícia publicada pela MIT Technology Review Brasil sobre poluição sonora e seus impactos nos animais pode parecer distante do universo das startups de inteligência artificial. Mas ela toca em um ponto central do debate regulatório global: a tecnologia humana produz externalidades que afetam terceiros, e cabe ao direito definir quem responde por isso.
No Brasil, essa lógica está sendo aplicada diretamente à IA. O PL 2.338/2023, apelidado de Marco Legal da IA, está em estágio avançado de tramitação no Senado Federal e propõe um regime de responsabilidade baseado em risco, semelhante ao modelo europeu do AI Act. A pergunta que founders e CTOs precisam responder não é mais "se" a regulação vai chegar, mas "quando" e "em que formato".
Este artigo apresenta o estado atual da regulação de IA no Brasil, as implicações jurídicas e contábeis para empresas do setor, e o que profissionais de tecnologia, direito e finanças devem fazer para se preparar.
Contexto jurídico e regulatório
O Marco Legal da IA e a lógica de risco
O PL 2.338/2023 classifica sistemas de IA em categorias de risco: mínimo, limitado, alto e inaceitável. Sistemas de alto risco incluem ferramentas usadas em crédito, saúde, seleção de pessoal, segurança pública e infraestrutura crítica. Para essas categorias, o projeto exige avaliação de conformidade, documentação técnica, supervisão humana e registro em cadastro nacional.
A responsabilidade civil proposta é objetiva para agentes de alto risco, ou seja, a empresa responde pelos danos causados independentemente de culpa. Isso representa uma ruptura com o modelo tradicional do Código Civil brasileiro, que em regra exige a prova de culpa para responsabilização. Para startups que operam em verticais sensíveis, o impacto é direto e imediato.
Normas setoriais já em vigor
Enquanto o PL 2.338/2023 não é aprovado, órgãos reguladores setoriais já editaram normas com efeitos práticos. O Banco Central publicou a Resolução BCB nº 85/2021, que trata de modelos de risco e exige governança de algoritmos em instituições financeiras. A ANPD (Autoridade Nacional de Proteção de Dados) emitiu orientações sobre decisões automatizadas com base na LGPD (Lei nº 13.709/2018), especialmente quanto ao direito de revisão humana previsto no artigo 20.
O artigo 20 da LGPD é particularmente relevante: ele garante ao titular o direito de solicitar revisão de decisões tomadas exclusivamente por meios automatizados que afetem seus interesses. Isso inclui desde concessão de crédito até triagem de currículos. Empresas que não possuem esse fluxo implementado já estão em desconformidade com a lei vigente.
Tributação e incentivos fiscais
Do ponto de vista contábil e fiscal, o desenvolvimento de IA pode ser enquadrado como pesquisa e desenvolvimento (P&D), habilitando empresas à Lei do Bem (Lei nº 11.196/2005), que permite dedução de até 80% dos gastos em P&D do IRPJ e CSLL. A qualificação depende de critérios técnicos específicos e de documentação robusta, o que exige planejamento desde o início do projeto.
Startups optantes pelo Simples Nacional não acessam a Lei do Bem, mas podem se beneficiar da isenção de contribuições previdenciárias sobre a folha para empresas de TI prevista na Lei nº 11.774/2008, ainda vigente para algumas categorias. O enquadramento correto no CNAE e a classificação contábil das despesas de IA são decisões que afetam diretamente a carga tributária e o compliance regulatório.
Impacto prático
Para founders e CTOs, o primeiro passo é mapear os sistemas de IA da empresa segundo a classificação de risco do PL 2.338/2023, mesmo antes de sua aprovação. Esse mapeamento serve tanto para antecipar obrigações legais quanto para demonstrar maturidade de governança a investidores e parceiros corporativos, que cada vez mais exigem due diligence de IA em processos de M&A e captação.
Advogados e contadores que atendem empresas de tecnologia precisam incluir a revisão de contratos de uso de IA, cláusulas de responsabilidade em APIs de terceiros e a adequação dos termos de serviço ao regime de transparência exigido pelo PL 2.338/2023. Contratos que transferem integralmente a responsabilidade ao usuário final têm sua validade questionada quando o sistema é classificado como de alto risco.
Investidores em deep tech devem incorporar a análise regulatória ao processo de due diligence. Startups sem política de governança de IA documentada, sem fluxo de revisão humana para decisões automatizadas e sem controles de viés algorítmico representam passivo jurídico que afeta valuation e pode inviabilizar rodadas futuras em mercados mais regulados, como Europa e Estados Unidos.
Considerações finais
A regulação de IA no Brasil não é uma ameaça ao setor: é uma oportunidade para empresas que se prepararem antes da obrigatoriedade. Governança de IA bem estruturada reduz litígios, aumenta confiança de clientes e abre portas para contratos com o setor público e com multinacionais que exigem conformidade como pré-requisito.
O momento para agir é agora, antes que a aprovação do PL 2.338/2023 imponha prazos apertados de adequação. Founders, CTOs, advogados e contadores que construírem esse conhecimento hoje estarão posicionados para liderar o mercado quando a regulação se tornar realidade formal.