regulamentação de IA Brasil Imagem gerada por Inteligência Artificial

Regulamentação da IA traz desafios e oportunidades

3 minutos de leitura

Especialista defende transparência e diferenciação de riscos para impulsionar o avanço tecnológico com segurança



Por Redação em 02/06/2025

O debate sobre a regulação da inteligência artificial (IA) vem ganhando força no Brasil, mas ainda busca o equilíbrio entre os benefícios da inovação e a mitigação de riscos. O Projeto de Lei 2338/23, que regulamenta o uso da IA no país já teve seu texto aprovado pelo Senado e agora tramita na Câmara dos Deputados. Além da classificação da IA em categorias (inteligência artificial e inteligência artificial generativa), o projeto classifica os sistemas em diferentes níveis de risco para a vida humana e também rege sobre ameaças aos direitos fundamentais.  

De acordo com a Câmara de Deputados, a proposta determina que os sistemas de IA generativa e de propósito geral (como o GPT e o Gemini, por exemplo) deverão passar por avaliação preliminar de risco. Para os outros casos, essa avaliação prévia pode ser facultativa. Para Pedro Brasileiro, gerente de relações com o governo da Salesforce no Brasil, o caminho orientado pela transparência pode melhorar esse cenário.

Em artigo no Correio Braziliense, o especialista cita um estudo da McKinsey no qual a IA generativa pode adicionar entre US$ 2,6 e US$ 4,4 trilhões à economia global anualmente, impactando setores como marketing, vendas, desenvolvimento de software e pesquisa e desenvolvimento (P&D). Outro dado apontado por ele revela que o Brasil lidera os investimentos em infraestrutura de IA na América Latina, respondendo por 38% do mercado regional, com um gasto estimado em US$ 240 milhões (em 2024). Esses dados são da IDC.

A necessidade de regulamentação

Segundo o artigo, o governo reconhece a importância da IA: “Uma proposta de investimento de R$ 23 bilhões até 2028, com foco em usos sustentáveis e voltados para a sociedade, demonstra isso”, destacou o autor. No entanto, essa evolução tecnológica exige regulação. Para ele, o AI Act, publicado em 2024 pela União Europeia, serve como exemplo, categorizando riscos e definindo requisitos para cada sistema de IA, com regras para aplicações de “alto risco”.

O PL 2.338/23, no Brasil é inspirado no AI Act europeu e propõe abordagem para a governança da tecnologia, definindo princípios, estabelecendo requisitos para setores específicos e adotando iniciativas baseadas na gestão de riscos. Além disso, ele busca proteger a privacidade dos dados e fomentar a pesquisa e o desenvolvimento em IA.

Embora o projeto de lei preveja a criação de um sandbox regulatório (ambiente experimental para testar inovações), Pedro Brasileiro avaliou que a proposta nacional ainda requer melhorias. “O primeiro ponto é que o PL precisa diferenciar a IA de uso geral das aplicações corporativas”, disse. Segundo ele, a IA possui um uso controlado, com governança de dados e, consequentemente, riscos menores no ambiente empresarial. Isso contrasta com a natureza da IA de consumo geral, que pode ser utilizada em diversas tarefas, incluindo a criação de conteúdo, com um potencial de danos maior.

Para o executivo da Salesforce, a diferenciação de riscos também deve considerar os campos de atuação da IA. “Sistemas que controlam infraestruturas, tomam decisões de impacto econômico ou deliberam sobre direitos e liberdades individuais exigem atenção das autoridades”. Nesse sentido, ele enfatizou a importância do contato entre as autoridades e especialistas em IA para garantir uma regulação eficaz e adequada às nuances da tecnologia.

Outro ponto levantado pelo especialista é o trabalho com dados. “A base de toda e qualquer IA é os dados”, ressaltou. A IA generativa, em particular, opera com dados provenientes de Grandes Modelos de Linguagem (LLMs). A nova legislação, segundo ele, deve considerar os diferentes usos de fontes de dados para IA, classificando, por exemplo, os dados corporativos (oriundos da própria empresa e controlados) como de risco menor em comparação a outras aplicações.

Transparência no uso da IA

regulamentação de IA Brasil
Foto: Adobe Stock

Apesar da regulação, as empresas não estão isentas de obrigações no que tange o fornecimento de dados e documentações sobre os sistemas de IA que utilizam. Afinal, segundo Pedro Brasileiro, cabe às corporações garantirem que as decisões de risco sejam sempre tomadas por uma pessoa. Além disso, ele considera a transparência com os usuários um fator fundamental, sendo que as empresas devem informar como a IA é aplicada, como as decisões são tomadas e como a tecnologia utiliza os dados.

“Devemos pavimentar esse caminho para seguir rumo à inovação, sem nos desviar dos princípios. Essa é uma ferramenta que já está em nossas mãos. Nossa responsabilidade é fazer com que ela seja utilizada para construir um futuro”, concluiu o especialista.



Matérias relacionadas

Claro HackTown 2025 Inovação

Claro leva inovações em tecnologia e negócios ao HackTown 2025

Conectividade, segurança, formação profissional e economia criativa marcaram as sessões na Casa Conectada

agentes de IA Inovação

Agentes de IA superam fase de testes e redefinem operação das empresas

Estudo indica foco em produtividade e qualidade, mas revela desafios com preparo da liderança, regulação e capacitação da força de trabalho

NFC Inovação

Tecnologia por aproximação impulsiona crescimento das transações sem contato

Projeções indicam salto na bilhetagem digital e no uso de carteiras digitais independentes, o que reforça o papel do NFC na infraestrutura das cidades inteligentes

Benchmark IA Inovação

Benchmarks de IA ganham acesso público

Com código aberto, a ferramenta da chinesa HongShan Capital Group testa modelos de inteligência artificial em tarefas do mundo real

    Embratel agora é Claro empresas Saiba mais