Políticas privacidade VII Congresso de Segurança Cibernética, Proteção de Dados e Governança de IA (Foto: Ayrton Vignola/ Fiesp)

Boas políticas de privacidade dão base a projetos de IA sustentáveis

5 minutos de leitura

DPOs, autoridades e juristas antecipam parâmetros para uso de dados e tecnologias emergentes, que podem direcionar as oportunidades de negócios e criação de serviços



Por Vanderlei Campos em 11/08/2025

Estender os princípios da LGPD (Lei Geral de Proteção de Dados) às novas aplicações, como treinamento de modelos de IA, e atender às sinalizações das atuais iniciativas regulatórias agregam segurança e simplificam as estratégias de inovação. Essa foi a tônica de um painel que reuniu DPOs (Data Protection Officers) de setores altamente regulados – como finanças, telecomunicações e saúde – e Rodrigo Santana, coordenador-geral de Normatização da ANPD (Autoridade Nacional de Proteção de Dados), durante o VII Congresso de Segurança Cibernética, Proteção de Dados e Governança de IA, promovido pela Fiesp.

Além de as DPOs representarem os setores mais regulados – por lidarem com dados extremamente sensíveis -, representam também os que passam pelas maiores transformações com base em inovação digital.

Raíssa Moura, DPO do Nubank. Políticas privacidade
Raíssa Moura, DPO do Nubank (Foto: Ayrton Vignola/ Fiesp)

“A inovação precisa de um ambiente estruturado e sem incertezas”, definiu Raíssa Moura, DPO do Nubank. “Se os times de produtos e desenvolvedores trabalhassem sem parâmetros, tudo seria mais difícil”, disse. Ela avaliou que atuar em setores fortemente regulados traz uma maturidade que se traduz em vantagem competitiva. “Hoje, todas as organizações se preocupam com governança de IA, sem um direcionamento. Os bancos, mesmo antes da onda de IA, já tinham de lidar com gestão de risco de modelos com MLs”, exemplificou.

Maria Tereza Pelicano David, diretora de Privacidade e Proteção de Dados da Claro, destacou que os DPOs vão além das áreas de auditoria e compliance e assumem um papel estratégico na criação de produtos e negócios atualmente. “No início, o desafio estava no backlog (nos sistemas e processos legados). Agora, estamos estruturados para nos adequar a novos regulamentos e temos um relacionamento contínuo com as áreas de negócios”, comparou.

Maria Tereza Pelicano David, diretora de Privacidade e Proteção de Dados da Claro (Foto: Ayrton Vignola/ Fiesp)

A DPO da Claro esclareceu que os conceitos de privacidade no desenho dos processos, além de atender aos requisitos de conformidade, podem ser uma oportunidade de simplificação e melhoria da experiência do cliente. “O valor está em inovar dentro dos parâmetros e das normas da LGPD. O marco legal, ao mesmo tempo em que traz proteção, também dá base para usar os dados de forma correta”, enfatizou. “Às vezes, uma pequena modificação no produto – como eliminação de campos prescindíveis ou enxugamento dos sets de dados, resolve tudo”, resumiu.

Como exemplo de uso plenamente conforme aos princípios de finalidade e legítimo interesse da LGPD, Maria Tereza mencionou a verificação numérica ou de detecção de troca de chip (SIM swap), que podem ser conectados em um modelo as a service a sistemas de prevenção de fraudes. “O dado fornecido ao terceiro é ‘sim’ ou ‘não’; nada que seja pessoalmente identificável”, destacou.

As DPOs do Nubank e da Claro insistiram que conformidade, segurança e oportunidades, tanto para o negócio quanto para os clientes, podem se alavancar mutuamente. “Cada vez mais os clientes vão valorizar o bom uso de seus dados. Querem que sua privacidade esteja segura, e ao mesmo tempo, conte com maior proteção a fraudes ou melhores condições de crédito (com o uso autorizado de dados)”, observou.

Rogéria Magalhães, diretora Jurídica e DPO no Hospital Albert Einstein (Foto: Ayrton Vignola/ Fiesp)

Rogéria Magalhães, diretora Jurídica e DPO no Hospital Albert Einstein. lembrou que o trabalho de conscientização dentro da organização é um ponto de atenção contínua. Enquanto parte das pessoas ainda não entende os conceitos de dados sensíveis e privacidade, as DPOs reconhecem que em alguns casos há resistências deliberadas, pela falsa dicotomia entre inovação e governança. “Nos cursos para diversas áreas, uma pergunta recorrente é ‘como inovar sem violar”, contou Rogéria.

A DPO da Claro argumentou que gestão correta e comunicação transparente de consentimentos e uso dos dados pode alinhar objetivos de negócios, dos clientes e da segurança sistêmica no mesmo sentido, com os respectivos benefícios. “Trabalhamos muito na confiança do titular dos dados”, complementou Raíssa, do Nubank.

Rodrigo Santana, por sua vez, destacou a previsibilidade regulatória e a autonomia decisória da ANPD, como instituição de Estado, como fatores de estabilidade jurídica e no ambiente de negócios

Normas para IA aproveitam expertise de governança de dados

Waldemar Gonçalves, diretor-presidente da ANPD (Foto: Ayrton Vignola/ Fiesp)

A forte interseção dos princípios de proteção de dados com o uso responsável de IA fica evidente no Projeto de Lei 2338, que atribui à ANPD a coordenação do Sistema Nacional de Regulação e Governança de Inteligência Artificial. “O objetivo é montar um fórum de reguladores e juntar o expertise em suas atividades”, informou Waldemar Gonçalves, diretor-presidente da ANPD.

Christian Perrone, diretor de assuntos governamentais da Microsoft, concordou que a definição de parâmetros é fundamental para segurança e sustentabilidade dos projetos com IA. “A cadeia de valor da IA não é linear. Por isso, vimos que não bastava olhar para a própria organização. Deve haver princípios públicos e políticas de ética estendidas a todo ecossistema, como buscamos com nossos parceiros”, afirmou.

Da esquerda para a direita: Rony Vainzof, Fernando Tasso, Christian Perrone, Dora Kaufman e Filipe Medon (Foto: Ayrton Vignola/ Fiesp)

A maior dificuldade e risco na regulação “é não se saber com certeza o que se quer regular”, como ponderou Filipe Medon, professor da FGV Direito e colaborador na comissão de juristas que subsidiou o PL 2338, que estabelece diretrizes para o uso de IA. “Quando houve o advento de outras tecnologias disruptivas, como a eletricidade, todos já sabiam o que queriam fazer”, comparou.

Os especialistas da ANPD, FGV e Microsoft compuseram o painel IA generativa, governança empresarial e marco regulatório, no evento da Fiesp.

Riscos à vista

Gonçalves lembrou o caso em que a ANPD determinou a suspensão do tratamento de dados pessoais para treinamento de IA, até a Meta se adequar à LGPD no que se refere a dados de crianças e adolescentes, além de se comprometer com mais transparência nos termos de autorização.

Há cerca de duas décadas, a evolução das soluções dos dataware house baixou drasticamente os custos de ingerir e armazenar dados, até esse estoque se tornar um passivo com o advento das regulações de direitos individuais e responsabilidade empresarial (como GDPR e LGPD).

A “afobação” com que algumas organizações entram na “corrida da IA” pode gerar confusões semelhantes: “O elefante na sala são os modelos que já foram treinados (sem necessariamente seguir as melhores práticas na ‘raspagem de dados’. A forma de resolver isso vai depender do tipo de direito em jogo. Há as hipóteses de se comprovar legítimo interesse e uso ético; há a possibilidade, ludista, de ter de se eliminar tudo; ou ainda a alternativa de remuneração aos titulares das informações”, especulou Medon.

Lilian Cintra, secretária de Direitos Digitais do MJSP (Foto: Ayrton Vignola/ Fiesp)

Durante o evento, Lilian Cintra, secretária de Direitos Digitais do MJSP (Ministério da Justiça e Segurança Pública), mencionou a portaria 961/2025, que trata do uso de ferramentas tecnológicas, coleta de dados e IA por órgãos de investigação. “A maior preocupação é como aumentar a eficiência com garantia plena de direitos fundamentais”, observou.

Em outra sessão, Fernando Tasso, juiz do TJSP (Tribunal de Justiça de São Paulo), explicou que o volume de processos torna o uso de ferramentas de IA pelo Judiciário uma prioridade de interesse público. Os parâmetros para as implementações são contemplados na agenda de projetos do Programa Justiça 4.0, que estabelece normas de uso seguro e responsável. “A malversação de algum dado nos 80 milhões de processos em cursos seria uma violação de direitos”, afirmou. “O maior risco seria a delegação do indelegável: a decisão”, enfatizou.

Entre outros riscos inaceitáveis, Tasso concluiu com a menção ao uso de algoritmos de aferição de emoções, assim como predições automáticas, como a de probabilidade de reincidência.



Matérias relacionadas

self-checkout Estratégia

Self-checkout deve envolver cada vez mais IA para reduzir perdas

Preferência por autoatendimento no varejo faz com que empresas invistam cada vez mais em tecnologias capazes de identificar e eliminar furtos na jornada de compra

julgamento ético Estratégia

OCDE não recomenda uso de IA em julgamento ético e raciocínio crítico

Relatório aponta que ferramentas não atingem nível de desempenho humano nessas duas capacidades

aulas IA generativa Estratégia

IA Generativa transforma experiência de docentes e alunos em sala de aula

Novo assistente para professores, utilizado pela Somos Educação, otimiza a rotina e impulsiona o ensino básico no Brasil

arquitetura de cibersegurança IA Estratégia

Empresas adaptam arquitetura de cibersegurança pós-IA

Relatório da Netwrix também apresenta as perdas financeiras e de valor de marca decorrentes de ataques cibernéticos

    Embratel agora é Claro empresas Saiba mais