Investimento, regulação e uso responsável. Esses são os pilares que definem como os benefícios da IA seriam compartilhados de forma equitativa entre os diversos segmentos das organizações, da sociedade e as pessoas. A advertência foi feita pelos especialistas que participaram do “Qual é o verdadeiro custo socioeconômico da IA“, na trilha “As mudanças socioeconômicas que vêm com a IA“, no Febraban Tech 2025.
Glauco Arbix, coordenador do Centro de IA da USP, avalia que a IA é a tecnologia mais poderosa já criada. “Temos que atender à falta de transparência, ao impacto no mercado de trabalho, ao aumento da desigualdade entre países e às lacunas do sistema educacional”, enumera. “Uma tecnologia poderosa sem regulação desperta atenção aos riscos”, observa Carla Lopes, IT senior head de Contas, Investimentos e Seguros da F1rst/Santander.
Para Alexandre Del Rey, fundador da I2AI (Associação Internacional de IA), o desafio começa com um alinhamento básico. “Alinhamento entre humanos sobre o que fazer com a tecnologia é o ponto essencial”, diz.
Gabriela Tourinho, head de Inteligência Artificial do BTG Pactual, lembra que todas as tecnologias começam com barreiras. “Toda tecnologia tem um custo inicial de adoção alto”, constata. Carla Lopes complementa: “Quando foi criada a penicilina, era acessível a poucas pessoas, até se chegar à generalização de seus benefícios”, exemplifica.
A especialista da F1rst/Santander nota que, no setor financeiro, o uso da IA ainda está concentrado na otimização de modelos existentes. “Começamos a explorar a possibilidade de criação de processos”, menciona.
Del Rey reforça que é preciso avançar com abordagens efetivamente inovadoras. “Somos acostumados a ver humanos executando tarefas que seguem um script”, diz, se referindo aos processos tipicamente automatizados ou assistidos por IA. “Falta nos apropriarmos da tecnologia para obtermos novas possibilidades de mudanças e melhorias”, avalia.
Mitos e limites da IA
Entre os riscos associados à falta de transparência, o fenômeno conhecido como “IA wash” foi citado. Trata-se da prática de apresentar soluções como automatizadas ou baseadas em IA quando, na prática, contam com trabalho humano oculto. Um dos exemplos mais notórios é o da Builder AI, que chegou a levantar US$ 450 milhões em investimentos e atingiu US$ 5 bilhões em avaliação de mercado antes de ser revelado que sua codificação “100% automatizada” era, na verdade, realizada por centenas de programadores mal pagos na Índia.
Em meio a uma série de previsões, Arbix enfatiza que há problemas evidentes e imediatos. “A produtividade é uma das questões em aberto. Todos falam e usam, em alguma medida, a IA. Mas o ritmo em que alteram os processos centrais das empresas é lento”, aponta. “Outra preocupação é a questão ambiental. Se olharmos o impacto da GenAI hoje, é muito ruim. Pode ser que a IA ajude a resolver, mas isso seria no futuro”, acrescenta.
O pesquisador da USP também chama atenção para os riscos em decisões críticas e ambientes produtivos. “Além de alucinar, há modelos que se moldam à resposta que agrada ao usuário”, adverte.
Carla reconhece que grande parte dos projetos com IA, particularmente na indústria financeira, se direcionam a processos internos das organizações. “Na parte transacional, há muito cuidado com a aplicação de novas tecnologias”, diz.
Gabriela Tourinho reforça que o desenvolvimento de uma IA inclusiva exige aporte financeiro. “A palavra-chave é investimento”, afirma. Ela lembra que, enquanto a EBIA (Estratégia Brasileira de IA) dá diretrizes, o PBIA (Plano Brasileiro de IA) especifica a alocação de R$ 23 bilhões em infraestrutura, capacitação e pesquisa.
Del Rey destaca que nem todas as IAs estão no mesmo nível de maturidade. “Há casos de uso maduros, com ganhos claros de produtividade. A IA dos aplicativos de rotas é um exemplo”, cita. “Em breve teremos noção do que é o mundo com GenAI. Mas usar sem saber a função e o limite é como tentar apertar parafuso com martelo”, compara.
Empreendedorismo da fraude
Rafael Zanatta, diretor da Data Privacy Brasil, alerta para os riscos de segurança da informação. “A IA tem fomentado o empreendedorismo da fraude. A GenAI habilita a engenharia social em larga escala. Isso, combinado aos vazamentos de dados, ajuda a gerar perdas dimensionadas em até R$ 10 bilhões com golpes no Brasil”, estima.
Além da estrutura insuficiente da ANPD (Agência Nacional de Proteção de Dados), Zanatta critica a falta de interoperabilidade entre as delegacias de crimes cibernéticos. “Tem que haver mais coordenação e cooperação com a ANPD. Temos um problema coletivo, que afeta a economia popular”, enfatiza.
Na prática, Zanatta relata que, na Data Privacy, o uso de GenAI é restrito a tarefas como transcrições e traduções. “Para produção de conteúdo, o resultado é um desastre”, revela. “Para ajudar na forma, a GenAI é ótima. Mas não funciona para o conteúdo”, avalia. Ele pondera, contudo, que essa limitação pode ser superada com projetos colaborativos, como o que vem sendo desenvolvido pelo CNJ (Conselho Nacional de Justiça), que trabalha na criação de bases confiáveis de jurisprudência para evitar que petições sejam baseadas em casos “inventados” pelas plataformas de GenAI na web.
Arbix rejeita a ideia de que regulação possa inibir a inovação. “Entre os setores mais regulados no mundo estão Saúde e Aviação, que são também os mais inovadores”, argumenta. E alerta: “Hoje temos uma autorregulação por parte das grandes plataformas. Nesse caso, só nos restaria torcer para que os interesses dessas companhias venham ao encontro dos benefícios que esperamos”.