Uso do CHATGPT é bloqueado em uma a cada quatro empresas do setor financeiro

2 minutos de leitura

Análise aponta que setor controla o uso do ChatGPT, diferentemente do setor de tech, que usa cada vez mais a ferramenta com controles inteligentes



Por Redação em 14/09/2023

A Netskope realizou uma análise sobre o uso do ChatGPT em empresas de diversos setores. O mercado financeiro é o que mais controla o uso da ferramenta de inteligência artificial. De acordo com o relatório, uma em cada quatro empresas do setor financeiro bloqueia ou controla o uso da ferramenta. 

De acordo com o comunicado oficial da Netskope à imprensa, o uso do ChatGPT por empresas no setor é bem menor do que em outros segmentos da economia. Segundo eles, os controles são preventivos e, por isso, os usuários não chegam a ter acesso à plataforma. 

Já no setor de tecnologia a aderência ao uso do ChatGPT é bem maior. Apenas uma em cada cinco empresas da área tende a implementar os controles, sendo que o uso do ChatGPT em organizações deste segmento é consideravelmente maior. 

Para Ray Canzanese, diretor do Netskope Threat Labs, as empresas de tecnologia estão “aproveitando os benefícios da ferramenta com segurança, devido aos tipos de controle que estão implementando”.

Controles sobre o uso do ChatGPT

Instituições governamentais (estados e municípios) e instituições educacionais (SLED) são as que apresentam menor taxa de controle sobre o uso do ChatGPT. Além disso, apresentam também uma fraca política de treinamento de usuários, bloqueios e estratégias de prevenção contra perda de dados (DLP).

Por outro lado, entre as empresas tech, os controles são menos rigorosos do que em outros setores. Basicamente, as empresas de tecnologia permitem que seus usuários acessem o ChatGPT, mas acompanham de perto o uso da inteligência artificial e usam controles direcionados.

Confira os principais alertas sobre o uso do CHATGPT.

  • Políticas de prevenção contra perda de dados (DLP): geralmente elas permitem o acesso ao ChatGPT, mas controlam a postagem de dados confidenciais em prompts. Essas políticas são configuradas pela instituição para serem acionadas em cada postagem no ChatGPT, por isso inspecionam o conteúdo antes de permitir que o usuário prossiga.  Políticas de alerta:  são controles informativos, que fornecem a visibilidade de como os usuários dentro da empresa estão interagindo com o ChatGPT. Em alguns casos, caminham juntamente com as DLP, para fornecer visibilidade de dados potencialmente confidenciais postados no ChatGPT. 
  • Políticas de coaching do usuário: na maioria das vezes são associadas à DLP e podem notificar o usuário sobre dados postados no ChatGPT. Assim, ele será alertado sobre as regras da empresa e questionado sobre seu desejo de continuar a usar a ferramenta ou não.  
  • Políticas de bloqueio: nesse caso, os usuários não têm permissão para qualquer interação com a ferramenta, ou seja, não podem fazer login, postar prompts e, em alguns casos, não conseguem acessar a página de login.


Matérias relacionadas

Interação com uma interface holográfica de inteligência artificial (IA), destacando a conexão entre IA e empregabilidade, com um foco no Chat GPT. Estratégia

Plataforma de IA aumenta chances de emprego ao cruzar currículos e vagas de trabalho

Ferramenta desenvolvida em parceria entre Google e Senai usa inteligência artificial para orientar candidatos, identificar lacunas de qualificação e aproximar profissionais das demandas do mercado

Cérebro digital representando os riscos associados à inteligência artificial, com elementos gráficos de alerta e análise de dados Estratégia

IA supera ciberataques e passa a liderar ranking de riscos para os negócios no Brasil

Allianz Risk Barometer 2026 mostra que a IA, associada sobretudo à eficiência, passou a ser vista como um vetor de exposição a riscos operacionais, legais e reputacionais

Um profissional usando um smartphone, com elementos gráficos relacionados à inteligência artificial Estratégia

IDC: aumento das cargas de IA e escassez de memórias marcam cenário de TIC em 2026

Previsões da consultoria mostram a inteligência artificial pressionando data centers, nuvem, telecomunicações, segurança e dispositivos, em um cenário de encarecimento do hardware, redes inteligentes e novos modelos operacionais

Homem negro usando headset de realidade virtual em casa, imerso em jogos virtuais focados em cibersegurança e segurança em games. Estratégia

Cibersegurança em games expõe riscos digitais que desafiam empresas e plataformas online

O que acontece nos jogos online antecipa ameaças que já atingem o ambiente corporativo

    Embratel agora é Claro empresas Saiba mais