A IA não entrou sorrateiramente em nossas vidas. Ele irrompeu pela porta, sentou-se à mesa e começou a terminar nossas frases.
Em vez de uma lista útil de links, o Google agora tenta responder à sua pergunta. O Copilot da Microsoft rascunha respostas ao seu chefe antes de você tomar um café. Seu telefone resume conversas que você nem lembra de ter tido.
Todas as grandes empresas de tecnologia estão correndo para adicionar IA aos seus produtos porque ninguém quer ficar para trás. E o público é muitas vezes forçado a acomodar esses caprichos corporativos devido aos efeitos crescentes da “enshittificação”, conforme explicado por Cory Doctorow no podcast Lock and Code.
As pessoas estão usando IA. Mas eles não confiam nisso.
Na nossa última pesquisa sobre privacidade, na qual reunimos 1.200 respostas de leitores do boletim informativo Malwarebytes no início deste ano, 90% dos entrevistados disseram estar preocupados com o fato de a IA usar seus dados sem consentimento.
Noventa por cento.
Não são poucos os céticos. Isso é quase todo mundo que perguntamos. Admitimos que nossa amostra provavelmente está voltada para a preocupação com a privacidade. Mas 90% das pessoas que seguem o Malwarebytes estão preocupadas com a quantidade de dados pessoais que a IA está absorvendo e o que fará com eles, então esse é um bom barômetro para o quanto todos deveriam se preocupar.
Essa preocupação está mudando a maneira como as pessoas usam a Internet:
- 88% não “compartilham livremente informações pessoais com ferramentas de IA como ChatGPT e Gemini”
- 84% não “compartilharam informações pessoais de saúde com ferramentas de IA”
- 43% “pararam de usar ChatGPT”
- 42% “pararam de usar Gemini”

Essa desconfiança não começou com IA
Claro, a IA recebe todas as manchetes. Escrevemos sobre muitos deles.
Mas há muito tempo as pessoas estão preocupadas em manter suas informações pessoais.
Da pesquisa:
- 92% estão preocupados com o facto de os seus “dados pessoais serem utilizados de forma inadequada pelas empresas”, o que representa um ligeiro aumento em relação ao ano passado (89% em 2025)
- 74% estão preocupados com o fato de seus “dados pessoais serem acessados e usados de forma inadequada pelo governo” (contra 72%)
Anos de violações de dados, práticas duvidosas de rastreamento e uso indevido perigoso por parte de corretores de dados minaram nossa confiança nas organizações para proteger nossos dados. Durante o ano passado, as organizações de saúde continuaram a relatar grandes falhas de segurança que afetaram dados confidenciais de pacientes. A FTC alertou sobre práticas “impressionantes” de vigilância comercial com as quais a maioria dos consumidores nunca concordou e, de acordo com o nosso inquérito, 49% das pessoas relataram que as suas informações pessoais foram utilizadas em fraudes que visam elas ou as suas famílias.

Quando as pessoas usam as redes sociais, geralmente entendem que seus cliques e curtidas estão sendo rastreados. Quando fazem compras on-line, esperam que a loja armazene seus históricos de compras ou rastreie os itens nos quais estão interessados. Eles entendem o conceito de anúncio e veja como ele se encaixa em sites sociais ou comerciais.
As ferramentas de IA são diferentes porque as usamos diferentemente.
Quando compartilhamos ideias, notas de reuniões de clientes, dilemas pessoais e questões de saúde com um assistente de IA, estamos tratando-o como um confidente. Talvez tenhamos pago por um nível de acesso que promete não treinar os seus modelos nos nossos dados. Mesmo quando conversamos sobre flat-packs e parafusos perdidos com o chatbot de IA de um site, nos comportamos como se estivéssemos conversando com outra pessoa e não transmitindo essa conversa para o mundo.
A interação com a IA parece íntima e coloquial, embora todos saibamos que estamos conversando com um bot. Isso torna a incerteza sobre como a IA lida com os dados que lhe fornecemos é mais pessoal e mais imediata.
Sabemos que os assistentes de IA de uma empresa estão frequentemente conectados a outras ferramentas. Sabemos que os GPTs podem ser criados por qualquer desenvolvedor ou golpista. (Confira o Malwarebytes no ChatGPT – somos um dos mocinhos). Sabemos que quase todas as plataformas empresariais ou pessoais agora possuem alguma forma de elemento de coleta de dados baseado em IA. O que a pessoa comum não sabe sobre IA parece assustador.
- Onde nossos prompts são armazenados?
- Esses prompts são usados para treinar a IA?
- Quanto tempo eles são mantidos?
- Alguém dentro da empresa pode lê-los?
- Eles podem ser comprados? Usado para publicidade? Vazou?…
Sim, as empresas publicam políticas, mas quem no mundo real e ocupado lê todas elas antes de usarmos a ferramenta? Menos da metade, mas um número crescente, com 48% afirmando que agora leem políticas e relatórios de privacidade – acima dos 43% em 2025.
Além disso, sabemos pelas manchetes recentes que as empresas estão lançando recursos de IA antes que tenham tempo de verificá-los de forma adequada.
Um vislumbre de esperança: as pessoas estão agindo
Este resultado da pesquisa chamou nossa atenção.
63% dos entrevistados concordaram com a afirmação: “Sinto-me resignado porque os meus dados pessoais já estão disponíveis e não posso recuperá-los”.
No ano passado, esse número era de 74%.

Assim, embora a preocupação com o uso indevido de dados ainda seja elevada, menos pessoas se sentem totalmente desamparadas.
Os entrevistados relataram tomar medidas práticas para limitar a exposição de seus dados.
Alguns reduziram ou interromperam o uso de certas plataformas inteiramente por questões de privacidade, incluindo mídias sociais (44% pararam de usar o Instagram, 37% pararam de usar o Facebook e 49% pararam de usar o Tiktok) e ferramentas de IA (43% pararam de usar o ChatGPT, 42% pararam de usar o Gemini).
Outros relataram compartilhar menos informações pessoais on-line ou evitar tópicos delicados em conversas digitais (88% disseram que não compartilham informações pessoais livremente com ferramentas de IA).
Há também um uso crescente de ferramentas de proteção de privacidade para seus dados, dispositivos e identidades.
- 46% usam VPN (contra 42% em 2025)
- 40% têm uma solução de proteção contra roubo de identidade (abaixo dos 43%)
- 25% usam um serviço ou solução de remoção de dados pessoais (acima de 23%)
- 71% usam um bloqueador de anúncios para navegação online (acima de 69%)
- 48% lêem políticas e relatórios de privacidade (contra 43%)
- 76% usam MFA (acima de 69%)
- 82% optam por não participar da coleta de dados, conforme possível (acima de 75%)
- 38% usam dados falsos/fictícios online sempre que possível (contra 33%)
Nenhuma dessas ações apaga rastros de dados históricos, mas limitam novas exposições. David Ruiz, defensor sênior de privacidade da Malwarebytes, disse:
“Vinte anos de inovação online apontaram muitas empresas na mesma direção – contra as pessoas comuns.
Para a maioria das pessoas hoje, as empresas que estão a introduzir ferramentas de IA nas suas vidas diárias são as mesmas empresas que rentabilizaram a sua capacidade de atenção, invadiram a sua privacidade e perderam os seus dados devido a violações. Mas uma força contrária está surgindo.
As pequenas mudanças no comportamento dos utilizadores devem encorajar outros a compreender que, mesmo agora, a privacidade continua a ser possível e valiosa.”
A proteção da privacidade pode parecer binária: ou tudo está exposto ou tudo está seguro. Mas é incremental e as respostas ao inquérito reflectem como as pessoas estão a começar a retomar o controlo dos seus dados.

O que isso significa para as empresas
As organizações que adicionam IA aos seus produtos enfrentam um público mais complexo do que poderiam imaginar inicialmente.
Durante anos, as equipes de produtos presumiram que os usuários trocariam mais dados por mais conveniência. Mas quando quase nove em cada dez pessoas disseram estar preocupadas com o facto de a IA utilizar os seus dados sem consentimento, a confiança torna-se parte do próprio produto. A Mozilla aproveitou isso e adicionou um botão simples “desligar IA” ao Firefox.
Já não é suficiente destacar o que a IA pode fazer. Os usuários querem entender o que acontece depois de clicar em “enviar”.
Nós, o povo… queremos leis de privacidade fortes
Quando a preocupação atinge o nível que vimos no nosso inquérito, surge inevitavelmente a espinhosa questão da regulamentação.
91% dos entrevistados disseram que “apoiam as leis nacionais que regulam como as empresas podem coletar, armazenar, compartilhar ou usar nossos dados pessoais”.
A questão tem menos a ver com uma ferramenta e mais com a sensação de que as barreiras de proteção não são claras. Os sistemas generativos de IA podem redigir documentos jurídicos, escrever e-mails e processar dados confidenciais com rapidez. Muitas das estruturas de privacidade existentes nos EUA, na UE e em outras regiões foram escritas antes de a IA se tornar comum.
Os reguladores estão tentando recuperar o atraso. A Lei de IA da União Europeia, aprovada em 2024, introduziu uma abordagem baseada no risco para governar determinados sistemas de IA. Nos EUA, agências federais, incluindo a FTC, emitiram orientações e avisos sobre vigilância comercial e tomada de decisão automatizada, mas ainda não possuem um estatuto de privacidade abrangente específico para IA.
O desejo por leis e regulamentações nacionais está em alta. Os consumidores querem limites que sejam compreensíveis e aplicáveis.
O que você pode fazer
Claramente não vamos abandonar toda a tecnologia. A IA não vai se extinguir. Pode ser muito útil. Usamos IA para encontrar ameaças e golpes que ninguém viu antes, o que leva a uma proteção muito melhor. Também usamos IA generativa no Scam Guard para fornecer assistência por chat 24 horas por dia, 7 dias por semana (combinada com nossa profunda experiência em pesquisa de ameaças, é claro). Muitas pessoas os usam para economizar tempo, redigir documentos ou explorar ideias. Além disso, infelizmente, para criar pequenas caricaturas de si mesmos.
A chave aqui é considerado usar.
- Limite as informações que você fornece às ferramentas públicas de IA, especialmente detalhes de saúde, dados financeiros e informações confidenciais do cliente.
- Revise as políticas de privacidade e retenção de dados das ferramentas de IA que você usa regularmente.
- Exclua contas e aplicativos que você não precisa mais.
- Audite as permissões do aplicativo pelo menos duas vezes por ano.
- Use uma VPN para reduzir o rastreamento pelo seu provedor de serviços de Internet.
- Remova suas informações dos principais sites de corretagem de dados. Verifique se suas informações pessoais foram expostas com uma verificação do Digital Footprint.
- Use um gerenciador de senhas confiável e evite reutilizar senhas entre serviços.
Na Malwarebytes, acreditamos que a privacidade é um direito humano. A proteção dos dados pessoais é inseparável da proteção da segurança pessoal. Quanto mais informações circularem sem supervisão, maiores serão as oportunidades de uso indevido, fraude e danos.
A IA continuará a se desenvolver. É improvável que essa trajetória diminua. A questão é se a confiança crescerá junto com isso.
Veja se seus dados pessoais foram expostos.
Informações da pesquisa
A Malwarebytes conduziu uma pesquisa de pulso com os leitores de seu boletim informativo entre 26 de janeiro e 3 de fevereiro de 2026, por meio da plataforma Alchemer Survey.
No total, 1.235 pessoas responderam de 72 condados, sendo a maioria dos entrevistados dos EUA, Reino Unido, Canadá e Austrália.
Deseja saber mais sobre Segurança Clique Aqui!

Perito em Computação Forense e Crimes Cibernéticos
Investigação Digital | Laudos Técnicos | Resposta a Incidentes
Bacharel em Sistemas da Informação, Certificado Microsoft Azure IA e MOS. Trabalho como Administrador de Redes, Firewall e Servidores Windows e Linux!
Minhas atividades favoritas são: Caminhar, Fazer Trilhas, Natureza, Insetos e claro ler sobre Tecnologia.

