IA e privacidade: o que você escreve em chatbots pode não ficar só com você

A inteligência artificial entrou de vez no dia a dia. Chatbots ajudam a escrever textos, tirar dúvidas, organizar tarefas e até “conversar” quando alguém precisa desabafar. Mas uma sequência recente de casos reacendeu um alerta antigo: tudo o que é enviado para servidores de empresas pode se tornar acessível em situações específicas , por decisões judiciais, investigações, falhas de segurança ou vazamentos.

Em outras palavras, a IA não criou o risco de privacidade na internet. O que ela fez foi tornar muito mais comum que pessoas compartilhem informações íntimas, detalhadas e sensíveis em formato de conversa, como se estivessem falando com alguém de confiança.

Nos últimos dias, três episódios ilustraram essa preocupação. O primeiro envolveu a Anthropic, empresa do chatbot Claude. Um juiz federal decidiu que conversas de um homem com o Claude não estavam protegidas por sigilo advogado-cliente, mesmo ele alegando que usou a ferramenta para se preparar antes de falar com advogados. A lógica do tribunal foi direta: um chatbot não é advogado e, portanto, não se aplica a mesma proteção legal.

O segundo caso foi uma polêmica envolvendo a Ring, fabricante de câmeras e campainhas inteligentes controlada pela Amazon. A empresa exibiu um anúncio durante o Super Bowl mostrando como a IA poderia ajudar a encontrar um cachorro perdido usando imagens de câmeras de uma rede de residências. A reação foi imediata: críticos apontaram que a mesma tecnologia também poderia servir para monitorar pessoas e bairros inteiros. A empresa afirmou que usuários precisam autorizar o compartilhamento nesse tipo de busca, mas a discussão já estava posta: quando a IA cruza imagens e redes de dispositivos, o potencial de vigilância cresce.

O terceiro episódio trouxe a OpenAI, responsável pelo ChatGPT. Surgiram informações de que a empresa tinha conhecimento das interações de uma usuária no Canadá e discutiu internamente a possibilidade de reportá-la às autoridades meses antes de ela cometer um crime grave. A OpenAI afirmou que utiliza sistemas automáticos para detectar situações críticas e que, quando há risco real e iminente de dano, pode haver revisão humana limitada para decidir ações necessárias. O caso reacendeu o debate: até que ponto as empresas de IA devem compartilhar registros de conversas e em quais condições.

Para especialistas em privacidade, a base do problema é conhecida: dados enviados a empresas podem ser acessados por pessoas autorizadas, requisitados por ordem judicial ou expostos por falhas. A diferença, agora, é o comportamento do usuário. Ao contrário de um mecanismo de busca, que costuma receber termos curtos, o chatbot “puxa” uma conversa e incentiva o uso de contexto: objetivos, intenções, detalhes do trabalho, problemas de saúde, conflitos pessoais e situações delicadas.

E a tendência pode se intensificar com os chamados “agentes de IA” , assistentes que, para agir em nome do usuário, pedem acesso amplo a e-mail, arquivos, agenda, mensagens e histórico de atividades. Em troca de conveniência, cresce o volume de informações concentradas em sistemas que podem virar alvos de ataques, vazamentos ou disputas legais.

O que fazer, então, sem precisar abandonar a tecnologia? A orientação mais prática é tratar chatbots como serviços online, não como confidentes. Evitar colocar dados pessoais (como documentos, endereço, telefone, informações bancárias e senhas), não usar IA como substituta de orientação jurídica ou médica, e pensar duas vezes antes de colar conteúdos sensíveis , especialmente quando envolvem clientes, trabalho ou situações que poderiam trazer consequências caso fossem expostas.

A lição é simples: a IA facilita a vida, mas também facilita a entrega de informações que antes ficavam apenas no pensamento ou numa conversa privada. Em um mundo em que conversa vira dado, privacidade depende, cada vez mais, de hábito e cautela.