
Como você pode proteger sua privacidade ao usar ferramentas de IA?
Por Sandro Felix
Publicado em 01/01/25 às 06:51
O uso de ferramentas e produtos baseados em inteligência artificial (IA) está crescendo de forma consistente. Atualmente, empresas lançam chatbots de IA para atender quase todas as necessidades dos usuários. Esses chatbots podem escrever redações, simular interações sociais, lembrar tarefas cotidianas como escovar os dentes, fazer anotações em reuniões, entre outras funções. Muitas dessas ferramentas utilizam modelos de linguagem de grande escala (LLMs), como o ChatGPT da OpenAI.
No entanto, o desenvolvimento e a ampla adoção desses modelos levantam preocupações significativas sobre privacidade. Os LLMs são treinados com grandes volumes de dados, muitas vezes coletados de maneira indiscriminada pela internet. Apesar disso, muitos usuários não têm ciência dos riscos de privacidade e proteção de dados associados ao uso dessas ferramentas de IA generativa.
Uma pesquisa recente revelou que mais de 70% dos usuários interagem com ferramentas de IA sem compreender totalmente os perigos de compartilhar informações pessoais. Além disso, pelo menos 38% dos entrevistados admitiram ter compartilhado detalhes sensíveis sem saber, expondo-se ao risco de roubo de identidade e fraudes.
Como proteger sua privacidade ao usar ferramentas de IA?
Cuidado com tendências em redes sociais
Uma tendência recente nas redes sociais incentivava usuários a pedirem a chatbots de IA que “descrevessem sua personalidade com base nas informações disponíveis”. Muitos acabaram compartilhando dados como datas de nascimento, hobbies e locais de trabalho. Essas informações podem ser combinadas por criminosos para facilitar roubo de identidade ou golpes.
- Possível risco: “Nasci em 15 de dezembro e adoro andar de bicicleta. O que isso diz sobre mim?”
- Abordagem segura: “O que um aniversário em dezembro pode sugerir sobre a personalidade de alguém?”
Evite compartilhar dados pessoais identificáveis
Especialistas do TRG Datacenters recomendam que os usuários formulem perguntas de maneira mais genérica para proteger a privacidade.
- Possível risco: “Nasci em 15 de novembro. O que isso diz sobre mim?”
- Abordagem segura: “Quais são as características de uma pessoa nascida no final do outono?”
Não divulgue informações sensíveis sobre crianças
Pais, por vezes, compartilham inadvertidamente detalhes como nome, escola ou rotina de seus filhos ao interagir com chatbots. Essas informações podem ser usadas para direcionar ataques contra crianças.
- Possível risco: “O que posso planejar para meu filho de 8 anos na Escola XYZ neste fim de semana?”
- Abordagem segura: “Quais atividades são divertidas para crianças nos fins de semana?”
Nunca compartilhe detalhes financeiros
De acordo com a Comissão Federal de Comércio dos Estados Unidos (FTC), mais de 32% dos casos de roubo de identidade estão relacionados ao compartilhamento de dados financeiros online.
- Possível risco: “Eu economizo R$ 500 por mês. Quanto devo destinar para uma viagem?”
- Abordagem segura: “Quais são as melhores estratégias para economizar para uma viagem?”
Evite compartilhar informações sobre saúde pessoal
Dados de saúde estão entre os mais visados em violações de segurança. Portanto, não divulgue históricos médicos ou fatores genéticos em interações com chatbots.
- Possível risco: “Minha família tem histórico de [condição]. Estou em risco?”
- Abordagem segura: “Quais são os sintomas mais comuns de [condição]?”
Dicas adicionais para proteger seus dados
- Evite combinar detalhes identificáveis: Nunca inclua nome, data de nascimento e local de trabalho em uma única interação.
- Escolha plataformas com recursos de privacidade fortes: Priorize ferramentas que ofereçam exclusão de dados após as sessões.
- Verifique a conformidade com leis de proteção de dados: Certifique-se de que a ferramenta está em conformidade com regulamentos como GDPR ou LGPD.
- Utilize ferramentas de monitoramento de vazamento de dados: Plataformas como o “Have I Been Pwned” podem alertá-lo se seus dados foram expostos.
