Zöe Hitzig, experiente em ciberseguridad, adverte sobre a IA: "Não anexes capturas nem fotografias"
Riscos da inteligência artificial: que dados deves deixar de compartilhar imediatamente com ChatGPT ou Gemini e como proteger tua privacidade on-line para deixar de estar exposto
Ouve o artigo agora…
No ecossistema digital atual, onde surgem perfis novos quase a diário, poderia parecer que Zöe Hitzig é simplesmente outra criadora de conteúdo mais. No entanto, sua trajectória vai bastante para além. Criminóloga especializada em ciberseguridad, Hitzig é a fundadora de bevalk.app, uma plataforma nascida baixo uma premisa clara: navegar por internet não deveria ser uma experiência intimidante. Ademais, consolidou-se como uma das primeiras vozes em Espanha em advertir de forma sistémica sobre os riscos associados ao avanço da inteligência artificial.
Faz mal umas semanas, a experiente analisava um movimento relevante dentro do sector tecnológico: o despedimento de uma pesquisadora principal de OpenAI, a organização por trás de ChatGPT. Segundo trascendió, a saída estaria vinculada a desacordos internos sobre a direcção estratégica da companhia, especialmente no relativo à possível exploração comercial de enormes volumes de dados gerados pelos utentes. Um debate que põe sobre a mesa uma questão finque: o valor —e o risco— da informação pessoal em era-a da IA.
IA ubicua: de ferramenta emergente a infra-estrutura quotidiana
A inteligência artificial tem passado em muito pouco tempo de ser uma tecnologia marginal a converter numa capa transversal em nossa vida digital. Hoje está integrada em buscadores, aplicativos de produtividade, plataformas educativas e inclusive serviços de saúde. Sua adopção em massa responde a um motivo evidente: automatiza processos, optimiza tarefas e oferece respostas rápidas em contextos onde dantes se requeria intervenção humana.
Um dos factores mais llamativos é a velocidade de sua evolução. Em mal dois anos, a IA tem passado de ser uma curiosidade tecnológica a um recurso quotidiano para milhões de pessoas. Não só se utiliza para resolver dúvidas técnicas ou gerar conteúdo, sina que muitos utentes têm começado à empregar como apoio em questões pessoais, desde consultas médicas até orientação emocional.
O lado menos visível: dados, perfis e traçabilidade
Apesar de suas vantagens, o uso intensivo de sistemas de IA propõe desafios importantes em matéria de privacidade. A cada interacção que um utente mantém com estas ferramentas gera dados. E esses dados, na maioria dos casos, não desaparecem: alojam-se, processam-se e podem ser utilizados para treinar modelos ou desenvolver perfis de comportamento.
Aqui é onde surgem as principais alertas dos experientes em ciberseguridad. Ainda que a interface de uma IA possa transmitir cercania ou anonimato, por trás dela existem infra-estruturas e equipas humanas com acesso potencial a essa informação. Em outras palavras, não se trata de um meio completamente privado nem confidencial.
Que não deverias compartilhar com uma IA
Desde o âmbito da segurança digital, diferentes especialistas têm começado a definir boas práticas para interatuar com sistemas de inteligência artificial. A recomendação geral é clara: evitar compartilhar informação sensível, inclusive quando a plataforma pareça segura.
Um dos pontos mais críticos tem que ver com os dados de saúde ou saúde mental. Ainda que estas ferramentas podem oferecer explicações gerais sobre doenças ou tratamentos, não estão desenhadas para gerir informação clínica pessoal. Compartilhar historiais médicos, diagnósticos ou problemas de saúde mental implica expor dados altamente sensíveis que poderiam ficar alojados em servidores externos. "Algo que a cada semana faz mais de um milhão e meio de pessoas", relta a experiente.
Outro risco frequente está relacionado com a informação financeira. "pode parecer odvio", começa dizendo, mas os dados como números de conta, senhas ou credenciais bancárias nunca deveriam introduzir neste tipo de plataformas. Inclusive acções aparentemente inofensivas, como subir uma captura de ecrã, podem revelar informação crítica sem que o utente seja plenamente consciente.
Documentos e identidade digital: um ativo vulnerável
O manejo de documentação legal é outro dos pontos delicados. Subir contratos, identificações ou arquivos que incluam nomes completos e outros dados pessoais pode facilitar a criação de perfis detalhados. Isto inclui desde documentos oficiais até materiais mais quotidianos como currículums ou formulários administrativos.
Na mesma linha, compartilhar informação como a direcção física, o número de identificação ou qualquer dado que permita uma identificação direta supõe um risco acrescentado. Num meio onde os dados são um ativo económico, este tipo de informação pode ter um valor significativo.
Imagens e metadatos: informação invisível
Um dos aspectos menos evidentes, mas mais relevantes, é o tratamento de imagens. Fotografias e capturas de ecrã não só contêm o que se vê a simples vista, sina também metadatos: informação adicional sobre localização, dispositivo ou contexto no que foram tomadas. Os sistemas de IA são capazes de analisar estes elementos e extrair mais dados dos que o utente imagina.
Por isso, os experientes fazem questão de evitar subir imagens pessoais ou documentos visuais sem uma revisão prévia. O que parece um simples arquivo pode converter numa fonte rica de informação para sistemas automatizados.
Um equilíbrio necessário
A inteligência artificial seguirá ganhando protagonismo nos próximos anos. Seu potencial é innegable, mas também o é a necessidade de um uso responsável. A chave não está em deixar de utilizar estas ferramentas, sina em entender como funcionam e daí envolvimentos tem interatuar com elas.
Neste novo palco digital, a alfabetización tecnológica converte-se numa concorrência essencial. Saber que dados compartilhamos, com quem e para que, será determinante para aproveitar as vantagens da IA sem comprometer nossa privacidade.