Utilizadores devem redobrar os cuidados com dados sensíveis inseridos no ChatGPT
Corpo do artigo
O ChatGPT alterou profundamente a forma como trabalhamos e interagimos com a tecnologia no dia-a-dia. De acordo com dados recentes, mais de 100 milhões de pessoas recorrem diariamente ao chatbot da OpenAI, processando mais de mil milhões de pedidos por dia.
Apesar da popularidade crescente, a plataforma tem sido alvo de críticas severas no que diz respeito à privacidade dos dados. Especialistas já a apelidaram de “buraco negro da privacidade”, alertando para os riscos associados à inserção de informações pessoais ou sensíveis.
A própria OpenAI reconhece que os dados introduzidos pelos utilizadores podem ser utilizados para treinar os seus modelos de inteligência artificial e, em determinados casos, revistos por humanos para garantir a conformidade com as regras de utilização. Além disso, sendo um serviço em nuvem, a segurança dos dados depende inteiramente das medidas de proteção implementadas pelo fornecedor.
Na prática, qualquer conteúdo introduzido na plataforma deve ser considerado como informação potencialmente pública. Perante este cenário, há vários tipos de dados que nunca devem ser partilhados com o ChatGPT — nem com qualquer outro chatbot baseado em nuvem pública.
Pedidos ilegais ou antiéticos
Ferramentas de IA possuem barreiras para evitar o uso indevido, mas isso não impede que certas interações levantem suspeitas legais. Solicitações relacionadas com crimes, fraudes ou manipulação de terceiros podem ter consequências legais. Várias legislações internacionais, como as da China ou do Reino Unido, já contemplam penalizações específicas para o uso abusivo de inteligência artificial.
Credenciais de acesso
Inserir logins, palavras-passe ou códigos de acesso em plataformas como o ChatGPT representa um risco elevado. Já se registaram incidentes em que informações de um utilizador foram, inadvertidamente, incluídas nas respostas a outro. Numa era de ferramentas com acesso a múltiplos serviços, a partilha de dados de acesso pode facilmente comprometer a segurança pessoal ou empresarial.
Informações financeiras
Números de cartões de crédito, contas bancárias ou dados similares devem ser introduzidos apenas em plataformas com protocolos de segurança robustos — como criptografia e eliminação automática dos dados após uso. Os chatbots generativos não oferecem estas garantias.
Dados confidenciais
Partilhar documentos internos, relatórios de reuniões ou informação empresarial pode constituir uma violação de segredos profissionais. O caso dos funcionários da Samsung, em 2023, que revelaram dados sensíveis através do ChatGPT, continua a ser exemplo disso. Profissionais com dever de sigilo, como médicos ou advogados, devem ser especialmente cautelosos.
Informações médicas
Embora seja tentador usar a IA para esclarecer sintomas ou questões de saúde, essa prática implica riscos sérios. O ChatGPT não assegura privacidade nem está autorizado a prestar aconselhamento clínico. Para instituições de saúde, o uso indevido pode resultar em multas e danos reputacionais.