Vulnerabilidade no ChatGPT para macOS expõe dados de usuários por meio da memória do modelo!
O recurso armazena informações de conversas anteriores e as utiliza como contexto em interações futuras.
Em uma prova de conceito, o pesquisador de segurança Johann Rehberger conseguiu fazer o modelo enviar uma cópia exata de todas as entradas e respostas para um servidor sob seu controle, ao instruir o modelo a acessar um link contendo uma imagem maliciosa. Recomenda-se revisar regularmente as memórias armazenadas, verificando a presença de dados suspeitos ou não confiáveis.
Apaixonado por internet desde os tempos da Internet discada!