GOOGLE PESQUISA: ChatGPT pode revelar informações pessoais

Publicado por: Editor Feed News
30/11/2023 18:29:05
Exibições: 72
Imagem: Fontes abertas
Imagem: Fontes abertas

Uma equipe de pesquisadores do Google publicou um novo estudo que mostra que o popular chatbot OpenAI com inteligência artificial ChatGPT está revelando informações pessoais de pessoas reais.

 

Como aponta a Tech Policy Press, o modelo de aprendizado de máquina que sustenta o ChatGPT e todos os chamados grandes modelos de linguagem (LLMs) foi treinado em grandes quantidades de dados coletados da Internet. Graças a isso, ela gera habilmente novas linhas de textos sem repetir os textos originais que absorveu. 

 

No entanto, foi previamente estabelecido que os geradores de imagens podem ser forçados a gerar exemplos a partir de dados protegidos por direitos autorais. Um novo estudo do Google mostra que o ChatGPT também está sujeito a isso. 

 

Uma equipe de cientistas das Universidades de Washington, Cornell, Carnegie Mellon, UC Berkeley e ETH Zurich extraiu alguns dos dados de treinamento e descobriu que alguns deles continham informações de identificação de pessoas reais: nomes, endereços de e-mail e números de telefone, etc.

 

“Usando consultas ao ChatGPT, conseguimos extrair mais de 10.000 exemplos exclusivos de treinamento literal. Podemos assumir que os invasores direcionados serão capazes de extrair muito mais dados”, observam os pesquisadores em um artigo publicado no servidor arXiv.

 

O experimento baseou-se em encontrar palavras-chave que desabilitassem o chatbot e o fizessem divulgar dados de treinamento. Assim, os pesquisadores pediram ao ChatGPT que repetisse certas palavras, em especial “poema”, ad infinitum. 

 

O objetivo deles era forçar o ChatGPT a “se desviar” de sua missão de ser um chatbot e “retornar ao seu propósito original de modelar a fala”. Embora grande parte do texto gerado fosse sem sentido, os pesquisadores do Google dizem que, em alguns casos, o ChatGPT desviou-se para copiar informações brutas diretamente de seus dados de treinamento.

 

“No geral, 16,9% das gerações (chatbots – ed.) que testamos continham informações de identificação pessoal memoráveis, e 85,8% das gerações que continham IDE potencial eram IDE reais”, afirma o artigo .

 

O ataque foi realizado contra a versão GPT 3.5 AI, que é gratuita para os usuários. 

"A OpenAI afirma que 100 milhões de pessoas usam o ChatGPT todas as semanas. Portanto, provavelmente mais de um bilhão de horas de trabalho interagiram com o modelo. Até este artigo, ninguém havia notado que o ChatGPT estava produzindo dados de treinamento em uma frequência tão alta. A preocupação é que os modelos de linguagem podem ter essas vulnerabilidades ocultas", enfatizam os pesquisadores.

 

Lembraremos que escrevemos anteriormente que os chatbots com inteligência artificial superavam a média das pessoas em criatividade.

Com informações Pravda (UA)

Imagens de notícias

Tags:

Compartilhar