À medida que o setor de tecnologia corre para desenvolver e implantar uma safra de novos e poderosos chatbots baseados em IA (Inteligência Artificial), sua adoção generalizada acendeu um novo conjunto de preocupações com a privacidade de dados entre algumas empresas, reguladores e observadores do setor.
Algumas empresas, incluindo o JPMorgan Chase (JPM), reprimiram o uso do ChatGPT pelos funcionários, o chatbot de IA viral que deu início à corrida armamentista de IA das Big Techs, devido a preocupações de conformidade relacionadas ao uso de software de terceiros pelos funcionários.
Isso só aumentou as preocupações crescentes com a privacidade quando a OpenAI, a empresa por trás do ChatGPT, divulgou que teve que colocar a ferramenta offline temporariamente em 20 de março de 2023 para corrigir um bug que permitia que alguns usuários vissem as linhas de assunto do histórico de bate-papo de outros usuários.
O mesmo bug, agora corrigido, também possibilitou “alguns usuários verem o nome e sobrenome de outro usuário ativo, endereço de e-mail, endereço de pagamento, os últimos quatro dígitos (somente) de um número de cartão de crédito e data de validade do cartão de crédito, ” OpenAI disse em um post em seu blog.
E recentemente os reguladores da Itália emitiram uma proibição temporária do ChatGPT no país, citando preocupações com a privacidade depois que a OpenAI divulgou a violação.
Uma “Caixa Preta” de Dados
“As considerações de privacidade com algo como ChatGPT não são exageradas”, disse Mark McCreary, co-presidente da prática de privacidade e segurança de dados do escritório de advocacia Fox Rothschild LLP, à CNN. “É como uma caixa preta.”
Com o ChatGPT, lançado ao público no final de novembro de 2022, os usuários podem gerar textos, histórias e letras de músicas simplesmente digitando prompts.
Desde então, o Google e a Microsoft também lançaram ferramentas de IA, que funcionam da mesma maneira e são alimentadas por grandes modelos de linguagem treinados em vastos tesouros de dados online.
Quando os usuários inserem informações nessas ferramentas, McCreary disse: “Você não sabe como isso será usado”. Isso levanta preocupações particularmente altas para as empresas.
À medida que mais e mais funcionários adotam casualmente essas ferramentas para ajudar com e-mails de trabalho ou anotações de reuniões, McCreary disse: “Acho que a oportunidade de os segredos comerciais da empresa serem lançados nessas diferentes IAs vai aumentar”.
Steve Mills, diretor de ética de IA do Boston Consulting Group, também disse à CNN que a maior preocupação com a privacidade que a maioria das empresas tem em relação a essas ferramentas é a “divulgação inadvertida de informações confidenciais”.
“Você tem todos esses funcionários fazendo coisas que podem parecer muito inócuas, como: ‘Ah, posso usar isso para resumir anotações de uma reunião’”, disse Mills. “Mas, ao colar as anotações da reunião no prompt, você, potencialmente, revela um monte de informações confidenciais.”
Se os dados inseridos pelas pessoas estão sendo usados para treinar ainda mais essas ferramentas de IA, como afirmaram muitas das empresas por trás das ferramentas, então você “perdeu o controle desses dados e outra pessoa os possui”, acrescentou Mills.
Uma Política de Privacidade de 2.000 Palavras
A OpenAI, empresa apoiada pela Microsoft e por trás do ChatGPT, diz em sua política de privacidade que coleta todos os tipos de informações pessoais das pessoas que usam seus serviços. Ela diz que pode usar essas informações para melhorar ou analisar seus serviços, realizar pesquisas, se comunicar com os usuários e desenvolver novos programas e serviços, entre outras coisas.
A política de privacidade declara que pode fornecer informações pessoais a terceiros sem aviso prévio ao usuário, a menos que exigido por lei.
Se a política de privacidade de mais de 2.000 palavras parece um pouco opaca, provavelmente porque isso se tornou a norma do setor na era da Internet. O OpenAI também possui um documento de Termos de Uso separado, que coloca a maior parte do ônus no usuário para tomar as medidas apropriadas ao se envolver com suas ferramentas.
A OpenAI também publicou um post em seu blog descrevendo sua abordagem à segurança da IA. “Não usamos dados para vender nossos serviços, anunciar ou criar perfis de pessoas – usamos dados para tornar nossos modelos mais úteis para as pessoas”, afirma a postagem do blog. “O ChatGPT, por exemplo, melhora com treinamento adicional sobre as conversas que as pessoas têm com ele.”
A política de privacidade do Google, que inclui sua ferramenta Bard, é igualmente prolixa e possui termos de serviço adicionais para seus usuários de IA generativa.
A empresa afirma que, para ajudar a melhorar o Bard e proteger a privacidade dos usuários, “selecionamos um subconjunto de conversas e usamos ferramentas automatizadas para ajudar a remover informações de identificação pessoal”.
“Essas amostras de conversas podem ser revisadas por pessoas treinadas e mantidas por até 3 anos, separadamente de sua Conta do Google”, afirma a empresa em um FAQ separado para o Bard. A empresa também adverte:
“Não inclua informações que possam ser usadas para identificar você ou outras pessoas em suas conversas com o Bard”. O FAQ também afirma que as conversas do Bard não estão sendo usadas para fins publicitários e “comunicaremos claramente quaisquer mudanças nessa abordagem no futuro”.
O Google também disse à CNN que os usuários podem “optar facilmente por usar o Bard sem salvar suas conversas em sua Conta do Google”. Os usuários do Bard também podem revisar seus prompts ou excluir as conversas do Bard por meio deste link. “Também temos proteções projetadas para impedir que a Bard inclua informações de identificação pessoal em suas respostas”, disse o Google.
“Ainda estamos aprendendo exatamente como tudo isso funciona”, disse Mills à CNN. “Você simplesmente não sabe como as informações são inseridas, se elas são usadas para retreinar esses modelos, como elas se manifestam como saídas em algum momento ou se o fazem.”
Mills acrescentou que às vezes os usuários e desenvolvedores nem percebem os riscos à privacidade que espreitam com as novas tecnologias até que seja tarde demais.
Um exemplo que ele citou foram os primeiros recursos de preenchimento automático, alguns dos quais acabaram tendo algumas consequências não intencionais, como preencher um número de previdência social que um usuário começou a digitar – geralmente para alarme e surpresa do usuário.
Por fim, Mills disse: “Minha opinião agora é que você não deve colocar nada nessas ferramentas que seja confidencial e que não deseja compartilhar com outras pessoas”.
Traduzido do original da CNN: Don’t tell anything to a chatbot you want to keep private
As empresas devem ficar atentas a isso!
David Matos