Embora essa tecnologia de Inteligência Artificial seja impressionante, é errado confiar nela 100%. Qual é o problema? Eu tenho alguns pontos para você considerar.
O ChatGPT é um chatbot de IA feito pela empresa OpenAI e é amado por sua incrível capacidade de gerar imitações convincentes da escrita humana.
De fato, quando apareceu pela primeira vez em público em novembro de 2022, a reação foi, no mínimo, uau. Influenciadores como Marc Andreessen e Bill Gates o chamaram de “pura magia” e “a melhor coisa já criada na computação”. Tanto especialistas em vários campos quanto usuários comuns compartilharam esse espanto generalizado.
Eles testaram o ChatGPT para suas necessidades, escreveram dezenas de artigos sobre sua frieza e previram o breve desaparecimento de algumas profissões como obsoletas.
Mas……Espere. O ChatGPT não é tão inteligente (pelo menos por enquanto). A inteligência do ChatGPT é supervalorizada, embora as conversas com ele lembrem as conversas com um humano, o fato é que o ChatGPT não entende o significado do que está “dizendo”.
O ChatGPT é tendencioso, comete erros e fornece informações falsas (nesse aspecto é quase um ser humano….rsrsrs)… Ah, sim! Se você disser que está errado, o chatbot irá admitir. Mas e se você não apontar o erro, aceitando suas informações como corretas?
Abaixo estão alguns grandes problemas com o ChatGPT. Aqueles que acreditam que ele pode resolver todos os seus problemas, substituí-los no trabalho e responder a todas as suas perguntas devem considerar essas questões.
E lembre-se: Em 2017 previram que o Radiologista seria substituído 100% pela IA e que os carros autônomos estariam por aí substituindo motoristas graças à IA. Bom, estamos em 2023 e ainda esperando essas previsões se tornarem realidade. Cuidado com os “Influencers”. Eles querem apenas engajamento em redes sociais e não têm qualquer cuidado ou responsabilidade em suas previsões.
Informações Genéricas Sem Contexto
Problema: ChatGPT não entende a complexidade da linguagem humana; ele apenas gera palavras e não entende o contexto – o resultado: são informações muito genéricas, sem profundidade ou insights e respostas erradas.
Este chatbot é um LLM (Large Language Model) treinado em enormes bancos de dados de texto e, portanto, capaz de gerar texto coerente sobre muitos tópicos. E é incrível!
Mas:
Isso significa que o ChatGPT (assim como outros geradores de texto) não faz nada além de usar os padrões estatísticos desses bancos de dados para prever prováveis sequências de palavras. Ou seja, ele não conhece o significado das palavras e não consegue compreender a semântica por trás dessas palavras. Como resultado, ele gera respostas com base em uma determinada entrada sem contexto, profundidade ou insights únicos.
Como disse David McGuire,
“Neste momento, o ChatGPT parece um papagaio, repetindo frases aprendidas sem entender o que elas significam. É um truque inegavelmente impressionante, mas não é escrever com conhecimento cognitivo. Apenas tem a aparência de escrever.”
O ChatGPT é ótimo para responder a perguntas do tipo “o que é” da Wikipédia, gerar algumas ideias de redação quando você travar, lidar com tarefas repetitivas de baixo esforço (como escrever títulos, meta descrições, postagens de mídia social, resumos de conteúdo) ou revisar seus rascunhos para erros gramaticais.
Mas o ChatGPT não o deixará sem trabalho, pois ainda há um longo caminho a percorrer para igualar as habilidades dos seres humanos.
Para especialistas em tecnologia, como profissionais de SEO e web designers, que criam páginas da Web com conteúdo do ChatGPT:
Lembre-se, o que o ChatGPT gera não é original, mas baseado em informações pré-existentes. Se todos começarem a publicar conteúdo de IA, a maioria dos sites não terá nada além de postagens de imitação e não fornecerão nenhuma informação nova.
O Google considera conteúdo gerado por IA como spam, comparando-o com a técnica de black hat SEO que os especialistas conhecem como rotação de conteúdo.
Informação Falsa
Problema: ChatGPT pode apresentar informações falsas da internet como se fossem verdadeiras.
Como o ChatGPT não consegue distinguir entre declarações verdadeiras e falsas na Internet, às vezes faz com que as informações erradas pareçam verdadeiras. E, convenhamos, nem todos os humanos irão investigar os resultados do ChatGPT mais de perto, pedir referências, verificar essas referências, etc. Eles obtêm a resposta, acreditam que está correta e a usam sempre que necessário.
Esses usuários devem entender que o ChatGPT não é um assistente de IA como Siri ou Alexa. Ele não usa a internet para encontrar respostas.
É um gerador de texto construindo respostas palavra por palavra, selecionando “tokens” que fazem as frases parecerem coerentes. Em seguida, ele “prevê” sequências estatisticamente prováveis de palavras sem nenhuma análise para saber se elas são precisas.
Ele faz uma série de suposições onde algumas podem conter verdade.
Respostas Tendenciosas e Imprecisas
Problema: O ChatGPT fornece respostas tendenciosas ou imprecisas para questões que permanecem controversas (religião, política, aborto, leis de armas, etc.). As informações que ele compartilha sobre raça, gênero ou grupos minoritários às vezes são discriminatórias.
O ChatGPT usa todas as informações (passadas e presentes) para gerar suas respostas de texto. Dado que os humanos escreveram essas informações em momentos diferentes, o chatbot geralmente gera os mesmos vieses que os autores humanos tiveram.
Pode resultar em respostas discriminatórias contra gênero, raça ou grupos minoritários. A OpenAI sabe do problema, tentando mudar isso e fazer o ChatGPT soar politicamente correto. No entanto, ser “politicamente correto” não é igual a ser imparcial.
Tentando “agradar” a todos e não soar discriminatório, o ChatGPT parece incapaz de tirar conclusões lógicas básicas. Suas respostas tornam-se imprecisas ou, novamente, genéricas. Ele não pode fornecer respostas diretas, evitando informações aparentemente lógicas e validadas por pesquisas.
Habilidades de Comunicação Ameaçadas
Problema: ChatGPT nos faz falhar nas habilidades de comunicação. Contando com uma máquina para conversar, perdemos a conexão humana com os outros.
Uma pessoa conversa com o ChatGPT como se fosse um humano. A pessoa faz perguntas, responde às respostas do ChatGPT, tenta convencer uma máquina de que ela está errada e fala com ela como se fosse um diálogo com uma pessoa real. Além disso, a pessoa copia as declarações do chatbot ao discutir questões relacionadas ao trabalho com seus colegas. Sim, tem muita gente fazendo isso.
O problema que vejo aqui é que as pessoas podem começar a confiar demais em uma máquina para conversar, perdendo habilidades genuínas de comunicação de que precisamos para interagir com o mundo.
Pedindo ao ChatGPT para escrever ou dizer algo para eles, as pessoas podem “esquecer” como colaborar com outras pessoas, construir comunicação escrita e pensar criticamente.
Antes do ChatGPT, os professores lutavam contra violações de integridade acadêmica, como usar serviços de redação personalizados para lidar com tarefas. Agora eles veem que um aluno pode pedir ao ChatGPT para escrever uma redação ou qualquer outro trabalho da faculdade do zero, e o resultado pode ser melhor do que o que esse aluno forneceria se escrevesse esse trabalho sozinho.
E?
Acontece que o uso irresponsável do СhatGPT resulta na incapacidade dos jovens de escrever, comunicar seus pontos de vista, usar argumentos lógicos e comprovados, construir conversas e participar de discussões genuínas. O resultado prático disso a longo prazo pode ser muito ruim.
Conclusão
Não me entenda mal. Eu não demonizo o ChatGPT e digo que ele não tem o direito de existir. Só não quero que as pessoas confiem na tecnologia para tomar decisões essenciais e pensem nela como “pura magia” capaz de resolver todos os seus problemas e substituí-los no trabalho.
Os LLMs (Large Language Models) nunca foram a solução para as preocupações humanas. Tudo o que eles fazem é estruturar a experiência humana por meio da manipulação de símbolos. Eu pensaria no ChatGPT e seus análogos como assistentes, não artistas em tempo integral. Mas, quando usados corretamente, eles podem se tornar uma mão útil e uma notável ferramenta de produtividade.
David Matos
Baseado no artigo: Why ChatGPT Is Not as Intelligent as Many Believe
Outras Referências:
Curso Gratuito Fundamentos de Linguagem Python Para Análise de Dados e Data Science (Com ChatGPT)
David,
Excelente as suas colocações e muito importantes para avaliarmos o nosso conhecimento cognitivo.
Ainda não tive oportunidade de usar o ChatGPT pois prefiro buscar informações com profundidade.
O que me causa mais medo não é o que o ChatGPT é capaz de fazer. O que mais me causa medo é as pessoas serem incapazes de perceber o que é certo e o que é errado.
E também concordo que deve ser uma “espécie nova” de papagaio descoberto na “random forest” da Open IA.
Obrigado Ademir.