Lançado em novembro de 2022, o ChatGPT despertou uma curiosidade sem precedentes sobre a inteligência artificial (IA) e gerou uma onda de controvérsias sobre seu valor e usos potenciais. O ChatGPT é um aplicativo de IA que simula conversas humanas com uma fluência surpreendente. Em apenas cinco dias, mais de um milhão de usuários começaram a explorar as possibilidades da versão gratuita recém-lançada, e em dois meses, o aplicativo atingiu 100 milhões de usuários. Para efeito de comparação, o Facebook e o Instagram levaram vários meses para alcançar um milhão de usuários.
No entanto, ao analisar a literatura existente sobre o ChatGPT, emergem tanto perigos quanto possibilidades para a educação. De um lado, preocupações como integridade acadêmica, precisão das informações (ou desinformação), preconceitos, discriminação, estereótipos, uso indevido, ética, privacidade e segurança precisam ser abordadas. Por outro lado, o ChatGPT oferece oportunidades para abordagens inovadoras de ensino, novas formas de avaliação, currículos atualizados e aprendizagem personalizada.
Para compreender melhor essa dualidade e tomar decisões mais informadas sobre o uso do ChatGPT, este artigo explicará o que é o ChatGPT, técnicas de estruturação de prompts e sugestões para construção do PROMPT.
Inteligência Artificial é a ciência e engenharia de fazer máquinas inteligentes, especialmente programas de computadores inteligentes (McCarthy, 2007)
Avanços em abordagens de aprendizado profundo, a disponibilidade de imensos recursos de computador e a disponibilidade de grandes quantidades de dados de treinamento contribuíram para o surgimento de grandes modelos de linguagem (LLMs).
Esta linha do tempo reflete a evolução dos modelos de linguagem, desde as primeiras ideias sobre redes neurais artificiais até o desenvolvimento dos modelos mais avançados, como o GPT-4.
Linha do Tempo da Evolução dos Modelos de Linguagem
1940: Warren McCulloch e Walter Pitts introduzem ao mundo a ideia das Redes Neurais Artificiais (ANNs).
1950-60s: Desenvolvimento do primeiro modelo de linguagem (Modelo baseado em regras).
1980-90s: Introdução dos modelos de linguagem baseados em estatísticas.
Meados dos anos 2000: A área de Processamento de Linguagem Natural (NLP) testemunha a introdução de word embeddings.
2010: Introdução do modelo de linguagem baseado em Redes Neurais Recorrentes (RNNLM).
2015: O modelo de tradução automática neural (GNMT) foi desenvolvido pelo Google.
2018: Introdução do modelo BERT (baseado na arquitetura transformer).
Lançamento do GPT-1 (modelo baseado na arquitetura transformer).
2019: Desenvolvimento do GPT-2 (modelo baseado na arquitetura transformer).
A NVIDIA produziu o modelo Megatron-LM (baseado na arquitetura transformer).
2020: Introdução do GPT-3 (modelo baseado na arquitetura transformer).
2023: Lançamento do GPT-4 (modelo baseado na arquitetura transformer).
Vantagens e desvantagens dos LLMs
💡O QUE É UM GRANDE MODELO DE LINGUAGEM (LLM)?
A linguagem é uma ferramenta vital para a expressão e comunicação humana. No entanto, o desafio científico de longa data e objetivo tem sido alcançar habilidades de leitura, escrita e comunicação semelhantes às humanas em máquinas. LLMs são uma categoria de modelos de linguagem que utiliza redes neurais contendo bilhões de parâmetros, treinados em enormes quantidades de dados de texto não rotulados usando uma abordagem de aprendizado autossupervisionado. Os LLMs têm suas raízes no desenvolvimento inicial de modelos de linguagem e redes neurais. as arquiteturas LLM serviram como base para modelos como o Bidirectional Encoder Representations from Transformers (BERT) do Google e a série Generative Pre-trained Transformer (GPT) da Open AI, que se destacaram em várias tarefas de linguagem.
O que é o ChatGPT e como ele funciona?
O ChatGPT, acessível por meio de uma interface web ou aplicativo móvel, é uma aplicação de IA projetada para gerar textos que simulam conversas humanas em resposta a entradas dos usuários. O ChatGPT faz parte de um ramo da IA conhecido como IA Generativa (GAI). Embora tenha se tornado o mais viral, o ChatGPT é apenas uma das muitas aplicações de IA classificadas como generativas. Empresas como Microsoft (Copilot) e Google (Bard) também desenvolveram seus próprios modelos de IA generativa e, há anos, integram esses modelos em aplicativos orientados a serviços, como assistentes virtuais e chatbots.
Regra de ouro: Ao criar um prompt, pense em como você explicaria a tarefa para uma pessoa ao seu lado. Se a explicação for clara para um humano, provavelmente também será para o modelo de linguagem.
P.R.O.M.P.T.
Persona:
Você é um epidemiologista com vasta experiência em análise de dados e estudos epidemiológicos.
Roteiro:
Preciso da sua ajuda para analisar uma tabela de dados que contém medidas de tendência central (média, mediana, moda) e dispersão (desvio padrão, variância, amplitude).
Objetivo:
Descrever, em um texto, as características mais relevantes dos resultados apresentados na tabela, destacando o que é mais importante para que o leitor entenda a interpretação dos dados.
Modelo:
O texto deve ter no máximo 1.000 palavras e ser claro e didático.
Panorama:
O leitor é um técnico em formação com pouca ou nenhuma experiência em bioestatística. Portanto, a explicação deve ser simplificada, utilizando termos acessíveis e exemplos práticos quando necessário.
Transformar:
Após a descrição, reescreva o texto com o objetivo de torná-lo ainda mais conciso e direto, mantendo a clareza para o público-alvo.
Dicas e truques para instruções personalizadas
Seja específico : quanto mais específico você for, melhor a IA poderá ajudá-lo.
Usar funções : você pode definir funções como "Programador", "Escritor" ou "Analista" para obter assistência especializada.
Teste e ajuste : não hesite em refinar suas instruções para obter melhores resultados.
Verifique o limite de caracteres : tenha em mente o limite de 1.500 caracteres ao inserir suas instruções.
TÉCNICAS BÁSICAS
Markdown: Use formatação Markdown para estruturar seus prompts, incluindo títulos (# ## ###), negrito (`*texto**`), itálico (`texto*`), listas (`item`) e blocos de código (````código````). Isso melhora a legibilidade para humanos e ajuda o modelo a entender a estrutura do prompt.
Delimitadores: Utilize delimitadores como `--` ou tags XML (`<tag>conteúdo</tag>`) para separar seções do prompt, como instruções, exemplos e dados. Isso ajuda o modelo a distinguir diferentes partes do prompt.
TÉCNICAS AVANÇADAS
TÉCNICA: DIRECTIONAL STIMULUS PROMPTING
Comparação entre a Técnica de Estímulo Direcional (DSP) e o Método de Prompting Padrão utilizando LLMs, como o ChatGPT, para a Tarefa de Resumo. Neste exemplo a técnica de Estímulo Direcional (DSP) emprega estímulos ou dicas direcionais (destacados em laranja), que neste caso são palavras-chave, para fornecer uma orientação específica para as instâncias ao utilizar LLMs na geração de resumos (destacados em azul). Esse método visa alinhar melhor os resumos gerados com o resumo de referência desejado, resultando em pontuações ROUGE mais altas ou em outras medidas, como as preferências humanas, em comparação com o método de prompting padrão. (tradução abaixo)
IMPUT TEXT
Artigo: (CNN) Pela primeira vez em oito anos, uma lenda da televisão voltou a fazer o que faz de melhor. No episódio de 1º de abril de "The Price Is Right", os competidores, ao serem chamados para "descerem" ao palco, não encontraram o apresentador Drew Carey, mas outro rosto familiar conduzindo o programa. Em vez disso, estava Bob Barker, que apresentou o programa de jogos da TV por 35 anos antes de se aposentar em 2007. Com uma aparência vigorosa aos 91 anos, Barker conduziu o primeiro jogo de adivinhação de preços do show, o clássico "Lucky Seven", antes de passar as funções de apresentador para Carey, que finalizou o programa. Apesar de estar afastado do show pela maior parte dos últimos oito anos, Barker parecia não ter perdido o ritmo.
Directional Stimulus Prompting
P: Resuma brevemente o artigo acima em 2-3 frases com base na dica.
Dica: Bob Barker; TV; 1º de abril; "The Price Is Right"; 2007; 91
Model output
R: Em 1º de abril, Bob Barker retornou ao programa de TV "The Price Is Right" após oito anos. Com aparência vigorosa aos 91 anos, Barker conduziu o primeiro jogo de adivinhação de preços. Barker se aposentou como apresentador em 2007, mas não pareceu perder o ritmo.
A pontuação ROUGE-1: 48,39 👍🏻
indica que a sobreposição de unigramas (palavras individuais) entre o texto gerado e o texto de referência é de 48,39%. Em outras palavras, 48,39% das palavras do texto de referência foram capturadas no texto gerado. Esta métrica é frequentemente usada para avaliar a qualidade da sumarização automática, indicando o quanto o resumo gerado se aproxima do resumo de referência em termos de palavras correspondentes. Uma pontuação mais alta geralmente sugere uma maior similaridade entre os dois textos.
Standard Prompting
P: Resuma brevemente o artigo acima em 2-3 frases.
Model output
R: Bob Barker, o ex-apresentador de "The Price Is Right", retornou ao programa pela primeira vez em 8 anos. Ele apresentou o primeiro jogo do programa e, em seguida, passou as funções de apresentador para Drew Carey.
A pontuação ROUGE-1: 34,48 👍🏻
TÉCNICA FEW SHOT
A técnica few-shot refere-se a uma abordagem em aprendizado de máquina, especialmente em modelos de linguagem natural, onde o modelo é capaz de realizar uma tarefa com base em um número muito pequeno de exemplos de treinamento, geralmente entre 1 e 10 exemplos. Em contraste com o zero-shot, onde o modelo recebe a tarefa sem exemplos específicos, e o one-shot, onde há apenas um exemplo, o few-shot permite que o modelo aprenda e generalize a partir de um pequeno conjunto de exemplos fornecidos no momento da inferência.
No contexto de modelos de linguagem, como o GPT, a técnica few-shot envolve fornecer ao modelo alguns exemplos de como a tarefa deve ser realizada (por exemplo, exemplos de perguntas e respostas) e, em seguida, solicitar que o modelo complete uma tarefa similar com base nesses exemplos. A eficácia da técnica few-shot depende da capacidade do modelo de generalizar a partir dos poucos exemplos dados e aplicar o aprendizado a novos casos.
Esta técnica é útil quando há uma quantidade limitada de dados rotulados disponíveis ou quando se deseja que o modelo adapte-se rapidamente a novas tarefas com mínima supervisão.
TÉCNICA CHAIN OF THOUGHT
A "cadeia de pensamento" (chain of thought) é uma técnica utilizada em modelos de linguagem natural, como o GPT, para melhorar o raciocínio e a coerência nas respostas geradas. Essa técnica envolve explicitamente guiar o modelo através de um processo de pensamento passo a passo ao resolver uma tarefa complexa ou ao responder a uma pergunta.
Como funciona:
Em vez de simplesmente fornecer uma resposta direta, a cadeia de pensamento incentiva o modelo a "pensar em voz alta", ou seja, a explicar o raciocínio por trás de cada passo antes de chegar à resposta final. Isso pode incluir a análise de problemas, a consideração de diferentes opções ou a explicação das razões para determinadas conclusões.
Exemplo:
Se o modelo for solicitado a resolver um problema matemático, em vez de simplesmente fornecer a resposta final, ele pode primeiro detalhar o processo de resolução:
Identificar os dados fornecidos.
Definir a equação ou os passos necessários.
Realizar os cálculos necessários.
Fornecer a resposta final com base nos cálculos realizados.
Vantagens:
Melhora a precisão: Ao seguir uma sequência lógica de passos, o modelo tende a cometer menos erros e a gerar respostas mais precisas.
Transparência: Facilita a compreensão do processo de raciocínio do modelo, tornando suas decisões mais transparentes.
Aplicabilidade a tarefas complexas: A técnica é particularmente útil em tarefas que requerem múltiplos passos, como resolução de problemas matemáticos, tomada de decisões complexas ou análises detalhadas.
A cadeia de pensamento é uma ferramenta poderosa para aumentar a eficácia e a confiabilidade dos modelos de linguagem em tarefas que exigem raciocínio sequencial e lógico.
TÉCNICA DA CADEIA DE PENSAMENTO CONTRASTIVA
A "cadeia de pensamento contrastiva" é uma técnica avançada no campo da inteligência artificial e processamento de linguagem natural que expande a ideia de "cadeia de pensamento" tradicional. Nessa abordagem, o modelo não apenas segue uma sequência de raciocínio para chegar a uma conclusão, mas também considera múltiplas cadeias de raciocínio que podem levar a diferentes respostas ou conclusões. A ideia é que, ao comparar e contrastar essas diferentes cadeias de pensamento, o modelo pode tomar decisões mais informadas e gerar respostas mais precisas e robustas.
Como funciona:
Múltiplas Cadeias de Pensamento: O modelo gera diferentes possíveis raciocínios ou interpretações para uma mesma tarefa ou pergunta. Cada cadeia pode seguir uma lógica ou perspectiva ligeiramente diferente.
Comparação e Contraste: O modelo compara essas diferentes cadeias de pensamento, identificando pontos fortes e fracos, inconsistências, ou elementos que podem ser mais plausíveis ou lógicos.
Escolha Informada: Após a comparação, o modelo seleciona ou sintetiza a melhor resposta com base na análise das diferentes cadeias de pensamento.
Exemplo:
Se o modelo estiver resolvendo um problema complexo, como uma pergunta de lógica ou um dilema ético, ele pode gerar várias cadeias de pensamento:
Cadeia 1: Considera uma abordagem lógica direta.
Cadeia 2: Considera uma interpretação alternativa baseada em um princípio ético.
Cadeia 3: Considera uma perspectiva baseada em dados históricos ou exemplos anteriores.
O modelo, então, compara essas abordagens, identificando qual delas leva a uma resposta mais robusta ou convincente e, finalmente, apresenta a solução ou resposta final.
Vantagens:
Precisão Aumentada: Ao considerar várias cadeias de pensamento, o modelo tem mais oportunidades de detectar erros e escolher o raciocínio mais lógico e coerente.
Raciocínio Profundo: A abordagem contrastiva permite que o modelo explore múltiplas perspectivas antes de tomar uma decisão, resultando em uma resposta mais equilibrada e bem fundamentada.
Melhoria na Tomada de Decisão: Especialmente útil em tarefas complexas onde várias soluções possíveis precisam ser avaliadas antes de escolher a melhor.
A cadeia de pensamento contrastiva é uma ferramenta poderosa para melhorar a qualidade das respostas geradas por modelos de linguagem, tornando-as mais robustas, precisas e confiáveis
TÉCNICA SELF-CONSISTÊNCY
A técnica de consistência própria (self-consistency) é uma abordagem usada em modelos de linguagem natural, como GPT, para melhorar a precisão e a confiança das respostas geradas, especialmente em tarefas que envolvem raciocínio complexo ou onde múltiplas respostas possíveis podem surgir.
Como funciona:
Geração de Múltiplas Respostas: O modelo gera várias respostas independentes para a mesma pergunta ou tarefa. Cada resposta é baseada em diferentes amostras ou caminhos de raciocínio que o modelo pode seguir.
Avaliação de Consistência: As respostas geradas são então comparadas entre si. A técnica procura identificar a resposta que aparece com mais frequência ou que é mais "consistente" entre as diferentes tentativas.
Seleção da Resposta Final: A resposta que ocorre mais frequentemente ou que se alinha melhor com a maioria das outras respostas é selecionada como a resposta final. A ideia é que, ao observar quais respostas o modelo gera consistentemente, pode-se inferir a resposta mais confiável.
Vantagens:
Aumento da Precisão: Ao gerar e comparar múltiplas respostas, a técnica de consistência própria ajuda a filtrar possíveis erros ou desvios que podem ocorrer se o modelo seguir apenas um caminho de raciocínio.
Redução de Ambiguidade: Esta técnica é útil para reduzir a ambiguidade em tarefas onde o modelo pode produzir múltiplas respostas plausíveis. A resposta final tende a ser mais robusta, já que é derivada de um consenso entre várias tentativas.
Confiança na Resposta: A consistência entre múltiplas respostas gera maior confiança na resposta final, especialmente em contextos onde a precisão é crítica.
Exemplo:
Se um modelo for solicitado a resolver um problema matemático complexo, ele pode gerar várias soluções independentes. A técnica de consistência própria analisaria essas soluções e escolheria a que aparece com mais frequência ou que é mais consistente entre as tentativas. Essa abordagem aumenta a probabilidade de que a solução final seja correta.
A técnica de consistência própria é, portanto, uma maneira eficaz de aumentar a confiabilidade das respostas geradas por modelos de linguagem, especialmente em situações onde o raciocínio complexo é necessário.
TÉCNICA TREE-OF-THOUGHT
A técnica da Árvore de Pensamento (Tree of Thought) é uma abordagem inovadora no campo da inteligência artificial, especialmente aplicada a modelos de linguagem, como o GPT. Essa técnica visa melhorar a capacidade de raciocínio e a tomada de decisão do modelo ao estruturar o processo de geração de respostas em um formato de árvore, onde cada "nó" representa uma etapa do raciocínio, e os "ramos" exploram diferentes caminhos ou possibilidades.
Como funciona:
Estruturação do Raciocínio como uma Árvore:
O processo de pensamento é organizado em uma estrutura de árvore, onde o ponto de partida (raiz da árvore) é a pergunta ou tarefa inicial.
Cada nó na árvore representa uma decisão, escolha ou inferência que o modelo faz.
Os ramos que saem de cada nó exploram diferentes alternativas ou caminhos lógicos que podem ser seguidos.
Expansão das Possibilidades:
Em vez de seguir uma única linha de raciocínio, o modelo explora várias possibilidades ao mesmo tempo, criando ramos adicionais na árvore.
Isso permite ao modelo considerar múltiplos cenários ou soluções em paralelo, levando a uma exploração mais abrangente do espaço de soluções.
Avaliação e Seleção:
Depois que a árvore é gerada, o modelo avalia os diferentes caminhos ou ramos com base em critérios como plausibilidade, coerência ou alinhamento com o objetivo da tarefa.
O caminho mais promissor ou consistente é então escolhido como a resposta final.
Podando Ramos Ineficientes:
Durante o processo, o modelo pode "podar" ramos que são considerados menos promissores ou que levam a becos sem saída, concentrando-se nos caminhos mais viáveis.
Vantagens:
Raciocínio Mais Completo: A técnica da Árvore de Pensamento permite ao modelo explorar um espectro mais amplo de possibilidades, resultando em decisões e respostas mais robustas.
Solução de Problemas Complexos: É especialmente útil para tarefas que envolvem múltiplas etapas ou que requerem a consideração de diferentes fatores antes de chegar a uma conclusão.
Tomada de Decisão Informada: A abordagem de árvore permite que o modelo faça escolhas mais informadas, comparando diferentes caminhos e selecionando o mais lógico ou adequado.
Exemplo:
Se o modelo for solicitado a resolver um problema complexo, como planejar uma rota eficiente entre várias cidades, ele pode usar a Árvore de Pensamento para explorar diferentes sequências de visitas a essas cidades. Cada ramo da árvore representaria uma possível rota, e o modelo avaliaria a eficiência de cada rota antes de selecionar a melhor.
A técnica da Árvore de Pensamento é uma abordagem poderosa que melhora a capacidade dos modelos de linguagem de realizar raciocínios complexos, tornando suas respostas mais precisas e bem fundamentadas.
Comments