Formatando a Mente da IA: Por que JSON, Markdown e Estrutura São Essenciais para Respostas de Qualidade Link para o cabeçalho
Introdução: O Artesanato Oculto por Trás de Respostas Perfeitas Link para o cabeçalho
Se você já usou uma IA generativa como o GPT-4, Claude ou Gemini, provavelmente já viveu os dois lados da moeda. Em um minuto, você recebe uma resposta brilhante, articulada e perfeitamente organizada que resolve seu problema. No minuto seguinte, ao fazer uma pergunta ligeiramente diferente, você recebe um texto confuso, incompleto ou que ignora metade das suas instruções.
Por que essa variação? Por que a mesma IA pode ser genial e frustrante no mesmo dia?
Embora a “mágica” desses modelos seja complexa, a resposta para a consistência é surpreendentemente técnica e tem pouco a ver com mágica. Ela tem a ver com estrutura.
Estamos falando de formatos como JSON, Markdown, YAML e até mesmo a maneira como você organiza suas perguntas com simples listas ou títulos. Para um humano, a diferença entre pedir “me fale sobre X e Y” e “me dê um resumo sobre X e depois uma lista sobre Y” pode parecer trivial. Para uma IA, essa é a diferença entre uma instrução vaga e um plano de ação claro.
Neste artigo, vamos mergulhar fundo no “porquê” técnico. Não vamos apenas dizer que a estrutura é importante; vamos dissecar como ela afeta os mecanismos internos de um modelo de linguagem. Vamos entender por que um formato específico pode alterar drasticamente a qualidade da resposta, como isso se relaciona com os “mecanismos de atenção” do modelo e por que isso é a habilidade mais crucial na caixa de ferramentas de qualquer pessoa que queira extrair resultados de nível profissional da IA.
Prepare-se para deixar de ser um mero usuário de IA e se tornar um “arquiteto” de prompts, capaz de guiar o modelo para obter exatamente o que você precisa.
Por que a IA “Pensa” Melhor com Regras? A Psicologia do Transformer Link para o cabeçalho
Para entender por que a estrutura é tão vital, precisamos primeiro corrigir um equívoco: IAs generativas não “pensam” ou “entendem” como nós. Elas são motores estatísticos incrivelmente sofisticados, projetados para prever a próxima palavra (ou, mais precisamente, o próximo token) em uma sequência.
Um Modelo de Linguagem Grande (LLM) baseado em Transformers (a arquitetura por trás de quase todas as IAs modernas) opera com base em matemática complexa, principalmente em um mecanismo chamado atenção. Ele analisa todo o prompt e tudo o que já gerou para decidir qual palavra faz mais sentido vir a seguir.
Quando você fornece um prompt livre e vago, você está essencialmente pedindo ao modelo que navegue por um oceano de possibilidades estatísticas sem um mapa. Quando você fornece um prompt estruturado, você está entregando um mapa e uma bússola.
Vamos detalhar as raizes técnicas para isso.
1. Reduzindo a Ambiguidade: Dando um “Molde” para a Resposta Link para o cabeçalho
Um prompt livre é como dar a alguém um bloco de argila e dizer: “faça algo legal”. Você pode acabar com uma obra-prima ou com uma tigela torta.
Um prompt estruturado é como entregar o mesmo bloco de argila, mas também um molde detalhado. Se você pedir: “Responda em JSON com os campos resumo e conclusão”, você não está mais pedindo criatividade na forma; você está pedindo conteúdo que se encaixe em um molde específico.
Para a IA, isso é um alívio. Ela não precisa mais gastar “esforço” (computação) decidindo como apresentar a informação. Ela sabe que precisa de uma chave, dois-pontos, um valor, depois outra chave. A ambiguidade sobre o layout da resposta desaparece, permitindo que o modelo se concentre 100% em preencher o conteúdo desses campos.
2. Guiando a Atenção: Onde o Modelo Deve “Olhar” Link para o cabeçalho
Como mencionamos, os LLMs usam um mecanismo de “atenção”. Eles atribuem pesos a cada token em seu contexto para decidir qual é mais relevante para gerar o próximo token. Um prompt desorganizado e corrido é um pesadelo para esse mecanismo. Detalhes importantes podem se perder no meio de um parágrafo longo, recebendo um “peso de atenção” baixo.
Aqui é onde formatos como Markdown ou tags XML brilham. Ao estruturar seu prompt com cabeçalhos (##), listas (*) ou tags (<exemplo>), você cria blocos de tokens coesos.
-
## Contexto: -
## Tarefa: -
## Formato de Saída:
Quando o modelo processa isso, ele aprende que os tokens dentro de “Contexto” estão fortemente relacionados entre si, mas são distintos da “Tarefa”. Ele cria “clusters” de atenção, permitindo que processe seu pedido sequencialmente, sem confusão. Em essência, você está dizendo ao modelo: “Primeiro, preste atenção total a este bloco. Agora, preste atenção total a este outro.”.
3. Ativando a Memória: Tokenização e Padrões de Treinamento Link para o cabeçalho
LLMs são treinados em trilhões de palavras, mas mais importante, eles são treinados em código, arquivos de configuração, APIs e dados da web. Eles não apenas viram texto; eles viram JSON, Markdown e YAML milhões de vezes.
Essa exposição cria padrões de reconhecimento profundos.
-
Quando o modelo vê um caractere como
{, seu cérebro estatístico imediatamente aumenta a probabilidade de tokens que seguem a sintaxe JSON (como aspas"ou uma chave de fechamento}). -
Quando vê um
#no início de uma linha, ele sabe que está em um “modo de título” do Markdown. -
Quando vê um
-com um espaço, ele sabe que está em um “modo de lista”.
Ao usar esses formatos, você está ativando esses padrões aprendidos. Você está “sintonizando” o modelo para o tipo de resposta que você espera, tornando a geração mais previsível e menos propensa a “desvios” criativos que quebram a sintaxe.
4. Forçando o Raciocínio: A Estrutura como “Chain-of-Thought” Link para o cabeçalho
Uma das descobertas mais importantes na engenharia de prompt é o “Chain-of-Thought” (CoT), ou Encadeamento de Pensamento. A ideia é que, se você pedir a um modelo que resolva um problema complexo de uma só vez, ele pode errar. Mas se você pedir para ele “explicar passo a passo” antes de dar a resposta final, sua precisão dispara.
Por quê? Porque ele é forçado a gerar os tokens de raciocínio intermediários, e cada passo gerado serve de contexto para o próximo.
Formatos estruturados são uma forma de impor esse raciocínio. Ao pedir uma resposta em seções (1. Análise, 2. Prós, 3. Contras, 4. Conclusão), você está forçando o modelo a seguir uma sequência lógica, quebrando um problema grande em partes menores e mais gerenciáveis. Isso diminui drasticamente as chances de contradições internas e melhora a coerência global da resposta.
5. A Prova dos Números: Consistência e Previsibilidade Link para o cabeçalho
Tudo isso pode parecer teórico, mas o impacto é brutal e mensurável. Em um estudo de 2024 da Microsoft (He, et al.), pesquisadores testaram o desempenho de LLMs (incluindo GPT-3.5 e GPT-4) em várias tarefas, mudando apenas o formato do prompt (texto simples, Markdown, YAML, JSON).
Os resultados foram chocantes. Modelos menores, como o GPT-3.5, mostraram uma variação de precisão de até 40% dependendo do formato. Em uma tarefa específica de direito internacional, formatar o prompt em JSON aumentou a taxa de acerto em 42% em comparação com o Markdown.
Isso prova que o formato não é um enfeite. É um parâmetro de controle fundamental. O estudo também revelou que modelos diferentes têm “preferências” diferentes (GPT-3.5 teve melhor desempenho com JSON, enquanto GPT-4 favoreceu o Markdown naquela tarefa), mas o ponto principal é claro: a estrutura afeta profundamente o desempenho.
Um Kit de Ferramentas Estruturado: Os Formatos Mais Comuns e Seus Usos Link para o cabeçalho
Saber que a estrutura funciona é o primeiro passo. O próximo é saber qual estrutura usar. Cada formato tem um superpoder e uma fraqueza.
Markdown: O Mestre da Legibilidade Humana Link para o cabeçalho
-
O que é: Uma linguagem de marcação leve que usa símbolos simples (
#,*,**) para formatar texto, criando títulos, listas, negrito, etc. É o que você usa para escrever em READMEs do GitHub, no Reddit ou aqui mesmo. -
Por que ajuda a IA: É o equilíbrio perfeito entre estrutura e fluxo livre. Para a IA, os símbolos de Markdown são âncoras visuais claras. Eles sinalizam hierarquia (
#vs##) e agrupamento (listas). Como a IA foi treinada em milhões de documentos e guias formatados em Markdown, ela é nativamente “fluente” nele. Pedir uma resposta em Markdown é a melhor maneira de obter um texto longo, bem organizado e legível para humanos. -
Casos de uso ideais: Gerar artigos, relatórios, explicações passo a passo, documentação técnica, ou qualquer resposta de chatbot que precise de formatação (como listas ou blocos de código).
-
Armadilha: Por ser mais frouxo, não é ideal para dados que precisam ser lidos por outro programa. É para olhos humanos, não para APIs.
JSON: O Padrão-Ouro da Comunicação Máquina-a-Máquina Link para o cabeçalho
-
O que é: JavaScript Object Notation. Um formato de dados restrito baseado em pares de “chave”: “valor” (
{ "nome": "Alice" }). É a linguagem franca da web e das APIs. -
Por que ajuda a IA: O JSON é o “molde” mais rígido que existe. Sua sintaxe é inflexível. Ao pedir uma resposta em JSON, você está forçando a IA a ser 100% precisa em sua estrutura. Isso elimina totalmente a variabilidade. O modelo foca apenas em preencher os valores das chaves que você definiu. APIs modernas, como as da OpenAI, agora têm “modos de saída estruturada” que garantem um JSON sintaticamente válido, mostrando o quão fundamental isso se tornou.
-
Casos de uso ideais: Qualquer tarefa onde a saída da IA será consumida por outro software. Exemplos: extrair entidades de um texto, classificar o sentimento, gerar dados para um banco de dados, ou chamar ferramentas externas (a base do “Function Calling” da OpenAI).
-
Armadilha: É verboso (muitas aspas e chaves) e totalmente ilegível para um leigo. É também péssimo para tarefas criativas, pois sufoca qualquer fluidez. Se o modelo cometer um único erro de sintaxe (como uma vírgula faltando), o JSON inteiro se torna inválido (embora os modos de API modernos ajudem a evitar isso).
YAML: O Equilíbrio Fino entre Homem e MÁquina Link para o cabeçalho
-
O que é: YAML Ain’t Markup Language. Um formato de dados como o JSON, mas que usa indentação (espaços) em vez de chaves e vírgulas para denotar estrutura. É muito popular em arquivos de configuração (ex: Docker, Kubernetes).
-
Por que ajuda a IA: O YAML oferece a mesma estrutura de dados do JSON, mas é muito mais limpo e legível para humanos. Para a IA, os padrões de indentação são um guia estrutural claro. Ele remove o “ruído” sintático das aspas e chaves, o que, em teoria, pode facilitar o foco no conteúdo.
-
Casos de uso ideais: Gerar arquivos de configuração, criar “outlines” ou roteiros hierárquicos, ou quando você precisa de dados estruturados que um humano talvez precise revisar ou editar manualmente depois.
-
Armadilha: A indentação é sua maior força e sua maior fraqueza. Um único espaço errado (seja do modelo ou do usuário) pode quebrar toda a estrutura. É menos onipresente que o JSON para APIs.
XML: O Veterano Hierárquico (e Seus Usos com IAs) Link para o cabeçalho
-
O que é: eXtensible Markup Language. O “avô” dos formatos de dados, usa tags de abertura e fechamento (
<usuario>...</usuario>). Foi a base da web e de muitos sistemas legados. -
Por que ajuda a IA: As tags explícitas de abertura e fechamento são delimitadores extremamente fortes. Para a IA, é muito claro onde um bloco de informação começa e termina. A Anthropic, criadora do Claude, usa ativamente tags no estilo XML em seus prompts para delimitar seções (ex:
<documento>,<pergunta>), pois descobriram que isso ajuda o modelo a organizar o contexto de forma robusta. -
Casos de uso ideais: Integrar com sistemas legados que exigem XML. Mais importante, usar tags no estilo XML dentro do seu prompt para separar claramente o contexto, os exemplos e as instruções.
-
Armadilha: É incrivelmente verboso. Consome muitos tokens para dizer pouco, o que pode ser caro e ineficiente.
Formatos Híbridos: O Melhor de Dois Mundos Link para o cabeçalho
Muitas vezes, a melhor abordagem é misturar formatos. Você pode pedir uma resposta que combine a legibilidade do Markdown com a precisão do JSON.
Exemplo de Prompt:
“Por favor, explique os resultados da análise em um parágrafo. Em seguida, forneça os dados brutos em um bloco de código JSON.”
Resultado Esperado:
A análise mostra um crescimento robusto…
{ "media_crescimento": 0.08, "ano": 2025 }
Isso lhe dá um texto amigável para exibir a um usuário e um objeto de dados limpo para seu aplicativo processar.
Menções Honrosas: TOML, TOON e CSV Link para o cabeçalho
-
TOML: Um formato de configuração minimalista (usado em projetos Python), mais legível que JSON, mas menos sensível que YAML.
-
CSV (Comma-Separated Values): Para dados tabulares simples. Extremamente eficiente em tokens, mas não lida bem com hierarquia.
-
TOON (Token-Oriented Object Notation): Um formato emergente projetado especificamente para LLMs. A ideia é ser tão estruturado quanto o JSON, mas usando muito menos tokens (30-50% de economia). Ele remove aspas e chaves repetitivas, otimizando o custo e o espaço de contexto. Isso mostra que a busca pelo formato perfeito para IAs está apenas começando.
Na Prática: O Abismo entre um Bom Pedido e um Pedido Genial Link para o cabeçalho
Vamos tornar isso concreto. Ver a diferença lado a lado é a melhor maneira de internalizar o conceito.
Caso 1: A Instrução (Prompt) Vaga vs. Estruturada Link para o cabeçalho
Imagine que você quer que a IA analise um repositório de código e crie um documento de arquitetura.
Prompt A (Solto):
“Analise este repositório e crie um documento detalhando as ferramentas, frameworks e padrões de design usados. Destaque quaisquer práticas que desviem do esperado e inclua detalhes sobre modelos de dados e versão de APIs. Se houver sistemas legados, discuta padrões conflitantes e recomende um caminho a seguir. E identifique onde houver um jeito antigo vs. novo de fazer algo.”
Resultado Provável: Um “vômito de texto”. A IA tentará cobrir tudo, mas provavelmente misturará os tópicos. Ela pode se concentrar demais em ferramentas e esquecer os sistemas legados, ou misturar recomendações com análises. A ordem será caótica.
Prompt B (Estruturado com Markdown):
“Você é um arquiteto de software sênior. Sua tarefa é criar um documento “pesquisa-arquitetural.md” com a seguinte estrutura:
1. Análise Central (Obrigatório) Link para o cabeçalho
Ferramentas e Frameworks: Liste as tecnologias centrais.
Modelos de Dados e APIs: Detalhe os padrões de dados e o versionamento.
Desvios de Padrão: Identifique inconsistências com as melhores práticas.
2. Avaliação de Legado (Se aplicável) Link para o cabeçalho
Conflitos de Padrão: Onde o código antigo e o novo entram em conflito?
Recomendação: Qual é o caminho a seguir? Cite fontes externas.
3. Formato de Saída Link para o cabeçalho
Use títulos claros e listas.
Priorize os achados por impacto.”
Resultado Provável: Um documento limpo, organizado e completo. Ao fornecer o esqueleto em Markdown, você:
-
Deu um Papel (Persona): “Você é um arquiteto…”.
-
Segmentou a Atenção:
## 1. Análisee## 2. Avaliaçãosão blocos distintos. -
Forçou a Cobertura: As listas (
*) garantem que ela não pulará os modelos de dados ou os desvios. -
Controlou a Saída: Você definiu o formato final (
.md, títulos, listas).
A segunda resposta não é apenas “mais bonita”; ela é fundamentalmente mais útil e completa, pois o prompt guiou o processo de geração da IA.
Caso 2: A Entrada de Dados Bagunçada vs. Organizada Link para o cabeçalho
Isso não se aplica apenas às instruções, mas também aos dados que você fornece.
Entrada A (Bagunçada):
“O usuário se chama Joana tem 27 e mora em Salvador crie uma mensagem de boas-vindas para ela.”
A IA (provavelmente) vai acertar, mas ela teve que fazer um trabalho extra de “Reconhecimento de Entidade” para descobrir que “Joana” é o nome, “27” é a idade e “Salvador” é a cidade.
Entrada B (Organizada):
“Use os seguintes dados para criar uma mensagem de boas-vindas:
nome: Joana idade: 27 cidade: Salvador ```"
Aqui, não há ambiguidade. A IA não gasta energia interpretando os dados; ela gasta 100% de sua energia na tarefa (criar a mensagem). Isso libera recursos de atenção para ser mais criativa ou precisa na tarefa principal, em vez de desperdiçá-los em adivinhação.
Ampliando o Horizonte: Estrutura em Tarefas Complexas Link para o cabeçalho
Os benefícios aumentam exponencialmente com a complexidade da tarefa.
Geração de Textos Longos: Mantendo a Coerência Link para o cabeçalho
Em textos longos (como artigos, relatórios ou roteiros), os modelos correm o risco de “esquecer” o que disseram no início. Isso é chamado de decaimento de contexto.
A estrutura atua como uma âncora de coerência. Um outline em Markdown (com seções e subseções) funciona como um “mapa” que a IA pode consultar a cada passo. Cada novo cabeçalho “relembra” o modelo sobre qual é o tópico atual, evitando que ele se perca em tangentes ou se contradiga.
Além disso, a estrutura ajuda a reduzir alucinações. Se você pede um JSON com um campo "fonte_da_citação", a IA é forçada a encontrar uma fonte ou deixar o campo vazio. Ela tem menos probabilidade de inventar um fato e apresentá-lo como verdade, porque o formato exige responsabilidade.
Programação e Código: Precisão Acima de Tudo Link para o cabeçalho
Em programação, a estrutura não é opcional; é tudo. O código é um formato estruturado.
-
Geração de Código: Pedir o código dentro de um bloco Markdown (
```python ...) garante que ele seja separado de explicações e possa ser facilmente copiado. -
Geração de Testes: Você pode pedir à IA para gerar casos de teste em JSON. Isso permite que você pegue a saída da IA e a execute diretamente em seu sistema de testes, automatizando o fluxo de trabalho.
-
Geração de Configs: Pedir um
Dockerfileou umdocker-compose.ymlem YAML resulta em um arquivo pronto para uso, economizando tempo e evitando erros de sintaxe.
O Papel da Estrutura em RAG e Agentes (LangChain) Link para o cabeçalho
Este é talvez o uso mais avançado e importante. Em sistemas modernos como agentes autônomos (AutoGPT, LangChain) ou RAG (Retrieval-Augmented Generation) — sobre o qual temos um guia completo [sugestão: link para post interno sobre RAG] — a IA não está apenas conversando; ela está executando tarefas em um pipeline.
Pense em um agente LangChain:
-
O Usuário faz uma pergunta.
-
O LLM decide qual “ferramenta” chamar (ex: “buscar_na_web”).
-
Para isso, o LLM deve gerar um JSON com os argumentos da ferramenta (ex:
{ "query": "clima em SP" }). -
O Parser (uma parte do código) recebe esse JSON e executa a ferramenta.
-
A ferramenta retorna dados.
-
O LLM recebe os dados e formula a resposta final.
O JSON no passo 3 é o elo mais crítico. Se a IA gerasse uma frase em linguagem natural (“Ok, vou buscar o clima em SP”), o sistema quebraria. A capacidade da IA de “pensar” em um formato estruturado e confiável é o que permite que ela interaja com o mundo exterior e execute ações complexas.
Quando Quebrar as Regras: O Perigo do Excesso de Estrutura Link para o cabeçalho
Como toda ferramenta poderosa, a estrutura pode ser mal utilizada. Impor um formato rígido nem sempre é a melhor ideia.
-
Tarefas Criativas: Se você quer que a IA escreva um poema, uma história ou uma letra de música, não a coloque em um JSON. A estrutura sufoca a criatividade, a fluidez e a nuance. Nesses casos, um prompt livre e evocativo é muito superior.
-
Introdução de Viés: O próprio formato pode ser um viés. Se você pedir uma análise de personalidade em um JSON com os campos
{"pontos_fortes": "...", "pontos_fracos": "..."}, você está forçando uma visão binária e pode perder nuances importantes. -
Simplicidade: Não use um canhão para matar uma mosca. Se você precisa de uma resposta “sim” ou “não”, ou de um fato rápido (Qual a capital do Brasil?), exigir um JSON é um exagero que consome tokens e tempo.
-
Recusa do Modelo: Às vezes, um formato muito rígido sobre um tópico sensível pode fazer o modelo recusar a resposta, pois a estrutura torna a “intenção” mais explícita e pode acionar barreiras de segurança.
Conclusão: A Estrutura é a Nova Sintaxe da Intenção Link para o cabeçalho
Passamos da era em que apenas “conversar” com a IA era impressionante. Agora, estamos na era da engenharia de prompt, where the goal is to get reliable, predictable, and useful results at scale.
Formatos estruturados são a ponte entre a mente estatística e probabilística da IA e a nossa necessidade humana por ordem e intenção.
Eles não são apenas “enfeites” para deixar a resposta bonita. Eles são um mecanismo de controle fundamental para:
-
Reduzir a ambiguidade.
-
Guiar a atenção do modelo.
-
Ativar padrões de conhecimento corretos.
-
Garantir a consistência.
-
Permitir a automação e integração com outras ferramentas.
Modelos menores (como GPT-3.5) dependem da estrutura para ter um desempenho decente. Modelos de ponta (como GPT-4 e futuros) usam a estrutura para alcançar níveis de precisão e complexidade de tarefas que seriam impossíveis de outra forma.
Da próxima vez que você precisar de mais do que uma conversa casual, não apenas peça à IA. Arquiteture o seu pedido. Forneça o mapa, o molde e o esqueleto. Você descobrirá que não está apenas formatando um texto; você está, de fato, formatando o “pensamento” da IA para que ele se alinhe perfeitamente ao seu.
Referências Link para o cabeçalho
-
Google Cloud. (2023). Overview of prompting strategies – Generative AI on Vertex AI (Prompt Design Documentation). Disponível em: https://cloud.google.com/vertex-ai/docs/generative-ai/prompt-design-strategies
-
Alex Chesser. (2023). Attention Is the New Big-O: A Systems Design Approach to Prompt Engineering. Medium, Sep 2023. Disponível em: https://alexchesser.medium.com/attention-is-the-new-big-o-9c68e1ae9b27
-
Maruti Tech Labs. (2023). From Free-Form to Structured: A Better Way to Use LLMs. Disponível em: https://marutitech.com/structured-outputs-llms/
-
FreeCodeCamp (Zeeshan Hanif). (2023). What is TOON? How Token-Oriented Object Notation Could Change How AI Sees Data. Disponível em: https://www.freecodecamp.org/news/what-is-toon-how-token-oriented-object-notation-could-change-how-ai-sees-data/
-
Webex Developer Blog. (2024). Boosting AI Performance: The Power of LLM-Friendly Content in Markdown. Disponível em: https://developer.webex.com/blog/boosting-ai-performance-the-power-of-llm-friendly-content-in-markdown
-
Wei, J., et al. (2022). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. arXiv preprint arXiv:2201.11903. Disponível em: https://arxiv.org/abs/2201.11903
-
Anthropic. (2023). Effective context engineering for AI agents (Blog post). Disponível em: https://www.anthropic.com/engineering/effective-context-engineering-for-ai-agents
-
Humanloop (Conor Kelly). (2025). Structured Outputs: Everything You Should Know. Humanloop Blog, 13 Feb 2025. Disponível em: https://humanloop.com/blog/structured-outputs
-
OpenAI. (2023). GPT-4 (Product Page & Research). Disponível em: https://openai.com/research/gpt-4 (adaptado de conceitos gerais de limitações de modelo)
-
TOON (Token-Oriented Object Notation) - Página de Conceito/GitHub (referência conceitual).
-
YAML.org. (2021). YAML Ain’t Markup Language (YAML™) Version 1.2. Disponível em: https://yaml.org/spec/1.2/
-
JSON.org. (2024). Introducing JSON. Disponível em: https://www.json.org/json-en.html
-
Zep. (2024). Reducing LLM Hallucinations: A Developer’s Guide. Disponível em: https://www.getzep.com/ai-agents/reducing-llm-hallucinations/
-
LangChain. (2024). Output Parsers (Documentation). Disponível em: https://python.langchain.com/docs/modules/output_parsers/
-
Sclar, M., Choi, Y., Tsvetkov, Y., Suhr, A. (2023). Quantifying Language Models’ Sensitivity to Spurious Features in Prompt Design. arXiv preprint arXiv:2310.11324. Disponível em: https://arxiv.org/abs/2310.11324
-
He, J., Rungta, M., Koleczek, D., et al. (2024). Does Prompt Formatting Have Any Impact on LLM Performance? arXiv preprint arXiv:2411.10541. Disponível em: https://arxiv.org/abs/2411.10541
-
Frank Goortani. (2025). Strategies, Patterns, and Methods to Avoid Hallucination in LLM Responses. Medium, Jan 2025. Disponível em: https://medium.com/@FrankGoortani/strategies-patterns-and-methods-to-avoid-hallucination-in-large-language-model-responses-81a871987d96
-
(Duplicado, vide [6]) Wei, J., et al. (2022).
-
OpenAI. (2023). Function calling and other API updates. OpenAI Blog, 13 June 2023. Disponível em: https://openai.com/blog/function-calling-and-other-api-updates
-
OpenAI. (2023). Introducing GPT-4 in Azure OpenAI Service with new fine-tuning and structured output functionalities. Microsoft Tech Community Blog. Disponível em: https://techcommunity.microsoft.com/t5/ai-cognitive-services-blog/introducing-gpt-4-in-azure-openai-service-with-new-fine-tuning-and/ba-p/3932909