// ferramenta gratuita · sem cadastro

Contador de Tokens
para LLMs

Cole seu prompt e veja instantaneamente quantos tokens ele usa em cada modelo — com estimativa de custo de API. Gratuito, sem cadastro.

0 caracteres0 palavras
ModeloTokens (~)Custo input
GPT-4o / GPT-4
GPT-3.5 Turbo
Claude 3.5 Sonnet
Claude 3 Haiku
Gemini 1.5 Pro
Llama 3 (70B)

Estimativa baseada nos padrões BPE documentados de cada modelo (±5% para texto comum). Nenhum provedor disponibiliza tokenizador JS oficial — para contagem exata use os SDKs Python oficiais.

Seu prompt é tecnicamente bom?
Score 0–100 em clareza, especificidade, estrutura e robustez.
Avaliar no PromptEval →

Como contar tokens no Claude, GPT-4 e Gemini

Modelos de linguagem não processam texto como caracteres ou palavras — eles usam tokens, unidades de texto definidas pelo tokenizador de cada modelo. Em inglês, 1 token corresponde tipicamente a ~4 caracteres ou ~¾ de uma palavra. Este contador de tokens gratuito permite estimar o uso de tokens para Claude, GPT-4 e Gemini antes de enviar uma requisição à API.

Contador de tokens Claude: Os modelos Claude da Anthropic — Haiku, Sonnet e Opus — usam um tokenizador baseado em BPE semelhante ao cl100k_base do GPT-4. Para texto em inglês, o Claude tokeniza em aproximadamente 1 token por 4 caracteres. Claude Haiku e Sonnet 3.5 suportam uma janela de contexto de 200K tokens, tornando-os ideais para tarefas com documentos longos. Ao contar tokens para um LLM como o Claude, você planeja o tamanho do prompt, evita erros de truncamento e estima custos de API com antecedência.

GPT-4 e Gemini: O GPT-4o usa o tokenizador cl100k_base (via biblioteca tiktoken da OpenAI) e tem uma janela de contexto de 128K tokens. O Gemini 1.5 Pro usa SentencePiece e suporta até 1 milhão de tokens. Embora os três modelos tratem texto em inglês com proporções semelhantes, texto multilíngue, código e dados estruturados como JSON podem tokenizar de formas muito diferentes entre provedores.

Os valores desta ferramenta são estimativas baseadas nas médias documentadas por modelo. A estimativa de custo mostra apenas o custo de entrada — o custo de saída depende do tamanho da resposta, que varia por tarefa.

Por que tokens importam?
Cada modelo tem um limite máximo de tokens por requisição (janela de contexto). Excedê-lo causa erros ou truncamento silencioso do seu prompt.
Claude vs GPT-4: tokens
Ambos usam ~4 chars/token para inglês. Claude tende a ser ligeiramente mais eficiente em texto estruturado como JSON e código.
Como reduzir tokens?
Elimine redundâncias, use listas em vez de parágrafos, prefira instruções diretas e mova contexto estático para o system prompt.

Perguntas frequentes

Como contar tokens no Claude?
Para contar tokens no Claude, cole seu texto no contador de tokens do PromptEval acima. A ferramenta estima a contagem de tokens usando algoritmos baseados em BPE calibrados para o tokenizador do Claude — a mesma abordagem documentada pela Anthropic para Claude Haiku, Sonnet e Opus. Para contagens exatas em produção, use o endpoint oficial de tokenização da Anthropic.
Qual é o limite de tokens do Claude Haiku?
O Claude Haiku 3.5 (claude-haiku-3-5-20241022) suporta uma janela de contexto de 200.000 tokens — cobrindo tokens de entrada e saída combinados por requisição. O Claude Haiku é o modelo mais rápido e econômico da Anthropic, projetado para tarefas de alto volume. O custo de entrada é US$ 0,80 por milhão de tokens e o custo de saída é US$ 4,00 por milhão de tokens.
Por que os tokens importam para prompts de LLM?
Os tokens determinam três coisas críticas: (1) se o seu prompt cabe na janela de contexto do modelo — excedê-la causa erros ou truncamento silencioso; (2) quanto você paga por requisição de API, já que todos os provedores de LLM cobram por token; (3) quanto contexto o modelo consegue "ver" de uma vez, o que afeta a qualidade da resposta em documentos longos e tarefas complexas.
Como a contagem de tokens difere da contagem de palavras?
Palavras se dividem em espaços; tokens se dividem com base no vocabulário de cada modelo (tipicamente BPE — Byte Pair Encoding). Em inglês, 1 token equivale a aproximadamente 0,75 palavras ou ~4 caracteres. Mas em código, JSON, números e línguas não-inglesas a proporção muda significativamente. Uma URL pode ser tokenizada em 8–15 tokens, apesar de ter apenas 3–4 palavras. Por isso a contagem de tokens importa mais do que a contagem de palavras para estimativa de custos de LLM.