Contador de Tokens
para LLMs
Cole seu prompt e veja instantaneamente quantos tokens ele usa em cada modelo — com estimativa de custo de API. Gratuito, sem cadastro.
Estimativa baseada nos padrões BPE documentados de cada modelo (±5% para texto comum). Nenhum provedor disponibiliza tokenizador JS oficial — para contagem exata use os SDKs Python oficiais.
Como contar tokens no Claude, GPT-4 e Gemini
Modelos de linguagem não processam texto como caracteres ou palavras — eles usam tokens, unidades de texto definidas pelo tokenizador de cada modelo. Em inglês, 1 token corresponde tipicamente a ~4 caracteres ou ~¾ de uma palavra. Este contador de tokens gratuito permite estimar o uso de tokens para Claude, GPT-4 e Gemini antes de enviar uma requisição à API.
Contador de tokens Claude: Os modelos Claude da Anthropic — Haiku, Sonnet e Opus — usam um tokenizador baseado em BPE semelhante ao cl100k_base do GPT-4. Para texto em inglês, o Claude tokeniza em aproximadamente 1 token por 4 caracteres. Claude Haiku e Sonnet 3.5 suportam uma janela de contexto de 200K tokens, tornando-os ideais para tarefas com documentos longos. Ao contar tokens para um LLM como o Claude, você planeja o tamanho do prompt, evita erros de truncamento e estima custos de API com antecedência.
GPT-4 e Gemini: O GPT-4o usa o tokenizador cl100k_base (via biblioteca tiktoken da OpenAI) e tem uma janela de contexto de 128K tokens. O Gemini 1.5 Pro usa SentencePiece e suporta até 1 milhão de tokens. Embora os três modelos tratem texto em inglês com proporções semelhantes, texto multilíngue, código e dados estruturados como JSON podem tokenizar de formas muito diferentes entre provedores.
Os valores desta ferramenta são estimativas baseadas nas médias documentadas por modelo. A estimativa de custo mostra apenas o custo de entrada — o custo de saída depende do tamanho da resposta, que varia por tarefa.