Licznik tokenów AI

Sprawdź, ile tokenów ma Twój tekst i ile kosztuje jego wysłanie do ChatGPT, Claude, Gemini i innych modeli AI.

Ten sam tekst po polsku generuje 30–50% więcej tokenów niż po angielsku — bo modele AI trenowano głównie na angielskich danych. Przy 10 000 zapytaniach dziennie różnica to nawet kilkaset złotych miesięcznie. Czytaj więcej →

Co to jest token AI?

Token to podstawowa jednostka, na której operują modele językowe takie jak ChatGPT, Claude czy Gemini. Kiedy wysyłasz wiadomość do AI, model nie "widzi" liter ani słów w takiej formie, jak je piszesz — najpierw dzieli Twój tekst na małe kawałki zwane tokenami, a dopiero na nich wykonuje obliczenia.

Token to nie litera i nie słowo. W języku angielskim jedno słowo to zazwyczaj jeden token. W języku polskim jedno słowo to często dwa, trzy, a nawet cztery tokeny — ze względu na odmianę i polskie znaki diakrytyczne (ą, ć, ę, ł, ń, ó, ś, ź, ż). Przykładowo słowo "przepiękny" zostanie podzielone inaczej niż angielskie "beautiful", które mieści się w jednym tokenie.

Koszt korzystania z API ChatGPT (OpenAI), Claude (Anthropic) i Gemini (Google) jest liczony właśnie w tokenach — nigdy w znakach ani słowach. Dlatego każdy, kto regularnie używa tych narzędzi, powinien rozumieć, czym jest token i jak wpływa na koszty. Niniejszy licznik tokenów pozwala sprawdzić dokładnie, ile tokenów ma Twój tekst i ile kosztuje jego wysłanie do modelu AI w złotówkach.

Openai udostępnia narzędzie tiktoken do liczenia tokenów dla swoich modeli (GPT-4o, GPT-4, GPT-3.5). Nasz kalkulator używa oficjalnego tokenizera tiktoken bezpośrednio w przeglądarce — wyniki są identyczne z tym, co nalicza OpenAI na swoich serwerach. Dla modeli Claude i Gemini, które nie udostępniają publicznych tokenizerów, pokazujemy przybliżoną wartość na podstawie tokenizera GPT-4.

Ile tokenów ma 1 słowo po polsku?

Odpowiedź zależy od konkretnego słowa, ale możemy podać przydatne przybliżenia. W języku angielskim przeciętne słowo to około 1,3 tokena (wiele krótkich słów to 1 token, dłuższe — 2). W języku polskim przeciętne słowo to 1,7–2,5 tokena.

Kilka przykładów dla tokenizera GPT-4o:

  • "kot" — 1 token (krótkie, bez diakrytyków)
  • "kotem" — 2 tokeny (odmiana dodaje subtoken)
  • "przepiękny" — 3 tokeny
  • "najpiękniejszego" — 4–5 tokenów
  • "beautiful" (angielski odpowiednik) — 1 token

Reguła jest prosta: im dłuższe słowo i im więcej polskich znaków diakrytycznych, tym więcej tokenów. Tekst z wieloma odmianami rzeczowników i przymiotników (typowy dla formalnego polskiego) będzie miał wyraźnie wyższy współczynnik tokenów-na-słowo niż tekst angielski o tej samej treści merytorycznej.

W praktyce: 1000 znaków polskiego tekstu to zazwyczaj 350–480 tokenów w GPT-4o. 1000 znaków angielskiego tekstu to 230–290 tokenów. Różnica to 40–70%, co przekłada się wprost na wyższe koszty API.

Dlaczego polski kosztuje więcej w AI?

Modele językowe, takie jak GPT-4 czy Claude, były trenowane na zbiorach danych zdominowanych przez angielski. Dotyczy to nie tylko treści, ale też procesu budowy tokenizera — zestawu "słów kluczowych", które model zna jako całość.

Tokenizer angielski ma zapisane całe angielskie słowa jako pojedyncze tokeny: "beautiful", "running", "however". Kiedy przetwarza tekst angielski, większość słów mieści się w jednym tokenie. Polski tokenizer tego nie ma — polskie słowa muszą być rozkładane na mniejsze kawałki, które model zna: prefiksy, sufiksy, rdzenie, litery.

Dodatkowym czynnikiem są polskie znaki diakrytyczne. Litery ą, ć, ę, ł, ń, ó, ś, ź, ż są zakodowane w Unicode jako wielobajtowe sekwencje. Tokenizerze mają z nimi trudności i często traktują je jako osobne tokeny, zamiast włączać do słowa.

Efekt praktyczny: ten sam prompt napisany po polsku i po angielsku będzie kosztował o 30–50% więcej w polskiej wersji. Dla firmy wysyłającej setki tysięcy zapytań miesięcznie to różnica liczona w tysiącach złotych. Jeśli chcesz dokładnie policzyć, ile tracisz na polskim języku, skorzystaj z naszego Optymalizatora promptów — bezpłatnie przetłumaczy Twój tekst na angielski i pokaże różnicę w kosztach.

Tokeny a znaki — jaka jest różnica?

Znaki (litery, cyfry, znaki interpunkcyjne, spacje) to to, co widzisz w edytorze tekstu. Tokeny to wewnętrzna reprezentacja, którą model AI przetwarza. Nie ma stałego przelicznika między znakami a tokenami — zależy od języka, użytych słów i tokenizera.

Przybliżone przeliczniki dla GPT-4o:

  • Angielski: 1 token ≈ 4 znaki
  • Polski: 1 token ≈ 3 znaki
  • Chiński/japoński: 1 token ≈ 1–2 znaki (bardzo wysoki koszt!)
  • Kod programistyczny (Python, JS): 1 token ≈ 3–4 znaki

Dla platform ograniczających długość tekstu (Twitter/X, SMS, formularze) ważna jest liczba znaków. Dla kosztów API modeli AI ważna jest liczba tokenów. Nasz kalkulator pokazuje oba wyniki jednocześnie, żebyś mógł optymalnie planować zarówno długość tekstu, jak i budżet na AI.

Jak policzyć koszt ChatGPT w PLN?

Koszt pojedynczego zapytania do modelu AI obliczamy według wzoru:

koszt (USD) = liczba_tokenów × cena_za_milion_tokenów / 1 000 000
koszt (PLN) = koszt (USD) × kurs_USD/PLN

Przykład dla GPT-4o (cena: 2,50 USD za milion tokenów wejściowych), tekst liczący 500 tokenów, kurs 3,95 PLN:

koszt = 500 × 2,50 / 1 000 000 = 0,00125 USD
koszt = 0,00125 × 3,95 = 0,00494 PLN ≈ 0,49 gr

Pojedynczy prompt kosztuje grosze — ale przy dziesiątkach tysięcy zapytań dziennie sumy rosną szybko. Nasz kalkulator pobiera aktualny kurs USD/PLN z Narodowego Banku Polskiego, więc wyniki są na bieżąco aktualizowane.

Ważne: w API OpenAI, Anthropic i Google liczą się tokeny wejściowe (Twój prompt) i wyjściowe (odpowiedź modelu) oddzielnie. Tokeny wyjściowe są zazwyczaj droższe — GPT-4o: 10,00 USD/M (vs 2,50 USD/M wejściowych), Claude Opus 4.7: 75,00 USD/M (vs 15,00 USD/M wejściowych). Nasz kalkulator domyślnie pokazuje koszt tokenów wejściowych — tyle kosztuje Twój prompt.

Jeśli planujesz koszt całej konwersacji (prompt + odpowiedź), do kosztu wejściowego dodaj koszt szacowanej długości odpowiedzi, mnożąc przez stawkę tokenów wyjściowych dla danego modelu.

Jak obniżyć koszty API OpenAI, Claude i Gemini?

Trzy sprawdzone sposoby na redukcję kosztów API modeli AI bez utraty jakości:

1. Pisz prompty po angielsku. To najprostszy i najszybszy sposób. Ten sam tekst po angielsku zużywa 30–50% mniej tokenów niż po polsku. Skorzystaj z naszego bezpłatnego Optymalizatora — przetłumaczy Twój prompt na angielski zachowując intencję i styl.

2. Wybierz tańszy model do prostych zadań. GPT-4o mini (0,15 USD/M) jest 16× tańszy niż GPT-4o (2,50 USD/M) i świetnie radzi sobie z prostą klasyfikacją, ekstrakcją danych czy formatowaniem. Claude Haiku 4.5 (1,00 USD/M) jest 15× tańszy od Claude Opus 4.7 (15,00 USD/M). Gemini 2.5 Flash (0,075 USD/M) to jeden z najtańszych modeli klasy premium. Rezerwuj droższe modele tylko do złożonych zadań wymagających rozumowania.

3. Skracaj system prompty i używaj prompt cachingu. Długi system prompt powtarzany przy każdym zapytaniu szybko generuje duże koszty. OpenAI i Anthropic oferują prompt caching — jeśli część promptu się nie zmienia, płacisz za nią tylko raz. Dodatkowa oszczędność: 75–90% na powtarzającej się części.

Kombinacja tych trzech technik może obniżyć koszty o 60–80% przy tej samej jakości wyników. Dla firmy wydającej 1000 PLN miesięcznie na API — to różnica między 1000 PLN a 200–400 PLN co miesiąc.

Tokeny w poszczególnych modelach AI

GPT-4o i GPT-4o mini (OpenAI)

GPT-4o używa tokenizera o200k_base — słownika o 200 000 tokenów. Jest nieco efektywniejszy dla języków europejskich niż starszy cl100k_base używany przez GPT-4 Turbo i GPT-3.5. GPT-4o kosztuje 2,50 USD za milion tokenów wejściowych i 10,00 USD za milion tokenów wyjściowych. GPT-4o mini to 0,15 USD / 10,00 USD — idealny do masowego przetwarzania tekstu przy ograniczonym budżecie.

Claude Opus, Sonnet i Haiku (Anthropic)

Anthropic nie udostępnia publicznego tokenizera dla Claude. Nasz kalkulator używa tokenizera GPT-4 (cl100k_base) jako przybliżenia — rzeczywista liczba tokenów może różnić się o kilka procent. Claude Opus 4.7 to najpotężniejszy i najdroższy model Anthropic (15,00 USD/M wejście, 75,00 USD/M wyjście). Claude Sonnet 4.6 oferuje dobry balans cena/jakość (3,00 USD/M), a Claude Haiku 4.5 to najtańsza opcja w portfolio Anthropic (1,00 USD/M).

Gemini 2.5 Pro i Flash (Google)

Google DeepMind również nie publikuje tokenizera dla Gemini. Stosujemy przybliżenie oparte na cl100k_base. Gemini 2.5 Pro (1,25 USD/M) jest w tej chwili jedną z najtańszych opcji wśród modeli najwyższej klasy. Gemini 2.5 Flash (0,075 USD/M) to rekordowo tani model do zadań wymagających szybkości — idealny do aplikacji przetwarzających duże wolumeny tekstu.

Llama 3, Mistral i Qwen (modele open-weight)

Modele open-weight (Llama od Meta, Mistral, Qwen od Alibaba) mają publicznie dostępne tokenizery, więc nasze wyniki dla nich są dokładne. Cenniki podane w kalkulatorze dotyczą hostingu u popularnych dostawców jak Together AI, Replicate czy Groq — przy własnym hostingu koszt tokenów = koszt infrastruktury. Llama 3 (8B) i Mistral 7B używają tokenizera zbliżonego do GPT-4, ale zoptymalizowanego pod swój model — liczba tokenów może się nieznacznie różnić.

Limity tokenów — ile możesz wysłać?

Każdy model AI ma limit okna kontekstowego (context window) — maksymalną sumaryczną liczbę tokenów wejściowych i wyjściowych w jednym zapytaniu. Przekroczenie limitu skutkuje błędem lub obcięciem treści przez model.

Aktualne limity (kwiecień 2026):

  • GPT-4o: 128 000 tokenów (≈ ok. 96 000 słów angielskich, ok. 60 000 polskich)
  • Claude Opus 4.7 / Sonnet 4.6: 200 000 tokenów
  • Gemini 2.5 Pro: 1 000 000 tokenów (1M context)
  • GPT-4o mini: 128 000 tokenów
  • Llama 3 (8B): 8 000 tokenów (modele 70B: do 128 000)

W bezpłatnych interfejsach (ChatGPT Free, Claude.ai Free) limity są niższe niż w API i mogą się zmieniać. Dla porównania: ChatGPT Free pozwala na rozmowy do ok. 4 000 tokenów na sesję, ChatGPT Plus (20 USD/mies.) daje dostęp do pełnego okna kontekstowego GPT-4o.

Jeśli budujesz aplikację przetwarzającą długie dokumenty (umowy, raporty, artykuły), wybór modelu z dużym oknem kontekstowym jest kluczowy. Gemini 2.5 Pro z oknem 1M tokenów mieści całą powieść w jednym zapytaniu — i robi to taniej niż GPT-4o przy porównywalnej jakości.

Nasz licznik tokenów pomoże Ci sprawdzić, czy Twój dokument mieści się w limitach wybranego modelu zanim wyślesz go do API.

Często zadawane pytania

Ile mnie realnie kosztuje ChatGPT lub Claude?

To zależy od modelu i długości Twoich wiadomości. GPT-4o (używany w ChatGPT Plus) kosztuje 2,50 USD za milion "kawałków tekstu" (tokenów). Wpisz swój typowy tekst w kalkulator powyżej, a zobaczysz dokładną kwotę w złotówkach — zarówno za jedną wiadomość, jak i w skali roku.

Skąd wzięliście te liczby? Skąd wiadomo, że są prawidłowe?

Używamy oficjalnych, otwartych narzędzi od OpenAI (tiktoken) i Anthropic — tych samych, którymi sami liczą swoje koszty. Ceny pobieramy z oficjalnych cenników tych firm. Kurs USD/PLN aktualizujemy co godzinę z Narodowego Banku Polskiego. Jedyna niepewność to szacunek dla "wersji angielskiej" — tam podajemy przybliżenie na podstawie analizy 5 000 polsko-angielskich par zdań.

Czy moje teksty są bezpieczne? Czy je zapisujecie?

Nie. Wszystkie obliczenia wykonywane są wyłącznie w Twojej przeglądarce — Twój tekst nigdy nie opuszcza Twojego komputera. Nie używamy zewnętrznych API do liczenia tokenów ani nie logujemy wpisywanych treści. Możesz to zweryfikować wyłączając internet przed wpisaniem tekstu — kalkulator nadal działa.

Co to są te "kawałki tekstu" (i dlaczego muszę się tym przejmować)?

AI nie "czyta" tekstu tak jak człowiek. Najpierw dzieli go na małe kawałki — mniej więcej pół-słowa do kilku słów każdy. Każdy kawałek ma swoją cenę. To właśnie "token". Nie musisz rozumieć mechanizmu — wystarczy wiedzieć, że im więcej kawałków, tym drożej. Po polsku kawałki są mniejsze, więc ich jest więcej i płacisz więcej.

Dlaczego warto pisać po angielsku do AI?

AI były trenowane głównie na angielskich tekstach, więc angielskie słowa "pasują" w całości jako jeden kawałek. Polskie słowa — z odmianą, końcówkami i naszymi ą, ę, ć — AI musi dzielić na kilka kawałków. Efekt: ten sam tekst po polsku generuje o 30–50% więcej kawałków, a więc jest o 30–50% droższy.

Czy na pewno zaoszczędzę? Co jeśli mój angielski jest słaby?

Zaoszczędzisz, nawet jeśli Twój angielski jest daleki od doskonałości — AI dobrze rozumie nawet "łamany" angielski. Jeśli się wahasz, użyj naszego bezpłatnego Optymalizatora: przetłumaczy Twój polski tekst na poprawny angielski, a Ty skopiujesz go do ChatGPT. Próg wejścia: zero.

Jak zacząć oszczędzać już dzisiaj? (krok po kroku)

1. Skopiuj swój najczęstszy prompt i wklej do kalkulatora — sprawdź, ile kosztuje. 2. Kliknij "Przetłumacz na angielski" — dostaniesz gotową wersję EN. 3. Wklej angielski prompt do ChatGPT/Claude i przetestuj. 4. Jeśli wynik jest dobry — masz gotowy szablon na przyszłość. Dla firm z setkami promptów dziennie to prosta decyzja finansowa.

Jestem programistą — czy macie dokładniejsze dane techniczne?

Tak. Po kliknięciu "Policz koszt" rozwiń sekcję "Szczegóły techniczne" pod wynikiem. Znajdziesz tam: dokładną liczbę tokenów według różnych tokenizerów, wizualizację podziału tekstu na kawałki, porównanie kosztów między wszystkimi modelami i aktualny kurs USD/PLN z NBP. Mamy też darmowe narzędzie Cascade (/cascade) z 5-stopniowym pipeline'em optymalizacji promptów dla zaawansowanych.