Licznik tokenów AI
Sprawdź, ile tokenów ma Twój tekst i ile kosztuje jego wysłanie do ChatGPT, Claude, Gemini i innych modeli AI.
Co to jest token AI?
Token to podstawowa jednostka, na której operują modele językowe takie jak ChatGPT, Claude czy Gemini. Kiedy wysyłasz wiadomość do AI, model nie "widzi" liter ani słów w takiej formie, jak je piszesz — najpierw dzieli Twój tekst na małe kawałki zwane tokenami, a dopiero na nich wykonuje obliczenia.
Token to nie litera i nie słowo. W języku angielskim jedno słowo to zazwyczaj jeden token. W języku polskim jedno słowo to często dwa, trzy, a nawet cztery tokeny — ze względu na odmianę i polskie znaki diakrytyczne (ą, ć, ę, ł, ń, ó, ś, ź, ż). Przykładowo słowo "przepiękny" zostanie podzielone inaczej niż angielskie "beautiful", które mieści się w jednym tokenie.
Koszt korzystania z API ChatGPT (OpenAI), Claude (Anthropic) i Gemini (Google) jest liczony właśnie w tokenach — nigdy w znakach ani słowach. Dlatego każdy, kto regularnie używa tych narzędzi, powinien rozumieć, czym jest token i jak wpływa na koszty. Niniejszy licznik tokenów pozwala sprawdzić dokładnie, ile tokenów ma Twój tekst i ile kosztuje jego wysłanie do modelu AI w złotówkach.
Openai udostępnia narzędzie tiktoken do liczenia tokenów dla swoich modeli (GPT-4o, GPT-4, GPT-3.5). Nasz kalkulator używa oficjalnego tokenizera tiktoken bezpośrednio w przeglądarce — wyniki są identyczne z tym, co nalicza OpenAI na swoich serwerach. Dla modeli Claude i Gemini, które nie udostępniają publicznych tokenizerów, pokazujemy przybliżoną wartość na podstawie tokenizera GPT-4.
Ile tokenów ma 1 słowo po polsku?
Odpowiedź zależy od konkretnego słowa, ale możemy podać przydatne przybliżenia. W języku angielskim przeciętne słowo to około 1,3 tokena (wiele krótkich słów to 1 token, dłuższe — 2). W języku polskim przeciętne słowo to 1,7–2,5 tokena.
Kilka przykładów dla tokenizera GPT-4o:
- →"kot" — 1 token (krótkie, bez diakrytyków)
- →"kotem" — 2 tokeny (odmiana dodaje subtoken)
- →"przepiękny" — 3 tokeny
- →"najpiękniejszego" — 4–5 tokenów
- →"beautiful" (angielski odpowiednik) — 1 token
Reguła jest prosta: im dłuższe słowo i im więcej polskich znaków diakrytycznych, tym więcej tokenów. Tekst z wieloma odmianami rzeczowników i przymiotników (typowy dla formalnego polskiego) będzie miał wyraźnie wyższy współczynnik tokenów-na-słowo niż tekst angielski o tej samej treści merytorycznej.
W praktyce: 1000 znaków polskiego tekstu to zazwyczaj 350–480 tokenów w GPT-4o. 1000 znaków angielskiego tekstu to 230–290 tokenów. Różnica to 40–70%, co przekłada się wprost na wyższe koszty API.
Dlaczego polski kosztuje więcej w AI?
Modele językowe, takie jak GPT-4 czy Claude, były trenowane na zbiorach danych zdominowanych przez angielski. Dotyczy to nie tylko treści, ale też procesu budowy tokenizera — zestawu "słów kluczowych", które model zna jako całość.
Tokenizer angielski ma zapisane całe angielskie słowa jako pojedyncze tokeny: "beautiful", "running", "however". Kiedy przetwarza tekst angielski, większość słów mieści się w jednym tokenie. Polski tokenizer tego nie ma — polskie słowa muszą być rozkładane na mniejsze kawałki, które model zna: prefiksy, sufiksy, rdzenie, litery.
Dodatkowym czynnikiem są polskie znaki diakrytyczne. Litery ą, ć, ę, ł, ń, ó, ś, ź, ż są zakodowane w Unicode jako wielobajtowe sekwencje. Tokenizerze mają z nimi trudności i często traktują je jako osobne tokeny, zamiast włączać do słowa.
Efekt praktyczny: ten sam prompt napisany po polsku i po angielsku będzie kosztował o 30–50% więcej w polskiej wersji. Dla firmy wysyłającej setki tysięcy zapytań miesięcznie to różnica liczona w tysiącach złotych. Jeśli chcesz dokładnie policzyć, ile tracisz na polskim języku, skorzystaj z naszego Optymalizatora promptów — bezpłatnie przetłumaczy Twój tekst na angielski i pokaże różnicę w kosztach.
Tokeny a znaki — jaka jest różnica?
Znaki (litery, cyfry, znaki interpunkcyjne, spacje) to to, co widzisz w edytorze tekstu. Tokeny to wewnętrzna reprezentacja, którą model AI przetwarza. Nie ma stałego przelicznika między znakami a tokenami — zależy od języka, użytych słów i tokenizera.
Przybliżone przeliczniki dla GPT-4o:
- →Angielski: 1 token ≈ 4 znaki
- →Polski: 1 token ≈ 3 znaki
- →Chiński/japoński: 1 token ≈ 1–2 znaki (bardzo wysoki koszt!)
- →Kod programistyczny (Python, JS): 1 token ≈ 3–4 znaki
Dla platform ograniczających długość tekstu (Twitter/X, SMS, formularze) ważna jest liczba znaków. Dla kosztów API modeli AI ważna jest liczba tokenów. Nasz kalkulator pokazuje oba wyniki jednocześnie, żebyś mógł optymalnie planować zarówno długość tekstu, jak i budżet na AI.
Jak policzyć koszt ChatGPT w PLN?
Koszt pojedynczego zapytania do modelu AI obliczamy według wzoru:
koszt (USD) = liczba_tokenów × cena_za_milion_tokenów / 1 000 000 koszt (PLN) = koszt (USD) × kurs_USD/PLN
Przykład dla GPT-4o (cena: 2,50 USD za milion tokenów wejściowych), tekst liczący 500 tokenów, kurs 3,95 PLN:
koszt = 500 × 2,50 / 1 000 000 = 0,00125 USD koszt = 0,00125 × 3,95 = 0,00494 PLN ≈ 0,49 gr
Pojedynczy prompt kosztuje grosze — ale przy dziesiątkach tysięcy zapytań dziennie sumy rosną szybko. Nasz kalkulator pobiera aktualny kurs USD/PLN z Narodowego Banku Polskiego, więc wyniki są na bieżąco aktualizowane.
Ważne: w API OpenAI, Anthropic i Google liczą się tokeny wejściowe (Twój prompt) i wyjściowe (odpowiedź modelu) oddzielnie. Tokeny wyjściowe są zazwyczaj droższe — GPT-4o: 10,00 USD/M (vs 2,50 USD/M wejściowych), Claude Opus 4.7: 75,00 USD/M (vs 15,00 USD/M wejściowych). Nasz kalkulator domyślnie pokazuje koszt tokenów wejściowych — tyle kosztuje Twój prompt.
Jeśli planujesz koszt całej konwersacji (prompt + odpowiedź), do kosztu wejściowego dodaj koszt szacowanej długości odpowiedzi, mnożąc przez stawkę tokenów wyjściowych dla danego modelu.
Jak obniżyć koszty API OpenAI, Claude i Gemini?
Trzy sprawdzone sposoby na redukcję kosztów API modeli AI bez utraty jakości:
1. Pisz prompty po angielsku. To najprostszy i najszybszy sposób. Ten sam tekst po angielsku zużywa 30–50% mniej tokenów niż po polsku. Skorzystaj z naszego bezpłatnego Optymalizatora — przetłumaczy Twój prompt na angielski zachowując intencję i styl.
2. Wybierz tańszy model do prostych zadań. GPT-4o mini (0,15 USD/M) jest 16× tańszy niż GPT-4o (2,50 USD/M) i świetnie radzi sobie z prostą klasyfikacją, ekstrakcją danych czy formatowaniem. Claude Haiku 4.5 (1,00 USD/M) jest 15× tańszy od Claude Opus 4.7 (15,00 USD/M). Gemini 2.5 Flash (0,075 USD/M) to jeden z najtańszych modeli klasy premium. Rezerwuj droższe modele tylko do złożonych zadań wymagających rozumowania.
3. Skracaj system prompty i używaj prompt cachingu. Długi system prompt powtarzany przy każdym zapytaniu szybko generuje duże koszty. OpenAI i Anthropic oferują prompt caching — jeśli część promptu się nie zmienia, płacisz za nią tylko raz. Dodatkowa oszczędność: 75–90% na powtarzającej się części.
Kombinacja tych trzech technik może obniżyć koszty o 60–80% przy tej samej jakości wyników. Dla firmy wydającej 1000 PLN miesięcznie na API — to różnica między 1000 PLN a 200–400 PLN co miesiąc.
Tokeny w poszczególnych modelach AI
GPT-4o i GPT-4o mini (OpenAI)
GPT-4o używa tokenizera o200k_base — słownika o 200 000 tokenów. Jest nieco efektywniejszy dla języków europejskich niż starszy cl100k_base używany przez GPT-4 Turbo i GPT-3.5. GPT-4o kosztuje 2,50 USD za milion tokenów wejściowych i 10,00 USD za milion tokenów wyjściowych. GPT-4o mini to 0,15 USD / 10,00 USD — idealny do masowego przetwarzania tekstu przy ograniczonym budżecie.
Claude Opus, Sonnet i Haiku (Anthropic)
Anthropic nie udostępnia publicznego tokenizera dla Claude. Nasz kalkulator używa tokenizera GPT-4 (cl100k_base) jako przybliżenia — rzeczywista liczba tokenów może różnić się o kilka procent. Claude Opus 4.7 to najpotężniejszy i najdroższy model Anthropic (15,00 USD/M wejście, 75,00 USD/M wyjście). Claude Sonnet 4.6 oferuje dobry balans cena/jakość (3,00 USD/M), a Claude Haiku 4.5 to najtańsza opcja w portfolio Anthropic (1,00 USD/M).
Gemini 2.5 Pro i Flash (Google)
Google DeepMind również nie publikuje tokenizera dla Gemini. Stosujemy przybliżenie oparte na cl100k_base. Gemini 2.5 Pro (1,25 USD/M) jest w tej chwili jedną z najtańszych opcji wśród modeli najwyższej klasy. Gemini 2.5 Flash (0,075 USD/M) to rekordowo tani model do zadań wymagających szybkości — idealny do aplikacji przetwarzających duże wolumeny tekstu.
Llama 3, Mistral i Qwen (modele open-weight)
Modele open-weight (Llama od Meta, Mistral, Qwen od Alibaba) mają publicznie dostępne tokenizery, więc nasze wyniki dla nich są dokładne. Cenniki podane w kalkulatorze dotyczą hostingu u popularnych dostawców jak Together AI, Replicate czy Groq — przy własnym hostingu koszt tokenów = koszt infrastruktury. Llama 3 (8B) i Mistral 7B używają tokenizera zbliżonego do GPT-4, ale zoptymalizowanego pod swój model — liczba tokenów może się nieznacznie różnić.
Limity tokenów — ile możesz wysłać?
Każdy model AI ma limit okna kontekstowego (context window) — maksymalną sumaryczną liczbę tokenów wejściowych i wyjściowych w jednym zapytaniu. Przekroczenie limitu skutkuje błędem lub obcięciem treści przez model.
Aktualne limity (kwiecień 2026):
- →GPT-4o: 128 000 tokenów (≈ ok. 96 000 słów angielskich, ok. 60 000 polskich)
- →Claude Opus 4.7 / Sonnet 4.6: 200 000 tokenów
- →Gemini 2.5 Pro: 1 000 000 tokenów (1M context)
- →GPT-4o mini: 128 000 tokenów
- →Llama 3 (8B): 8 000 tokenów (modele 70B: do 128 000)
W bezpłatnych interfejsach (ChatGPT Free, Claude.ai Free) limity są niższe niż w API i mogą się zmieniać. Dla porównania: ChatGPT Free pozwala na rozmowy do ok. 4 000 tokenów na sesję, ChatGPT Plus (20 USD/mies.) daje dostęp do pełnego okna kontekstowego GPT-4o.
Jeśli budujesz aplikację przetwarzającą długie dokumenty (umowy, raporty, artykuły), wybór modelu z dużym oknem kontekstowym jest kluczowy. Gemini 2.5 Pro z oknem 1M tokenów mieści całą powieść w jednym zapytaniu — i robi to taniej niż GPT-4o przy porównywalnej jakości.
Nasz licznik tokenów pomoże Ci sprawdzić, czy Twój dokument mieści się w limitach wybranego modelu zanim wyślesz go do API.
Często zadawane pytania
Ile mnie realnie kosztuje ChatGPT lub Claude?
To zależy od modelu i długości Twoich wiadomości. GPT-4o (używany w ChatGPT Plus) kosztuje 2,50 USD za milion "kawałków tekstu" (tokenów). Wpisz swój typowy tekst w kalkulator powyżej, a zobaczysz dokładną kwotę w złotówkach — zarówno za jedną wiadomość, jak i w skali roku.
Skąd wzięliście te liczby? Skąd wiadomo, że są prawidłowe?
Używamy oficjalnych, otwartych narzędzi od OpenAI (tiktoken) i Anthropic — tych samych, którymi sami liczą swoje koszty. Ceny pobieramy z oficjalnych cenników tych firm. Kurs USD/PLN aktualizujemy co godzinę z Narodowego Banku Polskiego. Jedyna niepewność to szacunek dla "wersji angielskiej" — tam podajemy przybliżenie na podstawie analizy 5 000 polsko-angielskich par zdań.
Czy moje teksty są bezpieczne? Czy je zapisujecie?
Nie. Wszystkie obliczenia wykonywane są wyłącznie w Twojej przeglądarce — Twój tekst nigdy nie opuszcza Twojego komputera. Nie używamy zewnętrznych API do liczenia tokenów ani nie logujemy wpisywanych treści. Możesz to zweryfikować wyłączając internet przed wpisaniem tekstu — kalkulator nadal działa.
Co to są te "kawałki tekstu" (i dlaczego muszę się tym przejmować)?
AI nie "czyta" tekstu tak jak człowiek. Najpierw dzieli go na małe kawałki — mniej więcej pół-słowa do kilku słów każdy. Każdy kawałek ma swoją cenę. To właśnie "token". Nie musisz rozumieć mechanizmu — wystarczy wiedzieć, że im więcej kawałków, tym drożej. Po polsku kawałki są mniejsze, więc ich jest więcej i płacisz więcej.
Dlaczego warto pisać po angielsku do AI?
AI były trenowane głównie na angielskich tekstach, więc angielskie słowa "pasują" w całości jako jeden kawałek. Polskie słowa — z odmianą, końcówkami i naszymi ą, ę, ć — AI musi dzielić na kilka kawałków. Efekt: ten sam tekst po polsku generuje o 30–50% więcej kawałków, a więc jest o 30–50% droższy.
Czy na pewno zaoszczędzę? Co jeśli mój angielski jest słaby?
Zaoszczędzisz, nawet jeśli Twój angielski jest daleki od doskonałości — AI dobrze rozumie nawet "łamany" angielski. Jeśli się wahasz, użyj naszego bezpłatnego Optymalizatora: przetłumaczy Twój polski tekst na poprawny angielski, a Ty skopiujesz go do ChatGPT. Próg wejścia: zero.
Jak zacząć oszczędzać już dzisiaj? (krok po kroku)
1. Skopiuj swój najczęstszy prompt i wklej do kalkulatora — sprawdź, ile kosztuje. 2. Kliknij "Przetłumacz na angielski" — dostaniesz gotową wersję EN. 3. Wklej angielski prompt do ChatGPT/Claude i przetestuj. 4. Jeśli wynik jest dobry — masz gotowy szablon na przyszłość. Dla firm z setkami promptów dziennie to prosta decyzja finansowa.
Jestem programistą — czy macie dokładniejsze dane techniczne?
Tak. Po kliknięciu "Policz koszt" rozwiń sekcję "Szczegóły techniczne" pod wynikiem. Znajdziesz tam: dokładną liczbę tokenów według różnych tokenizerów, wizualizację podziału tekstu na kawałki, porównanie kosztów między wszystkimi modelami i aktualny kurs USD/PLN z NBP. Mamy też darmowe narzędzie Cascade (/cascade) z 5-stopniowym pipeline'em optymalizacji promptów dla zaawansowanych.