· github copilot · abrechnung · kostenkontrolle · juni 2026 ·

GitHub Copilot Token-Abrechnungsrechner: Schätzen Sie Ihre Juni-Rechnung

// abbildung Verbrauchte AI Credits je Workflow-Typ – Copilot-Pro-Tarif, repräsentative Monatsnutzung
Von Copilot verbrauchte AI Credits nach Workflow-Typ Horizontales Balkendiagramm, das den AI-Credit-Verbrauch je Workflow-Kategorie zeigt: Code-Vervollständigungen (0 – kostenlos), Chat-Sitzungen mit günstigen Modellen (niedrig), agentische Sitzungen mit Sonnet (hoch) sowie agentische Sitzungen mit Opus (sehr hoch). Das monatliche 1.000-Credit-Kontingent des Copilot-Pro-Tarifs ist als Schwellenlinie markiert. PRO-LIMIT · 1000 CREDITS CODE-VERVOLLSTÄNDIGUNG KOSTENLOS — stets 0 Credits CHAT · GPT-5 MINI · 150/MONAT ~15 Credits (0,15 USD) CHAT · SONNET 4 · 200/MONAT ~95 Credits (0,95 USD) AGENTISCH · SONNET 4 · 22/MONAT ~1160 Credits (+Überverbrauch) BRAINSTORM · OPUS 4.7 · 6/MONAT ~132 Credits (1,32 USD)
// RUBRIK GitHub Copilot · Abrechnung // QUELLE Septim Labs · Septim Meter CLI // PERMALINK /de/blog/github-copilot-token-billing-calculator-2026.html zitieren →
S
Von dem Team von Septim Labs
Veröffentlicht am 28. April 2026 · 12 Min. Lesezeit
Auf einen Blick
  • GitHub Copilot stellt am 1. Juni 2026 auf token-basierte Abrechnung um – angekündigt am 27. April auf github.blog. Die Abrechnungseinheit sind AI Credits; 1 Credit entspricht 0,01 USD.
  • Code-Vervollständigungen bleiben kostenlos. Sie zahlen ausschließlich für die Nutzung von Premium-Modellen in Chat- und agentischen Sitzungen, sobald die im Tarif enthaltenen Credits aufgebraucht sind.
  • Dieser Beitrag enthält die vollständige Tariftabelle pro Modell, die exakte Formel und drei Nutzungsprofile mit prognostizierten Juni-Rechnungen – berechnet aus den von GitHub veröffentlichten Tarifen.

Was sich am 1. Juni tatsächlich ändert

Die aktuelle Abrechnung von GitHub zählt sogenannte „Premium Requests“ – eine pauschale Einheit, die je nach Modell variiert, dem Anwender aber die zugrunde liegende Token-Mathematik nicht offenlegt. Ab dem 1. Juni verschwindet dieses System. An seine Stelle treten AI Credits: 1 Credit kostet 0,01 USD, und jedes Modell verbraucht eine andere Anzahl Credits pro Million Token.

Die Tarifpreise selbst bleiben unverändert. Copilot Pro kostet weiterhin 10 USD pro Monat, Business 19 USD, Enterprise 39 USD. Was sich ändert, ist die Logik des Überverbrauchs: Statt an eine Anfrage-Obergrenze zu stoßen und blockiert zu werden, läuft Ihr Token-Verbrauch nun wie eine offene Rechnung mit. Übersteigt diese Rechnung die im Tarif enthaltenen Credits, werden Ihnen 0,01 USD pro zusätzlichem Credit berechnet.

Jeder Tarif enthält ein passendes Credit-Kontingent: Pro umfasst 1.000 Credits (entspricht 10 USD Token-Wert), Business 1.900 Credits, Enterprise 3.900 Credits. Die Rechnung ist bewusst gewählt – die enthaltenen Credits entsprechen dem Tarifpreis in USD, sodass ein reiner Token-Nutzer auf null herauskommt. Die entscheidende Frage lautet: Treibt Ihr Nutzungsmuster Sie über diese Schwelle hinaus?

Code-Vervollständigungen und Next-Edit-Suggestions sind nicht betroffen. Sie bleiben in allen kostenpflichtigen Tarifen unentgeltlich. Die Verbrauchsmessung greift ausschließlich bei Chat-Interaktionen, Inline-Bearbeitungen, die ein Premium-Modell aufrufen, und agentischen Sitzungen. Diesen Unterschied hat GitHub gezielt erhalten – die Tab-Vervollständigung, mit der die meisten Anwender Copilot in erster Linie verbinden, bleibt im Preis stabil.

Die Tarife werden auf docs.github.com/en/copilot/reference/copilot-billing/models-and-pricing veröffentlicht. Sie verstehen sich pro Million Token, in USD, und sind nach Input (was Sie senden) und Output (was das Modell zurückliefert) aufgeschlüsselt. Bei Anthropic-Modellen kommen ein gesonderter Tarif für gecachte Reads sowie ein Tarif für Cache-Writes hinzu – dazu weiter unten mehr.

Etwas, das die Ankündigung nicht hervorhebt: Die von GitHub publizierten Tarife pro Million Token entsprechen exakt den von den jeweiligen Anbietern für ihre eigenen APIs gelisteten Preisen, Stand 28. April 2026. Sie zahlen also keinen Aufschlag auf die Token. Sie zahlen für die IDE-Integration, die Tab-Vervollständigung und das enthaltene Credit-Kontingent – und darüber hinaus die reinen API-Tarife, falls Sie das Limit überschreiten.

Token-Preise pro Modell – die vollständige Tariftabelle

Alle Tarife verstehen sich pro Million Token in USD. Quelle: docs.github.com/.../models-and-pricing, gültig ab dem 1. Juni 2026. Die Spalte „Cache Write“ gilt ausschließlich für Anthropic-Modelle – bei OpenAI, Google und xAI werden Cache-Writes zum üblichen Input-Tarif abgerechnet.

Modell Input USD/M Cached USD/M Cache Write USD/M Output USD/M
Anthropic
Claude Haiku 4.5anthropic $1.00 $0.10 $1.25 $5.00
Claude Sonnet 4anthropic $3.00 $0.30 $3.75 $15.00
Claude Sonnet 4.5anthropic $3.00 $0.30 $3.75 $15.00
Claude Sonnet 4.6anthropic $3.00 $0.30 $3.75 $15.00
Claude Opus 4.5anthropic $5.00 $0.50 $6.25 $25.00
Claude Opus 4.6anthropic $5.00 $0.50 $6.25 $25.00
Claude Opus 4.7anthropic $5.00 $0.50 $6.25 $25.00
OpenAI
GPT-4.1openai $2.00 $0.50 $8.00
GPT-5 miniopenai $0.25 $0.025 $2.00
GPT-5.2openai $1.75 $0.175 $14.00
GPT-5.4openai $2.50 $0.25 $15.00
GPT-5.5openai $5.00 $0.50 $30.00
Google
Gemini 2.5 Progoogle $1.25 $0.125 $10.00
Gemini 3 Flashgoogle $0.50 $0.05 $3.00
xAI
Grok Code Fast 1xai $0.20 $0.02 $1.50

Das Verhältnis von Output- zu Input-Tarif unterscheidet sich je Anbieter. Bei der Sonnet-Reihe von Anthropic liegt es bei 5:1 (Output kostet das Fünffache des Inputs). GPT-5 mini liegt bei 8:1, Grok Code Fast 1 bei 7,5:1. Bei agentischer Arbeit, bei der typischerweise lange Outputs entstehen, ist der Output-Tarif die entscheidende Größe.

Die Formel – wie Credits berechnet werden

Die Credit-Mathematik von GitHub ist unkompliziert. Jedes Workflow-Ereignis (eine Chat-Runde, ein agentischer Schritt, ein Code-Review) verbraucht eine bestimmte Anzahl Input- und Output-Token. Anthropic-Modelle können zusätzlich aus dem Cache lesen oder in ihn schreiben. Sie addieren die Kosten, teilen durch den Wert eines Credits und erhalten den Credit-Verbrauch für dieses Ereignis.

// formel zur credit-berechnung
credits = (
    input_tokens  × input_USD/M
  + output_tokens × output_USD/M
  + cached_tokens × cached_USD/M
  + cache_write_tokens × cache_write_USD/M   ← nur Anthropic
) ÷ 1.000.000 ÷ 0,01 USD

Die Division durch 1.000.000 wandelt rohe Token in Millionen um. Die Division durch 0,01 USD übersetzt die USD-Kosten in Credits. Alles dazwischen ist eine Multiplikation mit dem veröffentlichten Tarif des Modells.

Rechenbeispiel: agentische Sitzung mit Claude Sonnet 4

Eine moderat komplexe agentische Sitzung mit Claude Sonnet 4 – ein Codebestand wird geöffnet, ein Feature implementiert und ein Review-Durchgang ausgeführt:

50.000 Input × 3,00 USD/M$0.1500
20.000 Output × 15,00 USD/M$0.3000
30.000 Cached × 0,30 USD/M$0.0090
10.000 Cache-Write × 3,75 USD/M$0.0375
Gesamtkosten in USD$0.4965
÷ 0,01 USD pro Credit49,65 Credits

Diese eine agentische Sitzung kostet 49,65 Credits – rund 5 Prozent der 1.000 Credits, die in einem Copilot-Pro-Tarif enthalten sind. Führen Sie diese Sitzung 20-mal pro Monat aus, haben Sie 993 Credits verbraucht, also nahezu das gesamte Kontingent. Die einundzwanzigste Sitzung löst die ersten Überverbrauchsgebühren aus.

Beachten Sie, wie stark die Output-Token dominieren: 0,30 USD von insgesamt 0,4965 USD – also 60 Prozent – stammen aus den 20.000 Output-Token, obwohl der Input mit dem 2,5-Fachen der Token deutlich größer ist. Genau diese Mathematik macht agentische Arbeit gegenüber Chat so teuer.

Die Rechnung schießt schon jetzt in die Höhe?

Wenn Sie bereits unerwartete Abbuchungen sehen – oder ein Team führen, dessen Copilot-Verbrauch steigt – ist Septim Rescue ein Audit für 299 USD in einer Sitzung: Wir finden die Sitzungen, die Ihr Budget verbrennen, und liefern einen konkreten Maßnahmenplan. Bis Freitag gebucht, am Montag geliefert.

Septim Rescue buchen →

Welche Workflows die höchsten Kosten verursachen

Nicht jede Copilot-Nutzung wird unter der Token-Abrechnung gleich behandelt. Der Unterschied zwischen einem 10-USD-Monat und einem 35-USD-Monat liegt überwiegend in der Auswahl der Workflows, nicht im reinen Volumen.

Die praktische Erkenntnis: Wenn Ihre Copilot-Nutzung überwiegend aus Tab-Vervollständigungen und gelegentlichem Chat besteht, werden Sie kaum eine Veränderung der Rechnung erleben. Wenn Sie jedoch agentische Sitzungen ausführen – insbesondere mehrstufige, werkzeugnutzende Sitzungen mit Sonnet oder Opus –, sollten Sie die Mathematik vor dem 1. Juni durchrechnen.

Drei Nutzungsprofile – die prognostizierten Juni-Rechnungen

Diese Prognosen stammen aus dem Septim Meter CLI, das gegen die unter docs.github.com/.../models-and-pricing veröffentlichten Tarife (Stand 28. April 2026) gerechnet wurde. Alle Profile gehen vom Copilot-Pro-Tarif aus (10 USD/Monat, 1.000 Credits enthalten).

// LEICHT
$10.00
kein Überverbrauch – 15 von 1.000 Credits genutzt
// MITTEL
$10.00
kein Überverbrauch – 191,82 von 1.000 Credits genutzt
// HOCH
$21.78
1.177,58 Überverbrauchs-Credits · +11,78 USD

Leicht – rund 150 Chats pro Monat mit GPT-5 mini

Der Entwickler dieses Profils nutzt Copilot überwiegend für Tab-Vervollständigung und gelegentliche kurze Rückfragen. 150 Chat-Sitzungen pro Monat, je 800 Input- und 400 Output-Token, sämtlich auf GPT-5 mini.

150 Chat-Sitzungen × GPT-5 mini15,00 Credits
Code-Vervollständigungen0,00 Credits (kostenlos)
Ereignisse insgesamt0,15 USD Token-Wert
Genutzte enthaltene Credits15 von 1.000
Überverbrauch0 Credits
Prognostizierte Juni-Rechnung10,00 USD

Für dieses Profil bleibt die Juni-Umstellung unsichtbar. Der gesamte Token-Wert eines Monats Chat – 0,15 USD – wird mühelos vom enthaltenen Credit-Kontingent gedeckt; 985 Credits bleiben übrig. Der einzige Kostenpunkt ist die Tarifgrundgebühr von 10 USD.

Mittel – Chat plus eine agentische Sitzung pro Woche plus gelegentliches Code-Review

Dieser Entwickler kombiniert Chat mit vier agentischen Sitzungen pro Monat auf Claude Sonnet 4 und acht Code-Reviews pro Monat auf Sonnet. Typisch für jemanden, der Copilot in den täglichen Arbeitsablauf integriert hat, aber keine durchgängig laufenden agentischen Sitzungen fährt.

Sitzungsparameter: 150 Chat-Sitzungen (GPT-5 mini, 1.200 in / 600 out), 4 agentische Sitzungen (Sonnet 4, 30k in / 12k out / 18k cached / 6k cache-write), 8 Code-Reviews (Sonnet 4, 8k in / 2,5k out / 4k cached).

150 Chat-Sitzungen (GPT-5 mini)18,00 Credits
4 agentische Sitzungen (Sonnet 4)129,30 Credits
8 Code-Reviews (Sonnet 4)44,52 Credits
Ereignisse insgesamt191,82 Credits (1,92 USD Token-Wert)
Genutzte enthaltene Credits191,82 von 1.000
Überverbrauch0 Credits
Prognostizierte Juni-Rechnung10,00 USD

Das mittlere Profil verbraucht 19 Prozent der enthaltenen Credits und löst zu keinem Zeitpunkt einen Überverbrauch aus. Selbst mit wöchentlichen agentischen Sitzungen und regelmäßigen Code-Reviews bieten die 1.000 Credits des Pro-Tarifs deutlichen Spielraum – solange die Sitzungsgrößen in dieser Größenordnung bleiben.

Hoch – tägliche agentische Sitzungen plus Opus-Brainstorms plus Code-Review

Hier handelt es sich um den Entwickler, der Copilot als primären Engineering-Partner einsetzt: 200 Chat-Sitzungen mit Sonnet 4, 22 agentische Sitzungen pro Monat mit Sonnet 4 (rund täglich), 6 Brainstorm-Sitzungen mit Opus 4.7, 16 Code-Reviews mit Sonnet 4. Genau dieses Profil überschreitet die Überverbrauchsschwelle.

Sitzungsparameter: 200 Chats (Sonnet 4, 2,5k in / 1,5k out / 1k cached), 22 agentische Sitzungen (Sonnet 4, 60k in / 25k out / 35k cached / 12k cache-write), 6 Brainstorms (Opus 4.7, 8k in / 4k out), 16 Reviews (Sonnet 4, 12k in / 3,5k out / 6k cached).

200 Chat-Sitzungen (Sonnet 4)95,00 Credits
22 agentische Sitzungen (Sonnet 4)1.749,42 Credits
6 Brainstorm-Sitzungen (Opus 4.7)132,00 Credits
16 Code-Reviews (Sonnet 4)201,16 Credits
Ereignisse insgesamt2.177,58 Credits (21,78 USD Token-Wert)
Enthaltene Credits (Pro)1.000 Credits
Überverbrauchs-Credits1.177,58 Credits
Überverbrauchsgebühr11,78 USD
Prognostizierte Juni-Rechnung21,78 USD

Die 22 agentischen Sitzungen dominieren das Bild. Sie machen rund 80 Prozent des gesamten Credit-Verbrauchs aus. Würde dieser Entwickler die agentischen Sitzungen von 22 auf 10 pro Monat senken – also etwa zwei bis drei pro Woche –, würde die Monatsrechnung von 21,78 USD auf rund 10,36 USD fallen und der Großteil des Überverbrauchs entfiele.

Sie möchten die interaktive Version dieses Rechners?

Septim Meter erscheint am 12. Mai – einmalig 29 USD. Sie geben Ihre eigenen Sitzungszahlen, Modellauswahl und Token-Schätzungen ein und erhalten in Sekunden eine prognostizierte Rechnungsaufschlüsselung sowie einen Vergleich mit der direkten API. Läuft offline, kein Konto erforderlich.

Beim Launch benachrichtigen lassen →

Der Aspekt, über den niemand spricht: Copilot gegen direkte API

Die Tarife pro Million Token von GitHub entsprechen mit Stand 28. April 2026 den gelisteten API-Tarifen der jeweiligen Anbieter. Auf die Token entfällt also kein Aufschlag. Damit ist die Mathematik für die Frage „Sollte ich Anthropic einfach direkt aufrufen?“ ungewöhnlich klar.

Nehmen wir das Hochnutzungsprofil: 21,78 USD prognostizierte Token-Kosten innerhalb von Copilot. Der verbrauchte Token-Wert – 2.177,58 Credits – entspricht 21,78 USD an API-Aufrufen zu den veröffentlichten Tarifen. Ein direkter Aufruf von Anthropic und OpenAI würde die gleichen 21,78 USD Token-Gebühren kosten, aber ohne die zusätzlichen 10 USD Tarifgrundgebühr.

Bei der direkten API gibt es keinen Grundtarif. Sie zahlen genau das, was Sie verbrauchen. Keine enthaltenen Credits, keine Tarifgebühr.

// Copilot Pro · Hochnutzer
$21.78
10 USD Grund + 11,78 USD Überverbrauch · enthält kostenlose Vervollständigungen
// Direkte API · gleiches Token-Volumen
$21.78
reine Token-Kosten · keine Vervollständigungen · keine IDE-Integration

Für den Hochnutzer sind die Zahlen identisch – weil die 10 USD Grundtarif exakt durch die 1.000 enthaltenen Credits aufgewogen werden. Die Formel lautet: Übersteigt Ihr Token-Wert 10 USD, kosten Copilot und direkte API gleich viel. Liegt er darunter, zahlen Sie 10 USD Grundgebühr für etwas, das Sie nicht voll ausschöpfen, und die direkte API ist günstiger.

Der Vergleich braucht jedoch eine Einschränkung: Copilot Pro umfasst mehr als reinen Token-Zugang. Im Tarif sind enthalten:

Für den Leichtnutzer – 0,15 USD Token-Wert pro Monat – kostet Copilot Pro 9,85 USD mehr als die reinen direkten API-Aufrufe. Ob sich das rechnet, hängt fast ausschließlich von der Intensität der Tab-Vervollständigung ab. Wer die IDE täglich öffnet und Vorschläge annimmt, wird die 10 USD als angemessen empfinden. Wer Copilot nur für gelegentlichen Chat von der Kommandozeile aus nutzt, fährt mit der direkten API deutlich günstiger.

Beim mittleren Nutzer ist die Rechnung ähnlich: 1,92 USD Token-Wert, 10 USD Grundtarif, 8,08 USD der Rechnung entfallen auf Tab-Vervollständigung und IDE-Funktionen. Für aktive Entwickler ist das immer noch ein vertretbarer Tausch.

Der Break-even-Punkt, an dem Copilot Pro und die direkte API bei den Token-Gebühren genau gleich teuer sind, liegt bei 10 USD Token-Wert pro Monat. Darüber kosten beide Optionen dasselbe – mit Copilot bekommen Sie zusätzlich kostenlose Vervollständigungen. Darunter ist die direkte API günstiger, jedoch ohne Tab-Vervollständigung.

Siehe auch: Anthropic API-Preise 2026 – Kostenrechner und Modellaufschlüsselung sowie Die Tokenocalypse – was eine außer Kontrolle geratene agentische Sitzung tatsächlich kostet.

Was Sie vor dem 1. Juni tun sollten

Septim Meter – der Rechner

Septim Meter erscheint am 12. Mai: einmalig 29 USD, läuft offline. Sie geben Sitzungszahlen und Token-Schätzungen ein; das Tool prognostiziert Ihre Copilot-Rechnung und stellt den Vergleich mit der direkten API daneben – über alle Tarife hinweg. Die Formel ist die gleiche wie in diesem Beitrag – kein Konto nötig, keine Daten verlassen Ihre Maschine.

Das CLI ist auf der Kommandozeile bereits funktionsfähig. Der Release am 12. Mai ergänzt die HTML-Reportausgabe und den interaktiven Modellwechsel-Vergleich. Wenn Sie frühen Zugang oder eine Benachrichtigung zum Launch wünschen:

Septim Meter – erscheint am 12. Mai

Einmalig 29 USD. Prognostizieren Sie Ihre Juni-Copilot-Rechnung, vergleichen Sie sie mit der direkten API und wählen Sie den günstigsten Pfad. Aufgebaut auf den von GitHub veröffentlichten Tarifen – aktualisiert sich bei Tarifänderungen über eine einzige JSON-Datei.

Zum Launch benachrichtigen lassen →

Häufige Fragen

Wann tritt die Änderung in Kraft?
Am 1. Juni 2026. GitHub hat die Umstellung am 27. April 2026 angekündigt. Das bestehende System der Premium Request Units läuft bis dahin weiter. Ab dem 1. Juni wird die gesamte nutzungsbasierte Abrechnung von Premium-Modellen auf AI Credits umgestellt.
Werden Code-Vervollständigungen auf AI Credits angerechnet?
Nein. Code-Vervollständigungen (Tab-Vorschläge) und Next-Edit-Suggestions sind in allen kostenpflichtigen Copilot-Tarifen unentgeltlich – Free, Pro, Pro+, Business und Enterprise. Sie verbrauchen weder vor noch nach dem 1. Juni AI Credits. Die Abrechnung greift ausschließlich bei Chat, Inline-Bearbeitungen mit Premium-Modell und agentischen Sitzungen.
Welches Modell ist für agentische Arbeit am günstigsten?
Bei reinen Kosten: xAI Grok Code Fast 1 mit 0,20 USD/M Input und 1,50 USD/M Output. Wenn Sie ein Modell eines etablierten Anbieters mit breiter Fähigkeit benötigen, ist GPT-5 mini mit 0,25 USD/M Input und 2,00 USD/M Output die nächstbillige Wahl. Claude Sonnet 4 – die Standardwahl der meisten Copilot-Nutzer für agentische Arbeit – kostet pro Input-Token das 12-Fache von GPT-5 mini. Bei agentischen Sitzungen mit großem Input-Kontext ist das ein erheblicher Unterschied.
Wird mein Pro-Tarif nach dem 1. Juni teurer?
Der Grundpreis ändert sich nicht. Copilot Pro bleibt bei 10 USD pro Monat. Jeder Tarif enthält AI Credits in Höhe seines Grundpreises: 1.000 Credits entsprechen 10 USD Token-Wert. Bleibt Ihr Token-Verbrauch innerhalb der enthaltenen Credits, ist Ihre Rechnung identisch. Mehr zahlen Sie nur, wenn Ihr monatlicher Token-Verbrauch das Kontingent überschreitet – und dann ausschließlich für den Überverbrauch.
Kann ich die nutzungsbasierte Abrechnung deaktivieren, damit ich nie für Überverbrauch zahle?
Ja. Setzen Sie unter GitHub-Einstellungen → Billing and plans → Spending limits das Copilot-Ausgabenlimit auf 0 USD. Sind die enthaltenen Credits aufgebraucht, wird der Zugriff auf Premium-Modelle bis zum nächsten Abrechnungszyklus gesperrt. Code-Vervollständigungen funktionieren weiter. Das ist die sicherste Option, wenn Sie eine harte Obergrenze für Ihre Copilot-Kosten wünschen.
Wie ermittle ich meinen aktuellen Verbrauch, bevor ich die Juni-Kosten schätze?
Rufen Sie github.com/settings/copilot auf – das Dashboard zeigt Interaktionszahlen und Modellnutzung. Für Daten auf Organisationsebene gehen Sie in Ihrer Organisation auf Settings → Billing → GitHub Copilot. Beide Ansichten weisen vor dem 1. Juni keine Token-genauen Werte aus, das Interaktionsvolumen liefert jedoch eine erste Größenordnung, die Sie in die obige Formel einsetzen können.