GitHub Copilot Token-Abrechnungsrechner: Schätzen Sie Ihre Juni-Rechnung
- GitHub Copilot stellt am 1. Juni 2026 auf token-basierte Abrechnung um – angekündigt am 27. April auf github.blog. Die Abrechnungseinheit sind AI Credits; 1 Credit entspricht 0,01 USD.
- Code-Vervollständigungen bleiben kostenlos. Sie zahlen ausschließlich für die Nutzung von Premium-Modellen in Chat- und agentischen Sitzungen, sobald die im Tarif enthaltenen Credits aufgebraucht sind.
- Dieser Beitrag enthält die vollständige Tariftabelle pro Modell, die exakte Formel und drei Nutzungsprofile mit prognostizierten Juni-Rechnungen – berechnet aus den von GitHub veröffentlichten Tarifen.
Was sich am 1. Juni tatsächlich ändert
Die aktuelle Abrechnung von GitHub zählt sogenannte „Premium Requests“ – eine pauschale Einheit, die je nach Modell variiert, dem Anwender aber die zugrunde liegende Token-Mathematik nicht offenlegt. Ab dem 1. Juni verschwindet dieses System. An seine Stelle treten AI Credits: 1 Credit kostet 0,01 USD, und jedes Modell verbraucht eine andere Anzahl Credits pro Million Token.
Die Tarifpreise selbst bleiben unverändert. Copilot Pro kostet weiterhin 10 USD pro Monat, Business 19 USD, Enterprise 39 USD. Was sich ändert, ist die Logik des Überverbrauchs: Statt an eine Anfrage-Obergrenze zu stoßen und blockiert zu werden, läuft Ihr Token-Verbrauch nun wie eine offene Rechnung mit. Übersteigt diese Rechnung die im Tarif enthaltenen Credits, werden Ihnen 0,01 USD pro zusätzlichem Credit berechnet.
Jeder Tarif enthält ein passendes Credit-Kontingent: Pro umfasst 1.000 Credits (entspricht 10 USD Token-Wert), Business 1.900 Credits, Enterprise 3.900 Credits. Die Rechnung ist bewusst gewählt – die enthaltenen Credits entsprechen dem Tarifpreis in USD, sodass ein reiner Token-Nutzer auf null herauskommt. Die entscheidende Frage lautet: Treibt Ihr Nutzungsmuster Sie über diese Schwelle hinaus?
Code-Vervollständigungen und Next-Edit-Suggestions sind nicht betroffen. Sie bleiben in allen kostenpflichtigen Tarifen unentgeltlich. Die Verbrauchsmessung greift ausschließlich bei Chat-Interaktionen, Inline-Bearbeitungen, die ein Premium-Modell aufrufen, und agentischen Sitzungen. Diesen Unterschied hat GitHub gezielt erhalten – die Tab-Vervollständigung, mit der die meisten Anwender Copilot in erster Linie verbinden, bleibt im Preis stabil.
Die Tarife werden auf docs.github.com/en/copilot/reference/copilot-billing/models-and-pricing veröffentlicht. Sie verstehen sich pro Million Token, in USD, und sind nach Input (was Sie senden) und Output (was das Modell zurückliefert) aufgeschlüsselt. Bei Anthropic-Modellen kommen ein gesonderter Tarif für gecachte Reads sowie ein Tarif für Cache-Writes hinzu – dazu weiter unten mehr.
Etwas, das die Ankündigung nicht hervorhebt: Die von GitHub publizierten Tarife pro Million Token entsprechen exakt den von den jeweiligen Anbietern für ihre eigenen APIs gelisteten Preisen, Stand 28. April 2026. Sie zahlen also keinen Aufschlag auf die Token. Sie zahlen für die IDE-Integration, die Tab-Vervollständigung und das enthaltene Credit-Kontingent – und darüber hinaus die reinen API-Tarife, falls Sie das Limit überschreiten.
Token-Preise pro Modell – die vollständige Tariftabelle
Alle Tarife verstehen sich pro Million Token in USD. Quelle: docs.github.com/.../models-and-pricing, gültig ab dem 1. Juni 2026. Die Spalte „Cache Write“ gilt ausschließlich für Anthropic-Modelle – bei OpenAI, Google und xAI werden Cache-Writes zum üblichen Input-Tarif abgerechnet.
| Modell | Input USD/M | Cached USD/M | Cache Write USD/M | Output USD/M |
|---|---|---|---|---|
| Anthropic | ||||
| Claude Haiku 4.5anthropic | $1.00 | $0.10 | $1.25 | $5.00 |
| Claude Sonnet 4anthropic | $3.00 | $0.30 | $3.75 | $15.00 |
| Claude Sonnet 4.5anthropic | $3.00 | $0.30 | $3.75 | $15.00 |
| Claude Sonnet 4.6anthropic | $3.00 | $0.30 | $3.75 | $15.00 |
| Claude Opus 4.5anthropic | $5.00 | $0.50 | $6.25 | $25.00 |
| Claude Opus 4.6anthropic | $5.00 | $0.50 | $6.25 | $25.00 |
| Claude Opus 4.7anthropic | $5.00 | $0.50 | $6.25 | $25.00 |
| OpenAI | ||||
| GPT-4.1openai | $2.00 | $0.50 | — | $8.00 |
| GPT-5 miniopenai | $0.25 | $0.025 | — | $2.00 |
| GPT-5.2openai | $1.75 | $0.175 | — | $14.00 |
| GPT-5.4openai | $2.50 | $0.25 | — | $15.00 |
| GPT-5.5openai | $5.00 | $0.50 | — | $30.00 |
| Gemini 2.5 Progoogle | $1.25 | $0.125 | — | $10.00 |
| Gemini 3 Flashgoogle | $0.50 | $0.05 | — | $3.00 |
| xAI | ||||
| Grok Code Fast 1xai | $0.20 | $0.02 | — | $1.50 |
Das Verhältnis von Output- zu Input-Tarif unterscheidet sich je Anbieter. Bei der Sonnet-Reihe von Anthropic liegt es bei 5:1 (Output kostet das Fünffache des Inputs). GPT-5 mini liegt bei 8:1, Grok Code Fast 1 bei 7,5:1. Bei agentischer Arbeit, bei der typischerweise lange Outputs entstehen, ist der Output-Tarif die entscheidende Größe.
Die Formel – wie Credits berechnet werden
Die Credit-Mathematik von GitHub ist unkompliziert. Jedes Workflow-Ereignis (eine Chat-Runde, ein agentischer Schritt, ein Code-Review) verbraucht eine bestimmte Anzahl Input- und Output-Token. Anthropic-Modelle können zusätzlich aus dem Cache lesen oder in ihn schreiben. Sie addieren die Kosten, teilen durch den Wert eines Credits und erhalten den Credit-Verbrauch für dieses Ereignis.
credits = (
input_tokens × input_USD/M
+ output_tokens × output_USD/M
+ cached_tokens × cached_USD/M
+ cache_write_tokens × cache_write_USD/M ← nur Anthropic
) ÷ 1.000.000 ÷ 0,01 USD
Die Division durch 1.000.000 wandelt rohe Token in Millionen um. Die Division durch 0,01 USD übersetzt die USD-Kosten in Credits. Alles dazwischen ist eine Multiplikation mit dem veröffentlichten Tarif des Modells.
Rechenbeispiel: agentische Sitzung mit Claude Sonnet 4
Eine moderat komplexe agentische Sitzung mit Claude Sonnet 4 – ein Codebestand wird geöffnet, ein Feature implementiert und ein Review-Durchgang ausgeführt:
- 50.000 Input-Token (eingelesene Dateien, Anweisungen, vorausgegangene Konversation)
- 20.000 Output-Token (geschriebener Code, zurückgelieferte Erklärungen)
- 30.000 gecachte Token (aus dem Cache wiederverwendeter Kontext)
- 10.000 Cache-Write-Token (neuer Kontext, der in den Cache geschrieben wird)
Diese eine agentische Sitzung kostet 49,65 Credits – rund 5 Prozent der 1.000 Credits, die in einem Copilot-Pro-Tarif enthalten sind. Führen Sie diese Sitzung 20-mal pro Monat aus, haben Sie 993 Credits verbraucht, also nahezu das gesamte Kontingent. Die einundzwanzigste Sitzung löst die ersten Überverbrauchsgebühren aus.
Beachten Sie, wie stark die Output-Token dominieren: 0,30 USD von insgesamt 0,4965 USD – also 60 Prozent – stammen aus den 20.000 Output-Token, obwohl der Input mit dem 2,5-Fachen der Token deutlich größer ist. Genau diese Mathematik macht agentische Arbeit gegenüber Chat so teuer.
Die Rechnung schießt schon jetzt in die Höhe?
Wenn Sie bereits unerwartete Abbuchungen sehen – oder ein Team führen, dessen Copilot-Verbrauch steigt – ist Septim Rescue ein Audit für 299 USD in einer Sitzung: Wir finden die Sitzungen, die Ihr Budget verbrennen, und liefern einen konkreten Maßnahmenplan. Bis Freitag gebucht, am Montag geliefert.
Septim Rescue buchen →Welche Workflows die höchsten Kosten verursachen
Nicht jede Copilot-Nutzung wird unter der Token-Abrechnung gleich behandelt. Der Unterschied zwischen einem 10-USD-Monat und einem 35-USD-Monat liegt überwiegend in der Auswahl der Workflows, nicht im reinen Volumen.
- Agentische Sitzungen sind die teure Klasse. Eine einzige agentische Sitzung mit Claude Sonnet 4 in moderater Größe – 50.000 Input, 20.000 Output, 30.000 gecacht – kostet, wie oben gezeigt, 49,65 Credits. Werden 22 davon im Monat ausgeführt, liegen Sie allein für diesen Workflow bei rund 1.093 Credits. Der eigentliche Kostentreiber ist nicht eine einzelne Sitzung, sondern die Tatsache, dass Entwickler mit täglicher agentischer Arbeit mühelos auf 20 bis 30 Sitzungen pro Monat kommen.
- Code-Review mit Sonnet ist der stille Akkumulator. Ein einzelnes Code-Review: 8.000 Input (Diff plus Kontext), 2.500 Output (Review-Kommentare), 4.000 gecacht (Dateihistorie). Das ergibt ungefähr 14,6 Credits pro Review. Acht Reviews pro Monat summieren sich auf rund 117 Credits – nicht katastrophal, aber sie addieren sich auf den agentischen Verbrauch.
- Chat mit günstigen Modellen ist nahezu kostenlos. 150 Chat-Sitzungen pro Monat mit GPT-5 mini – jeweils 800 Input, 400 Output – ergeben für den ganzen Monat etwa 15 Credits. Das sind weniger als 2 Prozent des Pro-Kontingents. Wer Copilot nur für Konversation und Tab-Vervollständigung einsetzt, wird die Juni-Umstellung nicht spüren.
- Brainstorm-Sitzungen mit Opus sind kurz, aber teuer. Ein einzelner Opus-4.7-Brainstorm – 8.000 Input, 4.000 Output – kostet 22 Credits. Sechs davon pro Monat ergeben 132 Credits. Die Kosten je Sitzung sind nicht ruinös, doch sie nähern sich der Obergrenze schneller, als die meisten erwarten, weil Opus typischerweise für komplexe Aufgaben mit langem Output gewählt wird.
- Der Multiplikatoreffekt. Die genannten Muster summieren sich. Ein Entwickler mit täglichen Sonnet-Sitzungen, wöchentlichen Code-Reviews und gelegentlichen Opus-Brainstorms erschöpft das Pro-Kontingent vor Ablauf des ersten Monats.
Die praktische Erkenntnis: Wenn Ihre Copilot-Nutzung überwiegend aus Tab-Vervollständigungen und gelegentlichem Chat besteht, werden Sie kaum eine Veränderung der Rechnung erleben. Wenn Sie jedoch agentische Sitzungen ausführen – insbesondere mehrstufige, werkzeugnutzende Sitzungen mit Sonnet oder Opus –, sollten Sie die Mathematik vor dem 1. Juni durchrechnen.
Drei Nutzungsprofile – die prognostizierten Juni-Rechnungen
Diese Prognosen stammen aus dem Septim Meter CLI, das gegen die unter docs.github.com/.../models-and-pricing veröffentlichten Tarife (Stand 28. April 2026) gerechnet wurde. Alle Profile gehen vom Copilot-Pro-Tarif aus (10 USD/Monat, 1.000 Credits enthalten).
Leicht – rund 150 Chats pro Monat mit GPT-5 mini
Der Entwickler dieses Profils nutzt Copilot überwiegend für Tab-Vervollständigung und gelegentliche kurze Rückfragen. 150 Chat-Sitzungen pro Monat, je 800 Input- und 400 Output-Token, sämtlich auf GPT-5 mini.
| 150 Chat-Sitzungen × GPT-5 mini | 15,00 Credits |
| Code-Vervollständigungen | 0,00 Credits (kostenlos) |
| Ereignisse insgesamt | 0,15 USD Token-Wert |
| Genutzte enthaltene Credits | 15 von 1.000 |
| Überverbrauch | 0 Credits |
| Prognostizierte Juni-Rechnung | 10,00 USD |
Für dieses Profil bleibt die Juni-Umstellung unsichtbar. Der gesamte Token-Wert eines Monats Chat – 0,15 USD – wird mühelos vom enthaltenen Credit-Kontingent gedeckt; 985 Credits bleiben übrig. Der einzige Kostenpunkt ist die Tarifgrundgebühr von 10 USD.
Mittel – Chat plus eine agentische Sitzung pro Woche plus gelegentliches Code-Review
Dieser Entwickler kombiniert Chat mit vier agentischen Sitzungen pro Monat auf Claude Sonnet 4 und acht Code-Reviews pro Monat auf Sonnet. Typisch für jemanden, der Copilot in den täglichen Arbeitsablauf integriert hat, aber keine durchgängig laufenden agentischen Sitzungen fährt.
Sitzungsparameter: 150 Chat-Sitzungen (GPT-5 mini, 1.200 in / 600 out), 4 agentische Sitzungen (Sonnet 4, 30k in / 12k out / 18k cached / 6k cache-write), 8 Code-Reviews (Sonnet 4, 8k in / 2,5k out / 4k cached).
| 150 Chat-Sitzungen (GPT-5 mini) | 18,00 Credits |
| 4 agentische Sitzungen (Sonnet 4) | 129,30 Credits |
| 8 Code-Reviews (Sonnet 4) | 44,52 Credits |
| Ereignisse insgesamt | 191,82 Credits (1,92 USD Token-Wert) |
| Genutzte enthaltene Credits | 191,82 von 1.000 |
| Überverbrauch | 0 Credits |
| Prognostizierte Juni-Rechnung | 10,00 USD |
Das mittlere Profil verbraucht 19 Prozent der enthaltenen Credits und löst zu keinem Zeitpunkt einen Überverbrauch aus. Selbst mit wöchentlichen agentischen Sitzungen und regelmäßigen Code-Reviews bieten die 1.000 Credits des Pro-Tarifs deutlichen Spielraum – solange die Sitzungsgrößen in dieser Größenordnung bleiben.
Hoch – tägliche agentische Sitzungen plus Opus-Brainstorms plus Code-Review
Hier handelt es sich um den Entwickler, der Copilot als primären Engineering-Partner einsetzt: 200 Chat-Sitzungen mit Sonnet 4, 22 agentische Sitzungen pro Monat mit Sonnet 4 (rund täglich), 6 Brainstorm-Sitzungen mit Opus 4.7, 16 Code-Reviews mit Sonnet 4. Genau dieses Profil überschreitet die Überverbrauchsschwelle.
Sitzungsparameter: 200 Chats (Sonnet 4, 2,5k in / 1,5k out / 1k cached), 22 agentische Sitzungen (Sonnet 4, 60k in / 25k out / 35k cached / 12k cache-write), 6 Brainstorms (Opus 4.7, 8k in / 4k out), 16 Reviews (Sonnet 4, 12k in / 3,5k out / 6k cached).
| 200 Chat-Sitzungen (Sonnet 4) | 95,00 Credits |
| 22 agentische Sitzungen (Sonnet 4) | 1.749,42 Credits |
| 6 Brainstorm-Sitzungen (Opus 4.7) | 132,00 Credits |
| 16 Code-Reviews (Sonnet 4) | 201,16 Credits |
| Ereignisse insgesamt | 2.177,58 Credits (21,78 USD Token-Wert) |
| Enthaltene Credits (Pro) | 1.000 Credits |
| Überverbrauchs-Credits | 1.177,58 Credits |
| Überverbrauchsgebühr | 11,78 USD |
| Prognostizierte Juni-Rechnung | 21,78 USD |
Die 22 agentischen Sitzungen dominieren das Bild. Sie machen rund 80 Prozent des gesamten Credit-Verbrauchs aus. Würde dieser Entwickler die agentischen Sitzungen von 22 auf 10 pro Monat senken – also etwa zwei bis drei pro Woche –, würde die Monatsrechnung von 21,78 USD auf rund 10,36 USD fallen und der Großteil des Überverbrauchs entfiele.
Sie möchten die interaktive Version dieses Rechners?
Septim Meter erscheint am 12. Mai – einmalig 29 USD. Sie geben Ihre eigenen Sitzungszahlen, Modellauswahl und Token-Schätzungen ein und erhalten in Sekunden eine prognostizierte Rechnungsaufschlüsselung sowie einen Vergleich mit der direkten API. Läuft offline, kein Konto erforderlich.
Beim Launch benachrichtigen lassen →Der Aspekt, über den niemand spricht: Copilot gegen direkte API
Die Tarife pro Million Token von GitHub entsprechen mit Stand 28. April 2026 den gelisteten API-Tarifen der jeweiligen Anbieter. Auf die Token entfällt also kein Aufschlag. Damit ist die Mathematik für die Frage „Sollte ich Anthropic einfach direkt aufrufen?“ ungewöhnlich klar.
Nehmen wir das Hochnutzungsprofil: 21,78 USD prognostizierte Token-Kosten innerhalb von Copilot. Der verbrauchte Token-Wert – 2.177,58 Credits – entspricht 21,78 USD an API-Aufrufen zu den veröffentlichten Tarifen. Ein direkter Aufruf von Anthropic und OpenAI würde die gleichen 21,78 USD Token-Gebühren kosten, aber ohne die zusätzlichen 10 USD Tarifgrundgebühr.
Bei der direkten API gibt es keinen Grundtarif. Sie zahlen genau das, was Sie verbrauchen. Keine enthaltenen Credits, keine Tarifgebühr.
Für den Hochnutzer sind die Zahlen identisch – weil die 10 USD Grundtarif exakt durch die 1.000 enthaltenen Credits aufgewogen werden. Die Formel lautet: Übersteigt Ihr Token-Wert 10 USD, kosten Copilot und direkte API gleich viel. Liegt er darunter, zahlen Sie 10 USD Grundgebühr für etwas, das Sie nicht voll ausschöpfen, und die direkte API ist günstiger.
Der Vergleich braucht jedoch eine Einschränkung: Copilot Pro umfasst mehr als reinen Token-Zugang. Im Tarif sind enthalten:
- Tab-Vervollständigung und Next-Edit-Suggestions – kostenlos und unbegrenzt. Für die meisten Entwickler ist genau dieses Feature der Grund, den Tarif zu rechtfertigen. Token-basierter Chat und agentische Arbeit kommen obendrauf.
- IDE-Integration. GitHub Copilot ist in VS Code, JetBrains, Neovim und weitere Umgebungen eingebettet. Diese Tiefe gegen die direkte API nachzubauen, erfordert zusätzliche Werkzeuge.
- Kontextbereitstellung im Copilot Chat. Die IDE-Integration übergibt automatisch relevanten Datei- und Repository-Kontext. Bei der direkten API müssen Sie diesen Kontext selbst verwalten.
Für den Leichtnutzer – 0,15 USD Token-Wert pro Monat – kostet Copilot Pro 9,85 USD mehr als die reinen direkten API-Aufrufe. Ob sich das rechnet, hängt fast ausschließlich von der Intensität der Tab-Vervollständigung ab. Wer die IDE täglich öffnet und Vorschläge annimmt, wird die 10 USD als angemessen empfinden. Wer Copilot nur für gelegentlichen Chat von der Kommandozeile aus nutzt, fährt mit der direkten API deutlich günstiger.
Beim mittleren Nutzer ist die Rechnung ähnlich: 1,92 USD Token-Wert, 10 USD Grundtarif, 8,08 USD der Rechnung entfallen auf Tab-Vervollständigung und IDE-Funktionen. Für aktive Entwickler ist das immer noch ein vertretbarer Tausch.
Der Break-even-Punkt, an dem Copilot Pro und die direkte API bei den Token-Gebühren genau gleich teuer sind, liegt bei 10 USD Token-Wert pro Monat. Darüber kosten beide Optionen dasselbe – mit Copilot bekommen Sie zusätzlich kostenlose Vervollständigungen. Darunter ist die direkte API günstiger, jedoch ohne Tab-Vervollständigung.
Siehe auch: Anthropic API-Preise 2026 – Kostenrechner und Modellaufschlüsselung sowie Die Tokenocalypse – was eine außer Kontrolle geratene agentische Sitzung tatsächlich kostet.
Was Sie vor dem 1. Juni tun sollten
- Prüfen Sie Ihren aktuellen Verbrauch im GitHub-Dashboard. Rufen Sie github.com/settings/copilot auf – dort wird eine Aufschlüsselung Ihrer Copilot-Interaktionen nach Typ und Modell angezeigt. Achten Sie auf die Zahl der Sitzungen und das ungefähre Volumen agentischer Arbeit. Organisationen finden den Verbrauch unter Settings → Billing → GitHub Copilot.
- Schätzen Sie Ihre Juni-Rechnung anhand der obigen Formel. Multiplizieren Sie Ihre typischen Sitzungszahlen mit den Werten aus dem Rechenbeispiel: 49,65 Credits für eine mittlere agentische Sonnet-Sitzung, 14 bis 22 Credits für ein Code-Review, 1 bis 2 Credits für einen Chat mit einem günstigen Modell. Addieren Sie die Werte und vergleichen Sie sie mit dem Credit-Kontingent Ihres Tarifs. Oder warten Sie auf Septim Meter am 12. Mai.
- Wenn Ihre Prognose Ihre Komfortzone überschreitet, ziehen Sie an einem Hebel. Der eindeutigste: Wechseln Sie das agentische Modell von Sonnet (3,00 USD/M Input) auf GPT-5 mini (0,25 USD/M Input). Bei input-lastiger agentischer Arbeit – große Dateien laden, langer Kontext – ist der Input-Tarif der maßgebliche Treiber. GPT-5 mini senkt die agentischen Input-Kosten um den Faktor 12. Die Qualitätsabwägung hängt von der Aufgabe ab; testen Sie es, bevor Sie sich festlegen.
- Reduzieren Sie die Frequenz agentischer Sitzungen, wenn die Kosten wichtiger sind als die Automatisierung. Das mittlere Profil mit 4 agentischen Sitzungen pro Monat bleibt komfortabel im Pro-Kontingent, das Hochnutzungsprofil mit 22 Sitzungen sprengt es. Die Grenze liegt – je nach Sitzungsgröße – bei rund 20 Sonnet-Sitzungen pro Monat im Pro-Tarif.
- Erwägen Sie ein Upgrade auf Pro+ bei intensiver agentischer Nutzung. Copilot Pro+ kostet 39 USD pro Monat und enthält 3.900 Credits. Das Hochnutzungsprofil mit 2.177,58 Credits würde exakt 39 USD statt 21,78 USD kosten – schlechter als die Pro-Überverbrauchsrechnung. Für genau dieses Profil bleibt Pro die bessere Wahl. Bei noch intensiverer Nutzung – tägliche, mehrstündige agentische Sitzungen – kann Pro+ jedoch günstiger sein als anhaltender Pro-Überverbrauch.
- Setzen Sie ein Ausgabenlimit in der GitHub-Abrechnung. Unter Settings → Billing and plans → Spending limits können Sie die monatlichen Copilot-Ausgaben deckeln. Ein Limit von 0 USD blockiert den Zugriff, sobald die enthaltenen Credits aufgebraucht sind. Ein Limit von 20 USD setzt eine harte Obergrenze. Das ist Ihr Schutz vor Überraschungen.
- Wenn Ihre Rechnung schon jetzt unerwartet ausgeschlagen hat, kontaktieren Sie den GitHub-Support vor dem 1. Juni. Das PRU-System und das AI-Credit-System haben unterschiedliche Abrechnungsmechaniken; auffällige Beträge unter dem aktuellen System sollten Sie klären, bevor die Umstellung am 1. Juni die Basislinie zurücksetzt.
Septim Meter – der Rechner
Septim Meter erscheint am 12. Mai: einmalig 29 USD, läuft offline. Sie geben Sitzungszahlen und Token-Schätzungen ein; das Tool prognostiziert Ihre Copilot-Rechnung und stellt den Vergleich mit der direkten API daneben – über alle Tarife hinweg. Die Formel ist die gleiche wie in diesem Beitrag – kein Konto nötig, keine Daten verlassen Ihre Maschine.
Das CLI ist auf der Kommandozeile bereits funktionsfähig. Der Release am 12. Mai ergänzt die HTML-Reportausgabe und den interaktiven Modellwechsel-Vergleich. Wenn Sie frühen Zugang oder eine Benachrichtigung zum Launch wünschen:
Septim Meter – erscheint am 12. Mai
Einmalig 29 USD. Prognostizieren Sie Ihre Juni-Copilot-Rechnung, vergleichen Sie sie mit der direkten API und wählen Sie den günstigsten Pfad. Aufgebaut auf den von GitHub veröffentlichten Tarifen – aktualisiert sich bei Tarifänderungen über eine einzige JSON-Datei.
Zum Launch benachrichtigen lassen →