- Startseite
- Skills
- Prompting
- Kontextfenster-Optimierer
Kontextfenster-Optimierer
Maximieren Sie die Kontextnutzung der KI bei komplexen Aufgaben durch optimale Token-Effizienz.
Das Problem
Jedes KI-Modell hat ein begrenztes Kontextfenster. Bei grossen Codebasen, umfangreichen Dokumenten oder Mehrfachdatei-Analysen stossen Sie schnell an Token-Grenzen. Schlecht strukturierte Prompts verschwenden Tokens fuer irrelevanten Kontext und lassen dem Modell nicht genuegend Raum fuer die eigentlich wichtige Analyse. Das Ergebnis: abgeschnittene Analysen, uebersehene Zusammenhaenge und oberflaechliche Antworten.
Der Prompt
Ich brauche dich, um effizient innerhalb eines begrenzten Kontextfensters zu arbeiten. So strukturieren wir das:
PRIORITAETSKONTEXT (muss beibehalten werden):
[Fuege die wichtigsten Informationen ein — Kerncode, zentrale Anforderungen, Einschraenkungen]
REFERENZKONTEXT (bei Bedarf zusammenfassen):
[Fuege unterstuetzende Informationen ein — Dokumentation, Hintergrund, verwandter Code]
AUFGABE:
[Deine spezifische Frage oder Aufgabe]
REGELN:
- Analysiere zuerst den PRIORITAETSKONTEXT
- Referenziere unterstuetzenden Kontext nur bei direkter Relevanz
- Falls Informationen fehlen, benenne die Luecke statt zu raten
- Strukturiere deine Antwort so, dass sie als Kontext fuer Folgeprompts verwendbar ist
- Nutze Aufzaehlungen und Codeblöcke statt Fliesstext fuer minimalen Token-Verbrauch
Beispielausgabe
ANALYSE DES PRIORITAETSKONTEXTS:
Kernbefunde:
- Die Authentifizierungs-Middleware (Zeile 42-58) prueft JWT-Tokens, validiert aber nicht den Ablaufzeitpunkt
- Das User-Modell referenziert eine veraltete Session-Tabelle (Zeile 15)
Aus dem Referenzkontext:
- Migrationsdokumentation bestaetigt Ersetzung der Session-Tabelle in v3.2
Fehlende Informationen:
- Aktuelle JWT-Bibliotheksversion (benoetigt fuer Ablauf-Validierungs-API)
Empfohlene Korrektur:
// Ablaufpruefung in Auth-Middleware ergaenzen
if (decoded.exp < Date.now() / 1000) {
throw new TokenExpiredError();
}
Wann verwenden
Verwenden Sie diesen Skill bei grossen Codebasen, die ein einzelnes Kontextfenster uebersteigen, bei gleichzeitiger Analyse mehrerer Dateien oder wenn Folgegespraeche auf vorherigen Analysen aufbauen muessen. Unverzichtbar fuer Architektur-Reviews, Sicherheitsaudits und jede Aufgabe, die mehr als einige hundert Zeilen Code umfasst.
Profi-Tipps
- Kritischen Kontext voranstellen — Modelle schenken dem Anfang und Ende des Prompts die meiste Aufmerksamkeit; platzieren Sie niedrig priorisierte Informationen in der Mitte.
- Zusammenfassen statt einfuegen — schreiben Sie fuer Hintergrundkontext eine 3-Zeilen-Zusammenfassung statt 200 Zeilen Dokumentation einzufuegen.
- Strukturierte Antworten einfordern — Aufzaehlungen und Codeblöcke komprimieren besser als Fliesstext fuer Folgeprompts.
- Gespraeche verketten — teilen Sie grosse Aufgaben auf mehrere Prompts auf und uebertragen Sie nur die Schlussfolgerungen jedes Schritts.