/ Verzeichnis / Playground / PaperDebugger
● Community PaperDebugger ⚡ Sofort

PaperDebugger

von PaperDebugger · PaperDebugger/paperdebugger

Multi-Agenten-Paper-Review direkt im Editor — Behauptungsüberprüfung, Zitierungsaudit, strukturelle Kritik, Sprachpolitur. Entwickelt für Wissenschaftler.

PaperDebugger orchestriert mehrere spezialisierte Agenten über deinem LaTeX/Markdown-Paper: ein Reviewer-Agent, der wie ein strenger Gutachter kritisiert, ein Editor, der die Sprache poliert ohne die Stimme zu brechen, ein Citation-Auditor, der jedes \cite{} auf Auflösbarkeit und Nicht-Halluzination prüft, und ein Coherence-Agent, der Behauptungsdrift markiert. Plugin-Architektur, damit Labore eigene Agenten hinzufügen können.

Warum nutzen

Hauptfunktionen

Live-Demo

In der Praxis

paperdebugger-mcp.replay ▶ bereit
0/0

Installieren

Wählen Sie Ihren Client

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "paperdebugger-mcp": {
      "command": "npx",
      "args": [
        "-y",
        "paperdebugger-mcp"
      ]
    }
  }
}

Öffne Claude Desktop → Settings → Developer → Edit Config. Nach dem Speichern neu starten.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "paperdebugger-mcp": {
      "command": "npx",
      "args": [
        "-y",
        "paperdebugger-mcp"
      ]
    }
  }
}

Cursor nutzt das gleiche mcpServers-Schema wie Claude Desktop. Projektkonfiguration schlägt die globale.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "paperdebugger-mcp": {
      "command": "npx",
      "args": [
        "-y",
        "paperdebugger-mcp"
      ]
    }
  }
}

Klicken Sie auf das MCP-Servers-Symbol in der Cline-Seitenleiste, dann "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "paperdebugger-mcp": {
      "command": "npx",
      "args": [
        "-y",
        "paperdebugger-mcp"
      ]
    }
  }
}

Gleiche Struktur wie Claude Desktop. Windsurf neu starten zum Übernehmen.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "paperdebugger-mcp",
      "command": "npx",
      "args": [
        "-y",
        "paperdebugger-mcp"
      ]
    }
  ]
}

Continue nutzt ein Array von Serverobjekten statt einer Map.

~/.config/zed/settings.json
{
  "context_servers": {
    "paperdebugger-mcp": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "paperdebugger-mcp"
        ]
      }
    }
  }
}

In context_servers hinzufügen. Zed lädt beim Speichern neu.

claude mcp add paperdebugger-mcp -- npx -y paperdebugger-mcp

Einzeiler. Prüfen mit claude mcp list. Entfernen mit claude mcp remove.

Anwendungsfälle

Praxisnahe Nutzung: PaperDebugger

So bekommst du vor der Einreichung einen schonungslosen Fake-Peer-Review-Durchlauf

👤 Doktoranden, Forscher, Paper-Autoren ⏱ ~60 min intermediate

Wann einsetzen: Du bist 24 Stunden vor der Einreichung und möchtest noch einen brutalen Review.

Voraussetzungen
  • LaTeX-Quellcode oder kompiliertes PDF — Beide Formate funktionieren
Ablauf
  1. Reviewer ausführen
    Use PaperDebugger Reviewer on /paper/main.tex. Be harsh — venue is NeurIPS-style, top-tier.✓ Kopiert
    → Nummerierter Review mit Stärken, Schwächen und vorgeschlagenen Experimenten
  2. Zitierungsaudit
    Cross-check every \cite. Anything fabricated, broken, or missing from the bib?✓ Kopiert
    → Statustabelle pro Zitat; markierte Einträge
  3. Kohärenz
    Flag claim drift between abstract / introduction / conclusion. Quote the conflicting sentences.✓ Kopiert
    → Drift-Bericht mit zitierten Paaren

Ergebnis: Eine Pre-Submit-Checkliste, die behoben ist, bevor Reviewer 2 das Paper je sieht.

Fallstricke
  • Reviewer-Agent schlägt Experimente vor, die nicht durchführbar sind — Die Vorschlagsliste filtern — nur Vorschläge behalten, die das Schreiben verbessern ohne neue Daten
Kombinieren mit: filesystem

Die Sprache polieren, ohne die Autorenstimme zu verlieren

👤 Nicht-englischsprachige Autoren ⏱ ~45 min beginner

Wann einsetzen: Die Wissenschaft stimmt; die Prosa hat raue Stellen.

Ablauf
  1. Editor-Durchlauf
    Use the Editor agent on /paper/main.tex. Preserve voice; only fix grammar, awkward phrasing, and ambiguous antecedents.✓ Kopiert
    → Diff-Liste, Satz für Satz
  2. Diffs überprüfen
    Show me the 10 highest-impact edits — ones that fix actual ambiguity, not stylistic preferences.✓ Kopiert
    → Top 10 mit Begründung

Ergebnis: Präziseres Paper, gleiche Stimme.

Fallstricke
  • Editor ‚korrigiert' Fachbegriffe--preserve-glossary terms.txt übergeben, damit gelistete Begriffe unverändert bleiben

Sicherstellen, dass jede Ergebnistabelle mit dem Experiments-Verzeichnis übereinstimmt

👤 ML-Forscher mit Bedenken bezüglich Tabellenfehler ⏱ ~90 min advanced

Wann einsetzen: Du hast Ergebnisse auf 3 verschiedene Arten ausgeführt; du bist nicht sicher, welche Zahlen im Paper gelandet sind.

Voraussetzungen
  • Paper-Quellcode + Experiments-Verzeichnis mit Rohergebnissen (JSON/CSV) — Standard-Ordnerstruktur
Ablauf
  1. Tabellen auf Ergebnisse abbilden
    Map every numerical claim in /paper/main.tex to a specific file in /experiments/. Flag claims you can't trace.✓ Kopiert
    → Mapping-Tabelle; nicht nachverfolgbare Behauptungen aufgelistet
  2. Verifizieren
    For each traced claim, recompute from the raw file and report match/mismatch.✓ Kopiert
    → Verifizierungstabelle mit Deltas

Ergebnis: Sicherheit, dass die Zahlen im Paper mit den Experimenten übereinstimmen — oder eine Liste von Korrekturen.

Fallstricke
  • Experiments-Ordner ist unstrukturiert — keine Konvention — Eine Hinweisdatei bereitstellen, die Tabellenbeschriftungen auf Experiment-Pfade abbildet
Kombinieren mit: filesystem

Kombinationen

Mit anderen MCPs für 10-fache Wirkung

paperdebugger-mcp + filesystem

An einer Arbeitskopie arbeiten und die Diffs persistieren

paperdebugger-mcp + arxiv-mcp-server

Verwandte Arbeiten abrufen, um den Reviewer-Agenten zu informieren

Werkzeuge

Was dieses MCP bereitstellt

WerkzeugEingabenWann aufrufenKosten
review paper_path, venue? Pre-Submission-Review Schwerer LLM-Aufruf
edit paper_path, preserve_glossary_path? Sprachpolitur LLM
audit_citations paper_path, bib_path Immer vor der Einreichung 1 Semantic-Scholar-Suche pro Zitat
check_coherence paper_path Späte Editierphase LLM

Kosten & Limits

Was der Betrieb kostet

API-Kontingent
Durch das zugrundeliegende LLM begrenzt
Tokens pro Aufruf
5.000–25.000 pro Agentenlauf
Kosten in €
Kostenlos; LLM-Kosten liegen bei dir
Tipp
Agenten seriell ausführen (Editor zuerst, Reviewer danach) und Diffs weiterreichen, um das ganze Paper nicht neu zu tokenisieren

Sicherheit

Rechte, Secrets, Reichweite

Credential-Speicherung: LLM-API-Key per Umgebungsvariable
Datenabfluss: Dein LLM-Provider + Semantic Scholar (für Zitierungsaudit)

Fehlerbehebung

Häufige Fehler und Lösungen

Editor-Diffs brechen LaTeX-Kompilierung

--syntax-aware nutzen, damit \macro{...}-Klammern und Mathe erhalten bleiben

Prüfen: Nach Anwendung der Diffs kompilieren
Zitierungsaudit markiert echte Zitate als fabriziert

Zitat ist möglicherweise zu neu für Semantic Scholar — über --known-good citations.txt übergeben

Reviewer ist zu generisch

--venue NeurIPS (oder spezifisch) übergeben, damit Stil und Maßstab übereinstimmen

Alternativen

PaperDebugger vs. andere

AlternativeWann stattdessenKompromiss
Writefull / GrammarlyDu brauchst nur Sprachpolitur, keinen Multi-Agenten-ReviewWeniger leistungsfähig; prüft keine Zitate oder Kohärenz
Eigener Claude-PromptDu reviewst nur einmal im Jahr ein PaperPaperDebugger hat vorgeformte Prompts und eine Koordinationsschleife, die sonst neu aufgebaut werden müsste

Mehr

Ressourcen

📖 Offizielle README auf GitHub lesen

🐙 Offene Issues ansehen

🔍 Alle 400+ MCP-Server und Skills durchsuchen