/ Verzeichnis / Playground / last30days
● Community mvanhorn ⚡ Sofort

last30days

von mvanhorn · mvanhorn/last30days-skill

Reddit, X, YouTube, HN, Polymarket und das Web nach einem Thema durchsuchen und eine fundierte, datierte Synthese erhalten — kein ‚Ich glaube...' aus Claudes vortrainiertem Wissen.

last30days ist ein Research-Skill, der tatsächliche aktuelle Quellen abruft (Reddit, X, YouTube-Transkripte, Hacker News, Polymarket-Märkte, plus allgemeine Websuche) und eine strukturierte Synthese mit Quellenangaben, Daten und Stimmungsanalyse pro Quelle erstellt. Entwickelt, um Claudes Tendenz zu unterbrechen, sein abgelaufenes Trainingswissen selbstsicher zusammenzufassen.

Warum nutzen

Hauptfunktionen

Live-Demo

In der Praxis

bereit

Installieren

Wählen Sie Ihren Client

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "last30days-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/mvanhorn/last30days-skill",
        "~/.claude/skills/last30days"
      ],
      "_inferred": true
    }
  }
}

Öffne Claude Desktop → Settings → Developer → Edit Config. Nach dem Speichern neu starten.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "last30days-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/mvanhorn/last30days-skill",
        "~/.claude/skills/last30days"
      ],
      "_inferred": true
    }
  }
}

Cursor nutzt das gleiche mcpServers-Schema wie Claude Desktop. Projektkonfiguration schlägt die globale.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "last30days-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/mvanhorn/last30days-skill",
        "~/.claude/skills/last30days"
      ],
      "_inferred": true
    }
  }
}

Klicken Sie auf das MCP-Servers-Symbol in der Cline-Seitenleiste, dann "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "last30days-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/mvanhorn/last30days-skill",
        "~/.claude/skills/last30days"
      ],
      "_inferred": true
    }
  }
}

Gleiche Struktur wie Claude Desktop. Windsurf neu starten zum Übernehmen.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "last30days-skill",
      "command": "git",
      "args": [
        "clone",
        "https://github.com/mvanhorn/last30days-skill",
        "~/.claude/skills/last30days"
      ]
    }
  ]
}

Continue nutzt ein Array von Serverobjekten statt einer Map.

~/.config/zed/settings.json
{
  "context_servers": {
    "last30days-skill": {
      "command": {
        "path": "git",
        "args": [
          "clone",
          "https://github.com/mvanhorn/last30days-skill",
          "~/.claude/skills/last30days"
        ]
      }
    }
  }
}

In context_servers hinzufügen. Zed lädt beim Speichern neu.

claude mcp add last30days-skill -- git clone https://github.com/mvanhorn/last30days-skill ~/.claude/skills/last30days

Einzeiler. Prüfen mit claude mcp list. Entfernen mit claude mcp remove.

Anwendungsfälle

Praxisnahe Nutzung: last30days

Wie ist der aktuelle Stand von <Thema> in verschiedenen Communities?

👤 Alle, die sich auf ein Meeting, einen Blog-Post oder ein Investment-Call vorbereiten ⏱ ~25 min beginner

Wann einsetzen: Du musst mit dem aktuellen Konsens eintreten, nicht mit veralteten Eindrücken.

Voraussetzungen
  • Skill installiert — git clone https://github.com/mvanhorn/last30days-skill ~/.claude/skills/last30days
Ablauf
  1. Sweep ausführen
    Use last30days. What's the state of MCP adoption across r/LocalLLaMA, r/ClaudeAI, HN, and YouTube creators in the last 30 days?✓ Kopiert
    → Zusammenfassung pro Quelle mit zitierten Highlights
  2. Synthesisieren
    Now write a 200-word synthesis. Quote at least one citation per claim.✓ Kopiert
    → Synthese mit Fußnoten / Inline-Links
  3. Vertiefen
    What's the most-disagreed-on aspect across communities?✓ Kopiert
    → Konfliktachse benannt mit Zitaten von beiden Seiten

Ergebnis: Ein fundiertes Briefing, das du in einem echten Meeting vertreten kannst.

Fallstricke
  • X / Twitter-Zugang ist seit den API-Änderungen unzuverlässig — Skill fällt auf Nitter-Mirrors und HN/Reddit zurück, wenn X ausfällt — Teilabdeckung akzeptieren
Kombinieren mit: filesystem

Polymarket-Quoten mit Diskussionsstimmung für ein Ereignis kombinieren

👤 Prognostiker, Analysten, alle, die Ereignisergebnisse handeln ⏱ ~20 min intermediate

Wann einsetzen: Polymarket sagt X, aber du fragst dich, ob sich die Diskussion verschiebt.

Ablauf
  1. Markt abrufen
    Pull the Polymarket market for 'Will Y happen by Z?' and current odds.✓ Kopiert
    → Marktdaten + Beschreibung des 30-Tage-Kursdiagramms
  2. Diskussion prüfen
    Now pull discussion on Reddit and X for the same topic in the last 7 days.✓ Kopiert
    → Stimmungszusammenfassung pro Quelle
  3. Abgleichen
    Where does discussion sentiment differ from market odds? Is there a credible reason?✓ Kopiert
    → Abgleichsnotiz mit möglichen Treibern

Ergebnis: Eine fundierte Einschätzung, kein Einquellen-Urteil.

Fallstricke
  • Polymarket-Markt ist illiquide → Quoten verrauscht — Skill markiert Volumen; Signal unter Schwellenwert ignorieren

Wöchentlicher Digest darüber, was Leute über einen Wettbewerber sagen

👤 PMs, Marketer, Gründer ⏱ ~15 min beginner

Wann einsetzen: Du möchtest ein Montagsmorgen-Briefing, ohne den Sonntag mit Scrollen zu verbringen.

Voraussetzungen
  • Cron / Scheduler — Skill wöchentlich planen
Ablauf
  1. Watchlist konfigurieren
    Create a watchlist with company X and Y. Save to /research/watch.json.✓ Kopiert
    → watch.json geschrieben
  2. Wöchentlich ausführen
    Run the watchlist sweep and save output to /research/weekly/$(date +%V).md.✓ Kopiert
    → Markdown-Brief gespeichert

Ergebnis: Montags-Briefing jeden Montag bereit, kein manuelles Scrollen.

Fallstricke
  • Briefing wird zu lang — max_words pro Quelle konfigurieren, damit der Digest übersichtlich bleibt
Kombinieren mit: filesystem

Kombinationen

Mit anderen MCPs für 10-fache Wirkung

last30days-skill + filesystem

Briefings als Research-Archiv persistieren

last30days-skill + obsidian-mcp-tools

Briefings direkt in dein Obsidian-Vault ablegen

Werkzeuge

Was dieses MCP bereitstellt

WerkzeugEingabenWann aufrufenKosten
research query, sources[]?, since_days? Themen-Sweep 0 (lokal + kostenlose APIs soweit möglich)
synthesize research_output, target_length? Zusammenfassung nach der Recherche 0
polymarket_lookup query Ereignis-Wettkontext 0

Kosten & Limits

Was der Betrieb kostet

API-Kontingent
Durch die Rate-Limits der zugrundeliegenden Quellen begrenzt (Reddit ist die Haupteinschränkung)
Tokens pro Aufruf
5.000–20.000 pro Thema je nach Tiefe
Kosten in €
Kostenlos (nutzt öffentliche APIs / Scraper)
Tipp
Quellenanzahl auf 3–4 begrenzen, wenn Kosten relevant sind

Sicherheit

Rechte, Secrets, Reichweite

Minimale Scopes: filesystem-write
Credential-Speicherung: Optionale Reddit/X-Tokens per Umgebungsvariable
Datenabfluss: Quell-APIs (reddit.com, HN usw.)

Fehlerbehebung

Häufige Fehler und Lösungen

X / Twitter gibt 401 / 429 zurück

X-API-Einschränkungen — Skill wechselt automatisch zur Fallback-Quelle; oder X_BEARER_TOKEN setzen, wenn vorhanden

YouTube-Transkript nicht verfügbar

Manche Videos deaktivieren Transkripte — Skill überspringt und vermerkt dies

Synthese ist zu generisch

Research-Tiefe erhöhen, Abfrage verfeinern oder spezifische Subreddits zur Watchlist hinzufügen

Alternativen

last30days vs. andere

AlternativeWann stattdessenKompromiss
Manuelles Perplexity / Grok DeepSearchDu möchtest eine Einzel-Abfrage mit polierter UIKeine Agent-Integration; nicht skriptbar
uditgoenka/autoresearchDu möchtest zielgerichtete, iterative RechercheAutoresearch ist iterativ; last30days ist ein einmaliger Multi-Source-Sweep

Mehr

Ressourcen

📖 Offizielle README auf GitHub lesen

🐙 Offene Issues ansehen

🔍 Alle 400+ MCP-Server und Skills durchsuchen