7 Punkte von GN⁺ 2026-03-29 | 1 Kommentare | Auf WhatsApp teilen
  • Mit der Cloud-Planungsfunktion lassen sich wiederkehrende Aufgaben automatisieren und im Hintergrund ausführen, auch wenn der Computer ausgeschaltet ist
  • Es gibt drei Planungsarten: Cloud, Desktop und /loop; sie unterscheiden sich beim Ausführungsort und bei den Intervallen
  • Geplante Aufgaben können im Web, in der Desktop-App und in der CLI erstellt werden, indem Aufgabenname, Repository, Umgebung, Intervall und Connectoren festgelegt werden
  • Mit automatischer Zeitzonenumrechnung, benutzerdefinierten Intervallen und MCP-Connector-Integration ist eine Einbindung in Slack, Linear und Google Drive möglich
  • Entwickler können damit kontinuierliche Automatisierungs-Workflows für Code-Reviews, CI-Analysen, Dokumentensynchronisierung und mehr aufbauen

Geplante Ausführung von Aufgaben im Web

  • Mit cloudbasierten geplanten Aufgaben lassen sich wiederkehrende Arbeiten automatisieren
    • Sie laufen auf von Anthropic verwalteter Infrastruktur und funktionieren daher weiter, auch wenn der Rechner des Nutzers ausgeschaltet ist
    • Beispiele sind die tägliche Prüfung von Pull Requests am Morgen, die Analyse nächtlicher CI-Fehlschläge, die Synchronisierung von Dokumentation oder wöchentliche Dependency-Audits
    • Verfügbar für alle Nutzer von Claude Code on the web (Pro, Max, Team, Enterprise)

Vergleich der Planungsoptionen

  • Claude Code unterstützt drei Arten geplanter Ausführung: Cloud, Desktop und /loop
    • Cloud läuft in der Anthropic-Cloud und funktioniert auch bei ausgeschaltetem Computer
    • Desktop und /loop laufen auf dem lokalen Rechner; sie unterscheiden sich darin, ob die Sitzung erhalten bleibt und welche Dateizugriffsrechte bestehen
  • Für Cloud-Aufgaben ist ein Mindestintervall von 1 Stunde möglich, für Desktop und /loop Intervalle ab 1 Minute
  • Cloud wird automatisch ausgeführt und arbeitet ohne Berechtigungsabfragen, während sich bei Desktop Berechtigungen pro Aufgabe festlegen lassen

Vorgehen zum Erstellen geplanter Aufgaben

  • Geplante Aufgaben können im Web, in der Desktop-App und in der CLI erstellt werden
    • Web: Auf claude.ai/code/scheduled auf New scheduled task klicken
    • Desktop: Auf der Seite Schedule New remote task wählen
    • CLI: Interaktive Einrichtung mit dem Befehl /schedule oder direkte Angabe wie /schedule daily PR review at 9am
  • Schritte bei der Erstellung
    • Aufgabennamen und Prompt schreiben: Da die Ausführung autonom erfolgt, ist ein klarer und vollständiger Prompt erforderlich
    • Repository auswählen: Ein GitHub-Repository hinzufügen, vom Default-Branch klonen und Änderungen in einen Branch mit dem Präfix claude/ pushen
    • Umgebung auswählen: Eine Cloud-Umgebung mit Netzwerkzugriff, Umgebungsvariablen und Installationsskripten festlegen
    • Intervall auswählen: Standardmäßig täglich um 9:00 Uhr Ortszeit; Details lassen sich in der CLI mit /schedule update anpassen
    • Connectoren prüfen: Auswählen, ob MCP-Connectoren wie Slack, Linear oder Google Drive einbezogen werden sollen
    • Erstellung abschließen: Danach erscheint die Aufgabe in der Liste und wird zur nächsten geplanten Zeit automatisch ausgeführt oder kann mit Run now sofort gestartet werden

Optionen für Ausführungsintervalle

  • Geplante Intervalle unterstützen automatische Zeitzonenumrechnung und werden zur angegebenen Ortszeit ausgeführt
  • Die Ausführung kann sich um einige Minuten verzögern, behält jedoch pro Aufgabe einen konsistenten Offset bei
  • Verfügbare Standardintervalle
    • Hourly: stündliche Ausführung
    • Daily: einmal täglich, standardmäßig um 9:00 AM
    • Weekdays: nur an Werktagen
    • Weekly: einmal pro Woche am festgelegten Wochentag zur festgelegten Uhrzeit
  • Benutzerdefinierte Intervalle wie alle 2 Stunden oder am 1. eines Monats lassen sich in der CLI mit /schedule update festlegen

Repository- und Branch-Berechtigungen

  • Bei jeder Ausführung wird das Repository frisch geklont und vom Default-Branch aus gestartet
  • Standardmäßig kann nur in Branches mit dem Präfix claude/ gepusht werden
  • Falls Änderungen an geschützten Branches erforderlich sind, lässt sich die Beschränkung mit der Option Allow unrestricted branch pushes aufheben

Connectoren

  • Geplante Aufgaben können über MCP-Connectoren mit externen Diensten interagieren
    • Beispiel: Support-Anfragen aus einem Slack-Kanal lesen und in Linear ein Issue erstellen
  • Standardmäßig werden alle verbundenen Connectoren einbezogen; nicht benötigte lassen sich entfernen
  • Connectoren können im Formular zur Aufgabenerstellung, unter Settings > Connectors sowie in der CLI mit /schedule update verwaltet werden

Umgebungskonfiguration

  • Jede Aufgabe läuft in einer Cloud-Umgebung, in der sich Netzwerkzugriff, Umgebungsvariablen und Installationsskripte steuern lassen
  • Für API-Zugriff, Dependency-Installation oder Netzwerkeinschränkungen ist eine vorherige Konfiguration erforderlich
  • Neben der Standardumgebung (Default) können benutzerdefinierte Umgebungen erstellt werden

Verwaltung geplanter Aufgaben

  • Durch Klick auf eine Aufgabe in der Scheduled-Liste öffnet sich die Detailseite
    • Dort lassen sich Repository, Connectoren, Prompt, Intervall und vergangene Ausführungen einsehen
  • Ausführungsverlauf anzeigen und damit interagieren

    • Ein Klick auf eine einzelne Ausführung (run) öffnet die vollständige Sitzung
    • Man kann nachvollziehen, was Claude ausgeführt hat, Änderungen prüfen, Pull Requests erstellen und die Unterhaltung fortsetzen
    • Über das Dropdown neben dem Sitzungstitel lässt sich die Sitzung umbenennen, archivieren oder löschen
  • Aufgaben bearbeiten und steuern

    • Mit Run now sofort ausführen
    • Mit dem Umschalter Repeats pausieren oder fortsetzen
    • Über das Bearbeitungssymbol Namen, Prompt, Intervall, Repository, Umgebung und Connectoren ändern
    • Über das Löschsymbol die Aufgabe entfernen (bestehende Sitzungen bleiben erhalten)
    • Auch in der CLI über die Befehle /schedule list, /schedule update und /schedule run verwaltbar

Verwandte Ressourcen

1 Kommentare

 
GN⁺ 2026-03-29
Hacker-News-Kommentare
  • Interessant ist, dass auf der offiziellen Website die Einführung der Funktion angekündigt wird, während die Nutzungslimits über den Twitter-Account eines Teammitglieds bekanntgegeben werden.
    Als früher die doppelte Nutzung angekündigt wurde, gab es auch Leute, die so einen „Rug Pull“ vorausgesagt hatten (zugehöriger Tweet).

    • Ich halte diesen Ansatz für vernünftig. Statt für alle die Preise zu erhöhen, wird ein bestimmtes Verhalten gelenkt. Das ist ein bisschen wie zeitabhängige Mautpreise.
    • Wegen der Preispolitik von Anthropic nutze ich in letzter Zeit häufiger GLM-5. Es ist nicht auf Opus-Niveau, aber ziemlich brauchbar. Ich hatte das Glück, noch einen günstigen Plan für das Alibaba Coding Model zu erwischen, aber dieser Plan ist inzwischen verschwunden.
    • Wenn man Cloud-Anbieter nutzt, muss man solche Einschränkungen in Kauf nehmen. Wer Stabilität will, sollte besser lokale Hardware wie einen Mac Studio oder Strix Halo kaufen und sich seine Inferenzumgebung selbst aufbauen.
    • Wenn man sich die Kommentare unter dem zweiten Tweet ansieht, sagt ein Claude-Code-Ingenieur von Anthropic, dass die Behauptung nicht stimmt. Das ist ein Beispiel dafür, wie sich Fehlinformationen verbreiten.
  • Wir bewegen uns immer mehr auf eine Welt zu, in der KI-basierte iterative Softwareentwicklung zum Standard wird.
    Vertrauenswürdige Nutzer geben Feedback, eine KI fasst es als Ticket zusammen, eine andere KI erstellt den PR, und nach der Prüfung wird ausgerollt.
    Es wirkt, als wären wir fast an diesem Punkt.

    • Früher habe ich auch an diese Richtung geglaubt, inzwischen bin ich skeptisch. In jedem Schritt ist die Fehlerrate zu hoch, und selbst Systeme, die sie senken sollen, erzeugen wieder neue Fehler.
      KI schreibt keinen wartbaren Code und bremst eher aus. Am Ende ist KI-unterstütztes Coding deutlich effizienter.
      Dass FAANG 300 Dollar pro Zeile ausgibt, liegt nicht an der Geschwindigkeit, sondern an Genauigkeit und Struktur.
    • Die Richtung gefällt mir, aber die Inferenzkosten sind zu hoch. Trainingskosten sind okay, aber wenn die Inferenzkosten sinken, verschwindet der Anreiz, Modelle offenzulegen.
      Wenn Taalas Modelle direkt in Hardware brennen könnte, wäre das ein großer Fortschritt, aber letztlich würde das Problem nur auf einen Hardware-Engpass verlagert.
      Vielleicht kommt irgendwann eine Zeit, in der man Modelle wie Game-Boy-Cartridges einsteckt.
    • Aus Sicht der Nutzer ist die Distanz zu von Menschen geschriebener Software ohnehin schon zu groß, als dass es noch wichtig wäre, wer sie gebaut hat.
      Selbst das Lesen eines Hacker-News-Beitrags ist bereits das Ergebnis mehrerer Schichten automatisierter Systeme.
    • Selbst in mehreren Jahrzehnten wird es für Nutzer wahrscheinlich noch schwierig sein, saubere Tickets zu schreiben.
    • Solche Feedback-Loops vergrößern am Ende nur garbage-in → garbage-out exponentiell. Das ist dieselbe Illusion wie „Roboter reparieren sich selbst“.
  • Ich hatte früher einmal mit etwas ChatGPT-Ähnlichem eingestellt: „Benachrichtige mich nur jeden Morgen um 8 Uhr, wenn auf meinem Arbeitsweg Stau ist“, aber ich bekam jeden Tag eine Meldung, auch ohne Stau.

    • Die meisten Agentensysteme versuchen das einfach mit cron zu lösen und ignorieren dabei das Konzept von prospective memory.
      Siehe dazu The Missing Memory Type.
    • Am Ende muss man den Prompt klarer formulieren. Wie im Programmiererwitz: Wenn die Bedingung falsch geschrieben ist, kommt ein absurdes Ergebnis heraus.
    • Agenten führen Werkzeuge in einer Schleife aus. Wenn man reproduzierbare Resultate will, muss die Definition von „Stau“ über ein Tool klar festgelegt werden.
      Ich betreibe dafür ein System mit Wetter-, Zugfahrplan-, Arbeitskalender- und Telegram-Benachrichtigungstools.
      Eigentlich ließe sich das auch einfach mit cron umsetzen.
    • Man kann die Bewertungskriterien auch direkt mit etwas wie pi-mono selbst definieren (GitHub-Link).
    • Ich hatte dasselbe Problem. Das System meldet nicht nur true positives, sondern auch alle false positives. Das ist einfach zu dumm.
  • Viele Menschen und Unternehmen wollten Web-Automatisierung, aber Website-Betreiber haben sie blockiert.
    Jetzt hängt man einfach AI an den Namen, und plötzlich scheint es erlaubt zu sein.

  • Ich bin vor Kurzem von GitHub Copilot Pro zu Claude Code Max (20x) gewechselt.
    Claude ist in vieler Hinsicht stark, aber beim Thema Remote-/Cloud-Agenten eher schwach.
    Ich wollte „Claude on the web“ für ein Elixir-Projekt einrichten, bin aber an Netzwerk-Firewall-Problemen gescheitert.
    Außerdem werden in den Logs nur die letzten Zeilen angezeigt, was das Debugging erschwert.
    Dagegen nutzen die „Coding Agents“ von Copilot die GitHub-Actions-Infrastruktur und sind deutlich stabiler.
    „Schedule task on the web“ basiert auf derselben Struktur, daher mache ich mir Sorgen, dass dort ähnliche Probleme auftreten.

  • Am Ende werden Menschen wohl versuchen, Dinge mit KI zu lösen, für die einfache regelbasierte Automatisierung völlig ausreichen würde.
    Auch in Unternehmen hört man oft „Lasst uns X mit KI lösen“, obwohl das eigentlich gar nicht nötig ist.

    • Es wirkt, als würde die Branche grundlegende Automatisierung wie „Jobs mit cron ausführen“ absichtlich blockieren.
      KI kann beim „then“-Teil helfen, aber allein wenn man die „if“-Bedingung gut abbildet, ist das schon sehr nützlich.
    • Bei uns ist es ähnlich. Wir stecken mitten in einer M&A-Phase, und Investoren drängen darauf, „mehr KI einzusetzen, um im Wettbewerb nicht zurückzufallen“.
      Das Problem ist, dass der Einsatz von KI zum Selbstzweck wird.
    • Solche Systeme eignen sich eher für lockere, intuitive Aufgaben wie „Schau nach, ob es heute ein gutes Angebot gibt“.
    • Wenn Nutzer ihre Absicht klar ausdrücken können, ist das in Ordnung.
      Ich habe einen Artikel geschrieben, der Menschen hilft, Agenten-Skills zu verstehen.
      Building Agent Evals
      Und es gibt auch einen Text über Nichtdeterminismus-Probleme.
      Error Compounding
    • Für normale Nutzer ist es schwierig, den „then“-Teil zu formulieren. Am Ende senkt KI, mit der man Absichten in natürlicher Sprache beschreiben kann, genau diese Hürde.
  • Ich habe den Claude Code Max 20x-Plan, aber trotzdem sind nur drei Cloud-Scheduled-Tasks erlaubt.
    Die Funktion selbst ist trotzdem großartig. Lokal war es wegen Berechtigungsproblemen lästig, aber in einer Cloud-Sandbox kann es laufen.
    Die drei von mir eingerichteten Tasks sind folgende:

    1. Jeden Montag pnpm audit und pnpm outdated ausführen und danach einen Sicherheits-/Update-Bericht erstellen
    2. An jedem Werktag Sentry-Logs und -Metriken analysieren und einen Bericht zu neuen Issues erzeugen
    3. Die Commits des Vortags im Branch develop prüfen und auf Bugs, Sicherheit und fehlende Dokumentation kontrollieren
      Wenn man das täglich/wöchentlich automatisch laufen lässt, scheint es sehr nützlich zu sein. Der Sentry-Connector von Claude Code war ziemlich präzise.
      Später will ich versuchen, auch automatisch Issues zu erstellen oder PRs einzureichen.
    • Eigentlich reicht dafür eine einzige cron-Zeile.
      0 7 * * 1-5 ANTHROPIC_API_KEY=sk-... /path/to/claude-cron.sh /path/to/repo >> ~/claude-reports.md 2>&1
  • Die Geschwindigkeit von Claude ist beeindruckend.
    Grok hatte diese Funktion bereits, und jetzt ziehen die anderen erst nach.
    Solche Funktionen haben einen starken Lock-in-Effekt. Grok bietet kostenlos 10 gleichzeitige Tasks an.
    Ich nutze das jeden Morgen, um Nachrichten aus verschiedenen Quellen zu extrahieren.

  • Diese Funktion ist etwas eingeschränkt. Man kann keine Screenshots machen und keine curl-Anfragen an beliebige Domains senden.
    Deshalb habe ich einen Cloud-Dienst namens Cronbox gebaut.
    Ich hatte ihn als „Show HN: Cronbox – Schedule AI Agents“ vorgestellt,
    und als Beispiel-Task gibt es auch Pelican Rides a Bicycle.

  • Ich glaube, hier fehlt etwas Grundlegendes. Ich verstehe, dass damit Prompts auf einem Git-Repository ausgeführt werden, aber wohin gehen die Ergebnisse?
    Werden dafür Commit-Rechte vergeben, damit Änderungen direkt angewendet werden, oder läuft das über MCP-Tools?

    • Das wird über MCP-Bundling bereitgestellt. Ein ziemlich cooler Ansatz.
    • Wir haben jede Woche automatische Sicherheitsaudits laufen lassen und die Ergebnisse in Slack gepostet.