13 Punkte von xguru 12 일 전 | 6 Kommentare | Auf WhatsApp teilen
  • Ein von Cloudflare entwickeltes Tool, das per Punktzahl anzeigt, wie gut die eigene Website für Agenten geeignet ist
  • Der Grad der Unterstützung für AI-Agenten kann analysiert werden; zudem lassen sich Optimierungsrichtungen für Authentifizierung, Inhaltsformat, Zugriffskontrolle und Bezahlverfahren erkennen
  • Für jeden nicht bestandenen Punkt werden Prompts bereitgestellt, die sich direkt an Coding-Agenten übergeben lassen, um automatische Verbesserungen zu unterstützen
  • Die Punktzahl wird anhand von 4 Bereichen berechnet
    • Discoverability: robots.txt, sitemap.xml, Link Headers (RFC 8288)
    • Content: Markdown for Agents
    • Bot Access Control: Content Signals, AI-Bot-Regeln in robots.txt, Web Bot Auth
    • Capabilities: Agent Skills, API Catalog, OAuth-Server-Discovery (RFC 8414/9728), MCP Server Card, WebMCP
  • Es wird auch geprüft, ob Agent-Commerce-Standards unterstützt werden (fließt nicht in die Punktzahl ein)

6 Kommentare

 
xguru 12 일 전

Wirklich witzig ist, dass ihre eigene cloudflare.com bei 25 Punkten liegt. GeekNews news.hada.io kommt auf 42 Punkte.
Sie sollten wohl erst mal ihre eigene Website in Ordnung bringen, bevor sie andere bewerten..

Natürlich hat ihre eigene Bewertungsseite isitagentready.com 83 Punkte, aber das liegt wohl daran, dass sie neu erstellt wurde..

Ähnlich gibt es auch Tools wie https://orank.ai.

 
geesecross 11 일 전

Cloudflare macht so etwas vermutlich nicht, um Websites moralisch dafür zu belehren, dass sie etwas nicht richtig gebaut haben — gibt es also wirklich einen Grund, darüber zu spotten?

Als Unternehmen mit großem Einfluss im Internet-Ökosystem kann es durch das frühzeitige Besetzen einer solchen Agenda als de facto wahrgenommen werden und so die künftige Entwicklungsrichtung des Internets in eine Richtung lenken, die den eigenen Interessen zugutekommt.

 
xguru 11 일 전

Ich finde es amüsant, ich lache es nicht aus. Meine Formulierung war wohl etwas unglücklich.
Cloudflare bringt in den letzten Tagen ja auch allerlei Neues heraus, deshalb kann ich schon nachvollziehen, dass man im Zeitalter der Agenten schnell reagiert.

Aber die Checkliste auf der Website ist schon etwas seltsam. Schon die Idee, eine Website damit per Punktzahl zu bewerten, lässt mich stutzen.
Sie listen Dinge auf, die sie selbst wohl nicht einmal alle umsetzen könnten, und reden dann so, als wären sie enorm wichtig — genau das finde ich merkwürdig.

 
geesecross 11 일 전

Das erinnert mich an die Zeit, als das Web mit Quirks-HTML ein einziges Chaos war und Websites von Webstandard-Prüfern bewertet wurden. Dass eine Seite die Webstandards einhielt, garantierte zwar nicht ihre eigentliche Qualität, aber es hatte zumindest den Effekt, dass die Websites ein Bewusstsein für Standardkonformität entwickelten. Und Unternehmen wie Google, die das Web crawlen und maschinell lesen müssen, hatten dadurch vermutlich den Vorteil, die Suchqualität im Liegen quasi kostenlos zu verbessern.

Wenn solche Richtlinien vorgegeben werden, könnte man in einer Phase, in der nicht nur Menschen, sondern auch KI-Agenten zu aktiven Nutzern des Internets werden, das Ruckeln zumindest etwas verringern und die Infrastruktur schneller stabilisieren. Selbst wenn mit der Zeit manches als überzogenes Beiwerk erscheint, wäre schon das schnelle Herstellen einer gewissen Disziplin(?) an sich ein Vorteil für die betreffenden Branchen — das war im Kern die Aussage.

 
savvykang 12 일 전

Letztlich ist es auch dort eben ein Großkonzern, bei dem man nicht aus seiner Haut kann, und wo Menschen leben, scheint es überall ähnlich zuzugehen.

 
jeeeyul 11 일 전

Humanoide haben deshalb eine menschenähnliche Größe und eine ähnliche Gelenkstruktur, damit man für sie nicht eigens Werkzeuge oder Fertigungslinien bauen muss.

Wir haben doch bereits solchen Unsinn wie den Aufbau, Betrieb und die Wartung von unternehmensweitem RAG ausprobiert und mit dem Aufkommen von Agenten und MCP eingesehen, dass das gar nicht nötig gewesen wäre, oder? Warum sollten wir denselben Fehler jetzt nur auf andere Weise wiederholen?

Die altbackene Idee, dass Agenten statt Menschen das Web durchsuchen, wird am Ende wohl weniger an der Technik scheitern als an politischen Faktoren, weil sie das wichtigste Einnahmemodell von Google bedroht, das selbst ein Teil des Webs ist.

Am Ende ist webMCP ohnehin nur eine Übergangslösung, bis RPA-Agenten wirklich ausgereift sind. So geht das noch so weit, dass am Ende sogar wieder jemand fordert, zu xul zurückzukehren.