Hat mir Spaß gemacht zu lesen, weil es wie ein Artikel darüber wirkt, Paketdieben eine Glitzerbombe zu verpassen :)

 

Vielleicht ist es einfach nur so, dass es diese Methode gibt..

 

Wow … das ist wirklich unglaublich. Dass es sich so natürlich anfühlt.

 

In letzter Zeit sieht man gelegentlich Schadensfälle durch übermäßigen Traffic von LLM-angebundenen Diensten; tatsächlich könnte man das auch als eine Gegenmaßnahme genau für solche Fälle betrachten. Wenn man sich zum Beispiel die Websuche-Funktion von ChatGPT ansieht, liegt es aufgrund der Eigenschaften dieses Nutzerpools durchaus nahe, dass dort „nicht böswilliger“ übermäßiger Traffic entsteht, und ich habe gehört, dass sich diese Nutzer mit einfachem Agent-Matching leicht herausfiltern lassen. Falls das wirklich die eigentliche Absicht ist, führt das allerdings nur dazu, unnötig die Serverkosten (und den Ruf?) von OpenAI zu belasten..

 

Wow, die Informationen gehen direkt ins Ohr ...

 

Ethisch ist das nicht gerade gut. Und eine grundlegende Lösung ist es auch nicht.

 

Interessanter Beitrag! Auf diese Methode wäre ich nicht gekommen – danke, dass du sie vorgestellt hast!

 

In letzter Zeit scheint Google nicht nur die Leistung seiner Foundation-Modelle verbessert zu haben, sondern auch die Art und Weise, wie sie in solche Dienste integriert werden, wirkt wirklich sehr gelungen.

 

https://freederia.com/researcharchive/
Dies ist die Website des AI-Wissenschaftlers.
Eine solche Richtung wird eine noch größere Vielfalt an Entwicklungen fördern.

 

Wenn Belohnungen die Autonomie einer Person beeinträchtigen, untergraben sie die intrinsische Motivation – dieser Satz spricht mich an.

 

Ich stimme zu, dass sich anhand von Identifikationsmerkmalen wie dem von Ihnen erwähnten User-Agent oder der im Originalbeitrag genannten IP-basierten Erkennung schwer eindeutig feststellen lässt, ob etwas bösartig ist, weil solche Informationen verschleiert werden können. Tatsächlich würden wirklich bösartige Bots wohl noch raffinierter vorgehen.
Meiner Meinung nach wäre es realistischer, statt solcher Angriffe eher eine Crawling-API mit Lastbegrenzung bereitzustellen, damit legitime automatisierte Zugriffe erlaubt bleiben, während die Serverressourcen geschützt werden – eine Art praktischerer „Nudge“. haha

 

Einfach … absolut verrückt. Selbst wenn es kostenpflichtig würde, hätte es eine Qualität, für die ich gern bezahlen würde.
Wenn ich mir Themen, die mich interessieren, im Podcast-Format anhöre, nehme ich die Informationen mit noch mehr Interesse auf.
Wirklich großartig.

 

Ich habe es ausprobiert, und es ist wirklich der Hammer....

Wenn ich dafür bezahlen müsste, würde ich wahrscheinlich nur dieses eine nutzen. Für ähnliche Dienste dürfte das erhebliche Auswirkungen haben.

 

Natürlich ist es kein öffentlicher Ort, also hat die Person den Beitrag vielleicht einfach ohne große Gedanken gepostet.
So wie man in einer Community auch gedankenlos einen Kommentar hinterlassen kann.
Ich kann Crawler ohnehin nicht vollständig blockieren, daher wäre es am besten, Anfragen gar nicht erst anzunehmen, und ich habe mich gefragt, was die Absicht hinter dieser provokativen Aktion war.

 

Es ist ein persönlicher Blog – darf ich da nicht schreiben, was ich will? 🤔

 

Wie geht ihr mit Versionsänderungen um?

 

Was ist wohl der Zweck, so einen Artikel zu veröffentlichen?
Ich denke nämlich nicht, dass Unternehmen, die tatsächlich Crawler einsetzen, diesen Artikel lesen und ihre Systeme dann mit hoher Wahrscheinlichkeit ausschließen werden.
Für welche Lesergruppe wurde dieser Text also geschrieben?
Ist es ein einführender Beitrag, um anderen Bloggern zu zeigen, dass es so eine Methode gibt,
oder eher provokatives Getöse nach dem Motto: Mein Blog ist so gut abgesichert, also versucht doch mal, ihn zu crawlen, wenn ihr könnt?
Ich frage mich wirklich, was man durch die Veröffentlichung dieses Artikels gewinnen will.