1 Punkte von GN⁺ 3 시간 전 | 1 Kommentare | Auf WhatsApp teilen
  • Es wird viel darüber diskutiert, wie mit LLM-generierten Beiträgen auf der Seite umzugehen ist, aber offenbar gibt es keine klare Richtlinie dazu, ob sie erlaubt sind.
  • Die Position ist, dass Nutzer, die regelmäßig LLM-generierte Beiträge veröffentlichen, auf der Seite gesperrt werden sollten.
  • Es wurde vorgeschlagen, auf der Einreichungsseite einen Hinweis anzuzeigen: „LLM-generierte Beiträge sind hier nicht erlaubt“.
  • Eine klare Richtlinie und ein entsprechender Hinweis könnten Debatten darüber verringern, ob LLM-generierte Beiträge gemeldet oder in den Kommentaren beantwortet werden sollen.
  • Der Kernpunkt ist, einen expliziten Maßstab festzulegen, dass LLM-generierte Einreichungen nicht erlaubt sind, um die Reaktion der Community zu vereinfachen.

1 Kommentare

 
GN⁺ 3 시간 전
Lobste.rs-Meinungen
  • Es scheint in Ordnung zu sein, wenn gelegentlich ein minderwertiger Beitrag durchrutscht. Wenn man LLM-generierte Inhalte verbietet, gibt es idealerweise eine klare Grundlage, um belangloses Zeug von der Startseite fernzuhalten und Wiederholungstäter zu sperren, ohne in den Kommentaren über Ausnahmeregeln streiten zu müssen

  • Stimme im Großen und Ganzen zu. Wenn sich jemand nicht einmal die Mühe macht, den Text selbst zu schreiben, möchte ich ihn nicht lesen.
    Ich weiß allerdings nicht, wie man LLM-generierte Sätze perfekt erkennen soll, und es gefällt mir nicht, wenn Menschen oder Quellen gesperrt werden, nur weil ein eingereichter Text vielleicht generiert wurde. Mir ist auch schon unterstellt worden, ich hätte ein LLM benutzt, nur weil ich gelegentlich einen em dash verwende, obwohl ich das schon seit über 25 Jahren so mache

    • Gelegentliche False Positives sind meiner Meinung nach kein großes Problem, solange es keine Null-Toleranz-Politik ist. Ich lese den ursprünglichen Vorschlag so, dass Moderatoren nach eigenem Ermessen auf Muster reagieren sollen, bei denen wiederholt minderwertige Texte eingereicht werden.
      Man sollte nicht deshalb auf eine Richtlinie verzichten, weil die Erkennung minderwertiger Texte nicht perfekt ist. Fehler wird es gelegentlich geben, aber gegen den LLM-generierten Müll, der das Web überzieht und von Menschen geschriebene Texte verdrängt, muss unbedingt Gegendruck aufgebaut werden
  • Stimme zu.
    Meistens ist ziemlich klar, ob es sich um einen LLM-generierten Text handelt, und ich habe auch schon Fälle gesehen, in denen der Autor die Nutzung von LLMs an anderer Stelle auf seiner Website erwähnt hat, auch wenn es nicht direkt im Beitrag stand. Dann wird die Einordnung noch einfacher.
    Auch das Gespür der Community dafür, minderwertige Inhalte zu erkennen, scheint ziemlich verlässlich zu sein. Ich kann mich nicht erinnern, dass in einem großen Kommentar-Thread jemand fälschlich massiv beschuldigt wurde, ein LLM benutzt zu haben. Wenn es niemand unterscheiden kann, dann kann es eben niemand unterscheiden.
    In wirklich zweifelhaften Fällen kann man ruhig zugunsten des Verfassers entscheiden. Problematisch sind meist die allzu offensichtlichen Texte, nicht irgendein Szenario, in dem jemand Lobsters mit möglichst vielen unerkennbaren LLM-Texten austricksen will

  • Ich hasse LLM-generierte Artikel wirklich und wünschte, sie würden verschwinden. Solche Extremfälle sind eindeutig und wahrscheinlich leicht zu erkennen, und ich glaube, nur sehr wenige würden etwas gegen ihre Entfernung haben.
    Aber was ist, wenn jemand Software einreicht, die teilweise LLM-generierte Commits enthält? Oder wenn etwas vollständig mit einem LLM erstellt wurde, der Prozess aber in einem Analyseartikel dokumentiert ist? Diese Einwände sind bewusst etwas advocatus diaboli, aber es ist klar, dass es auch innerhalb von Lobsters ein Spektrum dessen gibt, was als zulässig gilt.
    Ein Totalverbot für jeden Inhalt, der auch nur minimal mit LLMs in Berührung gekommen ist, dürfte schwer vermittelbar sein. Die am breitesten akzeptierte Antwort wäre wahrscheinlich ein Flag ohne Karma-Nachteil. Damit hinterlässt man für nachfolgende Leser das Signal: „Aus meiner Sicht generiert, also Vorsicht.“ Große Kommentar-Threads übernehmen diese Funktion derzeit faktisch schon und könnten sowohl Streit in den Kommentaren reduzieren als auch ein Signal zur Sichtbarkeit des Inhalts geben

    • Die anderen genannten Szenarien sind eine andere Kategorie und auch recht klar unterscheidbar. Wenn man sie anders behandeln möchte als den aktuellen Fall, kann man dafür einen neuen Thread eröffnen
  • Klingt vernünftig. Wenn sich jemand nicht die Zeit nimmt, die eigenen Gedanken zu ordnen, frage ich mich, warum ich dann Zeit investieren sollte, das zu lesen.
    Einen Chatbot als Rubber Duck zu benutzen, um Argumente zu schärfen oder Grammatik zu prüfen, finde ich in Ordnung. Ich glaube nicht, dass man dafür besondere Erkennung braucht; Erwartungen der Community und das Entfernen offensichtlicher Fälle reichen aus

  • Es ist sehr leicht, bei einem Beitrag, der einem nicht gefällt, sofort „LLM-Minderwertigtext!“ zu rufen. Aber was passiert dann. Ich möchte sowohl thematisch passende Beiträge sehen, denen ich zustimme, als auch solche, denen ich nicht zustimme, und das ist gesund.
    Ich bin mir nicht sicher, wie man einen Text als „minderwertig“ bewerten soll. Es gibt offensichtliche Fälle, aber auch Grenzfälle. Es ist möglich, dass ein legitimer Beitrag schlampig wirkt, nur weil der Autor zufällig einen bestimmten Stil benutzt, den LLMs häufig imitieren.
    Bei „authored by“-Einreichungen könnte es fair sein, die allgemeine Schlampigkeit des Einreichers zu betrachten. Wenn jemand dauerhaft klar minderwertige Beiträge einreicht, markiert man ihn als schlampig, die Moderation meldet sich mit einem „Hör damit auf“, und wenn es dann nicht aufhört, folgt eine Sperre.
    Ich bin nicht sicher, ob „schlampige Texte“, die über Dritte eingereicht werden, genauso zählen sollten. Es scheint aber möglich, die Posting-Berechtigung von jemandem, der laufend minderwertig wirkende Texte zu Software einreicht, zumindest vorübergehend abzukühlen, statt ihn direkt zu sperren. Eine Struktur, in der jeder Einreichende gesperrt werden kann, wenn er die Herkunft eines Textes nicht verteidigen kann, wäre allerdings wenig erfreulich

    • Nicht jede Regel ist eine schiefe Ebene. Es gibt tatsächlich klar erkennbare minderwertige LLM-Texte, und allein das reicht schon als Grund für Moderation aus.
      Du unterschätzt offenbar, wie asozial das Schreiben von LLM-Minderwertigtexten ist. Schon jetzt stehen solche offensichtlichen Fälle tagelang auf der Startseite, weil Leute auf der AI-Welle sie hochladen
    • Feuer mit Feuer bekämpfen und einfach einen LLM-Minderwertigtext-Detektor einsetzen
  • Verwandter Beitrag: https://lobste.rs/s/wee21u/this_is_written_by_llm_comments_should_be
    Beispiele:
    https://lobste.rs/s/ojvhq9/coding_is_thinking_why_i_still_write_code
    https://lobste.rs/s/eaxtmb/claude_for_legal_suite_plugins_for_legal
    https://lobste.rs/s/fvqkke/new_claude_code_programmatic_usage
    Ich stimme zu, dass LLM-generierter Text filterbar oder markierbar sein sollte.
    Das Problem ist, dass die Kennzeichnung als „off-topic“ widersprüchlich wirken kann, wenn ein LLM-generierter Beitrag inhaltlich eigentlich thematisch passt. Über neue Flag-Optionen wurde schon früher diskutiert. Zum Beispiel: https://lobste.rs/s/po97lh/new_tag_suggestion_genai_assisted
    Ich denke weiterhin, dass eine neue Flag-Option besser ist, als wie in https://lobste.rs/s/rkjpob/proposal_add_ai_generated_as_flag_reason besprochen die „off-topic“-Markierung zu missbrauchen

    • Verstanden, danke für das Feedback. Das war schlecht formuliert. Es sollte verboten werden.
      Ob es filterbar oder markierbar ist, erscheint mir nicht besonders wichtig. Nutzer, die so etwas posten, sollten von der Seite entfernt werden. Flags oder Tags sind verschwendet, wenn daraus keine echte Maßnahme folgt
  • Das wirkt vielleicht so, als würde man nur wertlose Beispiele herauspicken, aber der LLM-generierte Text in https://lobste.rs/s/hfnps5/osmand_s_faster_offline_navigation ist insgesamt zwar von Schrottqualität, enthält aber tatsächlich auch eigenständige inhaltliche Punkte, die thematisch passen

    • Nein. Ich sage nur, dass LLM-generierter Text nach Möglichkeit überhaupt nicht eingereicht werden sollte. Schau dir einfach die Leute an, die es als Spam bewertet haben. Wenn ich es gesehen hätte, wäre ich einer davon gewesen
  • Jetzt sind also alle Arten von Gedankenstrichen illegal

    • Ich verstehe nicht, warum Leute den em dash für einen rauchenden Colt halten. Zum Beispiel erzeugt die HTML-Ausgabe von Pandoc aus Markdown--- einen em dash
  • Die Sorge ist: Es ist nicht leicht, mit perfekter Genauigkeit zu wissen, ob ein Text LLM-generiert ist. In den meisten Fällen ist es allerdings offensichtlich.
    Gelegentlich kann ein LLM-generierter Text auf die eine oder andere Weise tatsächlich „wichtig“ oder „bemerkenswert“ sein. Ein Beispiel wäre der CopyFail-Bericht.
    Vorschlag: LLM-generierte Inhalte sollten verboten werden, außer in außergewöhnlichen Situationen wie etwa sicherheitsrelevanten Schwachstellen mit großer Tragweite. Bei der Beurteilung, ob ein Text LLM-generiert ist, sollte man konservativ vorgehen und in Grenzfällen eher zugunsten des Zweifels entscheiden. Was genau als „außergewöhnliche Situation“ gilt, könnte im Ermessen der Moderation liegen oder mit der Weiterentwicklung der Richtlinie als Liste von Kriterien definiert und iterativ verbessert werden