1 Punkte von GN⁺ 18 시간 전 | 1 Kommentare | Auf WhatsApp teilen
  • Auf Lobsters wurde weiter über ein Verbot von LLM-generierten Beiträgen und Änderungen an Tags diskutiert, aber es scheint Einigkeit darüber zu geben, Beiträge mit geringem Aufwand und geringem Informationsgehalt als Spam zu melden
  • Vorgeschlagen wird, Reaktionen in den Kommentaren, die lediglich „this is LLM slop“ oder Ähnliches hinterlassen, als Off-Topic zu melden, da sie sich nicht mit dem Inhalt des Beitrags, sondern nur mit der Frage befassen, ob er generiert wurde
  • Mindestens 80% des Grundes, Lobsters zu lesen, ist die Qualität der Kommentare; es ist frustrierend, Debatten darüber herausfiltern zu müssen, ob ein Beitrag ein LLM-Output ist oder nicht
  • Wenn der einzige Kommentar zu einem Beitrag, den man eingereicht hat, weil man ihn interessant fand, sinngemäß lautet: „Wäre gut gewesen, wenn er nicht von einem LLM geschrieben wäre“, ist das für die Einreichenden unerquicklich
  • Noch demotivierender ist es, wenn ein selbst geschriebener Text als LLM-generiert verdächtigt wird; das ist auf anderen Plattformen passiert und auch bei anderen Autorinnen und Autoren auf Lobsters

Vorschlag

  • Es wurde weiter über ein Verbot von LLM-generierten Beiträgen und Änderungen an den Tags ai/vibecoding diskutiert, doch es scheint Konsens zu geben, Beiträge mit geringem Aufwand und geringem Informationsgehalt als Spam zu melden und weiterzugehen
  • Vorgeschlagen wird, Kommentare, die lediglich „this is LLM slop“ oder Ähnliches hinterlassen, als Off-Topic zu melden
  • Mindestens 80% des Grundes, Lobsters zu lesen, ist die Qualität der Kommentare; es ist unerquicklich, Debatten darüber herausfiltern zu müssen, ob der diskutierte Beitrag ein LLM-Output ist oder nicht
  • Wenn man einen Beitrag einreicht, weil man ihn interessant findet, und der einzige Kommentar sinngemäß lautet: „Wäre ein guter Beitrag gewesen, wenn er nicht von einem LLM geschrieben wäre“, ist das auch aus Sicht der Einreichenden unerquicklich
  • Wenn ein ohne LLM selbst geschriebener Text nach der Einreichung als LLM-generiert verdächtigt wird, ist das noch frustrierender und demotivierender
  • Das ist mit dem eigenen Text nicht auf Lobsters passiert, aber auf anderen Plattformen; außerdem wurde beobachtet, dass so etwas auch anderen Autorinnen und Autoren auf Lobsters passiert ist

Hintergrund und Absicht

  • LLMs sind in der Community ein polarisierendes Thema und die Situation ist für alle frustrierend; daher wird es für unwahrscheinlich gehalten, dass sich die Meinungen auf beiden Seiten zu diesem Zeitpunkt noch ändern
  • Der Kern des Vorschlags ist: „Beiträge mit geringem Aufwand als Spam melden und weitergehen“ und zusätzlich „Meta-Kommentare, die nur auf die mögliche LLM-Herkunft hinweisen, als Off-Topic melden und weitergehen“
  • Da die Maßstäbe dafür, was als „slop“ empfunden wird, unterschiedlich sind, soll verhindert werden, dass sich Kommentar-Diskussionen vom Inhalt des Beitrags zur bloßen Beurteilung seiner möglichen LLM-Herkunft verlagern

1 Kommentare

 
Meinungen auf Lobste.rs
  • Es mag einem nicht gefallen, aber ich finde solche Hinweise hilfreich. Ich möchte keine Zeit damit verbringen, generierte Texte zu lesen, und ich habe das Gefühl, dass Menschen ihre eigene Stimme verlieren, wenn sie das Schreiben an Tools delegieren, deshalb möchte ich mich auch mit „unterstütztem“ Schreiben nicht unbedingt befassen
    Man liest Texte nicht nur wegen des Inhalts, sondern auch wegen der Perspektive und des Stils der schreibenden Person. Warum es irrelevant sein soll, wie ein Text geschrieben wurde, ist selbst diskussionswürdig, und es zeigt besser, wie stark die Autorin oder der Autor an der Arbeit beteiligt war
    Frühe Signale, die mir erlauben, früh zu entscheiden, wie ich mit einem Inhalt umgehen will, sind wertvoll. Wenn es dir nicht gefällt, kannst du auf den [-]-Button drücken, und ich kann den Ausblenden-Button benutzen

    • Das größte Problem ist: Wenn ein Text ein 17-Absätze-langer Wortsalat ist und man das erst ungefähr im 10. Absatz merkt, hat man bereits einiges an Zeit an einen Text mit geringem Wert verschwendet
      In so einem Fall wäre ein vorheriges Warnsignal hilfreich gewesen
    • Ich verstehe, dass man LLM-generierte Inhalte nicht mag, aber die Nutzung von LLMs liegt auf einem Spektrum — von „schreib das komplett für mich“ bis zu „ich bin keine Muttersprachlerin bzw. kein Muttersprachler, hilf mir bitte beim Übersetzen/Ordnen ins Englische“. Wichtiger ist, dass wir nicht unter jedem Beitrag ein Dutzend Top-Kommentare brauchen, die darüber streiten, ob ein LLM ihn geschrieben hat
      Ich habe auch gesehen, dass selbst bei Texten, bei denen die Autorin oder der Autor sagt, sie seien selbst geschrieben, und es keinen Grund gibt, das nicht zu glauben, weiter LLM-Nutzung unterstellt wird. Wenn Kommentare LLM-Inhalte nicht zuverlässig erkennen können, sind sie einfach nur Rauschen und im besten Fall kaum besser als ein AI-Wortsalat-Artikel
  • Kommentare, die darauf hinweisen, dass eine Einsendung LLM-generiert ist, sind hilfreich, und ich nutze solche Kommentare, um sie als Spam zu melden und auszublenden
    Natürlich glaube ich solchen Kommentaren nicht einfach blind und prüfe selbst nach

  • Wenn man Einträge als Wortsalat/Spam melden könnte, würden solche Kommentare verschwinden

    • Diese Kommentare umgehen ganz offensichtlich nur die Unzulänglichkeiten des Meldesystems. Spam ist als etwas mit kommerziellem Bezug definiert, und wenn man diese Definition strikt auslegt, passt sie auf viele Wortsalat-Posts nicht
      Nur Kommentare zu verbieten, ohne die Meldefunktion zu verbessern, bringt nichts. Man muss die Ursache angehen, nicht die Symptome
    • Ich bin wohl alt genug, dass ich „Wortsalat“ nicht so instinktiv erkenne wie andere. Vielleicht liegt es daran, dass er für mich wie das menschenproduzierte Marketing-Geschwätz von vor ein paar Jahren aussieht und sich deshalb nicht wie ein eigenes Phänomen anfühlt
      Für mich ist es ziemlich nervig, wenn sich lange Diskussionen um die Herkunft von etwas drehen, das einfach nur wie ein gewöhnlich schlechter Text aussieht. Noch mehr, wenn darin nützliche Fakten vergraben sind
      Unabhängig von Upvotes/Downvotes für die Interessantheit eines Textes frage ich mich, ob es nicht eine Möglichkeit geben sollte, individuelle numerische Bewertungen für die Qualität oder „Wortsalatigkeit“ eines Textes zu hinterlassen. Daraus könnte man einen Durchschnitt bilden, und Nutzerinnen und Nutzer könnten einen Schwellenwert zum automatischen Ausblenden setzen
      Das würde lobste.rs vielleicht komplexer machen als ursprünglich gedacht, aber vielleicht ist das vernünftig, um mit der ziemlich dystopischen Lage umzugehen, in der wir gerade stecken
    • Kann man Einträge nicht bereits als Spam melden? Ich mache das oft
  • Der Kommentar „Das ist LLM-Wortsalat“ hat mir schon oft Zeit gespart, auch bei mindestens einem Artikel, den ich selbst eingereicht habe. Ich will keinen Wortsalat lesen und noch weniger Wortsalat veröffentlichen

  • Als Leser finde ich solche Kommentare hilfreich. Besonders wenn sie erklären, woran sie das festmachen, sind sie nützlicher als eine bloße Meldung
    Auf der about-Seite wird „Spam“ für Meldungen so definiert:

    For stories, these are: "Off-topic" for stories that are not about computing; "Already Posted" for duplicate submissions and links that elaborate on or responses to a thread that's less than a week old (see merging); and "Broken Link" for links that 404, 500, or present a paywall; "Spam" for links that promote a commercial service.
    Wenn ich diese Definition mit dem vorgeschlagenen Verhalten vergleiche und mit Verhalten, das soweit ich gesehen habe in der Vergangenheit von mindestens einer Person aus dem Moderationsteam unterstützt wurde, finde ich es besser, wenn solche Kommentare bleiben
    Der Wunsch, Wortsalat zu vermeiden, ist bei mir stärker als der Wunsch, Content-Marketing zu vermeiden. Marketing lässt sich leichter einordnen, und eine Meldung liefert dafür schon genug Information. Bis es eine eigene Meldekategorie für Wortsalat gibt, sollten solche Kommentare — besonders wenn sie begründet sind — meiner Meinung nach weiter erlaubt sein

    • Ich persönlich verwende „Spam“ weiter gefasst als in der Definition auf der about-Seite. Nicht nur im alten Sinn von UCE, also unerwünschten kommerziellen E-Mails, sondern auch für lange Copy-paste-Tiraden, die manche Usenet-Gruppen früher überzogen haben
      Solche Texte wurden von Besessenen oder Trollen gepostet, um verschiedene Threads zu stören. Minderwertige LLM-generierte Inhalte sind von dieser Art Inhalt nicht zu unterscheiden
  • Wie sollte man einen Text bewerten, bei dem jemand ein LLM nur um Grammatik- oder Rechtschreibkorrekturen gebeten hat? Oder einen gut strukturierten Text auf Spanisch, den man sich von einem LLM hat übersetzen lassen? Oder wenn eine Person mit Dyslexie nur eine Liste von Kernpunkten liefert und ein LLM daraus einen Fließtext macht?
    Ich wünschte, man würde diese nuancierte Frage nicht vereinfachen. Es besteht die Gefahr, interessante Beiträge auszuschließen. Natürlich will ich hier auch keinen Wortsalat ohne jeden Informationswert sehen oder — schlimmer noch — halluzinierte Falschinformationen

    • Die Vor- und Nachteile von LLM-generiertem Text wurden schon bis zum Überdruss durchgekaut. Ich wünsche mir nur, dass diese Debatte in den Kommentaren aufhört. Als Spam melden und weitergehen, oder es eben einfach stehen lassen
  • Persönlich kann ich beide Seiten nachvollziehen. Das hier ist nicht die offizielle Position der Seite, sondern nur meine eigene Meinung, und auch keine tief ausgearbeitete Schlussfolgerung. Ich teile einfach meine momentanen Gedanken, falls sie der Diskussion helfen
    Die Gründe für so eine Maßnahme sind nachvollziehbar und ich habe Sympathie dafür. Wenn ein mit Mühe geschriebener Text so abgetan wird, als sei überhaupt kein Mensch daran beteiligt gewesen, wirkt das wirklich demotivierend. Besonders dann, wenn das wegen oberflächlicher Dinge wie Gedankenstrichen passiert. Da hätte ich selbst auch schnell keine Lust mehr
    Ich bin mir nur nicht sicher, ob genau diese Maßnahme für dieses Ziel ideal ist. Die Wirkung eines solchen Eingriffs könnte sein, dass wir eine der wichtigsten Verteidigungslinien gegen menschenlose Inhalte verlieren. Wenn alle gemeinsam soziale Normen entwickeln und sie konsistent anwenden, skaliert das oft viel besser als von oben verordnete Autorität. Deshalb bin ich sehr vorsichtig damit, soziale Dynamiken zu unterdrücken, die im Moment eine wichtige Rolle spielen. Auch wenn ich den Schaden sehe, würde ich das später gern noch einmal neu bewerten, falls diese Rolle weniger wichtig wird
    Gibt es andere Maßnahmen, die helfen könnten? Wenn jemand einen Vorschlag hat, der hier noch nicht aufgetaucht ist, wäre es gut, ihn einzubringen
    Natürlich hoffe ich auch, dass alle vorsichtig damit sind, wahllose Vorwürfe zu erheben, wenn sie sich nicht sehr sicher sind. Unbedachte Reaktivität ist, egal mit welcher Begründung, sehr zerstörerisch. Wenn Menschen sich immer wieder impulsiv persönlich angreifen, kann kaum ein Raum eine Gemeinschaft bleiben

  • Ich stimme voll zu. Oft lese ich einen Text, ohne überhaupt den Eindruck zu haben, dass er von AI generiert wurde, und dann sagt jemand mit völliger Überzeugung, dass genau das der Fall sei. Ich kann mich irren, aber wie kann man sich jemals sicher sein, was AI-generiert ist?
    Wenn es wirklich Wortsalat ist, denke ich, dass die Leute ihn einfach nicht hochvoten und sich das dadurch natürlich reguliert

    • Ich bin nicht überzeugt, dass AI-generierter Text inhärente Merkmale hat, die Menschen, oder die meisten Menschen, immer erkennen werden. Am Ende könnte es fast unmöglich werden, das nur am Text zu unterscheiden. Wenn also ein LLM etwas geschrieben hat, es aber niemand merkt — ist das dann „echter Wortsalat“?
      Wenn Menschen sagen, sie wollten die Perspektive und Einsichten einer Autorin oder eines Autors, dann steckt darin tatsächlich etwas Wichtiges. Selbst wenn jemand ohne menschliche Hilfe außer einem Prompt mit einem LLM einen fiktiven Blogpost erstellt hat und dieser zufällig kohärent, faktisch korrekt und interessant geschrieben ist, hätte ich trotzdem nicht wirklich Lust, ihn zu lesen. Zumindest nicht im Kontext von lobsters
      Als Plattform für so etwas könnte ein Lexikon von LLM-Texten funktionieren, bei dem ich von vornherein weiß, worauf ich mich einlasse. Aber für eine Gemeinschaft, die aus menschlichem Denken und menschlicher Kreativität hervorgeht, passt das meiner Meinung nach nicht
      Das sagt über die aktuellen Texte selbst nicht unbedingt viel aus, weil ich nicht mit Sicherheit sagen kann, wie akkurat diese „riecht nach LLM“-Kommentare tatsächlich sind. Trotzdem habe ich sehr viel Verständnis für den Wunsch von Community-Mitgliedern, sicher zu sein, dass sie Texte lesen, die von bewussten Menschen geschrieben wurden
  • Etwas unabhängig von diesem Vorschlag frage ich mich, warum dieser Vorschlag als off-topic oder Spam gemeldet wird. Das scheint auf kein Kriterium wirklich zuzutreffen, oder?
    Ich weiß, dass auf der about-Seite steht, dass solche Meta-Fragen dort nicht gut sind, aber ich frage mich ehrlich, ob ich etwas übersehe

    • Auf dieser Seite gibt es einige menschliche Wortsalat-Händler, die bei jedem Text, der ihnen nicht gefällt, einfach off-topic oder Spam anklicken. Frustrierend. Das gab es auch schon früher: https://lobste.rs/s/irxjid/ai_vampire#c_d0zhhi
  • Es wird sicher Bloggerinnen und Blogger geben, deren Muttersprache nicht Englisch ist und die AI verwenden, um die Sprache ihrer Blogposts zu glätten. Menschen, die mit Englisch vertrauter sind, könnten solche Texte als AI-Wortsalat wahrnehmen, obwohl es in Wirklichkeit nur eine Art unterstütztes Schreiben ist
    Auch ich bin keine Muttersprachlerin bzw. kein Muttersprachler des Englischen, deshalb erkenne ich bei solchen Texten oft nicht gut, ob AI im Spiel war. Für mich ist am wichtigsten, wie die Kernaussage vermittelt wird

    • In diesem Meta-Thread geht es nicht darum, warum Menschen LLMs nutzen oder nicht nutzen. Ich möchte einfach nicht mehr unter jedem Kommentarstrang hier Debatten sehen wie „Das hat ein Roboter generiert!“ „Nein!“ „Doch, völlig offensichtlich“. Natürlich ist das zugespitzt formuliert