Kommentare wie „Das ist von einem LLM geschrieben“ sollten als Off-Topic gemeldet werden
(lobste.rs)- Auf Lobsters wurde weiter über ein Verbot von LLM-generierten Beiträgen und Änderungen an Tags diskutiert, aber es scheint Einigkeit darüber zu geben, Beiträge mit geringem Aufwand und geringem Informationsgehalt als Spam zu melden
- Vorgeschlagen wird, Reaktionen in den Kommentaren, die lediglich „this is LLM slop“ oder Ähnliches hinterlassen, als Off-Topic zu melden, da sie sich nicht mit dem Inhalt des Beitrags, sondern nur mit der Frage befassen, ob er generiert wurde
- Mindestens 80% des Grundes, Lobsters zu lesen, ist die Qualität der Kommentare; es ist frustrierend, Debatten darüber herausfiltern zu müssen, ob ein Beitrag ein LLM-Output ist oder nicht
- Wenn der einzige Kommentar zu einem Beitrag, den man eingereicht hat, weil man ihn interessant fand, sinngemäß lautet: „Wäre gut gewesen, wenn er nicht von einem LLM geschrieben wäre“, ist das für die Einreichenden unerquicklich
- Noch demotivierender ist es, wenn ein selbst geschriebener Text als LLM-generiert verdächtigt wird; das ist auf anderen Plattformen passiert und auch bei anderen Autorinnen und Autoren auf Lobsters
Vorschlag
- Es wurde weiter über ein Verbot von LLM-generierten Beiträgen und Änderungen an den Tags
ai/vibecodingdiskutiert, doch es scheint Konsens zu geben, Beiträge mit geringem Aufwand und geringem Informationsgehalt als Spam zu melden und weiterzugehen - Vorgeschlagen wird, Kommentare, die lediglich „this is LLM slop“ oder Ähnliches hinterlassen, als Off-Topic zu melden
- Mindestens 80% des Grundes, Lobsters zu lesen, ist die Qualität der Kommentare; es ist unerquicklich, Debatten darüber herausfiltern zu müssen, ob der diskutierte Beitrag ein LLM-Output ist oder nicht
- Wenn man einen Beitrag einreicht, weil man ihn interessant findet, und der einzige Kommentar sinngemäß lautet: „Wäre ein guter Beitrag gewesen, wenn er nicht von einem LLM geschrieben wäre“, ist das auch aus Sicht der Einreichenden unerquicklich
- Wenn ein ohne LLM selbst geschriebener Text nach der Einreichung als LLM-generiert verdächtigt wird, ist das noch frustrierender und demotivierender
- Das ist mit dem eigenen Text nicht auf Lobsters passiert, aber auf anderen Plattformen; außerdem wurde beobachtet, dass so etwas auch anderen Autorinnen und Autoren auf Lobsters passiert ist
Hintergrund und Absicht
- LLMs sind in der Community ein polarisierendes Thema und die Situation ist für alle frustrierend; daher wird es für unwahrscheinlich gehalten, dass sich die Meinungen auf beiden Seiten zu diesem Zeitpunkt noch ändern
- Der Kern des Vorschlags ist: „Beiträge mit geringem Aufwand als Spam melden und weitergehen“ und zusätzlich „Meta-Kommentare, die nur auf die mögliche LLM-Herkunft hinweisen, als Off-Topic melden und weitergehen“
- Da die Maßstäbe dafür, was als „slop“ empfunden wird, unterschiedlich sind, soll verhindert werden, dass sich Kommentar-Diskussionen vom Inhalt des Beitrags zur bloßen Beurteilung seiner möglichen LLM-Herkunft verlagern
1 Kommentare
Meinungen auf Lobste.rs
Es mag einem nicht gefallen, aber ich finde solche Hinweise hilfreich. Ich möchte keine Zeit damit verbringen, generierte Texte zu lesen, und ich habe das Gefühl, dass Menschen ihre eigene Stimme verlieren, wenn sie das Schreiben an Tools delegieren, deshalb möchte ich mich auch mit „unterstütztem“ Schreiben nicht unbedingt befassen
Man liest Texte nicht nur wegen des Inhalts, sondern auch wegen der Perspektive und des Stils der schreibenden Person. Warum es irrelevant sein soll, wie ein Text geschrieben wurde, ist selbst diskussionswürdig, und es zeigt besser, wie stark die Autorin oder der Autor an der Arbeit beteiligt war
Frühe Signale, die mir erlauben, früh zu entscheiden, wie ich mit einem Inhalt umgehen will, sind wertvoll. Wenn es dir nicht gefällt, kannst du auf den [-]-Button drücken, und ich kann den Ausblenden-Button benutzen
In so einem Fall wäre ein vorheriges Warnsignal hilfreich gewesen
Ich habe auch gesehen, dass selbst bei Texten, bei denen die Autorin oder der Autor sagt, sie seien selbst geschrieben, und es keinen Grund gibt, das nicht zu glauben, weiter LLM-Nutzung unterstellt wird. Wenn Kommentare LLM-Inhalte nicht zuverlässig erkennen können, sind sie einfach nur Rauschen und im besten Fall kaum besser als ein AI-Wortsalat-Artikel
Kommentare, die darauf hinweisen, dass eine Einsendung LLM-generiert ist, sind hilfreich, und ich nutze solche Kommentare, um sie als Spam zu melden und auszublenden
Natürlich glaube ich solchen Kommentaren nicht einfach blind und prüfe selbst nach
Wenn man Einträge als Wortsalat/Spam melden könnte, würden solche Kommentare verschwinden
Nur Kommentare zu verbieten, ohne die Meldefunktion zu verbessern, bringt nichts. Man muss die Ursache angehen, nicht die Symptome
Für mich ist es ziemlich nervig, wenn sich lange Diskussionen um die Herkunft von etwas drehen, das einfach nur wie ein gewöhnlich schlechter Text aussieht. Noch mehr, wenn darin nützliche Fakten vergraben sind
Unabhängig von Upvotes/Downvotes für die Interessantheit eines Textes frage ich mich, ob es nicht eine Möglichkeit geben sollte, individuelle numerische Bewertungen für die Qualität oder „Wortsalatigkeit“ eines Textes zu hinterlassen. Daraus könnte man einen Durchschnitt bilden, und Nutzerinnen und Nutzer könnten einen Schwellenwert zum automatischen Ausblenden setzen
Das würde lobste.rs vielleicht komplexer machen als ursprünglich gedacht, aber vielleicht ist das vernünftig, um mit der ziemlich dystopischen Lage umzugehen, in der wir gerade stecken
Der Kommentar „Das ist LLM-Wortsalat“ hat mir schon oft Zeit gespart, auch bei mindestens einem Artikel, den ich selbst eingereicht habe. Ich will keinen Wortsalat lesen und noch weniger Wortsalat veröffentlichen
Als Leser finde ich solche Kommentare hilfreich. Besonders wenn sie erklären, woran sie das festmachen, sind sie nützlicher als eine bloße Meldung
Auf der about-Seite wird „Spam“ für Meldungen so definiert:
Solche Texte wurden von Besessenen oder Trollen gepostet, um verschiedene Threads zu stören. Minderwertige LLM-generierte Inhalte sind von dieser Art Inhalt nicht zu unterscheiden
Wie sollte man einen Text bewerten, bei dem jemand ein LLM nur um Grammatik- oder Rechtschreibkorrekturen gebeten hat? Oder einen gut strukturierten Text auf Spanisch, den man sich von einem LLM hat übersetzen lassen? Oder wenn eine Person mit Dyslexie nur eine Liste von Kernpunkten liefert und ein LLM daraus einen Fließtext macht?
Ich wünschte, man würde diese nuancierte Frage nicht vereinfachen. Es besteht die Gefahr, interessante Beiträge auszuschließen. Natürlich will ich hier auch keinen Wortsalat ohne jeden Informationswert sehen oder — schlimmer noch — halluzinierte Falschinformationen
Persönlich kann ich beide Seiten nachvollziehen. Das hier ist nicht die offizielle Position der Seite, sondern nur meine eigene Meinung, und auch keine tief ausgearbeitete Schlussfolgerung. Ich teile einfach meine momentanen Gedanken, falls sie der Diskussion helfen
Die Gründe für so eine Maßnahme sind nachvollziehbar und ich habe Sympathie dafür. Wenn ein mit Mühe geschriebener Text so abgetan wird, als sei überhaupt kein Mensch daran beteiligt gewesen, wirkt das wirklich demotivierend. Besonders dann, wenn das wegen oberflächlicher Dinge wie Gedankenstrichen passiert. Da hätte ich selbst auch schnell keine Lust mehr
Ich bin mir nur nicht sicher, ob genau diese Maßnahme für dieses Ziel ideal ist. Die Wirkung eines solchen Eingriffs könnte sein, dass wir eine der wichtigsten Verteidigungslinien gegen menschenlose Inhalte verlieren. Wenn alle gemeinsam soziale Normen entwickeln und sie konsistent anwenden, skaliert das oft viel besser als von oben verordnete Autorität. Deshalb bin ich sehr vorsichtig damit, soziale Dynamiken zu unterdrücken, die im Moment eine wichtige Rolle spielen. Auch wenn ich den Schaden sehe, würde ich das später gern noch einmal neu bewerten, falls diese Rolle weniger wichtig wird
Gibt es andere Maßnahmen, die helfen könnten? Wenn jemand einen Vorschlag hat, der hier noch nicht aufgetaucht ist, wäre es gut, ihn einzubringen
Natürlich hoffe ich auch, dass alle vorsichtig damit sind, wahllose Vorwürfe zu erheben, wenn sie sich nicht sehr sicher sind. Unbedachte Reaktivität ist, egal mit welcher Begründung, sehr zerstörerisch. Wenn Menschen sich immer wieder impulsiv persönlich angreifen, kann kaum ein Raum eine Gemeinschaft bleiben
Ich stimme voll zu. Oft lese ich einen Text, ohne überhaupt den Eindruck zu haben, dass er von AI generiert wurde, und dann sagt jemand mit völliger Überzeugung, dass genau das der Fall sei. Ich kann mich irren, aber wie kann man sich jemals sicher sein, was AI-generiert ist?
Wenn es wirklich Wortsalat ist, denke ich, dass die Leute ihn einfach nicht hochvoten und sich das dadurch natürlich reguliert
Wenn Menschen sagen, sie wollten die Perspektive und Einsichten einer Autorin oder eines Autors, dann steckt darin tatsächlich etwas Wichtiges. Selbst wenn jemand ohne menschliche Hilfe außer einem Prompt mit einem LLM einen fiktiven Blogpost erstellt hat und dieser zufällig kohärent, faktisch korrekt und interessant geschrieben ist, hätte ich trotzdem nicht wirklich Lust, ihn zu lesen. Zumindest nicht im Kontext von lobsters
Als Plattform für so etwas könnte ein Lexikon von LLM-Texten funktionieren, bei dem ich von vornherein weiß, worauf ich mich einlasse. Aber für eine Gemeinschaft, die aus menschlichem Denken und menschlicher Kreativität hervorgeht, passt das meiner Meinung nach nicht
Das sagt über die aktuellen Texte selbst nicht unbedingt viel aus, weil ich nicht mit Sicherheit sagen kann, wie akkurat diese „riecht nach LLM“-Kommentare tatsächlich sind. Trotzdem habe ich sehr viel Verständnis für den Wunsch von Community-Mitgliedern, sicher zu sein, dass sie Texte lesen, die von bewussten Menschen geschrieben wurden
Etwas unabhängig von diesem Vorschlag frage ich mich, warum dieser Vorschlag als off-topic oder Spam gemeldet wird. Das scheint auf kein Kriterium wirklich zuzutreffen, oder?
Ich weiß, dass auf der about-Seite steht, dass solche Meta-Fragen dort nicht gut sind, aber ich frage mich ehrlich, ob ich etwas übersehe
Es wird sicher Bloggerinnen und Blogger geben, deren Muttersprache nicht Englisch ist und die AI verwenden, um die Sprache ihrer Blogposts zu glätten. Menschen, die mit Englisch vertrauter sind, könnten solche Texte als AI-Wortsalat wahrnehmen, obwohl es in Wirklichkeit nur eine Art unterstütztes Schreiben ist
Auch ich bin keine Muttersprachlerin bzw. kein Muttersprachler des Englischen, deshalb erkenne ich bei solchen Texten oft nicht gut, ob AI im Spiel war. Für mich ist am wichtigsten, wie die Kernaussage vermittelt wird