3 Punkte von GN⁺ 2026-03-12 | 1 Kommentare | Auf WhatsApp teilen
  • Hacker News ist eine Community, die sich auf Gespräche zwischen Menschen und Themen, die intellektuelle Neugier wecken, konzentriert
  • Ab sofort sind von KI generierte oder bearbeitete Kommentare verboten; in den Richtlinien steht ausdrücklich, dass jede Unterhaltung eine Interaktion zwischen Menschen sein muss
  • Ein zentrales Prinzip ist es, eine freundliche und rücksichtsvolle Diskussionskultur zu bewahren und Anschuldigungen, Spott und provokative Äußerungen zu vermeiden

Regeln für das Einreichen von Beiträgen bei HN (What to Submit)

  • Thematische Eignung wird als „etwas definiert, das gute Hacker interessant finden könnten“ und umfasst über reines Hacking oder Startups hinaus alle Themen, die intellektuelle Neugier anregen
    • Geschichten über Politik, Kriminalität, Sport oder Unterhaltung gelten außer in Fällen, in denen sie ein neues Phänomen zeigen, als off-topic
  • Verbotenes bei der Titelgestaltung
    • Keine Großbuchstaben, Ausrufezeichen, übertriebene Formulierungen oder wertende Wörter wie „großartig“
    • Der Name der Website wird hinter dem Link angezeigt und soll daher aus dem Titel entfernt werden
    • Unnötige numerische Titel wie „10 Ways to Do X“ sollen vereinfacht werden („How to Do X“)
    • Ausgenommen sind Fälle, in denen die Zahl bedeutungstragend ist, etwa bei „The 5 Platonic Solids“
  • Grundsätze für das Einreichen von Quellen
    • Statt Sekundärberichten soll direkt die Originalquelle eingereicht werden
    • Eigene Inhalte dürfen teilweise eingereicht werden, wiederholte Nutzung zu Werbezwecken ist jedoch verboten
  • Weitere Hinweise zum Einreichen
    • Bei Videos oder PDFs soll im Titel [video] bzw. [pdf] stehen
    • Fragen zur Website sollen nicht als Beitrag gepostet, sondern per E-Mail an hn@ycombinator.com gesendet werden
    • Nach dem Löschen nicht erneut posten; gelöscht wird nur bei unpassenden Beiträgen
    • Keine Aufforderungen zu Upvotes, Kommentaren oder Reposts; Nutzer sollen selbst auf interessante Inhalte reagieren

Regeln für Kommentare und Verhalten in der Community

  • Freundliche und rücksichtsvolle Gespräche führen
    • Kein zynischer oder aggressiver Tonfall; empfohlen werden von Neugier getragene Gespräche
    • Je hitziger eine Debatte wird, desto mehr sollte sie auf tiefere und reifere Diskussionen zielen
  • Haltung in Streitgesprächen
    • Statt persönlicher Angriffe nur logische Gegenargumente vorbringen („That is idiotic“ statt „1 + 1 is 2, not 3“)
    • Kritik soll konkret und nützlich sein, rein negative Reaktionen sind zu vermeiden
  • Regeln zu KI
    • Von KI generierte oder bearbeitete Kommentare sind verboten; HN ist ein Ort für Gespräche zwischen Menschen
  • Qualität der Diskussion bewahren
    • Kein Spott, keine Wutausbrüche, keine Herabsetzung der Community
    • Aussagen anderer sollen nach der vernünftigsten möglichen Auslegung verstanden und mit Wohlwollen betrachtet werden
    • Flamebait, abgedroschene Internet-Memes und Abschweifungen vom Thema sind zu vermeiden
  • Unproduktive Kommentare verboten
    • Oberflächliche Vorwürfe, politische oder ideologische Grundsatzdebatten sowie Reaktionen im Stil von „Hast du den Artikel überhaupt gelesen?“ sind verboten
    • Es ist untersagt, nur die provokanteste Stelle eines Artikels herauszugreifen und daran Kritik aufzuhängen
  • Nutzung von Accounts
    • Beim Teilen sensibler Informationen sind Wegwerf-Accounts erlaubt, das ständige Erstellen neuer Accounts ist jedoch verboten
    • Als Mitglied der Community soll man eine konsistente Identität bewahren
  • Formbezogenes
    • Zur Hervorhebung sollen statt Großbuchstaben Sternchen verwendet werden
    • Keine Vorwürfe der Manipulation (astroturfing, shilling usw.); bei Bedenken soll per E-Mail gemeldet werden
  • Zur Moderation
    • Problematische Kommentare sollen gemeldet (flag) und nicht beantwortet werden
    • Nebensächliche Beschwerden über das Format der Website, Abstimmungsergebnisse oder eine angebliche „Redditisierung“ sind zu unterlassen
    • Solche Diskussionen sind weder interessant noch produktiv

1 Kommentare

 
GN⁺ 2026-03-12
Meinungen auf Hacker News
  • Wirklich ein erfreulicher Beitrag. Ich komme hierher, um tiefgehende Gedanken von Menschen zu lesen, nicht um von LLMs erzeugte Sätze zu sehen
    Man sollte die Gewohnheit, selbst zu denken, nicht verlieren. Für einen Entwurf kann AI vielleicht helfen, aber wenn man am Ende nicht selbst denkt, führt das auf einen Weg des Verfalls

    • Stimme völlig zu. Ich komme hierher, um Kommentare von Menschen zu lesen. Wenn ich Kommentare von AI-Bots sehen wollte, würde ich zu Twitter oder Reddit gehen
    • Ich mache auf meiner persönlichen Website etwas Ähnliches. Ich habe absichtlich Tippfehler auf der Über-diese-Seite-Seite eingebaut, und wenn Leute sie entdecken und ein PR schicken, muss ich immer lachen. Das PR lehne ich natürlich ab ;-)
    • Gute Idee, aber wenn es keinen Weg gibt zu verhindern, dass LLMs HN-Kommentare zum Lernen verwenden, könnte das ein sinnloser Versuch sein. Ironischerweise würde HN, falls es erfolgreich LLM-Inhalte fernhält, gerade dadurch zur besten Quelle für Trainingsdaten werden
    • Heutzutage werfen viele Leute HN-Links einer AI vor und fragen: „Was hältst du davon?“. Aber das Ergebnis dann zu posten, als wäre es die eigene Meinung, ist wirklich seltsam. Wenn man sich den Prompt „Schreib mir einen guten Kommentar, ich werde so tun, als wäre es mein Gedanke“ vorstellt, ist das schon irgendwie komisch
  • Es ist gut, wenn sich so eine Richtlinie in der HN-Kultur verankert. Genau das ist der Zweck von Richtlinien.
    99 % aller Regeln hängen letztlich davon ab, ob die Leute diese Kultur akzeptieren. Regeln sind nicht für Feinde da, sondern für normale Situationen

    • Diese Diskussion erinnert mich an Paradigms of Power aus Adiamante von L. E. Modisett. Lesenswert, wenn man sich für Konsens, Macht, Moral und Gesellschaft interessiert
    • Ich stimme größtenteils zu, aber es stimmt auch, dass sich mit der Zeit eine Kultur entwickelt hat, die Regeln bricht. Das sieht man besonders bei Richtlinien zu ideologischen Debatten oder anonymen Accounts. Der Grundsatz „Je kontroverser das Thema, desto tiefgründiger und reifer sollten die Kommentare sein“ ist weiterhin wichtig
    • Solche Diskussionen haben letztlich nur dann Bedeutung, wenn genügend Leute sie lesen und nachvollziehen
  • Ich unterstütze diese Richtlinie voll und ganz. Worauf man aber achten muss, ist die Ähnlichkeit zwischen gutem Schreiben und LLM-Texten. LLMs wurden mit Texten hervorragender Autoren trainiert, daher kann der Stil ähnlich wirken.
    Deshalb sollte man anderen nicht vorschnell unterstellen, AI verwendet zu haben, sondern wohlwollende Auslegung bewahren. Mir wurde auch schon mehrmals fälschlich AI-Nutzung unterstellt

    • Ich finde nicht, dass gutes Schreiben und LLM-Texte sich so sehr ähneln. LLMs haben immer einen eigenen Geruch. Die Grammatik ist perfekt, aber der Stil ist zu gleichförmig und vorhersehbar. Menschliches Schreiben hat individuelle Eigenheiten, und genau das macht den Unterschied
    • Oberflächlich sehen sie ähnlich aus, aber beim Lesen merkt man den Unterschied. Wenn man aufmerksam liest, sieht man ihn
    • Wurden LLMs wirklich nur mit Texten guter Autoren trainiert? Ich habe Zweifel, ob der Datenbereinigungsprozess so gründlich war
    • Gute Autoren sind jeweils auf ihre eigene Weise außergewöhnlich. LLMs übertreiben bestimmte Stilmittel und wirken dadurch eher abgenutzt
    • Wenn man die menschliche Seele nicht unterscheiden kann, wird das nur ein endloses Katz-und-Maus-Spiel sein
  • Ich komme hierher, um echte menschliche Gedanken zu lesen. Wenn ich die Gedanken eines LLM lesen will, kann ich es direkt selbst fragen.
    Was mich aber beschäftigt, ist die Frage, ob spontane menschliche Reaktionen schon genügen oder ob tiefere Antworten mit LLM-Hilfe besser wären.
    Ehrlich gesagt ist beides in gewisser Weise wichtig. Wenn LLMs irgendwann bessere Antworten liefern als der Durchschnittsmensch, könnte es schwieriger werden, auf menschlicher Authentizität zu bestehen

    • Das Ziel von HN ist nachdenkliche und neugierige Unterhaltung. Kurze, einsichtsvolle Antworten sind immer willkommen, aber von LLMs erzeugte Texte sind verboten. Wichtiger als die Wortmenge ist Authentizität
    • Ich lese menschliche Kommentare, weil ich wissen will, was Menschen denken. Lieblos geschriebene Kommentare möchte ich allerdings auch nicht
    • Ein LLM-Filter birgt eher die Gefahr, Inhalte einzuebnen. Wer das möchte, kann in seinem eigenen Browser selbst filtern
    • Einsichtsvolle Texte sollten aus eigenen Gedanken kommen, nicht aus einem LLM. Das als Ausrede zu verwenden, führt nur zu unnötigem Missbrauch
    • Nach dieser Logik könnte man auch ein Plugin bauen, das Kommentare unter 50 Wörtern automatisch zu „tiefgehenden Antworten“ ausweitet
  • Die Grenze bei „AI-bearbeiteten Kommentaren“ ist interessant. Auch Grammatik-Korrekturtools wie Grammarly sind eine Form von AI, und es ist unklar, wo genau die erlaubte Grenze verläuft.
    Generierte Kommentare sind eindeutig verboten, bearbeitete Kommentare sind eine Grauzone. Die Stoßrichtung der Richtlinie ist positiv, aber man sollte die Grenze zwischen Anfang und Ende klarer ziehen

    • Guter Punkt. Eine relevante Diskussion dazu gibt es hier. Der Teil mit dem „Bearbeiten“ ist noch im Fluss. Auch für Artikel- oder Projekt-Einreichungen gibt es keine klaren Maßstäbe
    • Tools wie Grammarly löschen letztlich den persönlichen Stil aus. Kleine Fehler oder Holprigkeiten gehören auch zur Persönlichkeit und sollten besser bleiben
    • Man sollte solche Tools nur verwenden, solange Bedeutung oder Ton nicht verändert werden. Wenn der Text zu mechanisch wird, ist die Grenze schon überschritten.
      Man könnte den eigenen Stil analysieren und dafür eigene Stilregeln erstellen, aber das wäre ziemlich umständlich
    • Leichte AI-Bearbeitung wie Grammatikprüfung oder Übersetzung lässt sich vernünftigerweise unterscheiden. Das gehört in die Kategorie „man erkennt es, wenn man es sieht“ (I know it when I see it)
    • Entscheidend ist, dass die Person selbst schreibt, was sie sagen möchte. Tools sollten nur dabei helfen
  • In Zukunft wird die Frage, zu beweisen, dass man ein Mensch ist, im Internet sehr wichtig werden. Man muss Vertrauen schaffen und zugleich Anonymität und Privatsphäre schützen

    • Das eigentliche Problem ist nicht das LLM, sondern die Menge an überproduzierten Inhalten. Schon früher litt die Qualität des Internets darunter, dass Menschen zu viel gepostet haben. LLMs beschleunigen das nur noch
    • Eine datenschutzfreundliche Alternative wird es wohl nicht geben. Am Ende könnte daraus ein Web werden, in dem man den Ausweis zeigen muss
    • Vollständige Anonymität kann AI ebenfalls imitieren. Letztlich braucht es also ein quellenbasiertes System auf Grundlage von Vertrauensnetzwerken. So wie man Aussagen von Menschen vertraut, die man kennt, braucht es auch digital solche beziehungsbasierten Vertrauensstrukturen
    • Wahrscheinlich geht es in Richtung eines Systems wie bei HTTPS, bei dem Zertifizierungsstellen bestätigen: „Das ist ein Mensch“. Nicht perfekt, aber ein realistischer Kompromiss
    • Oder man wechselt in kleinere vertrauensbasierte Communities. Die Zeit großer öffentlicher Foren könnte zu Ende gehen
  • Wäre es in Ordnung, AI-generierte Inhalte explizit zu kennzeichnen?
    Ich habe Perplexity gefragt, und es hat ein altes Urteil des Supreme Court korrekt gefunden und gut zusammengefasst. Ich wollte diese Zusammenfassung mit Quellenangabe einfügen und fragte mich, ob das gegen die Regeln verstoßen würde.
    Außerdem überlege ich, meine Texte mit AI korrigieren zu lassen, weil ich oft lange Sätze, zu viele Kommas und Rechtschreibfehler habe

    • Es war richtig, diese Zusammenfassung nicht einzufügen. HN legt Wert auf den Kontext von Menschen, die selbst gelesen und verstanden haben. Eine AI-Zusammenfassung verliert diesen Kontext.
      Menschlicher Stil hat in seiner Unvollkommenheit Persönlichkeit. Zu glatt geschriebene Texte verlieren eher ihre Menschlichkeit
    • Wenn du schon weißt, was du verbessern musst, dann korrigiere es einfach selbst
    • Wenn es sich wie bei Wikipedia um ein Zitat mit klarer Quellenangabe handelt, könnte es in Ordnung sein. Entscheidend sind überprüfbare Links
    • Man könnte die Share-Link-Funktion von Perplexity nutzen und die AI-Zusammenfassung als Link bereitstellen
    • Aber die AI-Zusammenfassung selbst einzufügen, hat keinen Sinn. Niemand interessiert sich für die Meinung von Perplexity. Es ist besser, nur den Quellenlink zu geben und selbst zusammenzufassen
  • Ich unterstütze diese HN-Richtlinie voll und ganz. HN ist das einzige Forum, das ich regelmäßig besuche.
    Aber in letzter Zeit gibt es zu viele AI-bezogene Beiträge. Viele Themen wiederholen sich und sind uninteressant, und Beiträge über „von AI neu geschriebene Software“ langweilen mich inzwischen.
    Man sollte der AI-Kategorie fast so etwas wie eine Steuer auferlegen

    • Umgekehrt habe ich mich gerade wegen der AI-Diskussionen bei HN angemeldet. Reddit und Twitter sind voller als AI verpackter Inhalte. Auf HN sind wenigstens noch echte Diskussionen möglich
  • Es hat eine gewisse Ironie, dass ein Forum, das vom Einsatz von AI abrät, zugleich AI-Startups unterstützt

    • Wir verbieten nicht die Nutzung von AI, sondern von AI geschriebene Kommentare.
      AI sinnvoll einzusetzen ist gut, aber der Zweck von HN ist Gespräch und Verbindung zwischen Menschen.
      Auch das HN-Team verwendet viel AI, aber um die Effizienz zu steigern, nicht um menschliche Kommunikation zu ersetzen
    • HN wird von YC finanziert, aber der Betrieb ist vollständig unabhängig. Dan ist faktisch der Eigentümer. Es gibt eine gewisse Ironie, aber auch ein Gleichgewicht
    • Ja, ironisch ist es schon, aber zwischen AI-Nutzung und menschlichem direkten Handeln zu unterscheiden ist klug
  • Eine Kennzeichnung „von AI verfasst“ wäre gut. Ab einer bestimmten Anzahl solcher Markierungen könnte man Kommentare standardmäßig ausblenden und bei Bedarf mit einer Option wie „AI anzeigen“ sichtbar machen.
    Später könnte man diese Daten sogar zum Training eines AI-Erkennungsmodells verwenden

    • Diese Funktion soll tatsächlich hinzugefügt werden. Wenn man eine Auswahl für den Grund der Meldung einführt, könnte das auch Fehlfunktionen verhindern
    • Der aktuelle „flag“-Mechanismus ist ein automatisches Verarbeitungssystem. Um einen AI-Verstoß zu melden, muss man den Moderator direkt per E-Mail informieren. Das ist der einzige Weg mit menschlicher Prüfung
    • Ich setze diese Idee auch auf hcker.news um. Dort experimentiere ich bereits mit einigen Kommentarfilter-Funktionen