11 Punkte von GN⁺ 2026-03-09 | 5 Kommentare | Auf WhatsApp teilen
  • Hacker News: Vorschlag, neu erstellte Accounts daran zu hindern, sofort Beiträge zu veröffentlichen
  • In letzter Zeit haben Spam und minderwertige Beiträge zugenommen, besonders auffällig bei neu angelegten Accounts
  • Es wäre gut, zumindest die Aktivitäten neuer Accounts für eine gewisse Zeit einzuschränken oder nur Beiträge von Accounts sichtbar zu machen, die bestimmte Bedingungen erfüllen
  • Einige Nutzer schlagen vor, neue Accounts zunächst nur kommentieren zu lassen und ihnen erst nach einer gewissen Zeit das Recht zum Posten zu geben
  • Einige Nutzer erwähnen auch einen Ansatz, bei dem das Posten erst möglich ist, wenn eine bestimmte Zeit nach der Account-Erstellung verstrichen ist oder ein Aktivitätsschwellenwert erreicht wurde
  • Es gibt auch die Meinung, ein vertrauensbasiertes System auf Grundlage der Aktivitätshistorie einzuführen, sodass nur Accounts posten können, bei denen ein gewisses Maß an Beteiligung nachgewiesen ist
  • Es gibt jedoch auch Bedenken, dass solche Einschränkungen die Beteiligung neuer Nutzer dämpfen könnten
    • Es müssen Mechanismen zur Missbrauchsprävention geschaffen werden, ohne dabei das Wachstum und die Offenheit der Community zu beeinträchtigen
  • Einige Nutzer schlagen vor, minimale Eingriffe durch Administratoren mit automatisierten Prüfverfahren zu kombinieren

5 Kommentare

 
xguru 2026-03-09

Ob es am Einfluss von AI-Vibe-Coding liegt, aber HN scheint sich wohl mit einer ähnlichen Frage zu beschäftigen.
Im ersten Kommentar erwähnte der Admin dang sogar, dass Show HN vorerst eingeschränkt werde.

Bei GeekNews ist die Situation ähnlich.

Damit sich neue Nutzer erst mit der Community vertraut machen können, beschränken wir für eine Woche nach der Kontoerstellung das Verfassen von Beiträgen und Kommentaren.
Trotzdem gibt es einige Beiträge, die ohne grundlegende Prüfung hochgeladen werden.

Zum Beispiel werden manchmal Beiträge veröffentlicht, die nicht für Show GN geeignet sind,
und selbst wenn wir dazu Hinweise geben, wiederholen sich ähnliche Arten von Beiträgen, sodass wir einige davon löschen.
Das heißt, es kommt vor, dass persönliche Projekte geteilt werden, ohne dass die grundlegende Nutzungsweise oder der Zweck der Community ausreichend verstanden wurde.

GeekNews ist grundsätzlich ein Ort zum Teilen und Diskutieren von Nachrichten und Informationen,
daher halten wir es für wichtig, dass auch die Vorstellung persönlicher Projekte in diesem Kontext gepostet wird.

Deshalb denken wir auch darüber nach, Show-Posts vorerst nicht direkt in den neuesten Beiträgen oder auf der Startseite anzuzeigen,
bis eine gewisse Punktzahl oder Aktivitätshistorie aufgebaut wurde.

Es scheint eine Frage zu sein, über die man weiter nachdenken muss: wie man die Offenheit von GeekNews beibehält und gleichzeitig die Qualität sichert.

 
mammal 2026-03-09

Es war ein Handwerks-Flohmarkt, aber seit irgendeinem Tag wirkt es so, als bestünde mehr als die Hälfte aus Waren, die von AliExpress und Temu herangeschafft wurden.

 
sleepyeye 2026-03-10

Es sollte einen devote-Button geben.

 
princox 2026-03-09

Es gibt so viel Nachfrage danach, etwas günstig zu erstellen und dann zu bewerben,
aber wenn man gute Dinge entdeckt, speichert und verwaltet man sie meist nur für sich selbst.

Ich glaube, gute Informationen oder Nachrichten lassen sich von Natur aus nur schwer gut verbreiten.

 
GN⁺ 2026-03-09
Hacker-News-Kommentare
  • Wir werden Show HN vorerst wohl einschränken
    Besonders der Satz „HN kann gegen makroskopische Trends nicht immun sein“ trifft es gut.
    Dazu ist auch diese frühere Diskussion lesenswert.

    • Ich hoffe wirklich, dass ihr das macht. Und ich denke, es braucht mehr Eintrittshürden bei der Kontoerstellung. Ich war schockiert, wie leicht Systeme wie ChatGPT Atlas neue Accounts anlegen können.
    • Ich habe auch überlegt, ein System zur Erkennung von regelverletzenden Accounts oder sogenannten „sock puppets“ zu bauen. Etwa ein Konto wie sock_puppet_detector, betrieben auf der Infrastruktur von hackersmacker.org. Ich weiß aber nicht, ob das HN-Team solche externen Projekte begrüßen würde.
    • HN kann vom Strom der Programmierwelt keine Ausnahme sein. Es wäre gut, wenn jeder Nutzer bestimmte Accounts ausblenden oder stummschalten könnte.
    • Vielleicht könnte man das wie die Option „Show dead“ als auswählbare Einstellung in den Nutzereinstellungen anbieten.
    • Schade, aber ich denke, es ist unvermeidlich. Über Show HN wurden früher wirklich tolle Projekte geteilt, aber inzwischen hat sich die Lage verändert.
  • Reddit hat einen ähnlichen Ansatz versucht, ist aber gescheitert
    Selbst wenn neue Nutzer sorgfältig geschriebene Beiträge verfassen, werden diese von automatischen Filtern gelöscht, während Spammer sehr schnell lernen, die Regeln zu umgehen. Am Ende sorgen solche Regeln eher dafür, dass mehr böswillige Accounts übrig bleiben als echte neue Nutzer.

    • Reddit ist gescheitert, weil Moderationswerkzeuge fehlten. HN ist deutlich besser aufgestellt, weil es von Leuten moderiert wird, die die Tools selbst bauen, kleiner ist und nicht gewinnorientiert strukturiert ist.
    • Neue Accounts sollten nur beim Posten eingeschränkt werden, Kommentare aber schreiben dürfen. Über Kommentare lernt man die Kultur der Community kennen.
  • Ich habe in letzter Zeit das Interesse an Show HN verloren
    Früher steckte in vielen Projektvorstellungen echtes Herzblut, heute wirken viele Texte so, als seien sie mit LLMs erstellt worden. Die Technik an sich ist nicht schlecht, aber das Gefühl von früherer „reiner Kreativität“ scheint verloren gegangen zu sein.

    • Ich hasse AI nicht, aber wenn Roboter in sozialen Netzwerken posten, fühlt sich das grundsätzlich seltsam an. Ich verstehe nicht, warum man ein in 45 Minuten mit Claude gebautes Projekt unbedingt bei Show HN posten muss.
    • Von dem AI-Projekt einer anderen Person zu hören, fühlt sich ein bisschen so an, als müsste man sich den Traum von letzter Nacht von jemandem anhören.
    • Das heißt nicht, dass in LLM-Projekten keine Zuneigung steckt. Aber das handwerkliche Gefühl ist definitiv schwächer geworden. Es ist wie IKEA-Möbel: effizient, aber mit weniger Hingabe.
  • Wer von einem LLM erzeugte Kommentare als eigene ausgibt, sollte sofort gesperrt werden
    Natürlich sollte das nur gelten, wenn es sich um „offensichtlich AI-geschriebenen Text“ handelt. Der typische Stil von ChatGPT ist so markant, dass man ihn erkennen kann.

    • In letzter Zeit wird bei allem sofort behauptet, ein LLM habe es geschrieben; deshalb wäre so eine Regel schwer durchzusetzen.
    • Viele behaupten, man könne AI- und Menschentexte nicht unterscheiden. Aber eine Welt voller LLM-generierter Beiträge ist nicht lesenswert. Wenn ich die Meinung von ChatGPT wissen will, kann ich es direkt fragen.
    • Andererseits kann ein LLM für Nicht-Muttersprachler ein nützliches Hilfsmittel beim Schreiben sein. Wenn man Formulierungen mehrfach überarbeitet und verfeinert, kann der Text dadurch sogar sorgfältiger werden. Wenn es einem nicht gefällt, kann man ihn einfach downvoten.
    • Ein Maßstab nach dem Motto „Die Moderation wird es schon erkennen“ ist gefährlich. Es kann viele False Positives geben.
  • Letztlich sollte nach dem Wert des Textes selbst bewertet werden
    In einer Zeit, in der sich nicht mehr unterscheiden lässt, ob ein Autor Mensch oder AI ist, sollte nur die Qualität des Textes zählen. In der Datenflut wird die Fähigkeit wichtig, echte Perlen herauszufiltern.

    • Wenn HN menschenzentriert bleiben soll, braucht es ein lokal basiertes Vertrauensnetzwerk. Ich stelle mir eine Struktur vor, in der bei Offline-Treffen verifizierte Nutzer Inhalte kapitelweise kuratieren.
    • So etwas wie „die einzige Lösung“ zu behaupten, ist übertrieben. Es könnte andere Ansätze geben, die zumindest für Monate oder Jahre funktionieren.
    • Selbst wenn ein Text schlecht ist, kann man daraus neue Informationen gewinnen. Ein LLM könnte unerwartete Quellen kombinieren, und auch Codebeispiele könnten nützlich sein.
    • Am Ende ist meritokratisches Filtern die Antwort. Bei Musik, Videos und Code sind menschliche Werke immer noch besser. AI-Inhalte werden auf natürliche Weise verdrängt werden.
    • LLM-Inhalte werden weiterhin häufig gemeldet und entfernt. Nicht perfekt, aber die bisherigen Maßnahmen sind nicht völlig wirkungslos.
  • Das Problem ist nicht gelöst, nur weil man Beiträge auf alte Accounts beschränkt
    Bot-Betreiber werden Accounts einfach vorab erstellen und reifen lassen.

    • Man sollte nicht aus Perfektionsdrang eine gute Lösung verpassen. Schon allein ein Mindestalter für Accounts hat kurzfristig eine abschreckende Wirkung.
    • Tatsächlich läuft es schon jetzt in diese Richtung. Wenn man sich die Accounts von „Show HN“-Autoren ansieht, sind viele 50 bis 100 Tage alt. Es könnte realistisch sein, mindestens 25 bis 50 Karma für einen Show-HN-Beitrag zu verlangen.
    • Ich hätte auch gern einen karma-basierten Filter. Ich würde gern nur Beiträge von Accounts über einer bestimmten Punktzahl sehen.
    • Autonome AI-Agenten sind noch nicht so weit, langfristige Pläne zu machen.
    • Es ist wie ein Schloss am Fahrrad. Perfekte Abwehr ist unmöglich, aber eine abschreckende Wirkung gibt es trotzdem.
  • Ich denke, die Plattformen, die Reddit oder HN künftig ersetzen, werden auf Vertrauensnetzwerken basieren
    Man sieht dann nur Beiträge, die von vertrauenswürdigen Nutzern gepostet oder empfohlen wurden, und blendet Inhalte von nicht vertrauenswürdigen Nutzern aus.

    • Früher hatte Advogato ein ähnliches Verifizierungssystem. Die Qualität war gut, aber letztlich ist es an Spam und Problemen mit der Sichtbarkeit in Suchmaschinen gescheitert.
    • Interessant wären auch von Nutzern selbst kuratierte kostenpflichtige Newsletter. Für eine wöchentliche Zusammenfassung auf HN-Niveau wäre ich bereit, etwa 5 Euro im Monat zu zahlen.
    • Solche Strukturen bergen aber auch das Risiko, Echokammern zu verstärken. Es braucht Mechanismen, um unterschiedliche Perspektiven zu erhalten.
    • Am Ende könnte es auch einfach wie Facebook oder LinkedIn werden.
  • Solche Einschränkungen würden zwar helfen, Bots zu blockieren, könnten aber zugleich abweichende Meinungen unterdrücken
    HN ist immer noch einer der wenigen Orte, an denen auch Minderheitsmeinungen Platz haben. Mit mehr Regulierung könnte diese Vielfalt verschwinden.

  • Ich bin ein langjähriger stiller Leser und lese HN seit 2014
    Erst vor Kurzem habe ich zum ersten Mal selbst etwas gepostet und dabei stark auf AI zurückgegriffen. Wenn das trotz mehr als drei Stunden Arbeit als „AI-generiert“ eingeordnet würde, fände ich das unfair.
    Die Zulässigkeitskriterien für AI-erstellte Inhalte sind nicht klar.

    • Wenn ein Mensch das Ergebnis mit eigener Mühe erstellt hat, ist es durchaus lesenswert, auch wenn AI geholfen hat. Aber bloß vom Modell erzeugte Sätze sind Zeitverschwendung.
    • AI-generierter Code ist in Ordnung, aber wenn der Inhalt selbst im AI-Stil geschrieben ist, ist das langweilig. Formulierungen wie „No buzzwords“ kann ich inzwischen nicht mehr hören.
    • Wenn man schon drei Stunden investiert, warum dann nicht einfach selbst schreiben? Das wäre der Weg, Vertrauen zu bewahren.
    • Die meisten Menschen lesen Texte, die AI geschrieben hat, nicht gern. Selbst geschriebene Texte sind deutlich besser.
  • Irgendwann muss HN vielleicht sogar 1 US-Dollar pro Beitrag verlangen. Als Anti-Spam-Maßnahme könnte das Geld an Open Source gespendet werden.

    • Aber 1 Dollar ist für Werbung billig und für Community-Teilnahme teuer. Das hätte eher einen gegenteiligen Effekt.
    • Kreditkartenzahlung ist eine große Teilnahmehürde. Selbst 1 Cent fühlt sich belastend an.
    • Elon hatte für Twitter(X) eine ähnliche Idee, aber am Ende wurde die Bezahlschranke viel zu weit ausgeweitet. Etwa 1 Dollar pro Monat wäre vielleicht noch realistisch.
    • Das erinnert an die alte Checkliste zur Spam-Bekämpfung. Die meisten Ideen werden letztlich durch die Anpassungsfähigkeit der Spammer wirkungslos.
    • Mit 1 Dollar lässt sich Spam nicht verhindern. Dieser Betrag ist leicht tragbar.