Und wozu sind all diese vielen Frameworks eigentlich gut? Die unzähligen Unternehmen, die bisher gescheitert sind, sind vermutlich nicht daran gescheitert, dass sie diese Dinge nicht kannten. Zum Lernen scheint es aber gut zu sein. Für schnelle Überprüfungen, Vorschläge usw.
Hast du die Hacker-News-Richtlinien überhaupt gelesen? Solche Beiträge sollte man wirklich vermeiden. Diese Haltung à la „Der baut doch auch Mist, warum gehst du dann nur auf mich los?“ ist ziemlich kindisch.
Es gibt so viel Nachfrage danach, etwas günstig zu erstellen und dann zu bewerben,
aber wenn man gute Dinge entdeckt, speichert und verwaltet man sie meist nur für sich selbst.
Ich glaube, gute Informationen oder Nachrichten lassen sich von Natur aus nur schwer gut verbreiten.
Es wäre schön, wenn verschiedene Sprachen in einem einzigen groß angelegten Experiment verglichen würden,
aber selbst Unternehmen führen Tests in diesem Umfang kaum durch, und wenn ein Community-Mitglied so etwas macht, ist ein wirklich präzises Experiment wohl schwierig.
Ich habe an vielen Stellen gesucht, aber es ist nicht leicht, wirklich brauchbare Informationen zu finden.
Das ist eigentlich auch verständlich, denn wer würde schon auf eigene Kosten ein sauber geplantes Experiment durchführen, um herauszufinden, welche Sprache besser ist?
Ich fand auch, dass das Experiment viele Grenzen hat, aber ich war trotzdem froh, dass es überhaupt einmal versucht wurde..^^
Das scheint ein gutes Beispiel dafür zu sein, was passiert, wenn man nicht einmal einfache erfolgsbezogene Leistungskriterien vorgibt. Die Coding-Agenten, die ich bisher verwendet habe, zielen auf die Problemlösung selbst ab, optimieren ihre Leistung aber ohne expliziten Vorab-Prompt oder Validierungsschleife fast nie eigenständig. Man muss der KI Anweisungen geben, als würde man eine Coding-Testaufgabe stellen. Gerade wenn es wie hier sogar eine Baseline gibt, Leistungsanforderungen nicht ausdrücklich zu formulieren und trotzdem ein optimales Performance-Ergebnis zu erwarten, kann man auch als eine Art Nachlässigkeit der Person betrachten, die die KI benutzt.
Bedauerlicherweise ist das für die überwältigende Mehrheit, also die Verbraucher, definitiv eine schlechte Nachricht...
Auch Samsung steckt im Endkundengeschäft gerade einiges an Schaden ein.
Zwischen theoretischer Möglichkeit und tatsächlichem Einsatzgebiet gibt es Unterschiede -> Die Benchmarks, die zur Berechnung theoretischer Möglichkeiten verwendet werden, haben Grenzen + es gibt noch ein kulturelles Nachhinken, weil bestehende Workflows noch nicht für KI optimiert sind. Persönlich denke ich, dass die Benchmarks Grenzen haben dürften.
Rückgang der Einstiegsquote in neue Beschäftigung -> deutet darauf hin, dass Entwicklungsberufe weniger arbeitsintensiv geworden sind.
Es war ein Handwerks-Flohmarkt, aber seit irgendeinem Tag wirkt es so, als bestünde mehr als die Hälfte aus Waren, die von AliExpress und Temu herangeschafft wurden.
Ich weiß noch nicht, ob das wie der Fehler am Zwischenpunkt nur eine weitere vorübergehende Methode ist, aber ich teile hier ein Tool, mit dem man zusammen mit KI PR-Reviews durchführen sowie Code verstehen und Bugs beheben kann.
Ich nutze es bei Side Projects, wenn ich die von der KI vorgenommenen Codeänderungen nicht verstehe.
„In diesem Artikel zerlegt der Autor von KI generierten Text und legt die sechs wichtigsten Anzeichen von ‚AI slop‘ sowie die dahinter verborgene Struktur offen. Es geht nicht nur um eine bloße Aufzählung von Wörtern. Von übertriebener Wortwahl wie ‚delve‘ oder ‚tapestry‘ bis hin zu Satzmustern, die falsche Tiefgründigkeit erzeugen, wird behandelt, warum solche Texte nicht wie von Menschen geschrieben wirken. Im Kern geht es darum, vielfältiges und unvollkommenes Schreiben wiederzugewinnen.“
Und wozu sind all diese vielen Frameworks eigentlich gut? Die unzähligen Unternehmen, die bisher gescheitert sind, sind vermutlich nicht daran gescheitert, dass sie diese Dinge nicht kannten. Zum Lernen scheint es aber gut zu sein. Für schnelle Überprüfungen, Vorschläge usw.
Hast du die Hacker-News-Richtlinien überhaupt gelesen? Solche Beiträge sollte man wirklich vermeiden. Diese Haltung à la „Der baut doch auch Mist, warum gehst du dann nur auf mich los?“ ist ziemlich kindisch.
Es gibt so viel Nachfrage danach, etwas günstig zu erstellen und dann zu bewerben,
aber wenn man gute Dinge entdeckt, speichert und verwaltet man sie meist nur für sich selbst.
Ich glaube, gute Informationen oder Nachrichten lassen sich von Natur aus nur schwer gut verbreiten.
Haha, man sollte das mit dem Eingeständnis lesen, dass ich als Committer der Programmiersprache Ruby vielleicht ein wenig voreingenommen bin.
Es wäre schön, wenn verschiedene Sprachen in einem einzigen groß angelegten Experiment verglichen würden,
aber selbst Unternehmen führen Tests in diesem Umfang kaum durch, und wenn ein Community-Mitglied so etwas macht, ist ein wirklich präzises Experiment wohl schwierig.
Ich habe an vielen Stellen gesucht, aber es ist nicht leicht, wirklich brauchbare Informationen zu finden.
Das ist eigentlich auch verständlich, denn wer würde schon auf eigene Kosten ein sauber geplantes Experiment durchführen, um herauszufinden, welche Sprache besser ist?
Ich fand auch, dass das Experiment viele Grenzen hat, aber ich war trotzdem froh, dass es überhaupt einmal versucht wurde..^^
Vielen Dank für das gute Material. Ich habe Ihnen bei Wikidocs auch ein kleines Geschenk gemacht, damit Sie sich einen Kaffee gönnen können.
Ich nutze auf dem HX370 das 27B-Modell, und die Ergebnisse sind ganz ordentlich.
Das scheint ein gutes Beispiel dafür zu sein, was passiert, wenn man nicht einmal einfache erfolgsbezogene Leistungskriterien vorgibt. Die Coding-Agenten, die ich bisher verwendet habe, zielen auf die Problemlösung selbst ab, optimieren ihre Leistung aber ohne expliziten Vorab-Prompt oder Validierungsschleife fast nie eigenständig. Man muss der KI Anweisungen geben, als würde man eine Coding-Testaufgabe stellen. Gerade wenn es wie hier sogar eine Baseline gibt, Leistungsanforderungen nicht ausdrücklich zu formulieren und trotzdem ein optimales Performance-Ergebnis zu erwarten, kann man auch als eine Art Nachlässigkeit der Person betrachten, die die KI benutzt.
Bedauerlicherweise ist das für die überwältigende Mehrheit, also die Verbraucher, definitiv eine schlechte Nachricht...
Auch Samsung steckt im Endkundengeschäft gerade einiges an Schaden ein.
Den Kommentaren nach zu urteilen, waren Sie damals also schon weggegangen und haben an KakaoTalk gearbeitet.
Soweit ich weiß, ist die Umsetzungsrichtung eine andere als bei OpenCode.
Einige Vermutungen sind möglich.
Es war ein Handwerks-Flohmarkt, aber seit irgendeinem Tag wirkt es so, als bestünde mehr als die Hälfte aus Waren, die von AliExpress und Temu herangeschafft wurden.
Sollte man das als gute Nachricht für die koreanische Industrie sehen ... hm.
https://app.devin.ai/review
Ich weiß noch nicht, ob das wie der Fehler am Zwischenpunkt nur eine weitere vorübergehende Methode ist, aber ich teile hier ein Tool, mit dem man zusammen mit KI PR-Reviews durchführen sowie Code verstehen und Bugs beheben kann.
Ich nutze es bei Side Projects, wenn ich die von der KI vorgenommenen Codeänderungen nicht verstehe.
„In diesem Artikel zerlegt der Autor von KI generierten Text und legt die sechs wichtigsten Anzeichen von ‚AI slop‘ sowie die dahinter verborgene Struktur offen. Es geht nicht nur um eine bloße Aufzählung von Wörtern. Von übertriebener Wortwahl wie ‚delve‘ oder ‚tapestry‘ bis hin zu Satzmustern, die falsche Tiefgründigkeit erzeugen, wird behandelt, warum solche Texte nicht wie von Menschen geschrieben wirken. Im Kern geht es darum, vielfältiges und unvollkommenes Schreiben wiederzugewinnen.“
Ob die Erfahrung wohl besser ist als bei opencode?
Wow ... du hast wirklich, **ins Schwarze getroffen.**Ich nutze Zed, weil ich mich von der VSCode-Basis lösen möchte.
Oh, es wäre schön, wenn auch eine koreanische Version herauskäme.