Bei GPT-5 bekomme ich meist nur Antworten, die über 10 Sekunden nachdenken. Da denkt man sich: Dafür hätte ich wohl schon drei- oder viermal nachgefragt? Und gleichzeitig auch: Ah, dann hätte ich wohl einfach mehr Fragen stellen sollen.
Ob es technisch wirklich herausragend ist, weiß ich nicht; es wirkt einfach nur wie eine Methode, durch mehr Zeitaufwand bessere Ergebnisse zu liefern.

 

Mir geht es auch so, die Stimmung ist einfach großartig … Da in der Nähe der Schule ein Fluss ist, weiß ich gar nicht, was für ein großes Glück es ist, dass man aus dem Graduiertenstudium heraus wirklich ganz schnell in die Natur flüchten kann …

 

Ein Produkt, das man in Korea wahrscheinlich nicht kaufen kann ..?

 

Wow, ich habe mich für SFF interessiert, und jetzt gibt es einen Desktop, den ich als Fertigsystem kaufen möchte … Verlockend.

 

Schon anhand der Unterlagen ist die Qualität wirklich sehr hoch. Vielen Dank fürs Teilen.

 

Wenn man Texte darüber liest, wie man AI nutzen sollte, kommt man am Ende oft zu einer ähnlichen Richtung. Erstaunlich ist dabei, dass sich das auch mit klassischer Softwaretechnik in Teilen deckt. Vielleicht liegt es daran, dass man AI letztlich mit Entwickler:innen gleichsetzen kann und die Frage dann zu „Wie kann man mit mehreren Entwickler:innen möglichst gut entwickeln?“ wird?

 

Dass gute Ergebnisse herauskommen, bedeutet das dann, dass man den von jemand anderem bereits geschriebenen Code gut referenziert hat?

 

Vor Kurzem habe ich es ebenfalls gelesen. Es ist gut aufbereitet, sodass schon allein die Präsentationsunterlagen sehr hilfreich waren.

 

Eine Präsentation von Herrn Hayongho, auf die man sich verlassen kann. Unbedingt ansehen.

 

Ich stimme der Meinung auf HN zu, dass es eher einem reinen Hobby näherkommt. Auch wenn man es hier und da aufpoliert, kann man nicht dieselbe Bequemlichkeit und Geschwindigkeit wie bei einem kommerziellen Produkt erreichen.

 

Das klingt so, als würden hohe Kosten anfallen.
Wenn S3 in einem Service innerhalb derselben Region übertragen wird, ist das kostenlos. Wenn Sie beispielsweise mit s3grep auf einer EC2 in derselben Region wie S3 nach S3 suchen, ist das ebenfalls kostenlos.

 

Was der Autor gemacht hat, haben ohnehin längst schon alle gemacht, also prahl nicht mit Überflüssigem.
Viel sinnvoller wäre ein Beitrag, der begründet, warum du im Vergleich zwischen den LLMs zu dem Schluss gekommen bist, dass Claude am besten war.
Zum Beispiel mit einem Vergleich des tatsächlich erzeugten Codes, der Häufigkeit von Compiler-Fehlern, der Stabilität beim Erfassen des Kontexts usw.
Tatsächlich ist Gemini bei der Fähigkeit, den Kontext zu erfassen, am stärksten (1 Million Token).

 

Das ist auch gut. Ein etwas enttäuschender Punkt ist allerdings, dass ich es sehr bevorzuge, wenn sich Bilder unter Windows beim Einfügen oder Ähnlichem allein durch Kopieren und Einfügen eines Bereichs-Screenshots leicht einfügen lassen. Die ausgereiften Funktionen und Abläufe gefallen mir aber. Persönlich mag ich den zuvor vorgestellten Editor dieses Projekts: https://de.news.hada.io/topic?id=19611. Ich nutze ihn sehr gut. In einer angepassten Server-Version.

 

Für manche könnte das nützlich sein, haha.

 

Genau genommen ist das keine Linux-Distribution, sondern eher ein Arch-Linux-Konfigurationsskript für Hardcore-Entwickler.

 

Vielen Dank, dass Sie den Text so sorgfältig gelesen haben und mir so gutes Feedback gegeben haben :)

 

Die AWS-Rechnung im nächsten Monat wird wohl ganz schön hoch ausfallen 😂

 

Er hat nur völlig nutzlose Dinge gebaut und den Text unnötig lang ausgewalzt.

 

Meiner Meinung nach ... scheint schon das Konzept selbst ein anderes zu sein.