Ich finde, es hatte so etwas wie einen ikonischen Status unter den Diensten zum Speichern von Artikeln zum späteren Lesen, und nun wird es eingestellt. Schade.
Dort steht, dass 7 Stunden lang ohne Unterbrechung Refactoring durchgeführt wurde; wenn die Qualität stimmt, könnte man vielleicht sogar ein hochwertiges Outsourcing-Niveau erwarten, bei dem Entwickler es nach Feierabend laufen lassen und am nächsten Tag das Ergebnis prüfen 😂
Ich halte mich so lange wie möglich mit NumPy-Vektorisierung über Wasser, und wenn das nicht reicht, stecke ich eine GPU rein und wechsle zu CuPy oder torch. Wenn selbst das nicht reicht, schreibe ich Native-Code mit Cython oder so ... aber auf Native zu gehen sollte man, wenn möglich, lieber vermeiden. Das ist hart.
Solange man Deadlines und Anforderungen einhält, ist es beim Coden eigentlich nicht besonders wichtig, ob man KI benutzt hat oder ganz machohaft nicht einmal eine IDE, sondern nur den Editor.
Es ist noch eine optionale Funktion, und Multithreading wird mit hoher Wahrscheinlichkeit weiterhin optional bleiben. (zum Beispiel, indem man die Option aktiviert oder eine separate Installation verwendet usw.)
Ich selbst nutze Type auch kaum, und free-threading würde ich wegen Leistungsproblemen wohl nur in sehr begrenzten Fällen einsetzen.
Ein wesentlicher Grund für die Beliebtheit von Python war wohl auch, dass man sich um solche Überlegungen zum Multithreading nicht kümmern musste. Wenn man sogar so etwas berücksichtigen muss, wird es für normale Nutzer wohl zu einer Sprache, die sich nicht mehr leicht verwenden lässt.
Free-Threading Python – das ist wirklich alles andere als einfach. Es fühlt sich an, als würde man die Büchse der Pandora öffnen. Da besteht die Möglichkeit, dass alle möglichen Synchronisations-Bugs, die bisher verborgen waren, massenhaft auftauchen. Und zwar nur ganz gelegentlich und dann zur Laufzeit. Die Probleme, die bei der Multithreading-Entwicklung ohnehin schon lästig waren, könnten nun auch in Python richtig ernst werden. Wenn man sich nur schon die C-Familie ansieht, dann führen Stellen, an denen nicht thread-safe Funktionen verwendet werden, sofort zu Problemen.
Als ich das nur für eine neue Technologie hielt, habe ich es bloß mit einer Mischung aus Neugier betrachtet,
aber jetzt, wo Arbeitgeber unter Berufung auf solche Technologien tatsächlich Stellenabbau und Lohnkürzungen vornehmen, fühlt sich das wirklich nicht gut an..
Vermutlich ist das noch eine Übergangsphase, deshalb passieren wohl verschiedene Zwischenfälle.
Es könnte sich künftig zum Besseren entwickeln oder auch so bleiben – daher wird es sicher auch interessant sein zu beobachten, wie es sich verändert, haha
Ups, anscheinend hat 9to5mac den Zugriff für Bots komplett gesperrt.
Ich habe es manuell zusammengefasst. Den Prompt passe ich zwar weiterhin an, aber aktuell liegt er bei etwa 4.000 Zeichen (800 Token).
Ich habe benutzerdefinierte Übersetzungen, einen Excel-Datei-Loader, virtuelle Listen usw. beigetragen. Ich hoffe, dass es auch in Korea viel genutzt wird. ^^
Ich nutze Gemini auf GitHub für PR-Reviews, und genau solche Fälle kommen tatsächlich öfter vor.
Zum Beispiel wird in der Zeile direkt darüber bereits auf null geprüft, aber dann bekomme ich in der Review den Hinweis, ich solle genau diese Zeile direkt darüber noch einmal hinzufügen, weil es angeblich ohne null-Prüfung verwendet wird.
Das Hintergrundwissen, die Arbeitsmuster, die erwarteten Ergebnisse und deren Format, die man bei der Arbeit ganz natürlich kennenlernt,
kann man schon gar nicht vollständig in Prompts aufschreiben; und selbst wenn es möglich wäre,
kommt mir der Gedanke, dass es realistischer wäre, solche Dinge nicht mit einer komplexen KI wie einem LLM, sondern mit traditionellen Algorithmen aus der Zeit vor dem Deep Learning zu automatisieren.
Das ist interessant, haha.
Unabhängig vom Fehler ist die Qualität der GeekNews-Zusammenfassungen gut, daher frage ich mich immer, welcher Prompt verwendet wird.
Wenn man es ausprobiert, haben Vibe-Coding und Coding-Agenten zwar definitiv praktische Seiten, aber damit es wirklich bequem wird, muss man die Prompts extrem präzise formulieren, und je nach Charakter des Projekts gibt es von vornherein viele Projekte, bei denen es nicht gut funktioniert. Wenn die Funktionen wie bei einem Webserver mit MSA-Struktur klar und fein aufgeteilt sind, arbeitet es gut, aber wenn viele Module in einem großen Monolithen miteinander verwoben sind und man versucht, komplexe Logik mit KI zu ändern, muss man die Tasks sehr akribisch planen und gute Prompts schreiben.
Ich finde, es hatte so etwas wie einen ikonischen Status unter den Diensten zum Speichern von Artikeln zum späteren Lesen, und nun wird es eingestellt. Schade.
Dort steht, dass 7 Stunden lang ohne Unterbrechung Refactoring durchgeführt wurde; wenn die Qualität stimmt, könnte man vielleicht sogar ein hochwertiges Outsourcing-Niveau erwarten, bei dem Entwickler es nach Feierabend laufen lassen und am nächsten Tag das Ergebnis prüfen 😂
Ich halte mich so lange wie möglich mit NumPy-Vektorisierung über Wasser, und wenn das nicht reicht, stecke ich eine GPU rein und wechsle zu CuPy oder torch. Wenn selbst das nicht reicht, schreibe ich Native-Code mit Cython oder so ... aber auf Native zu gehen sollte man, wenn möglich, lieber vermeiden. Das ist hart.
Das ist praktisch eine vollständige Niederlage für Apple.
Solange man Deadlines und Anforderungen einhält, ist es beim Coden eigentlich nicht besonders wichtig, ob man KI benutzt hat oder ganz machohaft nicht einmal eine IDE, sondern nur den Editor.
Ich habe Ihnen eine E-Mail geschickt. Danke.
Es ist noch eine optionale Funktion, und Multithreading wird mit hoher Wahrscheinlichkeit weiterhin optional bleiben. (zum Beispiel, indem man die Option aktiviert oder eine separate Installation verwendet usw.)
Ich selbst nutze Type auch kaum, und free-threading würde ich wegen Leistungsproblemen wohl nur in sehr begrenzten Fällen einsetzen.
Welche Zukunft haben sie bitte gesehen, dass sie so eine Entscheidung treffen...
Ein wesentlicher Grund für die Beliebtheit von Python war wohl auch, dass man sich um solche Überlegungen zum Multithreading nicht kümmern musste. Wenn man sogar so etwas berücksichtigen muss, wird es für normale Nutzer wohl zu einer Sprache, die sich nicht mehr leicht verwenden lässt.
Free-Threading Python – das ist wirklich alles andere als einfach. Es fühlt sich an, als würde man die Büchse der Pandora öffnen. Da besteht die Möglichkeit, dass alle möglichen Synchronisations-Bugs, die bisher verborgen waren, massenhaft auftauchen. Und zwar nur ganz gelegentlich und dann zur Laufzeit. Die Probleme, die bei der Multithreading-Entwicklung ohnehin schon lästig waren, könnten nun auch in Python richtig ernst werden. Wenn man sich nur schon die C-Familie ansieht, dann führen Stellen, an denen nicht thread-safe Funktionen verwendet werden, sofort zu Problemen.
Früher gab es das auch schon. Den M Editor …
https://www.edm2.com/index.php/Microsoft_Editor
Oh...!
Als ich das nur für eine neue Technologie hielt, habe ich es bloß mit einer Mischung aus Neugier betrachtet,
aber jetzt, wo Arbeitgeber unter Berufung auf solche Technologien tatsächlich Stellenabbau und Lohnkürzungen vornehmen, fühlt sich das wirklich nicht gut an..
Vermutlich ist das noch eine Übergangsphase, deshalb passieren wohl verschiedene Zwischenfälle.
Es könnte sich künftig zum Besseren entwickeln oder auch so bleiben – daher wird es sicher auch interessant sein zu beobachten, wie es sich verändert, haha
Ups, anscheinend hat 9to5mac den Zugriff für Bots komplett gesperrt.
Ich habe es manuell zusammengefasst. Den Prompt passe ich zwar weiterhin an, aber aktuell liegt er bei etwa 4.000 Zeichen (800 Token).
Ich habe benutzerdefinierte Übersetzungen, einen Excel-Datei-Loader, virtuelle Listen usw. beigetragen. Ich hoffe, dass es auch in Korea viel genutzt wird. ^^
Ich nutze Gemini auf GitHub für PR-Reviews, und genau solche Fälle kommen tatsächlich öfter vor.
Zum Beispiel wird in der Zeile direkt darüber bereits auf
nullgeprüft, aber dann bekomme ich in der Review den Hinweis, ich solle genau diese Zeile direkt darüber noch einmal hinzufügen, weil es angeblich ohnenull-Prüfung verwendet wird.Das Hintergrundwissen, die Arbeitsmuster, die erwarteten Ergebnisse und deren Format, die man bei der Arbeit ganz natürlich kennenlernt,
kann man schon gar nicht vollständig in Prompts aufschreiben; und selbst wenn es möglich wäre,
kommt mir der Gedanke, dass es realistischer wäre, solche Dinge nicht mit einer komplexen KI wie einem LLM, sondern mit traditionellen Algorithmen aus der Zeit vor dem Deep Learning zu automatisieren.
Das ist interessant, haha.
Unabhängig vom Fehler ist die Qualität der GeekNews-Zusammenfassungen gut, daher frage ich mich immer, welcher Prompt verwendet wird.
Wenn man es ausprobiert, haben Vibe-Coding und Coding-Agenten zwar definitiv praktische Seiten, aber damit es wirklich bequem wird, muss man die Prompts extrem präzise formulieren, und je nach Charakter des Projekts gibt es von vornherein viele Projekte, bei denen es nicht gut funktioniert. Wenn die Funktionen wie bei einem Webserver mit MSA-Struktur klar und fein aufgeteilt sind, arbeitet es gut, aber wenn viele Module in einem großen Monolithen miteinander verwoben sind und man versucht, komplexe Logik mit KI zu ändern, muss man die Tasks sehr akribisch planen und gute Prompts schreiben.