Damit sich die UI/UX-Landschaft wirklich verändert, braucht es wohl auch auf der Plattformseite Versuche, sich vom Formfaktor von Handy oder Monitor zu lösen.
Welche Programmiersprache passt am besten zu Coding-Agenten?
Als Backend-Entwickler, der bisher hauptsächlich Java & Kotlin sowie Spring verwendet hat, finde ich die Arbeit mit Cursor oft etwas frustrierend..
Ich refaktoriere gerade eine alte React-App zu Astro.
Im Text wird der „integrierte Kontext“ hervorgehoben. Man sollte sich bewusst sein, dass ein „integrierter Kontext“ zwar beim schnellen Aufbau eines Services hilft, aber irgendwann zu technischer Schuld werden kann.
Aus Sicht der langfristigen Wartbarkeit eines Services ist eine „lose Kopplung unabhängiger Module“ besser als eine „integrierte enge Kopplung“.
Und Astro ist dafür das flexibelste Framework.
Die Erfahrung, mit einem LLM zu „chatten“, fühlt sich an, als würde man ein Computerterminal aus den 80ern benutzen. Eine GUI (grafische Benutzeroberfläche) ist noch nicht erfunden, aber ich denke, einige ihrer Eigenschaften lassen sich bereits vorhersagen.
Sie wird visuell sein (wie frühere GUIs). Denn visuelle Informationen (Fotos, Diagramme, Animationen usw. – Sehen statt Lesen) sind wie eine zehspurige Autobahn ins Gehirn. Das Sehen hat die höchste Bandbreite bei der Informationsaufnahme, und etwa ein Drittel der Rechenleistung des Gehirns ist der visuellen Verarbeitung zugewiesen.
Sie wird generativ sein und sich je nach Eingabebedingungen verändern. Mit anderen Worten: Die GUI wird in Echtzeit passend zum Prompt des Nutzers erzeugt, und alle Elemente werden für ihren unmittelbaren Zweck existieren und angeordnet sein.
Eine etwas offenere Frage ist, in welchem Ausmaß sie einen „prozeduralen“ Charakter haben wird. Am einen Extrem könnte man sich vorstellen, dass ein einziges gigantisches Diffusion-Modell die gesamte Ausgabe-Canvas auf einmal erzeugt, und am anderen Ende steht eine Seite voller (prozedural erzeugter) React-Komponenten (z. B. Bilder, Diagramme, Animationen, Schaubilder usw.). Ich denke, es wird eine Mischung aus beidem sein, aber Letzteres wird das Grundgerüst bilden.
Aber ich wage schon jetzt die Behauptung, dass mit gegen unendlich gehenden Fähigkeiten eine fließende, magisch wirkende, vergängliche und interaktive 2D-Canvas-GUI ihre endgültige Form sein wird. Und ich denke, das beginnt bereits langsam (z. B. Code-Blöcke/Highlighting, LaTeX-Blöcke, Fett/Kursiv/Listen/Tabellen in Markdown, Emojis und etwas ambitionierter der Artifacts-Tab, Mermaid-Diagramme oder vollständigere Apps). Natürlich ist das alles noch sehr früh und primitiv.
Iron Man und in gewissem Maß auch Star Trek/Minority Report sind gute Beispiele für KI/UI in der Popkultur, die diese Richtung zeigen.
Bei „Botox“ musste ich erst mal eine ganze Weile lesen, um zu verstehen, was gemeint ist lol
Das ist witzig
Ich hoffe, dass bald eine Zeit ohne Grenzen kommt
Wenn das LLM den System-Prompt selbst ändern könnte, müsste der Mensch wohl auch die Regeln für diese Richtlinie festlegen; am Ende bleiben dann vielleicht nur so etwas wie die drei Robotergesetze übrig.
Das Anhängen von Webseiten-Links und YouTube-Links ist alles möglich, und auch Zusammenfassungen werden als Text ausgegeben. Schauen Sie sich den Bereich zum Hinzufügen von Quellen an.
Anfragen lassen sich auch per Prompt stellen.
Wenn ich so darüber nachdenke, schaue ich zwar gelegentlich mal bei Hacker News vorbei, aber es ist wirklich schon sehr lange her, dass ich TechCrunch direkt besucht habe.
LaTeX: Wenn man es als Docker-Image ausführt, erreicht man nicht die Geschwindigkeit von Typst.
Google Docs: Überraschenderweise ist die Bearbeitung nicht so flexibel.
Wenn man diese beiden Punkte berücksichtigt, ist das eine neue Option.
Ich hatte eifrig nach einem Plugin gesucht, das in neovim Autovervollständigung auf Cursor-Niveau unterstützt, aber offenbar war das nur mit einem eigenen Modell möglich..
Ich nutze täglich Cline mit Antrophic (oder QWEN) und Github Copilot Code Completion. Wenn in Cline nur die Code-Completion-Funktion (Tab-Vervollständigung) ordentlich funktionieren würde, gäbe es wohl keinen Grund, Copilot zu verwenden. An Plan&Act habe ich mich früher als an den Agenten von Copilot gewöhnt, daher nutze ich den Agenten nicht besonders oft; ich probiere ihn aber bewusst aus und wäge noch ab. Ein weiterer Vorteil von Cline ist, dass man auch separate LLMs nutzen kann.
Zusätzlich gibt es, wenn es nur einmal täglich beendet wird, CloudType; für den Aufbau eines wirklich schlanken Servers mit Node Café24 (500 Won pro Monat); und für das Deployment statischer Websites Netlify, Cloudflare usw. 🙇♂️
Damit sich die UI/UX-Landschaft wirklich verändert, braucht es wohl auch auf der Plattformseite Versuche, sich vom Formfaktor von Handy oder Monitor zu lösen.
Welche Programmiersprache passt am besten zu Coding-Agenten?
Als Backend-Entwickler, der bisher hauptsächlich Java & Kotlin sowie Spring verwendet hat, finde ich die Arbeit mit Cursor oft etwas frustrierend..
Ich refaktoriere gerade eine alte React-App zu Astro.
Im Text wird der „integrierte Kontext“ hervorgehoben. Man sollte sich bewusst sein, dass ein „integrierter Kontext“ zwar beim schnellen Aufbau eines Services hilft, aber irgendwann zu technischer Schuld werden kann.
Aus Sicht der langfristigen Wartbarkeit eines Services ist eine „lose Kopplung unabhängiger Module“ besser als eine „integrierte enge Kopplung“.
Und Astro ist dafür das flexibelste Framework.
Stimmt schon, haha
https://x.com/karpathy/status/1917920257257459899
Es könnte sich lohnen, auch einmal die Einschätzung von Andrej Karpathy zum Vergleich heranzuziehen.
Die Erfahrung, mit einem LLM zu „chatten“, fühlt sich an, als würde man ein Computerterminal aus den 80ern benutzen. Eine GUI (grafische Benutzeroberfläche) ist noch nicht erfunden, aber ich denke, einige ihrer Eigenschaften lassen sich bereits vorhersagen.
Sie wird visuell sein (wie frühere GUIs). Denn visuelle Informationen (Fotos, Diagramme, Animationen usw. – Sehen statt Lesen) sind wie eine zehspurige Autobahn ins Gehirn. Das Sehen hat die höchste Bandbreite bei der Informationsaufnahme, und etwa ein Drittel der Rechenleistung des Gehirns ist der visuellen Verarbeitung zugewiesen.
Sie wird generativ sein und sich je nach Eingabebedingungen verändern. Mit anderen Worten: Die GUI wird in Echtzeit passend zum Prompt des Nutzers erzeugt, und alle Elemente werden für ihren unmittelbaren Zweck existieren und angeordnet sein.
Eine etwas offenere Frage ist, in welchem Ausmaß sie einen „prozeduralen“ Charakter haben wird. Am einen Extrem könnte man sich vorstellen, dass ein einziges gigantisches Diffusion-Modell die gesamte Ausgabe-Canvas auf einmal erzeugt, und am anderen Ende steht eine Seite voller (prozedural erzeugter) React-Komponenten (z. B. Bilder, Diagramme, Animationen, Schaubilder usw.). Ich denke, es wird eine Mischung aus beidem sein, aber Letzteres wird das Grundgerüst bilden.
Aber ich wage schon jetzt die Behauptung, dass mit gegen unendlich gehenden Fähigkeiten eine fließende, magisch wirkende, vergängliche und interaktive 2D-Canvas-GUI ihre endgültige Form sein wird. Und ich denke, das beginnt bereits langsam (z. B. Code-Blöcke/Highlighting, LaTeX-Blöcke, Fett/Kursiv/Listen/Tabellen in Markdown, Emojis und etwas ambitionierter der Artifacts-Tab, Mermaid-Diagramme oder vollständigere Apps). Natürlich ist das alles noch sehr früh und primitiv.
Iron Man und in gewissem Maß auch Star Trek/Minority Report sind gute Beispiele für KI/UI in der Popkultur, die diese Richtung zeigen.
War Cline kostenpflichtig? Ist es nicht kostenlos?
Hardware-zentrierte softwaredefinierte Fahrzeuge
Stimmt.
Letztlich bearbeitet man selbst im MBA nur Fallstudien.
Am Schreibtisch hat eben alles seine Grenzen.
Bei „Botox“ musste ich erst mal eine ganze Weile lesen, um zu verstehen, was gemeint ist lol
Das ist witzig
Ich hoffe, dass bald eine Zeit ohne Grenzen kommt
Wenn das LLM den System-Prompt selbst ändern könnte, müsste der Mensch wohl auch die Regeln für diese Richtlinie festlegen; am Ende bleiben dann vielleicht nur so etwas wie die drei Robotergesetze übrig.
Anthropic veröffentlicht den „System Prompt“, der Claude antreibt
Der direkt veröffentlichte System Prompt ist nicht besonders umfangreich. Der toolbezogene Teil scheint zu fehlen.
Wow, dann ist also ein Nomadenleben in der Mongolei möglich!
Das Anhängen von Webseiten-Links und YouTube-Links ist alles möglich, und auch Zusammenfassungen werden als Text ausgegeben. Schauen Sie sich den Bereich zum Hinzufügen von Quellen an.
Anfragen lassen sich auch per Prompt stellen.
Wow ...
Wenn ich so darüber nachdenke, schaue ich zwar gelegentlich mal bei Hacker News vorbei, aber es ist wirklich schon sehr lange her, dass ich TechCrunch direkt besucht habe.
Typst ist eine Software, die schon mehrfach vorgestellt wurde, aber dass man sie für so einen Zweck nutzen kann, wusste ich nicht.
LaTeX: Wenn man es als Docker-Image ausführt, erreicht man nicht die Geschwindigkeit von Typst.
Google Docs: Überraschenderweise ist die Bearbeitung nicht so flexibel.
Wenn man diese beiden Punkte berücksichtigt, ist das eine neue Option.
Ich hatte eifrig nach einem Plugin gesucht, das in
neovimAutovervollständigung auf Cursor-Niveau unterstützt, aber offenbar war das nur mit einem eigenen Modell möglich..Ich nutze täglich Cline mit Antrophic (oder QWEN) und Github Copilot Code Completion. Wenn in Cline nur die Code-Completion-Funktion (Tab-Vervollständigung) ordentlich funktionieren würde, gäbe es wohl keinen Grund, Copilot zu verwenden. An Plan&Act habe ich mich früher als an den Agenten von Copilot gewöhnt, daher nutze ich den Agenten nicht besonders oft; ich probiere ihn aber bewusst aus und wäge noch ab. Ein weiterer Vorteil von Cline ist, dass man auch separate LLMs nutzen kann.
Hinweis: https://x.com/addyosmani/status/1886316192136310838
Zusätzlich gibt es, wenn es nur einmal täglich beendet wird, CloudType; für den Aufbau eines wirklich schlanken Servers mit Node Café24 (500 Won pro Monat); und für das Deployment statischer Websites Netlify, Cloudflare usw. 🙇♂️
Danke 👏