Plötzlich musste ich an den Musik-Player denken, den ich vor 20 Jahren gebaut hatte. Das war ungefähr zu der Zeit, als der verflixte Standard-Musikplayer durch Rhythmbox ersetzt wurde … Die koreanischen mp3-ID3-Tags wurden kaputt dargestellt, also habe ich einen Upstream-Patch geschickt, aber er wurde nicht angenommen … Nach endlosem Patchen war ich so genervt, dass ich ihn schließlich selbst gebaut habe … https://github.com/iolo/liteamp
Ich versetze mein MacBook in den Ruhezustand und schlafe, und plötzlich geht mitten in der Nacht der Bildschirm an, sodass das ganze Zimmer hell erleuchtet ist. Ich bin oft davon aufgewacht und habe es dann einfach komplett heruntergefahren. Das ist doch schon seit Ewigkeiten umstritten, und immer noch...
Beim Einsatz von Link in Next.js gibt es derzeit Diskussionen darüber, dass für die Verwendung von React Server Components in der URL Parameter wie ?_rsc=1ip3i erzeugt und verarbeitet werden. Man hört auch, dass die CDN-Kosten dadurch stark gestiegen seien. Das Next.js-Entwicklungsteam soll sich des Problems bewusst sein, aber auf welche Weise und wann es gelöst wird, ist noch unklar.
Dem kann ich ziemlich gut zustimmen. Ich erlebe das zum Teil tatsächlich selbst gerade …
Und zugleich frage ich mich, wie sich dieser Punkt mit den Leistungsänderungen der Modelle weiterentwickeln wird.
Das ist so treffend, dass ich mir zustimmend auf die Knie klopfe und weiterziehe. Menschen, die keinen Code verstehen, sagen beim Vibe-Coding „Wow“, aber Menschen, die Code verstehen, sagen: „Warum? So?“
Das ist eine falsche Analogie. Ein wissenschaftlicher Taschenrechner liefert genauso wie ein Taschenrechner oder Excel je nach Eingabewerten exakte Ergebnisse. Wenn KI einfach genau das ausgeben würde, was der Nutzer erwartet, wäre sie wohl keine so grundlegend andere Technologie als die vielen neuen Technologien, die bisher aufgetaucht sind. Das ist auch einer der Gründe, warum die Sorgen über Sicherheit und Halluzinationen mit der Zeit größer werden. Gen AI lässt sich nicht kontrollieren. Man muss die Grenzen heutiger LLMs verstehen und sie an den passenden Stellen einsetzen.
Ich habe derzeit ein Pro-Abo. Vielleicht liegt es daran, dass ich es eher wenig genutzt habe, aber ich bin bei Perplexity, einschließlich Comet, bisher noch nie an ein Limit gestoßen. Es wirkt sogar lockerer als gedacht.
Da im Abo-Plan kein Ratelimit angegeben ist, weiß ich es nicht mit Sicherheit.
Zunächst einmal scheint die Beta-Release anders als bei Pro Max vergeben worden zu sein.
Das ist nur mein persönlicher Eindruck, aber wie Sie gesagt haben, scheinen die Abfragen in der Testphase keine Rolle zu spielen. Ich habe sogar bestätigt, dass die Arbeit funktioniert, wenn man 12 virtuelle Browser parallel auf einmal startet. Das ist schon erstaunlich.
Gab es bei euren Erfahrungen eine Nutzungsbeschränkung für Anfragen an den Comet-Agenten? Oder ist es wie bei anderen Tools so, dass während der Testphase die Anzahl der Anfragen keine Rolle spielt? Ich meine mich zu erinnern, dass es so etwas wie pro-max gab, deshalb frage ich aus Interesse nach.
Ich denke, es ist einfach eine Frage von Methode und Technik. Leute, die sagen, man solle KI gar nicht benutzen und stattdessen organisch von Hand coden, wirken auf mich wie Leute, die meinen, statt eines technischen Rechners sollte man lieber den Abakus klappern lassen oder statt Excel-Funktionen alles per Hand aufschreiben – als wäre das die einzig wahre Lehre.
Plötzlich musste ich an den Musik-Player denken, den ich vor 20 Jahren gebaut hatte. Das war ungefähr zu der Zeit, als der verflixte Standard-Musikplayer durch Rhythmbox ersetzt wurde … Die koreanischen mp3-ID3-Tags wurden kaputt dargestellt, also habe ich einen Upstream-Patch geschickt, aber er wurde nicht angenommen … Nach endlosem Patchen war ich so genervt, dass ich ihn schließlich selbst gebaut habe …
https://github.com/iolo/liteamp
2,5 Jahre lang so etwas Langweiliges?!
Ich versetze mein MacBook in den Ruhezustand und schlafe, und plötzlich geht mitten in der Nacht der Bildschirm an, sodass das ganze Zimmer hell erleuchtet ist. Ich bin oft davon aufgewacht und habe es dann einfach komplett heruntergefahren. Das ist doch schon seit Ewigkeiten umstritten, und immer noch...
Beim Einsatz von
Linkin Next.js gibt es derzeit Diskussionen darüber, dass für die Verwendung von React Server Components in der URL Parameter wie?_rsc=1ip3ierzeugt und verarbeitet werden. Man hört auch, dass die CDN-Kosten dadurch stark gestiegen seien. Das Next.js-Entwicklungsteam soll sich des Problems bewusst sein, aber auf welche Weise und wann es gelöst wird, ist noch unklar.Dem kann ich ziemlich gut zustimmen. Ich erlebe das zum Teil tatsächlich selbst gerade …
Und zugleich frage ich mich, wie sich dieser Punkt mit den Leistungsänderungen der Modelle weiterentwickeln wird.
Ich habe gehört, dass Rust entwickelt wurde, um Servo zu entwickeln … Hoffentlich wird Servo ein Erfolg.
Das ist so treffend, dass ich mir zustimmend auf die Knie klopfe und weiterziehe. Menschen, die keinen Code verstehen, sagen beim Vibe-Coding „Wow“, aber Menschen, die Code verstehen, sagen: „Warum? So?“
Man kann darauf aufspringen. Aber bauen kann man es nicht.
Muss ich da nur ich ständig an das Hurd-Projekt denken … oder täusche ich mich?
Der HN-Beitrag ist noch süßer als der eigentliche Artikel.
Der Zustand der Kommentare ist erbärmlich.
Heißt das, man kann ein Auto nie fahren, bis man seine gesamte innere Struktur vollständig verstanden hat?
Das ist eine falsche Analogie. Ein wissenschaftlicher Taschenrechner liefert genauso wie ein Taschenrechner oder Excel je nach Eingabewerten exakte Ergebnisse. Wenn KI einfach genau das ausgeben würde, was der Nutzer erwartet, wäre sie wohl keine so grundlegend andere Technologie als die vielen neuen Technologien, die bisher aufgetaucht sind. Das ist auch einer der Gründe, warum die Sorgen über Sicherheit und Halluzinationen mit der Zeit größer werden. Gen AI lässt sich nicht kontrollieren. Man muss die Grenzen heutiger LLMs verstehen und sie an den passenden Stellen einsetzen.
Ich habe derzeit ein Pro-Abo. Vielleicht liegt es daran, dass ich es eher wenig genutzt habe, aber ich bin bei Perplexity, einschließlich Comet, bisher noch nie an ein Limit gestoßen. Es wirkt sogar lockerer als gedacht.
Da im Abo-Plan kein Ratelimit angegeben ist, weiß ich es nicht mit Sicherheit.
Zunächst einmal scheint die Beta-Release anders als bei Pro Max vergeben worden zu sein.
https://perplexity.ai/help-center/en/…
Das ist nur mein persönlicher Eindruck, aber wie Sie gesagt haben, scheinen die Abfragen in der Testphase keine Rolle zu spielen. Ich habe sogar bestätigt, dass die Arbeit funktioniert, wenn man 12 virtuelle Browser parallel auf einmal startet. Das ist schon erstaunlich.
Oh, dass das unter termux funktioniert, sind gute Nachrichten.
Gab es bei euren Erfahrungen eine Nutzungsbeschränkung für Anfragen an den Comet-Agenten? Oder ist es wie bei anderen Tools so, dass während der Testphase die Anzahl der Anfragen keine Rolle spielt? Ich meine mich zu erinnern, dass es so etwas wie
pro-maxgab, deshalb frage ich aus Interesse nach.Offenbar ist man ziemlich sicher, Kernel schlagen und auf Seite 1 bei Google landen zu können.
Schon der Name ist misslungen …
Ich denke, es ist einfach eine Frage von Methode und Technik. Leute, die sagen, man solle KI gar nicht benutzen und stattdessen organisch von Hand coden, wirken auf mich wie Leute, die meinen, statt eines technischen Rechners sollte man lieber den Abakus klappern lassen oder statt Excel-Funktionen alles per Hand aufschreiben – als wäre das die einzig wahre Lehre.
Das scheint in Safari nicht zu funktionieren.