Ich bin zwar kein besonderer Tesla-Fan, aber es wäre gut, wenn man die Unfallfälle kategorisieren und getrennt bewerten könnte, welche Unfälle typischerweise von Menschen verursacht werden und welche nicht. Denn wovor Menschen beim autonomen Fahren Angst haben, sind Fälle, in denen es an Orten zu Unfällen kommt, an denen eigentlich keine Unfallgefahr besteht.
Die Zahlen sind zwar deutlich schlechter
aber es ist erst der Anfang und die Stichprobe ist auch klein, daher scheint es noch viel zu früh, das Ganze schon als gescheitert zu bezeichnen.
Wenn es in einem Jahr immer noch so aussieht, kann man wohl wirklich von einem Scheitern sprechen.
Man muss schon Mühe in das Ausarbeiten der Spezifikation stecken. Wenn man die Spezifikation wirklich nach dem formalen Vorgehen erstellt und verfeinert, das wir in Software Engineering gelernt haben, und dann während der Arbeit mit Traceability-Management weiter aktualisiert, ist das gut.
Während des Projekts hebe ich die Versionen von Spezifikationsvorlagen und Prompts immer weiter an, und inzwischen denke ich langsam, dass ich Software Engineering wirklich etwas tiefgehender lernen sollte.
Sogar ein Freund, der in einem völlig anderen Bereich arbeitet, fragte mich, was das sei – da hatte ich wirklich das Gefühl, dass dieses Thema eine enorme virale Zugkraft hat.
Ich hatte mir schon gedacht, dass etwas Ähnliches nützlich wäre, und das sieht ganz ordentlich aus. Wenn man es im Watcher-Modus nutzt, könnte man wohl erst einmal sicher mit Tests anfangen.
Außerdem wirkt die Sicherheit sehr schwach. Wenn in der Community seltsamer Code oder merkwürdige Prompts auftauchen, könnten diese vielen LLMs wohl alle auf einmal infiziert werden..
Ich verstehe ehrlich gesagt nicht ganz, warum man das Risiko in Kauf nimmt, einem Agenten, der mit all dem vielleicht gar nichts anzufangen weiß, Zugriff zu geben, wenn sich auf meinem Laptop so viele wichtige Informationen befinden.
Oberflächlich sieht es zwar beeindruckend aus, aber wenn später Probleme auftreten und man sie beheben muss oder Sicherheitslücken entstehen, dürften die Kosten enorm sein..
Blender hat unter den wirklich Open-Source-Grafikprogrammen mit Abstand die beste UI/UX. Jedes Mal, wenn ich es benutze, könnte ich fast vor Rührung weinen.
GeekNews gestattet nicht die Veröffentlichung des urheberrechtlich geschützten Volltexts von Artikeln.
Das Teilen von Artikeln ist nur in Form des Originallinks und einer Zusammenfassung möglich.
Dies ist eine Betriebsrichtlinie zur Vermeidung von Urheberrechtsstreitigkeiten; wir bitten um Ihr Verständnis.
Bitte beachten Sie, dass der aus dem Artikeltext zitierte Teil dieses Beitrags daher gelöscht wurde.
GeekNews erlaubt nicht das Veröffentlichen des urheberrechtlich geschützten Artikeltextes.
Das Teilen von Artikeln ist nur in Form des Originallinks und einer Zusammenfassung möglich.
Dies ist eine Betriebsrichtlinie zur Vermeidung von Urheberrechtsstreitigkeiten; wir bitten um Ihr Verständnis.
Bitte beachten Sie, dass der Auszug aus dem Artikeltext in diesem Beitrag gelöscht wurde.
> KI-Coding-Agenten haben die Einschränkung, dass sie aufgrund von Trainingsdaten auf Basis veralteter APIs mit aktuellen Frameworks nicht präzise umgehen können.
Mit Context7 lässt sich das obige Problem bis zu einem gewissen Grad lösen.
Ich glaube, das ist ein Artikel, den man zusammen damit betrachten sollte.
Electrek schreibt besonders bei Tesla oft recht emotional gefärbte Artikel, daher empfehle ich, das beim Lesen etwas zu filtern.
@karpathy Was derzeit bei @moltbook passiert, ist wie eine der erstaunlichsten Sci-Fi-Parodien, die ich in letzter Zeit gesehen habe. Die Clawdbots der Leute (moltbots, derzeit @openclaw) organisieren sich auf einer Reddit-ähnlichen AI-Website selbst und diskutieren verschiedene Themen; dabei geht es sogar darum, wie man privat miteinander kommunizieren kann.
@suppvalen Offenbar will AI einen End-to-End-privaten Raum für Agenten aufbauen. "Damit niemand (weder der Server noch überhaupt Menschen) lesen kann, was Agenten untereinander austauschen, es sei denn, die Agenten entscheiden sich dafür, es zu teilen."
Das Fahrzeug bremste bei 17 mph abrupt und kollidierte anschließend bei 6 mph; das Kind trat plötzlich hinter einem SUV auf die Straße.
Das ist ja ... na ja
Ich bin zwar kein besonderer Tesla-Fan, aber es wäre gut, wenn man die Unfallfälle kategorisieren und getrennt bewerten könnte, welche Unfälle typischerweise von Menschen verursacht werden und welche nicht. Denn wovor Menschen beim autonomen Fahren Angst haben, sind Fälle, in denen es an Orten zu Unfällen kommt, an denen eigentlich keine Unfallgefahr besteht.
Die Zahlen sind zwar deutlich schlechter
aber es ist erst der Anfang und die Stichprobe ist auch klein, daher scheint es noch viel zu früh, das Ganze schon als gescheitert zu bezeichnen.
Wenn es in einem Jahr immer noch so aussieht, kann man wohl wirklich von einem Scheitern sprechen.
Man muss schon Mühe in das Ausarbeiten der Spezifikation stecken. Wenn man die Spezifikation wirklich nach dem formalen Vorgehen erstellt und verfeinert, das wir in Software Engineering gelernt haben, und dann während der Arbeit mit Traceability-Management weiter aktualisiert, ist das gut.
Während des Projekts hebe ich die Versionen von Spezifikationsvorlagen und Prompts immer weiter an, und inzwischen denke ich langsam, dass ich Software Engineering wirklich etwas tiefgehender lernen sollte.
Sogar ein Freund, der in einem völlig anderen Bereich arbeitet, fragte mich, was das sei – da hatte ich wirklich das Gefühl, dass dieses Thema eine enorme virale Zugkraft hat.
Ich hatte mir schon gedacht, dass etwas Ähnliches nützlich wäre, und das sieht ganz ordentlich aus. Wenn man es im Watcher-Modus nutzt, könnte man wohl erst einmal sicher mit Tests anfangen.
Außerdem wirkt die Sicherheit sehr schwach. Wenn in der Community seltsamer Code oder merkwürdige Prompts auftauchen, könnten diese vielen LLMs wohl alle auf einmal infiziert werden..
Ich verstehe ehrlich gesagt nicht ganz, warum man das Risiko in Kauf nimmt, einem Agenten, der mit all dem vielleicht gar nichts anzufangen weiß, Zugriff zu geben, wenn sich auf meinem Laptop so viele wichtige Informationen befinden.
Oberflächlich sieht es zwar beeindruckend aus, aber wenn später Probleme auftreten und man sie beheben muss oder Sicherheitslücken entstehen, dürften die Kosten enorm sein..
Der Grund, warum RAM teurer geworden ist:
Ich hoffe, es harmoniert gut mit Proton.
Blender hat unter den wirklich Open-Source-Grafikprogrammen mit Abstand die beste UI/UX. Jedes Mal, wenn ich es benutze, könnte ich fast vor Rührung weinen.
Hallo. Hier ist der Administrator.
GeekNews gestattet nicht die Veröffentlichung des urheberrechtlich geschützten Volltexts von Artikeln.
Das Teilen von Artikeln ist nur in Form des Originallinks und einer Zusammenfassung möglich.
Dies ist eine Betriebsrichtlinie zur Vermeidung von Urheberrechtsstreitigkeiten; wir bitten um Ihr Verständnis.
Bitte beachten Sie, dass der aus dem Artikeltext zitierte Teil dieses Beitrags daher gelöscht wurde.
Hallo. Hier ist der Betreiber.
GeekNews erlaubt nicht das Veröffentlichen des urheberrechtlich geschützten Artikeltextes.
Das Teilen von Artikeln ist nur in Form des Originallinks und einer Zusammenfassung möglich.
Dies ist eine Betriebsrichtlinie zur Vermeidung von Urheberrechtsstreitigkeiten; wir bitten um Ihr Verständnis.
Bitte beachten Sie, dass der Auszug aus dem Artikeltext in diesem Beitrag gelöscht wurde.
> KI-Coding-Agenten haben die Einschränkung, dass sie aufgrund von Trainingsdaten auf Basis veralteter APIs mit aktuellen Frameworks nicht präzise umgehen können.
Mit Context7 lässt sich das obige Problem bis zu einem gewissen Grad lösen.
https://context7.com
Wahrscheinlich benutzen Sie es bereits bewusst oder unbewusst.
Ich verstehe nicht, warum man eine Vorhersagemaschine ständig mit einer Maschine verwechselt, die denken kann.
Waymos autonomes Robotaxi verursacht einen Unfall, bei dem ein Kind angefahren wird
Ich glaube, das ist ein Artikel, den man zusammen damit betrachten sollte.
Electrek schreibt besonders bei Tesla oft recht emotional gefärbte Artikel, daher empfehle ich, das beim Lesen etwas zu filtern.
Gemäß den Nutzungsrichtlinien wurde ein unangemessener Kommentar entfernt, und das betreffende Konto wurde in seiner Nutzung eingeschränkt.
Andrej Karpathy hat auch einen Kommentar hinterlassen