Ich habe mit diesem Produkt von Technojoy ein Upgrade gemacht und es zwei Monate lang genutzt, dann ist die SSD aus unbekannten Gründen ausgefallen. Ich konnte keinen separaten Kundendienst in Anspruch nehmen und blieb auf dem Schaden sitzen. Ich hinterlasse diese Bewertung als Referenz.
Nach langem Überlegen habe ich jetzt ein Produkt von iBoff gekauft und nutze es; bislang gibt es noch keine größeren Probleme.
Seit ich Django nutze, bin ich als jemand, der dadurch erlebt hat, wie sich meine Karriere komplett verbessert hat, sehr dankbar. Ich habe auch ein paar Mal zu Django beigetragen und hoffe, dass es noch lange geliebt wird haha
Ich denke, wenn es als Beleg Benchmark-Ergebnisse gäbe, könnten Entwickler dem eher zustimmen. Bei übermäßigem Framework-Coding wird eine Website zwar sicherlich langsamer, aber ich habe persönlich häufiger gesehen, dass bei Seitenwechseln innerhalb der Website mit Vanilla-Code erstellte Seiten langsamer sind als optimierte Framework-Seiten. Wenn es sich natürlich um eine Website handelt, die nur aus statischen Daten besteht, ist eine reine HTML-+CSS-Lösung vielleicht schneller, aber ich bin mir nicht sicher, wie häufig Websites heute sind, die nur aus statischen Daten bestehen.
Entwickler glauben, dass AI sie schneller macht.
Da die Recherche mit AI schneller wird, kann man die Qualität steigern; kommt dann nicht selbst bei derselben Aufgabe eine etwas höhere Qualität heraus? Vielleicht denken Entwickler, dass es schneller ist, mit Hilfe von AI das Qualitätsniveau des Ergebnisses zu erreichen, als allein dorthin zu gelangen.
Wenn sie AI von Anfang an nicht genutzt hätten, hätten sie vielleicht nur mit dem Wissen implementiert, das sie selbst bereits haben – das könnte ein Grund dafür sein, denke ich.
Ein noch größeres Problem als die Nutzer selbst sind die KI-Bots, die sich wie besessen auf Kommentare in Medien-SNS oder auf YouTube stürzen, wenn diese Medien mit einer bestimmten Partei gemeinsame Sache machen.
Ich glaube, Sie haben den erforderlichen Denkfähigkeitsbereich für die Aufgaben dieser 300 Nutzer etwas zu breit angesetzt. Wenn wirklich alles abgedeckt werden soll, von ganz allgemeinem Alltagswissen bis hin zu Fachartikeln oder fortgeschrittenen Themen, ist dieser Ansatz nachvollziehbar. Wenn man aber das tatsächliche Niveau der zu verarbeitenden Aufgaben betrachtet, dürfte in den meisten Fällen ein 30B-Modell mit angebundenem RAG ausreichen. Ist der Umfang nicht vielleicht zu groß geworden, weil Sie sämtliche Gewichte der zugrunde liegenden Open-Source-Modelle hochgezogen und sich für höhere Denkfähigkeit zu stark auf deren Funktionen gestützt haben?? Außerdem scheint es sinnvoll zu sein, unmittelbar verarbeitbare Aufgaben sowie Dokumentensuche und -exploration als getrennte Funktionen zu behandeln.
Auch beim KV-Cache für die gleichzeitige Verarbeitung von 300 Nutzern könnte der angesetzte Token-Bereich vielleicht zu hoch sein — wenn man pro Nutzer etwa 20.000 quantisierte Tokens ansetzt, sollte das mit genügend Spielraum nutzbar sein... ??
Wenn es sich bei diesen 300 Personen nicht gerade um promovierte Forschende handelt, die wissenschaftliche Arbeiten verfassen, könnte man das erforderliche Denk-Niveau eher auf Oberstufenschüler-Niveau (14–30B) ansetzen und den Prozess so konfigurieren, dass verschiedene interne Dokumente über eine RAG-Logik mit passendem CoT durchsucht werden. Dann könnte daraus vermutlich ein Pilotprojekt zu vertretbaren Kosten werden.
Ach so, ja, haha, ich wollte damit auch nicht die Aussage von jhk0530 widerlegen.
Ich denke auch, dass es kein Problem wäre, selbst wenn die Website nach personenbezogenen Daten fragt, sofern man klar dazuschreibt, dass man es selbst hochgeladen hat.
Im Gegenteil: Gerade weil das nicht offengelegt wurde, wirkt es auf mich eher noch unangenehmer.
Ah, ich wollte mich nicht auf den Inhalt des Links beziehen, sondern auf den Teil, in dem der Link gepostet wurde (einschließlich der Erfassung personenbezogener Daten). Danke für die Erklärung.
Ich habe durchaus schon Fälle gesehen, in denen jemand fremde Texte gepostet hat, als wären es seine eigenen,
aber in diesem Fall scheint es problematisch zu sein, weil dabei unter dem Vorwand, jemand anderes zu sein, personenbezogene Daten gesammelt wurden.
Ich habe mit diesem Produkt von Technojoy ein Upgrade gemacht und es zwei Monate lang genutzt, dann ist die SSD aus unbekannten Gründen ausgefallen. Ich konnte keinen separaten Kundendienst in Anspruch nehmen und blieb auf dem Schaden sitzen. Ich hinterlasse diese Bewertung als Referenz.
Nach langem Überlegen habe ich jetzt ein Produkt von iBoff gekauft und nutze es; bislang gibt es noch keine größeren Probleme.
Danke. Sensei!
Seit ich Django nutze, bin ich als jemand, der dadurch erlebt hat, wie sich meine Karriere komplett verbessert hat, sehr dankbar. Ich habe auch ein paar Mal zu Django beigetragen und hoffe, dass es noch lange geliebt wird haha
Genau das, was man gerade braucht....
seufz
https://de.news.hada.io/topic?id=21081 Dieser Beitrag ist mir in Erinnerung geblieben.
Der Link funktioniert nicht.
https://reddit.com/r/datascience/…
Oh, klingt gut. Früher habe ich dafür den
rename-Befehl verwendet, aber allein schon eine Vorschau und Undo-Unterstützung wären wirklich praktisch.2.5 ist schon seit geraumer Zeit draußen, warum also 1.5?
Ich denke, wenn es als Beleg Benchmark-Ergebnisse gäbe, könnten Entwickler dem eher zustimmen. Bei übermäßigem Framework-Coding wird eine Website zwar sicherlich langsamer, aber ich habe persönlich häufiger gesehen, dass bei Seitenwechseln innerhalb der Website mit Vanilla-Code erstellte Seiten langsamer sind als optimierte Framework-Seiten. Wenn es sich natürlich um eine Website handelt, die nur aus statischen Daten besteht, ist eine reine HTML-+CSS-Lösung vielleicht schneller, aber ich bin mir nicht sicher, wie häufig Websites heute sind, die nur aus statischen Daten bestehen.
Darf man personenbezogene Daten ohne Zustimmung erfassen?
Man müsste unter macOS doch nur ermöglichen, dass man ausschließlich Nvidia-GPUs nutzen kann ... hach.
Das Sammeln von Telefonnummern fühlt sich schon ziemlich unangenehm an. Es gibt auch keine Erklärung dazu, wie sie verwendet werden.
Ein noch größeres Problem als die Nutzer selbst sind die KI-Bots, die sich wie besessen auf Kommentare in Medien-SNS oder auf YouTube stürzen, wenn diese Medien mit einer bestimmten Partei gemeinsame Sache machen.
Ich glaube, Sie haben den erforderlichen Denkfähigkeitsbereich für die Aufgaben dieser 300 Nutzer etwas zu breit angesetzt. Wenn wirklich alles abgedeckt werden soll, von ganz allgemeinem Alltagswissen bis hin zu Fachartikeln oder fortgeschrittenen Themen, ist dieser Ansatz nachvollziehbar. Wenn man aber das tatsächliche Niveau der zu verarbeitenden Aufgaben betrachtet, dürfte in den meisten Fällen ein 30B-Modell mit angebundenem RAG ausreichen. Ist der Umfang nicht vielleicht zu groß geworden, weil Sie sämtliche Gewichte der zugrunde liegenden Open-Source-Modelle hochgezogen und sich für höhere Denkfähigkeit zu stark auf deren Funktionen gestützt haben?? Außerdem scheint es sinnvoll zu sein, unmittelbar verarbeitbare Aufgaben sowie Dokumentensuche und -exploration als getrennte Funktionen zu behandeln.
Auch beim KV-Cache für die gleichzeitige Verarbeitung von 300 Nutzern könnte der angesetzte Token-Bereich vielleicht zu hoch sein — wenn man pro Nutzer etwa 20.000 quantisierte Tokens ansetzt, sollte das mit genügend Spielraum nutzbar sein... ??
Wenn es sich bei diesen 300 Personen nicht gerade um promovierte Forschende handelt, die wissenschaftliche Arbeiten verfassen, könnte man das erforderliche Denk-Niveau eher auf Oberstufenschüler-Niveau (14–30B) ansetzen und den Prozess so konfigurieren, dass verschiedene interne Dokumente über eine RAG-Logik mit passendem CoT durchsucht werden. Dann könnte daraus vermutlich ein Pilotprojekt zu vertretbaren Kosten werden.
allwehear.com
Die Sprachzusammenfassung können Sie auf der oben genannten Website ansehen.
Mit darknamer dürfte man normalerweise schon gut auskommen, aber für Bereiche, in denen Performance wichtig ist, ist das hier wohl die bessere Wahl.
Ach so, ja, haha, ich wollte damit auch nicht die Aussage von jhk0530 widerlegen.
Ich denke auch, dass es kein Problem wäre, selbst wenn die Website nach personenbezogenen Daten fragt, sofern man klar dazuschreibt, dass man es selbst hochgeladen hat.
Im Gegenteil: Gerade weil das nicht offengelegt wurde, wirkt es auf mich eher noch unangenehmer.
Ah, ich wollte mich nicht auf den Inhalt des Links beziehen, sondern auf den Teil, in dem der Link gepostet wurde (einschließlich der Erfassung personenbezogener Daten). Danke für die Erklärung.
Ich habe durchaus schon Fälle gesehen, in denen jemand fremde Texte gepostet hat, als wären es seine eigenen,
aber in diesem Fall scheint es problematisch zu sein, weil dabei unter dem Vorwand, jemand anderes zu sein, personenbezogene Daten gesammelt wurden.