- Meta hat auf der LlamaCon 2025 Llama API, Sicherheitstools, Unterstützung für wirkungsvolle Projekte, Kooperationen zur Geschwindigkeitsverbesserung und mehr angekündigt
Llama API (Preview veröffentlicht)
- Bietet Modell-Tuning- und Evaluierungsfunktionen auf Basis des Modells Llama 3.3 8B
- Ausgabe von API-Schlüsseln, Playground-Zugang, Python-/Typescript-SDK werden unterstützt
- Kompatibel mit dem OpenAI SDK, bestehende Apps können portiert werden
- Sicherheitsorientierte Richtlinie: Nutzer-Prompts und Antworten werden nicht für das Training der KI verwendet, und über die API erstellte Modelle bleiben im Eigentum der Nutzer und können frei gehostet werden
- Für die Llama API anmelden
Fast-Inference-Partnerschaften
- Zusammenarbeit mit Cerebras und Groq, um eine Umgebung für schnelle Inferenz bereitzustellen
- Innerhalb der API lässt sich schnelle Verarbeitung einfach durch die Auswahl des Modells ausprobieren
Neue Integrationen für Llama Stack
- Durch die Zusammenarbeit mit NVIDIA NeMo, IBM, Red Hat, Dell und anderen wird die integrierte Deployment-Umgebung für Unternehmens-KI erweitert
- Geplant ist, Llama Stack als standardisierten Enterprise-Deployment-Stack auszubauen
Llama-Sicherheitstools und Schutzprogramm
- Llama Guard 4, LlamaFirewall, Prompt Guard 2, CyberSecEval 4 und weitere wurden veröffentlicht
- Neues Llama Defenders Program: Partnerprogramm für Führungsstärke im Bereich AI-Sicherheit
- Siehe auch die separate Ankündigung der Open-Source-Sicherheitstools
Open Source ist die Zukunft
- Llama entwickelt sich weiter als nicht-proprietäre, portable und zugängliche AI-Plattform
- Nutzern wird freie Anpassung und Deployment-Freiheit garantiert
- Kontinuierliche Unterstützung für Unternehmen wie Einzelpersonen wird zugesagt
- Meta will ein dauerhafter Partner für die Demokratisierung von AI und anhaltende Innovation in der Branche sein
Noch keine Kommentare.