Basierend auf echten Benchmark-Daten aus unseren eigenen Softwareprodukten bewerten wir jeden Monat aufs Neue die Leistungsfähigkeit verschiedener LLM-Modelle bei der Bewältigung spezifischer Herausforderungen. Wir untersuchen spezifische Kategorien wie Dokumentenverarbeitung, CRM-Integration, externe Integration, Marketingunterstützung und Codegenerierung.
LLM Benchmarks | September 2024
Der September war spannend! In dieser Ausgabe der TIMETOACT GROUP LLM Benchmarks sprechen wir darüber, wie der aktuelle Stand der KI-Technik vorangetrieben wird.
Die Highlights:
- ChatGPT o1-Modelle sind die besten, aber es gibt eine kleine Einschränkung.
- Gemini 1.5 Pro v002 - 3. Platz im Benchmark
- Benchmarking Qwen 2.5 und DeepSeek 2.5 - Lokales Modell holt zu GPT-4 Turbo auf
- Llama 3.2 - mittelmäßige Ergebnisse, aber auch hier gibt es eine kleine Einschränkung
- Lokale LLM-Trends im Zeitverlauf
Wie gut kann das Modell mit großen Dokumenten und Wissensdatenbanken arbeiten?
Wie gut unterstützt das Modell die Arbeit mit Produktkatalogen und Marktplätzen?
Kann das Modell problemlos mit externen APIs, Diensten und Plugins interagieren?
Wie gut kann das Modell bei Marketingaktivitäten unterstützen, z.B. beim Brainstorming, der Ideenfindung und der Textgenerierung?
Wie gut kann das Modell in einem gegebenen Kontext logisch denken und Schlussfolgerungen ziehen?
Kann das Modell Code generieren und bei der Programmierung helfen?
Die geschätzten Kosten für die Ausführung der Arbeitslast. Für cloud-basierte Modelle berechnen wir die Kosten gemäß der Preisgestaltung. Für lokale Modelle schätzen wir die Kosten auf Grundlage der GPU-Anforderungen für jedes Modell, der GPU-Mietkosten, der Modellgeschwindigkeit und des operationellen Overheads.
Die Spalte "Speed" gibt die geschätzte Geschwindigkeit des Modells in Anfragen pro Sekunde an (ohne Batching). Je höher die Geschwindigkeit, desto besser.
Archiv
Neugierig, wie sich die Scores entwickelt haben? Hier finden Sie alle Links zu bisher veröffentlichten Sprachmodell-Benchmarks.