Dieser Benchmark-Bericht wird spannend! Wir starten mit Leistungs-Benchmarks und schließen mit einer Prognose des Nvidia-Aktienkurses ab (dies stellt keine Finanzberatung dar).
Zweite Generation Benchmark - Frühe Vorschau
DeepSeek r1
Kosten- und Preisentwicklung von DeepSeek r1
LLM Benchmark Gen2 - Vorschau
In den letzten Monaten haben wir intensiv daran gearbeitet, unsere erste Generation des LLM-Benchmarks zu überarbeiten. Gen1 konzentrierte sich auf die Automatisierung von Geschäftsprozessen, basierte jedoch auf Erkenntnissen aus abgeschlossenen KI-Anwendungsfällen des Jahres 2023.
In den letzten Monaten der Benchmark-Ergebnisse zeigte sich dies durch eine Sättigung in den oberen Reihen (zu viele Modelle mit hohen Bewertungen). Zudem waren die Testfälle inzwischen etwas veraltet. Sie spiegelten die neuesten Erkenntnisse aus einem Jahr unserer KI-Forschung und der Zusammenarbeit mit Unternehmen in der EU und den USA nicht mehr angemessen wider.
![](/TTA_AT/Blog/AI/Benchmarks%20Jan%202025/35587/image-thumb__35587__TextCombo-image-size-1-1/01_llm-benchmarks-jan_2025.png)
Wir haben eine neue Generation des Benchmarks entwickelt, um sowohl neue LLM-Funktionen als auch aktuelle Erkenntnisse zu integrieren. Das Timing hätte nicht besser sein können: o1 pro wurde veröffentlicht und stellte die Komplexität des Benchmarks auf die Probe, während DeepSeek r1 kurz darauf das Konzept des "accessible reasoning" einführte.
Hier ist die frühe Vorschau auf unseren v2-Benchmark. Auf den ersten Blick mag er unscheinbar wirken, aber er vergleicht bereits deterministisch die Modelle anhand komplexer Geschäftsanwendungen und ermöglicht jedem Modell, vor der Antwortfindung deduktiv zu überlegen.
![](/TTA_AT/Blog/AI/Benchmarks%20Jan%202025/35589/image-thumb__35589__TextCombo-image-size-1-1/02_llm-benchmarks-jan_2025.png)
Wir werden die Analyse von DeepSeek r1 gleich besprechen, aber zunächst konzentrieren wir uns auf den Benchmark selbst.
Hier ist der aktuelle Fortschritt sowie eine Übersicht der geplanten Erweiterungen:
Aktueller Fortschritt:
- ~10 % der relevanten KI-Anwendungsfälle sind derzeit in v2 abgebildet.
- Mit zunehmender Abdeckung werden die Ergebnisse repräsentativer für moderne KI-/LLM-Anwendungen in Unternehmen.
Strukturierte Outputs:
- Die Verwendung strukturierter Outputs (präzises Befolgen eines vordefinierten Schemas) ist ein gängiger Branchenstandard.
- Diese Methode wird von OpenAI, Google und lokalen Inferenzlösungen unterstützt.
- Lokal einsetzbare Modelle mit eingeschränktem Decoding werden berücksichtigt, wo immer möglich.
Fokus auf geschäftliche Aufgaben:
- Der aktuelle Schwerpunkt liegt auf Aufgaben, bei denen mehrere logische Schritte in einem einzigen Prompt ausgeführt werden müssen.
- Nicht jedes komplexe KI-Projekt benötigt kreative Autonomie – bei Regulierungen und Compliance kann dies sogar kontraproduktiv sein.
- Kleinere, lokal einsetzbare Modelle, die einen prüfbaren Argumentationspfad verfolgen, sind oft effektiver.
Zukünftige Erweiterungen:
- Einfachere logische Aufgaben werden schrittweise wieder integriert.
- Eine neue Kategorie „Planerstellung“ wird hinzugefügt, um workflow-orientierte LLM-Nutzung genauer zu analysieren.
- Das Ziel: Prüfen, ob leistungsstarke, cloudbasierte Modelle durch einfachere lokale Modelle ersetzt werden können, die einem strukturierten Workflow folgen.
Einblicke für Kund:innen und Partner:innen:
- Viele Kund:innen und Partner:innen haben um Zugang zu Benchmark-Inhalten gebeten, um Inspiration und Leitlinien für ihre Projekte zu erhalten.
- Im Gegensatz zu v1 wird v2 eine Reihe von nicht eingeschränkten Testfällen enthalten, die auf Anfrage geteilt werden können.
Derzeitige Kategorien:
- Nur wenige Kategorien von Testfällen sind bisher integriert.
- Weitere Kategorien werden mit der Weiterentwicklung des Benchmarks hinzugefügt.
Die vollständige Umsetzung wird noch ein paar Monate in Anspruch nehmen, aber der schwierigste Teil – die Zusammenführung vieler beweglicher Elemente in ein einziges, kohärentes Framework – ist geschafft!
Ab diesem Punkt wird sich der LLM Benchmark v2 stetig weiter verbessern.
DeepSeek r1
Sprechen wir über das Offensichtliche: DeepSeek r1, das neue chinesische Modell, ist deutlich schneller und günstiger als OpenAIs erfolgreiches o1-Modell. Neben der Möglichkeit, lokal betrieben zu werden (kann von jeder Person heruntergeladen werden), soll es auch intelligenter sein.
Kein Wunder, dass die Aktienkurse nach diesen Entwicklungen eingebrochen sind.
Beginnen wir mit den Schlussfolgerungsfähigkeiten. Laut unseren Benchmarks zeigt DeepSeek r1 beeindruckende Leistungen:
- Es übertrifft fast alle Varianten der 4o-Modelle von OpenAI.
- Es ist besser als jedes getestete Open-Source-Modell.
- Dennoch bleibt es hinter OpenAI’s o1 und GPT-4o (Ausgabe August 2024) zurück.
![](/TTA_AT/Blog/AI/Benchmarks%20Jan%202025/35588/image-thumb__35588__TextCombo-image-size-1-1/03_llm-benchmarks-jan_2025.png)
Denken Sie daran, dass das Basis-Modell von DeepSeek r1 ein Mixture of Experts-Modell mit insgesamt 685 Milliarden Parametern ist (die alle auf einer GPU untergebracht werden müssen). Vergleicht man die Fortschritte in den Benchmarks mit anderen großen Open-Source-Modellen, scheint der Fortschritt in etwa proportional zur Modellgröße zu sein.
![](/TTA_AT/Blog/AI/Benchmarks%20Jan%202025/35590/image-thumb__35590__TextCombo-image-size-1-1/04_llm-benchmarks-jan_2025.png)
Sehen Sie den kleineren Elefanten im Raum, der dieses Muster durchbricht? Es ist die Destillation der Fähigkeiten von DeepSeek r1 auf Llama 70B! Dieses lokal einsetzbare Modell steht zwar nicht im Mittelpunkt der öffentlichen Diskussion, könnte jedoch tatsächlich der größte Durchbruch sein.
Wenn es möglich ist, jedes solide Basis-Modell durch die Destillation von r1 zu verbessern und ihm vor der Antwortfindung Raum für Überlegungen zu geben, eröffnet dies eine alternative Option: gängige Modelle schneller und effizienter zu machen.
![](/TTA_AT/Blog/AI/Benchmarks%20Jan%202025/35591/image-thumb__35591__TextCombo-image-size-1-1/05_llm-benchmarks-jan_2025.png)
Zusammenfassung
Das DeepSeek r1-Modell ist sehr leistungsfähig, jedoch noch nicht gut genug, um direkt mit OpenAIs o1-Modell zu konkurrieren. Die erste Herausforderung besteht darin, OpenAIs 4o-Modelle konsequent zu übertreffen, bevor es sich größeren Konkurrenten stellen kann.
Die Technologie hinter DeepSeek r1 ist vielversprechend und wird wahrscheinlich eine neue Generation effizienter Schlussfolgerungsmodelle hervorbringen, die auf Destillationsansätzen basieren. Dies stimmt mit einer Prognose überein, die wir im Dezember gemacht haben: KI-Anbieter werden zunehmend Schlussfolgerungsfähigkeiten ähnlich den OpenAI o1-Modellen integrieren, um die Modellleistung schnell zu verbessern. Die Methode ist einfach – mehr Rechenleistung bereitstellen, dem Modell mehr Zeit für Überlegungen vor der Antwort geben und höhere Gebühren für die API verlangen. Dieser Ansatz ermöglicht Leistungssteigerungen, ohne dass große Investitionen in die Entwicklung neuer Basismodelle erforderlich sind.
Wir gehen jedoch davon aus, dass der aktuelle Hype um teure, intelligente Schlussfolgerungsmodelle allmählich nachlassen wird. Ihre Praktikabilität ist begrenzt, weshalb kostengünstigere Alternativen auf den Plan treten werden.
Kosten- und Preisentwicklung von DeepSeek r1
DeepSeek r1 bietet ein kosteneffizientes Preismodell. Die Kosten betragen nur 0,55 $ pro 1 Million Eingabe-Tokens, während 1 Million Ausgabe-Tokens 2,19 $ kosten. Diese erschwinglichen Preise machen es zu einer wettbewerbsfähigen Option, insbesondere für diejenigen, die lokal einsetzbare KI-Modelle suchen.
![](/TTA_AT/Blog/AI/Benchmarks%20Jan%202025/35592/image-thumb__35592__TextCombo-image-size-1-1/06_llm-benchmarks-jan_2025.png)
Das ist deutlich günstiger als die Preise von OpenAI o1 oder 4o. Lassen Sie uns die Unterschiede übersichtlich in einer Tabelle darstellen.
Wir berechnen zudem die Gesamtkosten für ein typisches Geschäftsprojekt mit einem 10:1-Verhältnis—10 Millionen Eingabe-Tokens und 1 Million Ausgabe-Tokens. Dieses Verhältnis ist typisch für Systeme zur Datenextraktion und RAG-basierte Anwendungen (Retrieval-Augmented Generation), die bei unseren KI-Anwendungsfällen dominieren.
Model | 1M Input Tokens | 1M Output Tokens | Cost of 10M:1M |
---|---|---|---|
DeepSeek r1 | $0.55 | $2.19 | $7.69 |
OpenAI gpt-4o | $2.5 | $10 | $35 |
OpenAI o1 | $15.0 | $60 | $210 |
An diesem Punkt können wir mit Sicherheit sagen, dass die Preise von DeepSeek r1 die Konkurrenz weit hinter sich lassen. Es ist nicht nur „25-mal günstiger als OpenAI o1“ bei typischen Geschäftsaufgaben – es ist sogar 27-mal günstiger.
Doch der Teufel steckt im Detail. Der aktuell angebotene Preis spiegelt aus verschiedenen Gründen möglicherweise nicht den tatsächlichen Marktpreis oder die realen Betriebskosten wider.
Die zentrale Frage ist: Kann DeepSeek die gesamte Nachfrage überhaupt bewältigen? Laut ihrer Statusseite befindet sich die API seit dem 27. Januar im „Major Outage“-Modus. Das bedeutet, dass sie aktuell nicht alle LLM-Anfragen zum beworbenen Preis bedienen können.
![](/TTA_AT/Blog/AI/Benchmarks%20Jan%202025/35593/image-thumb__35593__TextCombo-image-size-1-1/07_llm-benchmarks-jan_2025.png)
Wenn man sich die finanziellen Anreize von DeepSeek als Unternehmen genauer ansieht, könnte man feststellen, dass die Gewinnerzielung möglicherweise nicht ihr Hauptziel ist. DeepSeek gehört einem chinesischen High-Flyer-Hedgefonds (siehe Wikipedia), und theoretisch könnten sie mehr Geld verdienen, indem sie auf fallende Nvidia-Aktien setzen. Aber lassen wir diese Theorie beiseite.
Es ist jedoch schon eine interessante Zufälligkeit, dass der 27. Januar, an dem ihre API in den „Major Outage“-Modus überging, genau der Tag ist, an dem auch die Nvidia-Aktie abgestürzt ist.
![](/TTA_AT/Blog/AI/Benchmarks%20Jan%202025/35586/image-thumb__35586__TextCombo-image-size-1-1/08_llm-benchmarks-jan_2025.png)
Um die Preisentwicklung von LLMs genauer zu betrachten, können wir einen Blick auf einen beliebten LLM-Marktplatz namens OpenRouter werfen.
OpenRouter bündelt bequem mehrere Anbieter hinter einer einzigen API und schafft damit eine Art offenen Markt für LLM-as-a-Service-Dienste. Da DeepSeek r1 ein Open-Source-Modell ist, können mehrere Anbieter das gleiche Modell zu ihren eigenen Preisen anbieten, wodurch sich Angebot und Nachfrage natürlich ausbalancieren.
Hier sind die aktuellen Preise der am besten bewerteten Anbieter von DeepSeek r1 zum Zeitpunkt der Erstellung dieses Artikels („nitro“ bezieht sich auf Anbieter, die bestimmte Arbeitslasten bewältigen können):
![](/TTA_AT/Blog/AI/Benchmarks%20Jan%202025/35594/image-thumb__35594__TextCombo-image-size-1-1/09_llm-benchmarks-jan_2025.png)
Wie Sie sehen, versucht DeepSeek, seine API zu den beworbenen Preisen anzubieten, jedoch mit einigen Nuancen:
Als Kostenreduktionsmaßnahme beschränkt DeepSeek die Eingabe- und Ausgabegrößen auf einen Bruchteil dessen, was andere Anbieter ermöglichen. Vergleichen Sie die Werte für „Kontext“ und „Maximale Ausgabegröße“, wobei zu beachten ist, dass DeepSeek in seinen ursprünglichen Preisen ein 32K Reasoning-Token-Limit sowie ein 8K Ausgabe-Limit beinhaltet.
Normalerweise leitet OpenRouter Anfragen zum günstigsten Anbieter weiter, wobei sich die Marktmechanismen durchsetzen. Die DeepSeek r1 API konnte jedoch die aktuelle Nachfrage nicht bewältigen und wurde mit folgender Meldung explizit herabgestuft: „Benutzer:innen haben eine verschlechterte Qualität gemeldet. Vorübergehend herabgestuft.“
Alternativanbieter, die stärker auf Gewinn ausgerichtet sind, verlangen spürbar höhere Preise pro Eingabe- und Ausgabe-Token. Trotz der höheren Kosten können sie die Nachfrage bedienen und auch bei steigendem Durchsatz eine hohe Stabilität gewährleisten.
![](/TTA_AT/Blog/AI/Benchmarks%20Jan%202025/35596/image-thumb__35596__TextCombo-image-size-1-2/10_llm-benchmarks-jan_2025.png)
![](/TTA_AT/Blog/AI/Benchmarks%20Jan%202025/35595/image-thumb__35595__TextCombo-image-size-1-2/11_llm-benchmarks-jan_2025.png)
Der aktuelle Marktpreis für stabilen Zugriff auf DeepSeek r1 liegt effektiv bei 7 bis 8 $ pro 1 Mio. Eingabe-/Ausgabe-Tokens. Für eine durchschnittliche 10:1-Arbeitslast (10 Mio. Eingabe-Tokens und 1 Mio. Ausgabe-Tokens) ergibt dies Gesamtkosten von 77 $.
Das ist doppelt so teuer wie die Nutzung eines ähnlich leistungsfähigen GPT-4o, dessen Kosten für dieselbe Arbeitslast bei 35 $ liegen.
Diese Schätzungen basieren auf den aktuellen Marktpreisen und spiegeln nicht unbedingt die tatsächlichen Kosten wider, wenn man DeepSeek r1 selbst betreiben würde. Ein Blick auf den neuesten Nvidia-Bericht zeigt jedoch, dass DeepSeek r1 auf der neuesten NVIDIA HGX H200 mit einer Geschwindigkeit von 3.872 Tokens pro Sekunde betrieben werden kann, wobei native FP8-Inferenz zur Leistungssteigerung genutzt wird.
Wenn wir eine 2-jährige Mietkostenrate von 16 $ pro Stunde für eine HGX H200 in der Region Silicon Valley annehmen und die optimierte Softwareumgebung unter idealen Bedingungen betreiben, ergibt sich ein Preis von 1,15 $ pro 1 Mio. Eingabe-/Ausgabe-Tokens. Für eine typische 10:1-Arbeitslast bedeutet das 12,65 $ pro Workload, was höher ist als die derzeit beworbenen 7,69 $ von DeepSeek r1.
DeepSeek scheint jedoch keinen Zugang zur neuesten Nvidia-Hardware wie der HGX H200 zu haben. Stattdessen sind sie auf H800 GPUs beschränkt, eine Exportversion der H100 mit reduzierter Speicherbandbreite, was die tatsächlichen Betriebskosten weiter erhöhen könnte.
Egal, wie wir die Zahlen betrachten, das Ergebnis bleibt gleich:
Wir sehen keinen Weg, wie DeepSeek r1 25-mal günstiger als OpenAI’s o1 sein könnte, es sei denn, der Preis wird stark subventioniert. Subventionierte Preise passen jedoch langfristig nicht gut zur hohen Marktnachfrage.
In unserem frühen v2 LLM-Benchmark zeigt DeepSeek r1 eine Schlussfolgerungsfähigkeit, die mit einem älteren OpenAI GPT-4o vom August 2024 vergleichbar ist. Es erreicht derzeit noch nicht das Niveau von OpenAIs o1.
Außerdem sind sowohl OpenAIs o1 als auch 4o multi-modale Modelle, die nativ mit Bildern und komplexen Dokumenten arbeiten können, während DeepSeek r1 nur Text-Eingaben akzeptiert. Das trennt die Modelle noch deutlicher, insbesondere bei dokumentbasierten Geschäftsprozessen.
In diesem Zusammenhang scheint die kürzliche Reaktion des Aktienmarktes auf ein vielversprechendes, aber begrenztes chinesisches Textmodell, das mit einer älteren OpenAI-Version vergleichbar und zu subventionierten Preisen angeboten wird, etwas übertrieben. Die Zukunft liegt in multi-modalen Basismodellen, die über bloße Textfähigkeiten hinausgehen und Nvidia sowie seinen Partnern beträchtliche Wertschöpfungspotenziale bieten.
Aktienmarktprognose (keine Finanzberatung): Nvidia wird sich erholen und dank realer Workloads und nachhaltiger Kostendynamiken schnell wieder wachsen.
Gleichzeitig bleibt das Modell DeepSeek r1 interessant und könnte OpenAIs Konkurrenten helfen, aufzuholen (zumal es kürzlich keine bedeutenden Innovationen von Anthropic oder Sonnet gab). Allerdings könnte DeepSeek r1 selbst bald an Bedeutung verlieren, da seine Destillationsversionen bereits stärker in unserem neuen Benchmark v2 abschneiden.
![](/TTA_AT/Landingpages/Enterprise%20RAG%20Challenge/35262/image-thumb__35262__StyleSectionBegin-image-background/background.jpg)
![](/TTA_AT/Landingpages/Enterprise%20RAG%20Challenge/35265/image-thumb__35265__TextCombo-image-size-1-1/5-logo_and_star.png)
Die Enterprise RAG Challenge ist ein freundlicher Wettbewerb, bei dem wir vergleichen, wie unterschiedliche RAG-Architekturen Fragen zu Geschäftsdokumenten beantworten.
Die erste Runde dieses Wettbewerbs fand letzten Sommer statt – mit beeindruckenden Ergebnissen. Bereits mit nur 16 teilnehmenden Teams konnten wir verschiedene RAG-Architekturen vergleichen und das Potenzial strukturierter Outputs für geschäftliche Aufgaben entdecken.
Die zweite Runde ist für den 27. Februar geplant. Merken Sie sich den Termin vor!
Transformieren Sie Ihre digitalen Projekte mit den besten KI-Sprachmodellen!
Entdecken Sie die transformative Kraft der besten LLM und revolutionieren Sie Ihre digitalen Produkte mit KI! Bleiben Sie zukunftsorientiert, steigern Sie die Effizienz und sichern Sie sich einen klaren Wettbewerbsvorteil. Wir unterstützen Sie dabei, Ihren Business Value auf das nächste Level zu heben.
![](/TTA_AT/Ansprechpartner/34580/image-thumb__34580__ContactformTextContact-contact-person/martin%20warnung.jpg)
Martin WarnungSales Consultant
Erfahren Sie mehr
![](/TTA_AT/Blog/AI/Benchmarks%20Dezember%202024/35397/image-thumb__35397__MediumTileGrid-item-main-s1-3/LLM%20Benchmarks_dezember.jpg)
ChatGPT & Co: Dezember-Benchmarks für Sprachmodelle
![](/TTA_AT/Blog/AI/Benchmarks%20Dezember%202024/35401/image-thumb__35401__MediumTileGrid-item-main-s1-3/september_LLM%20Benchmarks.jpg)
ChatGPT & Co: September-Benchmarks für Sprachmodelle
![](/TTA_AT/Blog/AI/Benchmarks%20November%202024/35399/image-thumb__35399__MediumTileGrid-item-main-s1-3/november_LLM%20Benchmarks.jpg)
ChatGPT & Co: November-Benchmarks für Sprachmodelle
![](/TTA_AT/Blog/AI/Benchmarks%20Oktober%2024/35400/image-thumb__35400__MediumTileGrid-item-main-s1-3/oktober_LLM%20Benchmarks.jpg)
ChatGPT & Co: Oktober-Benchmarks für Sprachmodelle
![](/TTA_AT/AI%20Images/34724/image-thumb__34724__MediumTileGrid-item-main-s1-3/woman-s-hand-presenting-futuristic-technology-digital-remix.jpg)
In 8 Schritten zu AI-Innovationen im Unternehmen
![](/TTA_AT/Blog/AI/31380/image-thumb__31380__MediumTileGrid-item-main-s1-3/fehler-ki-entwicklung.png)
Fehler in der Entwicklung von AI-Assistenten
![](/TTA_AT/Blog/AI/31411/image-thumb__31411__MediumTileGrid-item-main-s1-3/tipps-zur-entwicklung-von-ki-assistenten.jpg)
8 Tipps zur Entwicklung von AI-Assistenten
![](/TTA_AT/Landingpages/Enterprise%20RAG%20Challenge/35247/image-thumb__35247__MediumTileGrid-item-main-s1-3/ERC_thumb.jpg)
Die Zukunft der KI: Enterprise RAG Challenge
![](/TTA/Blog/Turbonomic/Microsoft%20Azure-Ressourcen/28861/image-thumb__28861__MediumTileGrid-item-main-s1-3/Microsoft-Azure-Ressourcen.jpg)
Microsoft Azure-Ressourcen automatisch skalieren
![Die Transparenz und Nachvollziehbarkeit von AI ist die größte Herausforderung für die Nutzung von Artificial Intelligence (AI). Header Blogbeitrag Artificial Intelligence](/TTA/Blog/KI%20-%20AI/15613/image-thumb__15613__MediumTileGrid-item-main-s1-3/Blog-AI.jpg)
Artificial Intelligence (AI) mit Spurhalteassistent im Griff
![](/TTA_AT/AI%20Images/35328/image-thumb__35328__MediumTileGrid-item-main-s1-3/v2_ki_workshop_angebot.png)
KI Workshops für Unternehmen
![](/TTA/21301/image-thumb__21301__MediumTileGrid-item-main-s1-3/headerbild-tta.jpg)
Eventreihe: KI Governance
![](/TTA/Blog/Turbonomic/28513/image-thumb__28513__MediumTileGrid-item-main-s1-3/Amazon%20EC2%20Performance%20optimieren.png)
Amazon EC2: Performance richtig messen und optimieren!
![Lizenzmanagement hat nicht nur Relevanz für das Thema Compliance, sondern kann auch Kosten und Risiken minimieren. Checkliste als Symbol für die verschiedenen To Dos im Bereich Lizenzmanagement](/TTA/Blog/SAM/Lizenzmanagement%20Wissen/19102/image-thumb__19102__MediumTileGrid-item-main-s1-3/Lizenzmanagement-im-griff-teaser.jpg)
Lizenzmanagement fest im Griff - Das sollten Sie wissen!
![](/TTA/Blog/Turbonomic/Amazon%20Elastic%20Block%20Storage/28676/image-thumb__28676__MediumTileGrid-item-main-s1-3/Amazon%20Elastic%20Block%20Storage.jpg)
Elastic Block Storage: Performance und Kosten optimieren
![](/TTA/Blog/KI%20-%20AI/6_Schritte_Data_Analytics/21354/image-thumb__21354__MediumTileGrid-item-main-s1-3/Schritte-zu-Data-Analytics.jpg)
In 6 Schritten zur passenden Data Analytics-Lösung
![](/TTA/Blog/Turbonomic/Azure%20Cloud%20Kosten%20optimieren/28796/image-thumb__28796__MediumTileGrid-item-main-s1-3/Azure%20Cloud%20Kosten%20optimieren%20%20Teaser.jpg)
Azure Cloud: Kosten mit IBM Turbonomic optimieren!
![](/TTA/Blog/Turbonomic/28446/image-thumb__28446__MediumTileGrid-item-main-s1-3/AWS%20Cloud%20Kostenoptimierung.jpg)
AWS Cloud: So optimieren Sie Ihre Kosten mit IBM Turbonomic!
![](/TTA_AT/Stock/Full_size/21644/image-thumb__21644__MediumTileGrid-item-main-s1-3/new-data-services-0tSiofevpUs-unsplash.jpg)
8 Tipps für ein erfolgreiches Automatisierungsprojekt
![](/TTA/21301/image-thumb__21301__MediumTileGrid-item-main-s1-3/headerbild-tta.jpg)
KI Governance
![](/TTA/Referenzen/Funke/28909/image-thumb__28909__MediumTileGrid-item-main-s1-3/200316_FUNKE_Logo_cmyk_red-_1_.png)
Managed Service Support für optimales Lizenzmanagement
![](/TTA/Referenzen/KI.TEST/23128/image-thumb__23128__MediumTileGrid-item-main-s1-3/KI-TEST_Logo_mit_Schriftzug_rechts.png)
Interaktives Onlineportal identifiziert passende Mitarbeiter
![](/TTA/Referenzen/IAV/34023/image-thumb__34023__MediumTileGrid-item-main-s1-3/IAV-Referenz-Teaser.png)
IAV erreicht ISO/IEC 5230 Zertifizierung
![](/TTA/Referenzen/KC%20Risk/30834/image-thumb__30834__MediumTileGrid-item-main-s1-3/kc-risk-visual.jpg)
TIMETOACT unterstützt KC Risk bei Benchmarking & Reporting
![](/TTA/Referenzen/TRUMPF/34150/image-thumb__34150__MediumTileGrid-item-main-s1-3/header_TRUMPF_Referenz_24_2.png)
Standardisiertes Datenmanagement bei TRUMPF
![](/TTA_AT/Landingpages/KI%20im%20Treasury/34723/image-thumb__34723__MediumTileGrid-item-main-s1-3/gold-bull-backgrounds-graphics-elements-related-financial-sector.jpg)
Künstliche Intelligenz im Treasury Management
![](/TTA/Referenzen/TRUMPF/30095/image-thumb__30095__MediumTileGrid-item-main-s1-3/Trumpf_Logo_breiter.png)
Standardisiertes Datenmanagement schafft Basis für Reporting
![](/TTA_AT/Referenzen/Automatisierte%20Erstellung%20von%20Transportrouten/34466/image-thumb__34466__MediumTileGrid-item-main-s1-3/automatisierte_planung_von_transportrouten.jpg)
Automatisierte Planung von Transportwegen
![](/TTA/Referenzen/GdP/14806/image-thumb__14806__MediumTileGrid-item-main-s1-3/Header-Freizeitpark.png)
Flexibilität bei der Datenauswertung eines Freizeitparks
![](/TTA_AT/Referenzen/ISS/16425/image-thumb__16425__MediumTileGrid-item-main-s1-3/ISS_480x480.png)
Automatisierte Eingangrechnungsverarbeitung mit JobRouter®
![](/TTA_AT/Referenzen/Kapsch/10062/image-thumb__10062__MediumTileGrid-item-main-s1-3/kapsch_logo_3.png)
Automatisierter Rechnungseingang bei Kapsch
![](/TTA_AT/Referenzen/Main/10061/image-thumb__10061__MediumTileGrid-item-main-s1-3/logo-main_191119.png)
MAIN adaptiert automatisierte Rechnungseingangslösung
![](/TTA_AT/Referenzen/IBM%20Filenet%20Magenta/31502/image-thumb__31502__MediumTileGrid-item-main-s1-3/magenta_ibm_filenet.jpg)
Mit IBM FileNet zum modernen Dokumentenarchiv
![](/TTA_AT/Downloads/Eine%20Einf%C3%BChrung%20ins%20API%20Management/31082/image-thumb__31082__MediumTileGrid-item-main-s1-3/Mockup.png)
Whitepaper: Eine Einführung ins API Management
![](/TTA_AT/Blog/Q4%202020%20Cloud/11782/image-thumb__11782__MediumTileGrid-item-main-s2-3/campaign_header.png)