CHATGPT UND CO IM VERGLEICH

Die besten Sprachmodelle im September 2024

Die TIMETOACT GROUP LLM Benchmarks zeigen die leistungsstärksten KI-Sprachmodelle für die digitale Produktentwicklung. Erfahren Sie, welche Sprachmodelle im September am besten abgeschnitten haben.

LLM Benchmarks | September 2024

Die Benchmarks bewerten die Modelle in Bezug auf ihre Eignung für die digitale Produktentwicklung. Je höher die Punktezahl, desto besser.

☁️ - Cloud-Modelle mit proprietärer Lizenz
✅ - Open-Source-Modelle, die lokal ohne Einschränkungen ausgeführt werden können
🦙 - Lokale Modelle mit Llama2-Lizenz

ModellCodeCrmDocsIntegrateMarketingReasonErgebnisKostenSpeed
GPT o1-preview v1/2024-09-12 ☁️9592949688879252.32 €0.08 rps
GPT o1-mini v1/2024-09-12 ☁️939694858287908.15 €0.16 rps
Google Gemini 1.5 Pro v2 ☁️8697941007874881.00 €1.18 rps
GPT-4o v1/2024-05-13 ☁️9096100897874881.21 €1.44 rps
GPT-4o v3/dyn-2024-08-13 ☁️9097100817978881.22 €1.21 rps
GPT-4 Turbo v5/2024-04-09 ☁️8699981008843862.45 €0.84 rps
GPT-4o v2/2024-08-06 ☁️908497928259840.63 €1.49 rps
Google Gemini 1.5 Pro 0801 ☁️8492791007074830.90 €0.83 rps
Qwen 2.5 72B Instruct ⚠️7992941007159830.10 €0.66 rps
Llama 3.1 405B Hermes 3🦙6893891008853820.54 €0.49 rps
GPT-4 v1/0314 ☁️908898708845807.04 €1.31 rps
GPT-4 v2/0613 ☁️908395708845787.04 €2.16 rps
Claude 3 Opus ☁️6988100787658784.69 €0.41 rps
Claude 3.5 Sonnet ☁️728389858058780.94 €0.09 rps
GPT-4 Turbo v4/0125-preview ☁️6697100857543782.45 €0.84 rps
GPT-4o Mini ☁️6387807010065780.04 €1.46 rps
Meta Llama3.1 405B Instruct🦙819392707548762.39 €1.16 rps
GPT-4 Turbo v3/1106-preview ☁️667598708860762.46 €0.68 rps
DeepSeek v2.5 236B ⚠️578091788857750.03 €0.42 rps
Google Gemini 1.5 Flash v2 ☁️649689758144750.06 €2.01 rps
Google Gemini 1.5 Pro 0409 ☁️689796857526740.95 €0.59 rps
Meta Llama 3.1 70B Instruct f16🦙748990707548741.79 €0.90 rps
GPT-3.5 v2/0613 ☁️688173818150720.34 €1.46 rps
Meta Llama 3 70B Instruct🦙818384608145720.06 €0.85 rps
Mistral Large 123B v2/2407 ☁️687968757570720.86 €1.02 rps
Google Gemini 1.5 Pro 0514 ☁️7396791002560721.07 €0.92 rps
Google Gemini 1.5 Flash 0514 ☁️3297100757252710.06 €1.77 rps
Google Gemini 1.0 Pro ☁️668683788828710.37 €1.36 rps
Meta Llama 3.2 90B Vision🦙748487787132710.23 €1.10 rps
GPT-3.5 v3/1106 ☁️687071787858700.24 €2.33 rps
GPT-3.5 v4/0125 ☁️638771787843700.12 €1.43 rps
Qwen1.5 32B Chat f16 ⚠️709082787820690.97 €1.66 rps
Cohere Command R+ ☁️638076707058690.83 €1.90 rps
Gemma 2 27B IT ⚠️617287708932690.07 €0.90 rps
Mistral 7B OpenChat-3.5 v3 0106 f16 ✅688767708825670.32 €3.39 rps
Gemma 7B OpenChat-3.5 v3 0106 f16 ✅636784608146670.21 €5.09 rps
Meta Llama 3 8B Instruct f16🦙796268708041670.32 €3.33 rps
Mistral 7B OpenChat-3.5 v2 1210 f16 ✅637372698830660.32 €3.40 rps
Mistral 7B OpenChat-3.5 v1 f16 ✅587272708833650.49 €2.20 rps
GPT-3.5-instruct 0914 ☁️479269628833650.35 €2.15 rps
GPT-3.5 v1/0301 ☁️558269788226650.35 €4.12 rps
Llama 3 8B OpenChat-3.6 20240522 f16 ✅765176608838650.28 €3.79 rps
Mistral Nemo 12B v1/2407 ☁️5458511007549640.03 €1.22 rps
Meta Llama 3.2 11B Vision🦙707165707136640.04 €1.49 rps
Starling 7B-alpha f16 ⚠️586667708834640.58 €1.85 rps
Llama 3 8B Hermes 2 Theta🦙617374708516630.05 €0.55 rps
Yi 1.5 34B Chat f16 ⚠️477870708626631.18 €1.37 rps
Claude 3 Haiku ☁️646964707535630.08 €0.52 rps
Meta Llama 3.1 8B Instruct f16🦙577462707432610.45 €2.41 rps
Qwen2 7B Instruct f32 ⚠️508181606631610.46 €2.36 rps
Mistral Small v3/2409 ☁️437571757526610.06 €0.81 rps
Claude 3 Sonnet ☁️724174707828610.95 €0.85 rps
Mixtral 8x22B API (Instruct) ☁️536262100757600.17 €3.12 rps
Mistral Pixtral 12B ✅536973606440600.03 €0.83 rps
Codestral Mamba 7B v1 ✅5366511007117600.30 €2.82 rps
Anthropic Claude Instant v1.2 ☁️587565756516592.10 €1.49 rps
Cohere Command R ☁️456657708427580.13 €2.50 rps
Anthropic Claude v2.0 ☁️635255608434582.19 €0.40 rps
Qwen1.5 7B Chat f16 ⚠️568160506036570.29 €3.76 rps
Mistral Large v1/2402 ☁️374970788425570.58 €2.11 rps
Microsoft WizardLM 2 8x22B ⚠️487679506222560.13 €0.70 rps
Qwen1.5 14B Chat f16 ⚠️505851708422560.36 €3.03 rps
Anthropic Claude v2.1 ☁️295859787532552.25 €0.35 rps
Llama2 13B Vicuna-1.5 f16🦙503755608237530.99 €1.09 rps
Mistral 7B Instruct v0.1 f16 ☁️347169596223530.75 €1.43 rps
Mistral 7B OpenOrca f16 ☁️545776257827530.41 €2.65 rps
Meta Llama 3.2 3B🦙527166704414530.01 €1.25 rps
Google Recurrent Gemma 9B IT f16 ⚠️582771605623490.89 €1.21 rps
Codestral 22B v1 ✅384744786613480.06 €4.03 rps
Llama2 13B Hermes f16🦙502437746042481.00 €1.07 rps
IBM Granite 34B Code Instruct f16 ☁️63493470577471.07 €1.51 rps
Mistral Small v2/2402 ☁️33424592568460.06 €3.21 rps
DBRX 132B Instruct ⚠️433943775910450.26 €1.31 rps
Mistral Medium v1/2312 ☁️414344616212440.81 €0.35 rps
Meta Llama 3.2 1B🦙324033406851440.02 €1.69 rps
Llama2 13B Puffin f16🦙371544705639434.70 €0.23 rps
Mistral Small v1/2312 (Mixtral) ☁️10676352568430.06 €2.21 rps
Microsoft WizardLM 2 7B ⚠️533442595313420.02 €0.89 rps
Mistral Tiny v1/2312 (7B Instruct v0.2) ☁️22475938628390.05 €2.39 rps
Gemma 2 9B IT ⚠️452547346813380.02 €0.88 rps
Meta Llama2 13B chat f16🦙22381760756360.75 €1.44 rps
Mistral 7B Zephyr-β f16 ✅37344659294350.46 €2.34 rps
Meta Llama2 7B chat f16🦙223320605018340.56 €1.93 rps
Mistral 7B Notus-v1 f16 ⚠️10542552484320.75 €1.43 rps
Orca 2 13B f16 ⚠️182232226720300.95 €1.14 rps
Mistral 7B v0.1 f16 ☁️0948535212290.87 €1.23 rps
Mistral 7B Instruct v0.2 f16 ☁️11305412588290.96 €1.12 rps
Google Gemma 2B IT f16 ⚠️332816571520280.30 €3.54 rps
Microsoft Phi 3 Medium 4K Instruct 14B f16 ⚠️5343011478220.82 €1.32 rps
Orca 2 7B f16 ⚠️2202620524210.78 €1.38 rps
Google Gemma 7B IT f16 ⚠️0009620120.99 €1.08 rps
Meta Llama2 7B f16🦙05223282100.95 €1.13 rps
Yi 1.5 9B Chat f16 ⚠️042990881.41 €0.76 rps

Kann das Modell Code generieren und bei der Programmierung helfen?

Die geschätzten Kosten für die Ausführung der Arbeitslast. Für cloud-basierte Modelle berechnen wir die Kosten gemäß der Preisgestaltung. Für lokale Modelle schätzen wir die Kosten auf Grundlage der GPU-Anforderungen für jedes Modell, der GPU-Mietkosten, der Modellgeschwindigkeit und des operationellen Overheads.

Wie gut unterstützt das Modell die Arbeit mit Produktkatalogen und Marktplätzen?

Wie gut kann das Modell mit großen Dokumenten und Wissensdatenbanken arbeiten?

Kann das Modell problemlos mit externen APIs, Diensten und Plugins interagieren?

Wie gut kann das Modell bei Marketingaktivitäten unterstützen, z.B. beim Brainstorming, der Ideenfindung und der Textgenerierung?

Wie gut kann das Modell in einem gegebenen Kontext logisch denken und Schlussfolgerungen ziehen?

Die Spalte "Speed" gibt die geschätzte Geschwindigkeit des Modells in Anfragen pro Sekunde an (ohne Batching). Je höher die Geschwindigkeit, desto besser.

ChatGPT o1-Modelle sind die besten

OpenAI hat einen radikal neuen Modelltyp namens o1-preview veröffentlicht, gefolgt von o1-mini. Diese einzigartigen Modelle unterscheiden sich von allen anderen LLM-Modellen auf dem Markt – sie führen für jede Anfrage eine eigene „Chain of Thought“-Routine durch. Dies ermöglicht es dem Modell, komplexe Probleme in kleinere Aufgaben zu zerlegen und die Antworten wirklich durchdacht zu formulieren.

Dieser Ansatz glänzt beispielsweise bei komplexen Full-Stack-Software-Engineering-Herausforderungen. Vergleicht man o1 mit dem „herkömmlichen“ GPT-4, fühlt es sich wie ein erfahrener Mid-Level-Software-Ingenieur an, der überraschend wenig Anleitung benötigt.

Es gibt jedoch einen Nachteil bei diesem „Chain of Thought unter der Haube“-Prozess. O1 liefert zwar qualitativ hochwertige Ergebnisse, aber diese Ergebnisse brauchen Zeit und sind deutlich teurer. Ein Blick auf die Preisspalte zeigt den Kostenunterschied.

Wir sind gespannt, ob andere LLM-Anbieter diesen Trick übernehmen und ihre eigenen Versionen von LLMs mit abgestimmter Chain-of-Thought-Routine veröffentlichen.

Google Gemini 1.5 Pro v 002 - TOP 3

Wenn wir über die Spitzenresultate und Cloud-Anbieter sprechen, gibt es ein weiteres neues Modell in den TOP-3. Google hat es irgendwie geschafft, mit der Geschwindigkeit des Fortschritts mitzuhalten und ein hoch konkurrenzfähiges Modell zu veröffentlichen – Gemini 1.5 Pro v002.

Dieses Modell verbessert sich systematisch gegenüber der vorherigen Version in mehreren Kategorien: Code, CRM, Dokumente und Marketingtexte. Es ist außerdem das günstigste Modell in den TOP-6 unseres Benchmarks.

Fachleute loben dieses Modell bereits für seine hervorragenden mehrsprachigen Fähigkeiten, und Google Cloud-Nutzer freuen sich, ein erstklassiges LLM in ihrer Cloud verfügbar zu haben.

Lange Zeit schien es, als ob nur OpenAI und Anthropic wirklich in der Lage wären, den Stand der Technik bei erstklassigen LLM-Modellen voranzutreiben. Es schien auch, als ob große Konzerne zu langsam und altmodisch wären, um etwas wirklich Bahnbrechendes zu veröffentlichen. Google hat schließlich bewiesen, dass dem nicht so ist.

So sieht der Fortschritt der Google-Modelle im Laufe der Zeit aus:

Es fühlt sich mittlerweile nicht mehr ungewöhnlich an, Modelle ähnlicher Qualität auch von Amazon oder Microsoft zu erwarten. Vielleicht wird dies eine neue Wettbewerbsrunde anstoßen, die zu weiteren Preissenkungen und Qualitätsverbesserungen führt.
Nun haben wir genug über die Cloud-Anbieter gesprochen, legen wir den Fokus jetzt auf lokale Modelle.

(Lokale Modelle sind Modelle, die Sie herunterladen und auf Ihrer eigenen Hardware ausführen können.)

Qwen 2.5 and DeepSeek 2.5

Das kürzlich veröffentlichte Qwen 2.5 Instruct ist überraschend gut. Es ist das erste lokale Modell, das Claude 3.5 Sonnet bei unseren Geschäftsanwendungen übertrifft. Zudem ist es günstiger als die anderen LLM-Modelle in den oberen Rängen.

Ab diesem Benchmark verwenden wir die OpenRouter-Preise als Basispreis für lokal nutzbare LLM-Modelle. Dies ermöglicht eine Kostenschätzung der Arbeitslasten basierend auf realen Marktpreisen. Es berücksichtigt auch alle sinnvollen Leistungsoptimierungen, die LLM-Anbieter nutzen, um ihre Margen zu verbessern.

Qwen 2.5 72B befolgt Anweisungen gewissenhaft (im Vergleich zu Sonnet 3.5 oder älteren GPT-4-Versionen) und verfügt über eine ordentliche Fähigkeit zur logischen Schlussfolgerung. Dieses chinesische Modell weist jedoch Lücken in den Bereichen Code und Marketing auf.

DeepSeek 2.5 schnitt in unseren Produkt-Benchmarks bei weitem nicht so gut ab, obwohl es eine enorme Größe von 236 Milliarden Parametern hat. Es läuft etwa auf dem Niveau älterer Versionen von GPT-4 und Gemini 1.5 Pro.

Das sind wirklich großartige Neuigkeiten: Immer mehr lokale Modelle erreichen das Intelligenzniveau von GPT-4 Turbo. Besonders beeindruckend ist, dass das kleinere Qwen 72B-Modell es mit deutlichem Vorsprung übertroffen hat – ein Erfolg, der eine eigene Feier verdient 🚀

Und wir sind überzeugt: Das wird nicht die letzte Überraschung in diesem Jahr sein.

Llama 3.2 – Mittelmäßige Ergebnisse, aber es gibt eine wichtige Nuance

Meta hat kürzlich die neuen Versionen seiner Llama-Modelle in der 3.2-Serie veröffentlicht.
Die größeren Modelle sind nun multimodal, was jedoch auf Kosten der kognitiven Fähigkeiten bei textbasierten Geschäftsanwendungen ging, verglichen mit den vorherigen Versionen. Llama 3.2 liegt weiterhin deutlich hinter den Spitzenmodellen zurück.

Ein Blick auf die Tabelle zeigt:

  • Das Llama 3.2 90B Vision-Modell arbeitet auf dem Niveau von Llama 3/3.1 70B, allerdings mit schwächerer logischer Schlussfolgerung.
  • Das Llama 3.2 11B Vision-Modell erreicht das Niveau des früheren 8B-Modells, jedoch ebenfalls mit einer geringeren Fähigkeit zur logischen Schlussfolgerung.

Das bedeutet nicht, dass die neuen Modelle schlechter sind – sie bieten jetzt mehr Funktionalitäten. Unser aktueller Benchmark bewertet jedoch ausschließlich textbasierte Geschäftsaufgaben. Vision-Aufgaben werden in der nächsten Version (v2) hinzugefügt.

Es gibt jedoch eine Besonderheit, die das Llama 3.2-Release wirklich bemerkenswert macht. Diese Besonderheit liegt in den neuen Modellen mit 1B und 3B Parametern. Diese kleinen Llama 3.2-Modelle wurden speziell für ressourcenbeschränkte Umgebungen und Edge-Anwendungen entwickelt (optimiert für ARM-Prozessoren sowie Qualcomm- und MediaTek-Hardware). Trotz der knappen Ressourcen bieten sie einen 128k-Token-Kontext und eine überraschend hohe Antwortqualität bei Geschäftsanwendungen.

Erinnern Sie sich an das riesige DBRX 132B Instruct-Modell, das als „neuer Maßstab für offene LLMs“ galt? Nun, das Llama 3.2 1B-Modell erreicht in unseren Benchmarks fast das gleiche Niveau, und das 3B-Modell übertrifft es sogar deutlich. Werfen Sie einfach einen Blick auf die Platzierungen dieser Modelle in der Tabelle:

Diese Version betont die entscheidenden Informationen präziser und flüssiger, was den Text noch ansprechender macht.

Beachten Sie, dass diese Benchmark-Ergebnisse auf den Basisversionen von Llama basieren. Maßgeschneiderte Feinabstimmungen verbessern die Gesamtleistung in der Regel noch weiter.

Wie Sie sehen können, bleibt der Fortschritt nicht stehen. Wir erwarten, dass sich der Trend fortsetzt,bei dem immer mehr Unternehmen es schaffen, bessere kognitive Fähigkeiten in kleinere Modelle zu integrieren.

Um diesen Trend zu verdeutlichen, haben wir alle Veröffentlichungen lokal nutzbarer Modelle über einen Zeitverlauf visualisiert und sie anhand der groben Hardwareanforderungen für deren Ausführung gruppiert. Für jede Gruppe haben wir den aktuellen Trend berechnet (linregress).

Hinweis: Diese Gruppierung ist nur eine grobe Einschätzung. Wir verwenden die am häufigsten genutzten Hardware-Kombinationen, die wir bei unseren Kunden und in der KI-Forschung gesehen haben. Wir gehen außerdem davon aus, dass die Inferenz im fp16-Modus läuft, ohne weitere Quantisierungen, und dass genügend VRAM verfügbar ist, um etwas Kontext im Speicher zu behalten.

Zum Schluss möchten wir noch einige Beobachtungen teilen:

  • Alle Modelle, sowohl kleine als auch große, verbessern sich kontinuierlich über die Zeit.
  • Interessante große Modelle sind erst in diesem Jahr wirklich in den Fokus gerückt.
  • Große Modelle verzeichnen derzeit die schnellsten Fortschritte.

Diese Erkenntnisse sind offensichtlich und erfordern eigentlich keine grafische Darstellung. Dennoch machen Visualisierungen den Fortschrittsgrad leichter verständlich. So lassen sich diese Informationen besser an Kunden vermitteln und in langfristige Planungen einbeziehen.

Transformieren Sie Ihre digitalen Projekte mit den besten KI-Sprachmodellen!

Entdecken Sie die transformative Kraft der besten LLM und revolutionieren Sie Ihre digitalen Produkte mit KI! Bleiben Sie zukunftsorientiert, steigern Sie die Effizienz und sichern Sie sich einen klaren Wettbewerbsvorteil. Wir unterstützen Sie dabei, Ihren Business Value auf das nächste Level zu heben.

* Pflichtfelder

Wir verwenden die von Ihnen an uns gesendeten Angaben nur, um auf Ihren Wunsch hin mit Ihnen Kontakt im Zusammenhang mit Ihrer Anfrage aufzunehmen. Alle weiteren Informationen können Sie unseren Datenschutzhinweisen entnehmen.

Blog
Blog

In 8 Schritten zu AI-Innovationen im Unternehmen

Künstliche Intelligenz hat sich von einem bloßen Schlagwort zu einem entscheidenden Werkzeug entwickelt, Business Value in Unternehmen zu generieren. Wir verfolgen einen achtstufigen Ansatz, um Unternehmen den Weg zur effektiven Nutzung von AI zu ermöglichen.

Christoph HasenzaglChristoph HasenzaglBlog
Blog

Fehler in der Entwicklung von AI-Assistenten

Wie gut, dass es Fehler gibt: Denn aus ihnen können wir lernen und besser werden. Wir haben genau hingesehen, wie Unternehmen in den letzten Monaten weltweit AI-Assistenten implementiert haben, und haben sie, leider, vielfach beim Scheitern beobachtet. Wie es zum Scheitern kam und was man daraus für künftige Projekte lernen kann, das möchten wir mit Ihnen teilen: Damit AI-Assistenten in Zukunft erfolgreicher umgesetzt werden können!

Jörg EgretzbergerJörg EgretzbergerBlog
Blog

8 Tipps zur Entwicklung von AI-Assistenten

AI-Assistenten für Unternehmen sind ein Hype, und viele Teams arbeiteten bereits eifrig und voller Tatendrang an ihrer Implementierung. Leider konnten wir allerdings sehen, dass viele Teams, welche wir in Europa und den USA beobachten konnten, an der Aufgabe gescheitert sind. Wir bieten Ihnen 8 Tipps, damit Ihnen nicht dasselbe passiert.

TIMETOACT
Dominic LehrDominic LehrBlog
Blog

Microsoft Azure-Ressourcen automatisch skalieren

Im Blog stellen wir Ihnen Autoscale in Azure vor und zeigen, warum es sich lohnt, diese mit der automatischen Skalierung mit IBM Turbonomics zu kombinieren.

TIMETOACT
Marc BastienMarc BastienBlog
Header Blogbeitrag Artificial Intelligence
Blog

Artificial Intelligence (AI) mit Spurhalteassistent im Griff

Die Transparenz und Nachvollziehbarkeit von AI ist die größte Herausforderung für die Nutzung von AI. Im Zusammenhang mit fairer Beurteilung von Menschen oder menschlichem Verhalten sowieso. Im Zusammenhang mit anderen Daten würden wir konsequenterweise in absehbarer Zeit komplett den Durchblick über Zusammenhänge in den Daten verlieren, wenn wir der AI allein das Feld überließen.

Workshop
Workshop

KI Workshops für Unternehmen

Ob Grundlagen der KI, Prompt-Engineering oder Potenzial-Scouting: Unser vielfältiges KI-Workshop Angebot bietet für jeden Wunsch die passenden Inhalte.

TIMETOACT
Dominic LehrDominic LehrBlog
Blog

Amazon EC2: Performance richtig messen und optimieren!

Im Blog zeigen wir Ansätze zum Messen und Verwalten der Leistung von EC2-Instanzen. Zudem erfahren Sie, wie Sie mit IBM Turbonomic die Performance der darauf betriebenen Anwendungen optimieren.

TIMETOACT
Dominic LehrDominic LehrBlog
Blog

AWS Cloud: So optimieren Sie Ihre Kosten mit IBM Turbonomic!

Wir geben Ihnen einen Überblick über die verschiedenen Methoden des AWS-Cloud-Kostenmanagements.

TIMETOACT
Dominic LehrDominic LehrBlog
Blog

Elastic Block Storage: Performance und Kosten optimieren

Wir geben Ihnen einen Überblick zu EBS. Und: zeigen Ihnen, wie IBM Turbonomic Sie bei Performance und Kosten unterstützt.

TIMETOACT
Dominic LehrDominic LehrBlog
Blog

Azure Cloud: Kosten mit IBM Turbonomic optimieren!

Im Blog erfahren Sie, wie Sie Ihre Microsoft Azure Kosten senken und dabei die bestmögliche Performance sichern. Und: wie IBM Turbonomic dabei unterstützen kann.

TIMETOACT
Martin LangeMartin LangeBlog
Checkliste als Symbol für die verschiedenen To Dos im Bereich Lizenzmanagement
Blog

Lizenzmanagement fest im Griff - Das sollten Sie wissen!

Lizenzmanagement hat nicht nur Relevanz für das Thema Compliance, sondern kann auch Kosten und Risiken minimieren. Mehr dazu im Beitrag.

TIMETOACT
Blog
Blog

In 6 Schritten zur passenden Data Analytics-Lösung

Um Innovation im Unternehmen voranzutreiben, braucht es eine state-of-the-art Data Analytics-Lösung. Oftmals ist hier eine Modernisierung von Nöten. Erfahren Sie in sechs Schritten, wie Sie die für Sie passende Lösung finden!

TIMETOACT
Service
Service

Eventreihe: KI Governance

Die EU hat sich auf schärfere Regeln zur Nutzung von Künstlicher Intelligenz geeinigt. Ihre Auswirkungen und weitere wichtige Aspekte von "KI Governance" beleuchten wir in unserer Eventserie.

Blog
Blog

8 Tipps für ein erfolgreiches Automatisierungsprojekt

Was sind die Regeln, die man bei der Planung und Umsetzung eines Automatisierungsprojektes in Betracht ziehen soll? Und woran scheitert es?

TIMETOACT
Service
Service

KI Governance

Die EU hat sich auf schärfere Regeln zur Nutzung von Künstlicher Intelligenz geeinigt. Ihre Auswirkungen und weitere wichtige Aspekte von "KI Governance" erfahren Sie hier.

TIMETOACT
Referenz
Referenz

Interaktives Onlineportal identifiziert passende Mitarbeiter

TIMETOACT digitalisiert für KI.TEST mehrere Testverfahren zur Bestimmung der beruflichen Intelligenz und Persönlichkeit.

TIMETOACT
Referenz
Referenz

Managed Service Support für optimales Lizenzmanagement

Zur Sicherstellung der Software Compliance unterstützt TIMETOACT die FUNKE Mediengruppe im Rahmen eines SAM Managed Services für Microsoft, Adobe, Oracle und IBM.

TIMETOACT
Referenz
Referenz

TIMETOACT unterstützt KC Risk bei Benchmarking & Reporting

TIMETOACT unterstützte die KC Risk AG bei der Integration, Aufbereitung und Visualisierung ihrer Kundendaten. Alle Informationen stehen nun zentral zur Verfügung, sind per Knopfdruck abrufbar und Berechnungen erfolgen automatisiert.

TIMETOACT
Referenz
Referenz

IAV erreicht ISO/IEC 5230 Zertifizierung

IAV hat ihr Open Source Compliance Programm nach ISO/IEC 5230 zertifizieren lassen und damit die Transparenz im Umgang mit Open Source Software, insbesondere im Software-Entwicklungsprozess erhöht. Durch die Zertifizierung nach ISO/IEC 5230 kann IAV in Zukunft potenzielle Risiken im Umgang mit Open-Source-Software verringern. Darüber hinaus wird durch die Zertifizierung das Vertrauen von Kunden und Partnern in die Lieferkette erheblich gestärkt. Begleitet wurde das Zertifizierungsverfahren von der TIMETOACT GROUP. Die Softwareberatung unterstützte bei der Reifegradanalyse, der Nachverfolgung von Befunden und bei der finalen Auditierung und Zertifizierung durch ARS – einem Unternehmen der TIMETOACT GROUP.

TIMETOACT
Referenz
Referenz

Standardisiertes Datenmanagement bei TRUMPF

Die effiziente Verwaltung und zentrale, nachvollziehbare und qualitätsgesicherte Bereitstellung von Unternehmensdaten ist wichtiger denn je, um Entscheidungen zu treffen und die Datenverwendung zu optimieren – ganz besonders, wenn täglich bis zu 2 Terabyte an Daten bewegt werden. TIMETOACT implementiert für TRUMPF Photonic Components ein übergeordnetes Datenmodell in einem Data Warehouse und sorgt mit Talend für die notwendige Datenintegrationsanbindung und Katalogisierung. Mit diesem standardisierten Datenmanagement erhält TRUMPF künftig Reportings auf Basis verlässlicher Daten - mit der Option, Vorgehen und Modell zukünftig auch auf andere Fachabteilungen übertragen.

Branche
Branche

Künstliche Intelligenz im Treasury Management

Optimieren Sie Treasury-Prozesse durch KI: Automatisierte Berichte, Vorhersagen und Risikomanagement.

TIMETOACT
Blog
Blog

ESG-Tagebuch Teil 2 | Wissenstransfer & Kommunikation

In diesem Teil unseres ESG-Tagebuchs berichten wir wieder über die Implementierung der IBM Envizi ESG Suite bei der Unternehmensgruppe delta pronatura. Lesen Sie diesmal, vor welchen aktuellen Herausforderungen, Frage- und Problemstellungen wir bei der Bestimmung und Dokumentation fachlicher Aspekte stehen.

TIMETOACT
Referenz
Referenz

Flexibilität bei der Datenauswertung eines Freizeitparks

Mit Unterstützung der TIMETOACT setzt ein Freizeitpark in Deutschland TM1 bereits seit vielen Jahren in unterschiedlichen Unternehmensbereichen ein, um einfach und flexibel Reportings-, Analyse- und Planungsprozesse durchzuführen.

TIMETOACT
Referenz
Referenz

Standardisiertes Datenmanagement schafft Basis für Reporting

TIMETOACT implementiert für TRUMPF Photonic Components ein übergeordnetes Datenmodell in einem Data Warehouse und sorgt mit Talend für die notwendige Datenintegrationsanbindung. Mit diesem standardisierten Datenmanagement erhält TRUMPF künftig Reportings auf Basis verlässlicher Daten und kann das Modell auch auf andere Fachabteilungen übertragen.

TIMETOACT
Referenz
Referenz

Automatisierter Rechnungseingang bei Kapsch

TIMETOACT unterstützt Kapsch BusinessCom bei der Durchführung des automatisierten Rechnungseingangs durch den Einsatz einer umfassenden Dokumenten-Management- und Workflow-Lösung.

Referenz
Referenz

MAIN adaptiert automatisierte Rechnungseingangslösung

Um Zeit und Kosten bei der Rechnungsverarbeitung zu ersparen, setzt main auf eine umfassende Rechnungseingangslösung von TIMETOACT.

Referenz
Referenz

Automatisierte Eingangrechnungsverarbeitung mit JobRouter®

Schnelle Durchlaufzeiten und Ersparnisse im fünfstelligen Bereich durch automatisierten Rechnungsfreigabeprozess in der Buchhaltung bei der ISS.

Whitepaper
Whitepaper

Whitepaper: Eine Einführung ins API Management

Was genau sind APIs, welche Use Cases gibt es und wie können sie unterschiedliche Geschäftsziele unterstützen? Erfahren Sie in unserem kostenlosem Whitepaper.

Referenz
Referenz

Mit IBM FileNet zum modernen Dokumentenarchiv

Ein kompetenter Kundensupport ist einer der wichtigsten KPIs für Mobilanbieter. In dieser schnelllebigen Branche ist es eine Herausforderung, alle für einen Bestandsvertrag relevanten Dokumente schnell am Schirm zu haben, von AGBs über Zahlungsinformationen zu Vertragsanpassungen. TIMETOACT unterstützt einen frührenden Telekommunikationsanbieter bei der Archivmigration und Anbindung von modernen Applikationen an IBM FileNet P8 für das Handling von Millionen von Dokumenten.

Referenz
Referenz

Automatisierte Planung von Transportwegen

Effiziente Transportroutenplanung durch Automatisierung und einfache Integration.

Blog
Blog

The Future-Proof Business: Breaking The Monolith

Die Aufzeichnung unseres gemeinsam mit CROZ und Red Hat gehosteten Webinars ist jetzt zum Nachsehen verfügbar!

Blog
Blog

The Future-Proof Business: API-Management

Die Aufzeichnung des zweiten Teiles unserer gemeinsam mit CROZ und Red Hat gehosteten Webinarreihe, "The Future-Proof Business" ist jetzt zum Nachsehen verfügbar!

Blog
Blog

5+1 Technologien für Versicherer, um kompetitiv zu bleiben

Das Jahr 2020 hat viele Änderungen mit sich gebracht: fast jeder musste von Zuhause aus arbeiten und aufgrund der Coronavirus Pandemie mussten viele Unternehmen neue, in der Praxis bisher unbekannte Technologien einsetzen, um wettbewerbsfähig bleiben zu können. Viele haben in dieser neuen Realität mithalten können - aber noch mehr leider nicht. In Zeiten wie diesen sieht und versteht man den enormen Vorteil, den technologische Entwicklungen einem Unternehmen liefern können.

Blog
Blog

Stay productive, stay safe - unsere Homeoffice Tipps für Sie

die aktuelle Situation aufgrund der COVID-19 Pandemie stellt uns alle sowohl beruflich, als auch privat vor ungewöhnliche Herausforderungen.

Blog
Blog

Was ist die Cloud? 3 Use Cases zur Cloud-Transformation

Cloud heißt heutzutage viel mehr, als der klassische Ansatz, in dem Daten und Applikationen in der Infrastruktur eines Public Cloud Anbieters bereitgestellt werden - aber was alles hinter dem Begriff steht, erfahren Sie in unserem Blogbeitrag.

Blog
Blog

Cloud-Native Architektur

Cloud Technologien haben auch in der Welt der Anwendungsentwicklung Änderungen mit sich gebracht - aber was steckt hinter dem Begriff "Cloud-Native"?

Blog
Blog

Die Wahrheit über die Cloud - die häufigsten Fragen geklärt

In unserer neuesten Reihe, "Cloud-Myths Uncovered" beantworten wir Ihnen Woche für Woche die wichtigsten Fragen rund um diese Technologie und klären die häufigsten Missverständnisse, die die Cloud umgeben.

Blog
Blog

Sind Cloud-Lösungen sicher?

Sicherheit und Compliance in der Cloud sind weiterhin ein heftig diskutiertes Thema: welche Maßnahmen Sie für eine sichere Cloud-Strategie setzen können, erfahren Sie im Blogbeitrag.

Blog
Blog

Was ist eine Hybrid-Multicloud Strategie?

Eine Hybrid-Cloud Strategie kann dabei helfen, Sicherheit für Ihre geschäftlichen Dokumente zu gewährleisten und dabei auch Kosten zu sparen. Aber wie, erfahren Sie hier.

TIMETOACT
Technologie
Headerbild zu IBM Cloud Pak for Data Accelerator
Technologie

IBM Cloud Pak for Data Accelerator

Zum schnellen Einstieg in bestimmte Use Cases, konkret für bestimmte Geschäftsbereiche oder Branchen, bietet IBM auf Basis der Lösung „Cloud Pak for Data“ sogenannte Akzeleratoren, die als Vorlage für die Projektentwicklung dienen, und dadurch die Umsetzung dieser Use Cases deutlich beschleunigen können. Die Plattform selbst bringt alle notwendigen Funktionen für alle Arten von Analyticsprojekten mit, die Akzeleratoren den entsprechenden Inhalt.