KI-Architektur Benchmarks

August 2024

Diesen Monat haben wir etwas Besonderes für Sie vorbereitet. Anstatt, wie sonst, einzelne Sprachmodelle zu benchmarken, präsentieren wir Ihnen den ersten Benchmark verschiedener KI-Architekturen.

Dies wurde als erste Runde unserer Enterprise-RAG-Challenge durchgeführt. Im Rahmen dieser Challenge haben wir mit einzelnen Beratern und einigen Anbietern kommerzieller KI-Lösungen zusammengearbeitet.

Branchenübersicht

Zunächst haben wir alle uns bekannten bewährten Fälle erfolgreicher KI-Anwendungen auf einer einzigen Karte nach Branche und Wirkungsbereich abgebildet.

Anschließend haben wir das gesamte Portfolio überprüft und alle wiederkehrenden Themen identifiziert, die auch über Branchen- und Anwendungsgrenzen hinweg bestehen. Es gab einige wenige:

  • Viele erfolgreiche Anwendungsfälle von KI im Geschäftsbereich drehen sich darum, ChatGPT mit ein paar einfachen LLM-Mustern zu nutzen: Checklisten, Router und Wissenskarten. Es ist überraschend, wie viel Wert mit nur wenigen Prompts und Codezeilen erzielt werden kann.

  • Die meisten erfolgreichen Anwendungsfälle agieren nicht als eigenständige Systeme, sondern integrieren sich in bestehende Prozesse als Co-Piloten und Assistenten. Manchmal sind sie für die Endnutzer sogar unsichtbar.

  • Betrachtet man die Zahlen isoliert, ist der beliebteste KI-Anwendungsfall der Aufbau von "KI-Suchsystemen" oder "KI-Assistenten" für Unternehmen.

KI-Suche oder KI-Assistenten sind Beispiele für Anwendungsfälle, bei denen ein Unternehmen ein System möchte, das intelligente Antworten basierend auf Dateien und Dokumenten liefern kann. Dies ist der beliebteste Fall und manchmal ein Einstieg in die KI für Unternehmen.

Dies ist auch eine der umstrittensten Projektarten. Eine weit verbreitete Meinung ist, eine Lösung wie diese mit Vektordatenbanken und RAG-Systemen zu implementieren. Selbst wenn man dieser Meinung folgt (was wir nicht tun), gibt es so viele verschiedene Sprachmodelle, Frameworks und architektonische Feinheiten, aus denen man wählen kann.

Also, wie würde man einen KI-Assistenten, der mit eigenen Unternehmensdokumenten arbeiten kann, implementieren?
 

Enterprise RAG Challenge

Um diese Frage auf kollaborative Weise zu beantworten, haben wir die Enterprise RAG Challenge ins Leben gerufen. Dies ist ein freundlicher Wettbewerb, um die Genauigkeit verschiedener RAG-Systeme bei geschäftlichen Arbeitslasten zu testen. Der Ablauf sieht so aus:

Die Teilnehmer bauen ein System, das Fragen zu hochgeladenen PDF-Dokumenten (Jahresberichte) beantworten kann. Alternativ können sie ihr bereits bestehendes KI-Assistenzsystem testen.

Jeder kann teilnehmen. Auch eine anonyme Teilnahme ist möglich. Alles, worum wir bitten, ist, einige Details zu Ihrer RAG-Implementierung zu teilen, zum Nutzen der Community. Wir möchten lernen, was in der Praxis besser funktioniert, und dieses Wissen mit allen teilen.

Wenn der Wettbewerb beginnt:

  1. Die Teilnehmer erhalten im Voraus eine Reihe von Jahresberichten als PDFs. Sie haben dann etwas Zeit, um diese zu verarbeiten.

  2. Es wird eine Liste von Fragen zu diesen Dateien erstellt. Innerhalb weniger Minuten (um manuelle Bearbeitung zu vermeiden) müssen die Teilnehmer Antworten liefern und diese hochladen.

  3. Anschließend werden die Antworten öffentlich überprüft und zu einem öffentlichen Datensatz zusammengestellt.

Alle Antworten und Daten werden in einen öffentlichen Datensatz aufgenommen. Sie werden die Leistung verschiedener Teams und Technologien (wenn ein Team einige Fragen beantwortet hat) in einer einzigen Tabelle vergleichen können. Am Ende des Wettbewerbs werden wir auch einen Bericht zusammenstellen und veröffentlichen.

Mehr über den Wettbewerb können Sie auf Github lesen. Die Beschreibung dort ist etwas technisch, da wir großen Wert darauf gelegt haben, sicherzustellen, dass der Wettbewerb für alle fair ist.


Die erste Runde

Am Ende des Sommers haben wir einen ersten Testlauf gestartet.

Alle Informationen zur ersten Runde sind öffentlich unter unserer Github-Seite unter der Apache-Lizenz verfügbar. Der Code des Fragegenerators, der Dateiauswahl, des Zufallszahlengenerators und der Rangliste – alles ist ebenfalls verfügbar. Auch die Einreichungen der Teams.

Die Teams erhielten 20 Jahresberichte in PDF-Form und sollten automatisch Antworten auf Fragen wie diese generieren:

Welche Firma hatte im Geschäftsjahr 2021 höhere Gesamtvermögenswerte: "MITSUI O.S.K. LINES", "ENRG ELEMENTS LIMITED" oder "First Mid Bancshares, Inc."?

oder:

Wie hoch war der Free Cash Flow der "Oesterreichischen Kontrollbank" im Geschäftsjahr 2023?

Die letzte Frage ist tatsächlich eine Fangfrage, um Halluzinationen zu testen. Der Bericht der Oesterreichischen Kontrollbank deckt nur das Jahr 2022 ab. Es wird erwartet, dass Modelle in solchen Fällen die Antwort verweigern und N/A zurückgeben.

Eine vollständige Liste der Fragen sowie die originalen Jahresberichte finden Sie im Github-Repository.

Insgesamt haben wir 17 Einreichungen erhalten, wobei einige Teams anonym teilnahmen. Die Teams teilten ihre Architekturen, LLM-Modelle und manchmal sogar noch mehr Details.

Lassen Sie uns die Tabelle etwas genauer betrachten:

Beste Lösung - Checkliste mit GPT-4o

Die höchstbewertete Lösung stammt von Daniel Weller. Sie erzielte 84 von maximal 100 Punkten. Daniel ist ein Kollege von TIMETOACT GROUP Österreich.

ℹ️ Wir haben großen Wert darauf gelegt, alle Teilnehmenden unter den gleichen Bedingungen antreten zu lassen (lesen Sie bitte die Beschreibung auf Github für weitere Details) und den Wettbewerb für alle fair zu gestalten. Zur Transparenz werden wir die Zugehörigkeit zu TIMETOACT ausdrücklich in der TTA-Spalte kennzeichnen.

Zusätzlich nehmen einige Wettbewerber auch am AI-Forschungsprogramm teil oder profitieren von dessen Erkenntnissen. Zur Transparenz sind diese Teilnehmer in der AIR-Spalte markiert.

Daniel hat zugestimmt, den Quellcode für seine Lösung zu veröffentlichen. Sobald dieser verfügbar ist, werden wir das Github-Repository mit den Links aktualisieren. Der Status der Quellcode-Freigabe ist in der Source-Spalte zu sehen.

Daniels Lösung verwendet das GPT-4o-Modell mit strukturierten Ausgaben. Während der Vorbefüllungsphase profitiert sie davon, dass die möglichen Fragetypen in Form von öffentlich freigegebenem Code des Fragegenerators allen Teilnehmern zur Verfügung standen. So haben wir eine Checkliste mit möglichen Informationstypen erstellt, die extrahiert werden sollen, die Datentypen mit strukturierten Ausgaben erzwungen und dann alle Dokumente durchlaufen, um die notwendigen Informationen zu extrahieren. Große Dokumente wurden basierend auf der Größe aufgeteilt.

In der Phase der Beantwortung von Fragen gehen wir jede Frage durch und übergeben sie zusammen mit den vorab ausgefüllten Checklisten-Daten an GPT-4o. Die resultierende Antwort wird erneut mithilfe strukturierter Ausgaben in das richtige Schema geformt.

Die Lösung war etwas kostspielig. Die Vorbefüllung der 20 PDFs verbrauchte fast 6 Dollar, während das Beantworten von 40 Fragen 2,44 Dollar kostete.

In dieser Challenge setzen wir keine Kostenlimits für die Lösungen, ermutigen die Teilnehmer jedoch, die Kosten zu erfassen und zu teilen. Die Leser können dann die resultierenden Lösungen nach ihren eigenen Kriterien priorisieren.


Zweitbeste Lösung - Klassisches RAG mit GPT-4o

Die zweitbeste Lösung stammt von Ilya Rice. Sie erzielte 76 Punkte und erreichte dies mit GPT-4o und einem klassischen, auf Langchain basierenden RAG. Es wurde eines der besten Embedding-Modelle verwendet – text-embedding-3-large von OpenAI und benutzerdefinierte Chain of Thought-Prompts. Die Lösung nutzte fitz für das Textparsing und chunkte die Texte nach Zeichenanzahl.


Drittbeste Lösung - Checklisten mit Gemini Flash

Die drittbeste Lösung wurde von Artem Nurmukhametov bereitgestellt. Seine Lösung war architektonisch ähnlich der von Daniel, verwendete jedoch eine mehrstufige Verarbeitung für die Checklisten. Es wurde das Gemini Flash-Modell von Google verwendet, um das System zu steuern.

Die Lösung war ebenfalls kostspielig und verbrauchte 4 Dollar für den vollständigen Testlauf.

Wie Sie bemerkt haben, nutzten 2 der 3 besten Lösungen das Checklistenmuster und die Wissenszuordnung, um vom im Voraus bekannten Domain-Wissen zu profitieren. Während dies im Geschäftsbereich üblich ist (man kann Domänengetriebene Gestaltung und iterative Produktentwicklung verwenden, um ein ähnliches Detailniveau zu erfassen), stellt dies klassische RAG-Systeme vor Herausforderungen.

Um dies auszugleichen, werden wir in der nächsten Runde der Enterprise RAG Challenge den Fragegenerator überarbeiten, um mehr Variabilität zu bieten und es dadurch prohibitiver zu machen, "zu schummeln", indem man einfach Wissenszuordnung verwendet.


Beste On-Premise-Lösung

Wie Sie bemerkt haben, haben die meisten Lösungen das GPT-4o-LLM von OpenAI verwendet. Laut unseren Benchmarks ist dies eines der besten und kosteneffektivsten LLMs, die derzeit verfügbar sind.

In der realen Welt sind Unternehmen jedoch manchmal an Lösungen interessiert, die vollständig vor Ort ausgeführt werden können. Dies kann aus verschiedenen Gründen gewünscht sein: Kosten, IP-Schutz oder Compliance.

Lokale Lösungen bringen jedoch einige Nachteile mit sich – lokale Modelle wie Llama sind weniger leistungsfähig als Cloud-basierte Modelle wie OpenAI GPT-4 oder Claude Sonnet 3.5. Um dies auszugleichen, beginnen lokale KI-Systeme, fortschrittliche Techniken zu nutzen, die manchmal nur bei lokalen Modellen möglich sind – präzise Steuerung, Feinabstimmung (vollständige Feinabstimmung, nicht die Adapter, die OpenAI verwendet), die Verwendung von Expertenmischungen und Ensembles oder eine breite Strahlensuche.

Es kann schwierig sein, die effektive Genauigkeit von stark unterschiedlichen Ansätzen zu vergleichen. Diese Enterprise RAG Challenge ermöglicht es, sie auf derselben Basis zu vergleichen.

Der 6. Platz ging an ein vollständig lokales System mit einer Punktzahl von 69. Der Abstand zu dem Gewinner ist viel geringer, als wir erwartet haben!

Unter der Haube verwendet dieses System das Qwen-72B-LLM, das in einigen Teilen Europas und Asiens recht beliebt ist. Die Gesamtarchitektur basiert auf ReAct-Agent-Loops von LangChain mit einem RAG-gesteuerten Abfrage-Engine. Tabellendaten aus PDFs wurden in XML umgewandelt, und für das Text-Chunken wurde der RecursiveCharacterTextSplitter verwendet.

In der Tabelle gibt es zwei weitere Lösungen, die vollständig vor Ort ausgeführt werden können. Diese sind in der Spalte „Local“ mit einem ⭐ gekennzeichnet.


Runde 2: Diesen Herbst!

Die erste Runde wurde in einem kleinen Kreis von Fachleuten durchgeführt, um das Erlebnis zu testen und zu optimieren. Die Resonanz war viel besser, als wir erwartet hatten.

Wir planen, die nächste Runde der Enterprise RAG Challenge später im Herbst auszurichten. Diese Runde wird öffentlich angekündigt und beinhaltet ein paar kleine Balance-Änderungen:

  • Der Fragegenerator wird neu ausbalanciert, um weniger Fragen zu erzeugen, die zu einer N/A-Antwort führen. Einige solcher Fragen werden jedoch beibehalten, um Halluzinationsfälle zu erkennen.

  • Wir werden mehr Fragen generieren und eine größere Vielfalt an möglichen Fragen sicherstellen. Dies wird den Wettbewerb für Ansätze, die auf Wissenszuordnung und dem Checklist-LLM-Muster basieren, anspruchsvoller machen.

Alle Änderungen werden vor Beginn des Wettbewerbs öffentlich gemacht und als Open Source geteilt. Jeder Teilnehmer wird dieses Wissen nutzen können, um sich auf den Wettbewerb vorzubereiten.

Zusätzlich wird der Quellcode der Lösungen von TIMETOACT GROUP Österreich für alle zugänglich gemacht, um davon zu profitieren.

Wir werden auch versuchen, mehr Daten von den Teilnehmern zu sammeln und diese konsistenter zu gestalten.

All dies sollte die Ergebnisse der nächsten Runde wertvoller machen und dazu beitragen, unser gemeinsames Verständnis darüber zu verbessern, was es in der Praxis braucht, um hochwertige KI-Lösungen für Unternehmen zu entwickeln.


Strategischer Ausblick

Wir nähern uns dem Ende der Sommerferien und einer neuen Periode für Unternehmen. Was können wir in den kommenden Monaten in der Welt der „LLMs für Unternehmen“ erwarten?

Zunächst einmal werden sich die architektonischen Ansätze zur Lösung von Kundenproblemen weiterentwickeln. Wie wir in der RAG Challenge gesehen haben, gibt es keine einzelne beste Option, die alle anderen deutlich übertrifft. Radikal unterschiedliche Architekturen konkurrieren derzeit: Lösungen basierend auf Wissenszuordnung, klassischen vektorbasierenden RAGs, Systemen mit speziellen Agenten und Wissensgraphen.

Allein durch den Blick auf die Architektur ist es nicht möglich, im Voraus zu sagen, ob es die beste Lösung sein wird. Auch die Anzahl der Codezeilen ist kein klarer Indikator.

Basierend allein auf der Architektur gibt es weiterhin Raum für Qualitätsverbesserungen bei LLM-gesteuerten Lösungen.

LLM-Muster und -Praktiken werden jedoch nicht der einzige Faktor sein, der zukünftige Qualitätsverbesserungen vorantreibt. Wir dürfen nicht vergessen, dass große Sprachmodelle kontinuierlich besser und günstiger werden.

ℹ️ Wenn man sich die Forenantworten und die Online-Präsenz ansieht, scheinen ChatGPT und Anthropic Claude Chat immer schlechter zu werden, insbesondere in den kostenlosen Stufen. Was viele jedoch oft vergessen: Dies sind nutzerorientierte Produkte, die zum Feldtest neuer Versionen von großen Sprachmodellen verwendet werden.

Unternehmen sind motiviert, die darunter laufenden LLMs so günstig wie möglich zu machen. Und genau das hat OpenAI in den letzten Jahren getan.

Unternehmen nutzen größtenteils feste, stabile Modelle über die API. Diese Modelle haben eine vorhersehbare Qualität und werden nicht plötzlich schlechter.

Schauen wir uns die Entwicklung der „LLM-Leistung, die man für sein Geld bekommt“ im Laufe der Zeit an. Wir werden ein Diagramm zeigen, das dies basierend auf den Bewertungen von unserem LLM-Leaderboard veranschaulicht.

In diesem Diagramm gruppieren wir die Modelle nicht nach ihren Marketingnamen, sondern nach ihrem Anbieter und Kostensegment.

Hier sehen wir ein interessantes Muster. Für das gleiche Geld konnten wir zu verschiedenen Zeitpunkten unterschiedliche Genauigkeiten erzielen.

In der ersten Hälfte des Jahres 2023 begannen Unternehmen damit, gute Modelle zu veröffentlichen. Alle begannen, diese zu nutzen und darüber zu sprechen. Nachdem sie einen Teil des Marktes erobert hatten, schalteten die Unternehmen in den Kostensparmodus um und veröffentlichten neue, weniger leistungsfähige Versionen innerhalb desselben Tiers. Wir haben darüber in mehreren Berichten des LLM-Leaderboards geschrieben.

Ab 2024, als sogar Google in das KI-Rennen eingestiegen ist, begannen die Unternehmen wieder an der Modellqualität zu arbeiten. Sie bringen neue Modelle heraus, die für das gleiche Geld besser funktionieren.

Der Fortschritt sieht bisher ziemlich konstant aus und wiederholt sich bei mehreren LLM-Anbietern. Das lässt uns glauben, dass LLMs in den nächsten 6 Monaten weiterhin ihr „Preis-Leistungs-Verhältnis“ verbessern werden.

Was bedeutet das? Es ist eine gute Zeit, um LLM-gesteuerte Systeme zu entwickeln, die Unternehmen helfen, mehr Wert zu schaffen. Sie funktionieren bereits gut, aber sie werden noch besser – sowohl durch architektonische Verbesserungen als auch durch die Veröffentlichung leistungsfähigerer LLMs.

Wir werden beide Perspektiven weiterhin in unserem monatlichen LLM-Leaderboard verfolgen.


LLM Benchmarks Archiv

Interessiert an den Benchmarks der vergangenen Monate? Alle Links dazu finden Sie auf unserer LLM Benchmarks-Übersichtsseite!

Mehr erfahren

Transformieren Sie Ihre digitalen Projekte mit den besten KI-Sprachmodellen!

Entdecken Sie die transformative Kraft der besten LLM und revolutionieren Sie Ihre digitalen Produkte mit KI! Bleiben Sie zukunftsorientiert, steigern Sie die Effizienz und sichern Sie sich einen klaren Wettbewerbsvorteil. Wir unterstützen Sie dabei, Ihren Business Value auf das nächste Level zu heben.

* Pflichtfelder

Wir verwenden die von Ihnen an uns gesendeten Angaben nur, um auf Ihren Wunsch hin mit Ihnen Kontakt im Zusammenhang mit Ihrer Anfrage aufzunehmen. Alle weiteren Informationen können Sie unseren Datenschutzhinweisen entnehmen.


Blog
Blog

ChatGPT & Co: November-Benchmarks für Sprachmodelle

Entdecken Sie die neuesten Erkenntnisse aus unseren unabhängigen LLM Benchmarks für November 2024. Erfahren Sie, welche großen Sprachmodelle am besten abgeschnitten haben.

Blog
Blog

ChatGPT & Co: September-Benchmarks für Sprachmodelle

Entdecken Sie die neuesten Erkenntnisse aus unseren unabhängigen LLM Benchmarks vom September 2024. Erfahren Sie, welche großen Sprachmodelle am besten abgeschnitten haben.

Blog
Blog

ChatGPT & Co: Oktober-Benchmarks für Sprachmodelle

Entdecken Sie die neuesten Erkenntnisse aus unseren unabhängigen LLM Benchmarks für Oktober 2024. Erfahren Sie, welche großen Sprachmodelle am besten abgeschnitten haben.

Blog
Blog

In 8 Schritten zu AI-Innovationen im Unternehmen

Künstliche Intelligenz hat sich von einem bloßen Schlagwort zu einem entscheidenden Werkzeug entwickelt, Business Value in Unternehmen zu generieren. Wir verfolgen einen achtstufigen Ansatz, um Unternehmen den Weg zur effektiven Nutzung von AI zu ermöglichen.

Martin WarnungMartin WarnungBlog
Blog

Fehler in der Entwicklung von AI-Assistenten

Wie gut, dass es Fehler gibt: Denn aus ihnen können wir lernen und besser werden. Wir haben genau hingesehen, wie Unternehmen in den letzten Monaten weltweit AI-Assistenten implementiert haben, und haben sie, leider, vielfach beim Scheitern beobachtet. Wie es zum Scheitern kam und was man daraus für künftige Projekte lernen kann, das möchten wir mit Ihnen teilen: Damit AI-Assistenten in Zukunft erfolgreicher umgesetzt werden können!

Jörg EgretzbergerJörg EgretzbergerBlog
Blog

8 Tipps zur Entwicklung von AI-Assistenten

AI-Assistenten für Unternehmen sind ein Hype, und viele Teams arbeiteten bereits eifrig und voller Tatendrang an ihrer Implementierung. Leider konnten wir allerdings sehen, dass viele Teams, welche wir in Europa und den USA beobachten konnten, an der Aufgabe gescheitert sind. Wir bieten Ihnen 8 Tipps, damit Ihnen nicht dasselbe passiert.

TIMETOACT
Dominic LehrDominic LehrBlog
Blog

Microsoft Azure-Ressourcen automatisch skalieren

Im Blog stellen wir Ihnen Autoscale in Azure vor und zeigen, warum es sich lohnt, diese mit der automatischen Skalierung mit IBM Turbonomics zu kombinieren.

TIMETOACT
Marc BastienMarc BastienBlog
Header Blogbeitrag Artificial Intelligence
Blog

Artificial Intelligence (AI) mit Spurhalteassistent im Griff

Die Transparenz und Nachvollziehbarkeit von AI ist die größte Herausforderung für die Nutzung von AI. Im Zusammenhang mit fairer Beurteilung von Menschen oder menschlichem Verhalten sowieso. Im Zusammenhang mit anderen Daten würden wir konsequenterweise in absehbarer Zeit komplett den Durchblick über Zusammenhänge in den Daten verlieren, wenn wir der AI allein das Feld überließen.

TIMETOACT
Referenz
Referenz

Standardisiertes Datenmanagement schafft Basis für Reporting

TIMETOACT implementiert für TRUMPF Photonic Components ein übergeordnetes Datenmodell in einem Data Warehouse und sorgt mit Talend für die notwendige Datenintegrationsanbindung. Mit diesem standardisierten Datenmanagement erhält TRUMPF künftig Reportings auf Basis verlässlicher Daten und kann das Modell auch auf andere Fachabteilungen übertragen.

TIMETOACT
Service
Service

Eventreihe: KI Governance

Die EU hat sich auf schärfere Regeln zur Nutzung von Künstlicher Intelligenz geeinigt. Ihre Auswirkungen und weitere wichtige Aspekte von "KI Governance" beleuchten wir in unserer Eventserie.

TIMETOACT
Dominic LehrDominic LehrBlog
Blog

Elastic Block Storage: Performance und Kosten optimieren

Wir geben Ihnen einen Überblick zu EBS. Und: zeigen Ihnen, wie IBM Turbonomic Sie bei Performance und Kosten unterstützt.

TIMETOACT
Dominic LehrDominic LehrBlog
Blog

Azure Cloud: Kosten mit IBM Turbonomic optimieren!

Im Blog erfahren Sie, wie Sie Ihre Microsoft Azure Kosten senken und dabei die bestmögliche Performance sichern. Und: wie IBM Turbonomic dabei unterstützen kann.

TIMETOACT
Dominic LehrDominic LehrBlog
Blog

AWS Cloud: So optimieren Sie Ihre Kosten mit IBM Turbonomic!

Wir geben Ihnen einen Überblick über die verschiedenen Methoden des AWS-Cloud-Kostenmanagements.

TIMETOACT
Blog
Blog

In 6 Schritten zur passenden Data Analytics-Lösung

Um Innovation im Unternehmen voranzutreiben, braucht es eine state-of-the-art Data Analytics-Lösung. Oftmals ist hier eine Modernisierung von Nöten. Erfahren Sie in sechs Schritten, wie Sie die für Sie passende Lösung finden!

TIMETOACT
Dominic LehrDominic LehrBlog
Blog

Amazon EC2: Performance richtig messen und optimieren!

Im Blog zeigen wir Ansätze zum Messen und Verwalten der Leistung von EC2-Instanzen. Zudem erfahren Sie, wie Sie mit IBM Turbonomic die Performance der darauf betriebenen Anwendungen optimieren.

TIMETOACT
Martin LangeMartin LangeBlog
Checkliste als Symbol für die verschiedenen To Dos im Bereich Lizenzmanagement
Blog

Lizenzmanagement fest im Griff - Das sollten Sie wissen!

Lizenzmanagement hat nicht nur Relevanz für das Thema Compliance, sondern kann auch Kosten und Risiken minimieren. Mehr dazu im Beitrag.

TIMETOACT
Referenz
Referenz

TIMETOACT unterstützt KC Risk bei Benchmarking & Reporting

TIMETOACT unterstützte die KC Risk AG bei der Integration, Aufbereitung und Visualisierung ihrer Kundendaten. Alle Informationen stehen nun zentral zur Verfügung, sind per Knopfdruck abrufbar und Berechnungen erfolgen automatisiert.

TIMETOACT
Referenz
Referenz

Standardisiertes Datenmanagement bei TRUMPF

Die effiziente Verwaltung und zentrale, nachvollziehbare und qualitätsgesicherte Bereitstellung von Unternehmensdaten ist wichtiger denn je, um Entscheidungen zu treffen und die Datenverwendung zu optimieren – ganz besonders, wenn täglich bis zu 2 Terabyte an Daten bewegt werden. TIMETOACT implementiert für TRUMPF Photonic Components ein übergeordnetes Datenmodell in einem Data Warehouse und sorgt mit Talend für die notwendige Datenintegrationsanbindung und Katalogisierung. Mit diesem standardisierten Datenmanagement erhält TRUMPF künftig Reportings auf Basis verlässlicher Daten - mit der Option, Vorgehen und Modell zukünftig auch auf andere Fachabteilungen übertragen.

TIMETOACT
Referenz
Referenz

IAV erreicht ISO/IEC 5230 Zertifizierung

IAV hat ihr Open Source Compliance Programm nach ISO/IEC 5230 zertifizieren lassen und damit die Transparenz im Umgang mit Open Source Software, insbesondere im Software-Entwicklungsprozess erhöht. Durch die Zertifizierung nach ISO/IEC 5230 kann IAV in Zukunft potenzielle Risiken im Umgang mit Open-Source-Software verringern. Darüber hinaus wird durch die Zertifizierung das Vertrauen von Kunden und Partnern in die Lieferkette erheblich gestärkt. Begleitet wurde das Zertifizierungsverfahren von der TIMETOACT GROUP. Die Softwareberatung unterstützte bei der Reifegradanalyse, der Nachverfolgung von Befunden und bei der finalen Auditierung und Zertifizierung durch ARS – einem Unternehmen der TIMETOACT GROUP.

TIMETOACT
Webinar
Webinar

Webinar: KI-Lösungen in Rekordzeit umsetzen und einsetzen

Erfahren Sie, wie Sie mit Mendix und AWS Bedrock nicht nur IT-Engpässe überwinden, sondern auch fortschrittliche KI-Anwendungen umsetzen. Anhand realer Beispiele, Best Practices und konkreter Handlungsempfehlungen geben wir Ihnen das nötige Know-how, um KI gewinnbringend in Ihre Prozesse zu integrieren.

TIMETOACT
Technologie
Headerbild zu IBM Watson Discovery
Technologie

IBM Watson Discovery

Mit Watson Discovery werden Unternehmensdaten mittels moderner KI durchsucht, um Informationen zu extrahieren. Dabei nutzt die KI einerseits bereits antrainierte Methoden, um Texte zu verstehen, andererseits wird sie durch neues Training an den Unternehmensdaten, deren Struktur und Inhalten ständig weiterentwickelt und so die Suchergebnisse ständig verbessert.

TIMETOACT
Technologie
Headerbild zu Cloud Pak for Data – Test-Drive
Technologie

IBM Cloud Pak for Data – Test-Drive

Wir wollen durch die Bereitstellung unserer umfassenden Demo- und Kundendatenplattform diesen Kunden eine Möglichkeit bieten, sehr schnell und pragmatisch einen Eindruck der Technologie mit ihren Daten zu bekommen.

TIMETOACT
Referenz
Referenz

Interaktives Onlineportal identifiziert passende Mitarbeiter

TIMETOACT digitalisiert für KI.TEST mehrere Testverfahren zur Bestimmung der beruflichen Intelligenz und Persönlichkeit.

TIMETOACT
Technologie
Headerbild zu IBM Cloud Pak for Data Accelerator
Technologie

IBM Cloud Pak for Data Accelerator

Zum schnellen Einstieg in bestimmte Use Cases, konkret für bestimmte Geschäftsbereiche oder Branchen, bietet IBM auf Basis der Lösung „Cloud Pak for Data“ sogenannte Akzeleratoren, die als Vorlage für die Projektentwicklung dienen, und dadurch die Umsetzung dieser Use Cases deutlich beschleunigen können. Die Plattform selbst bringt alle notwendigen Funktionen für alle Arten von Analyticsprojekten mit, die Akzeleratoren den entsprechenden Inhalt.

TIMETOACT
Technologie
Headerbild zu IBM Watson Assistant
Technologie

IBM Watson Assistant

Watson Assistant erkennt Intention in Anfragen, die über multiple Kanäle eingehen können. Watson Assistant wird anhand Real-Live Anforderungen angelernt und kann aufgrund der agierenden KI Zusammenhänge und Intention der Anfrage verstehen. Umfangreiche Rechercheanfragen werden an Watson Discovery geroutet und nahtlos in das Suchergebnis eingebettet.

TIMETOACT
Service
Service

KI Governance

Die EU hat sich auf schärfere Regeln zur Nutzung von Künstlicher Intelligenz geeinigt. Ihre Auswirkungen und weitere wichtige Aspekte von "KI Governance" erfahren Sie hier.

TIMETOACT
Referenz
Referenz

Managed Service Support für optimales Lizenzmanagement

Zur Sicherstellung der Software Compliance unterstützt TIMETOACT die FUNKE Mediengruppe im Rahmen eines SAM Managed Services für Microsoft, Adobe, Oracle und IBM.