Blog PIKON Deutschland AG
Search

Geschäftspotenziale mit LLMs und KI-Agents nutzen

Inhalt

Im November 2022 veröffentlichte OpenAI ChatGPT und löste damit großes Interesse im Bereich der Künstlichen Intelligenz aus. ChatGPT ist ein textbasierter Chatbot, der darauf ausgelegt ist, natürliche Sprache zu verstehen und menschenähnliche Texte zu generieren.

ChatGPT nutzt – ebenso wie andere bekannte Chatbots wie Gemini, Claude, Mistral, LLaMA und DeepSeek – sogenannte Large Language Models (LLMs), um Sprache zu verarbeiten und in menschlicher Ausdrucksweise zu antworten. In diesem Artikel erläutern wir, wie und warum diese Chatbots funktionieren, zeigen Anwendungsfelder von LLMs auf und liefern anschauliche Beispiele.

Large Language Models verstehen

Bevor wir uns mit den Besonderheiten von Large Language Models (LLMs) beschäftigen, ist es wichtig, den übergeordneten Kontext der Künstlichen Intelligenz (KI) zu verstehen.

KI beschreibt die Fähigkeit von Computersystemen, Aufgaben auszuführen, die typischerweise menschliche Intelligenz erfordern – etwa das Verstehen und Erzeugen von Sprache. Innerhalb des KI-Bereichs ist Machine Learning (ML) ein zentrales Teilgebiet, das auf statistische Methoden zurückgreift, um Muster in Daten zu erkennen und Zusammenhänge zwischen Eingaben und Ausgaben zu modellieren. Im Kern steht dabei das Machine Learning-Modell – eine mathematische Funktion, die Eingaben verarbeitet und daraus Vorhersagen ableitet.

Deep Learning (DL), ein fortgeschrittenes Teilgebiet des ML, nutzt besonders leistungsfähige Modelle und große Datenmengen, um komplexe Muster zu erkennen. Diese Modelle – sogenannte neuronale Netze – bestehen aus zahlreichen Parametern, den sogenannten Gewichten, die ihre Größe und Komplexität bestimmen. Je mehr Gewichte ein Modell enthält, desto größer und potenziell leistungsfähiger ist es.

Generative AI (generative KI) ist ein spezieller Bereich des Deep Learnings, der sich auf die Erstellung neuer Inhalte fokussiert – und genau hier sind Large Language Models angesiedelt.

LLMs sind Deep-Learning-Algorithmen, die speziell für die Arbeit mit Text entwickelt wurden. Sie sind in der Lage, zusammenhängende und kontextuell passende Antworten auf Basis der erhaltenen Eingaben zu generieren.

Begriff

Stellen Sie es sich vor wie…

Was es macht

Beispiel

Machine Learning

Ein Modell, das aus Beispielen lernt

Trifft einfache Vorhersagen und Entscheidungen

Vorhersage von Hauspreisen

Deep Learning

Ein fortgeschrittener ML‑Algorithmus 

Verarbeitet komplexe Eingaben (Bilder, Sprache) 

Gesichtserkennung in Fotos

Generative AI

Ein kreatives Deep‑Learning‑Modell

Erzeugt Texte, Bilder usw.

Chatbot wie ChatGPT, KI-generierte Kunst

Tabelle: Vergleichstabelle der KI-Disziplinen

1. Machine Learning

Stellen Sie es sich vor wie…

Ein Modell, das aus Beispielen lernt

Was es macht

Trifft einfache Vorhersagen und Entscheidungen

Beispiel

Vorhersage von Hauspreisen

2. Deep Learning

Stellen Sie es sich vor wie…

Ein fortgeschrittener ML-Algorithmus

Was es macht

Verarbeitet komplexe Eingaben (Bilder, Sprache)

Beispiel

Gesichtserkennung in Fotos

3. Generative AI

Stellen Sie es sich vor wie…

Ein kreatives Deep‑Learning‑Modell

Was es macht

 Erzeugt Texte, Bilder usw.

Beispiel

Chatbot wie ChatGPT, KI-generierte Kunst

Segmentieren von LLMs

Mit diesem Vorwissen im Hinterkopf wollen wir den Begriff „Large Language Model“ genauer betrachten. Beginnen wir mit dem Wort „Large“. Es bezieht sich auf die Größe des Text‑Trainingsdatensatzes. Um das Ausmaß zu verdeutlichen: GPT‑3 (eines der ersten modernen LLMs) wurde mit 570 GB komprimiertem Klartext trainiert – das entspricht mehr als 1,14 Millionen Büchern wie „Harry Potter und der Stein der Weisen“. Heutige LLMs enthalten noch deutlich mehr Informationen. Der Grund für solche Datenmengen liegt in der Beschaffenheit menschlicher Sprache: Sie ist vielfältig, folgt Mustern, kombiniert Wörter auf unterschiedliche Weise und erlaubt zahlreiche Ausdrucksvarianten. Ein besseres Sprachverständnis ergibt sich daher aus einer größeren Anzahl von Sprachbeispielen – ähnlich dem Erlernen einer Fremdsprache.

Als Nächstes betrachten wir „Language“. Dieser Begriff unterstreicht die Hauptfunktion von LLMs: Sie verarbeiten Texteingaben und generieren Textausgaben. Dabei sind LLMs zwar exzellent im Umgang mit Sprache, jedoch nicht dafür ausgelegt, mathematische Berechnungen durchzuführen. Zahlreiche Beispiele zeigen, dass LLMs bei einfachen Rechenaufgaben wie Addition oder Multiplikation oft Schwierigkeiten haben.

Schließlich das Wort „Model“. Moderne LLMs basieren auf einem Algorithmus namens Transformer, der 2017 im Paper „Attention Is All You Need“ von Vaswani et al. vorgestellt wurde. Die zentrale Innovation dieses Verfahrens ist der Attention-Mechanismus, der es dem Modell ermöglicht, die Relevanz und Beziehungen von Wörtern in einer Sequenz zu erkennen. So kann beispielsweise in dem Satz „The animal didn’t cross the street because it was too tired“ das Modell mithilfe von Attention verstehen, dass sich „it“ auf „the animal“ bezieht.

Wie LLMs funktionieren

Obwohl wir hier nicht auf alle mathematischen und technischen Details des Transformer-Algorithmus eingehen, möchten wir einige zentrale Aspekte hervorheben, die für Sie als LLM-Anwender relevant sind. Wesentlich ist, dass LLMs Wörter nicht so verwenden wie Menschen. Stattdessen arbeiten sie mit Tokens, die Wörter, Wortbestandteile oder sogar Satzzeichen sein können. Wenn ein LLM beispielsweise den Satz „I am happy!“ verarbeitet, wird er in die Tokens [„I“, „ am“, „ happy“, „!“] zerlegt. LLMs müssen nicht alle existierenden Wörter kennen, sondern nutzen ein Token‑Verzeichnis, aus dem sie Wörter zusammensetzen – insbesondere längere. Das Wort „unbelievable“ könnte etwa in die Tokens „un“, „believe“ und „able“ aufgeteilt werden, die auch in vielen anderen Wörtern wiederzufinden sind.

Diese Tokens werden anschließend durch Embedding‑Vektoren dargestellt, also numerische Repräsentationen von Text, die seine semantische Bedeutung bewahren. Computer verstehen keine Wörter im menschlichen Sinn, sind jedoch versiert im Umgang mit Zahlen. Der Transformer‑Algorithmus führt alle erforderlichen Berechnungen auf diesen Embedding‑Vektoren aus, um eine Ausgabe zu erzeugen. Die Ausgabe selbst ist nicht direkt ein Wort, sondern eine Wahrscheinlichkeitsverteilung über alle Tokens im Verzeichnis. Im letzten Schritt wird das Token mit der höchsten Wahrscheinlichkeit ausgewählt – jenes, das in ähnlichen Sequenzen im Trainingsdatensatz am häufigsten auftritt (in der Praxis ist der Vorgang etwas komplexer, doch der Einfachheit halber lassen wir die Details hier aus).

Wenn Sie ChatGPT schon einmal verwendet haben, ist Ihnen vielleicht aufgefallen, dass es die Antwort Wort für Wort generiert, anstatt die gesamte Antwort auf einmal zu liefern. Dieses Verhalten ist auf die autoregressive Natur von LLMs zurückzuführen, bei denen das Modell die Ausgabe auf der Grundlage aller vorherigen Eingaben in der Sequenz vorhersagt, bis es das Ende der Ausgabe erreicht.

Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Mehr Informationen

Verschiedene Anwendungsfälle

Wie bereits erwähnt, sind Large Language Models für die Arbeit mit Textdaten konzipiert. Das bedeutet, dass sie für die folgenden Aufgaben eingesetzt werden können:

  • Texterstellung, einschließlich der Erstellung von Inhalten und kreativem Schreiben.
  • Beantwortung von Fragen und Informationsbeschaffung; KI-gestützte Chatbots und Wissensdatenbanken
  • Zusammenfassung von Dokumenten
  • Textübersetzung
  • Codegenerierung
  • Alles, was Text als Informations- oder Kommunikationsquelle nutzt.

Ein bekanntes Beispiel für ein System, das ein LLM nutzt, ist Retrieval-Augmented Generation (RAG). Im Wesentlichen handelt es sich bei RAG um ein LLM, das mit einer spezifischen Informationsquelle (z. B. interne Dokumentation) angereichert wurde, die nicht für das Training des Modells verwendet wird, sondern stattdessen dazu dient, seine Antworten mit relevanten, aktuellen Informationen zu ergänzen. Dieser Ansatz verbessert die Fähigkeit des Modells, genaue und kontextgerechte Antworten zu geben.

Vorteile und Einschränkungen

Wie bei jeder Form von KI-System haben auch Large Language Models Vor- und Nachteile, die man kennen sollte, bevor man sie in Geschäftsprozesse integriert.

Einer der größten Vorteile von LLMs ist ihre Fähigkeit, eine Vielzahl textbezogener Aufgaben in unterschiedlichen Bereichen zu bewältigen. Außerdem erzeugen LLMs menschenähnliche Texte, die an individuelle Anforderungen angepasst werden können. Durch die Integration von LLMs lassen sich repetitive Aufgaben automatisieren, die Inhaltserstellung beschleunigen, Zeit und Kosten sparen sowie Prototyping und Kreativität unterstützen.

LLMs neigen jedoch zu Halluzinationen, also zur Generierung falscher oder erfundener Inhalte. Dies geschieht, weil das Modell auf Basis der Trainingsdaten den wahrscheinlichsten Text vorhersagt. Ebenso entscheidend sind die Eigenschaften der Trainingsdaten: Enthalten sie voreingenommene oder fehlerhafte Informationen, können die Ausgaben verzerrt sein oder falsche Entscheidungen herbeiführen. LLMs fehlt nach wie vor menschliches Verständnis und Logik, da sie allein auf Mustern in großen Textmengen basieren. Zudem erfordert der Betrieb von LLMs erhebliche Rechenressourcen, etwa GPU-Cluster oder externe API-Dienste.

Der Aufstieg der KI-Agenten

Wenn man über LLMs spricht, kommt man heutzutage kaum noch um das Thema KI-Agenten herum. KI-Agenten stellen die nächste Evolutionsstufe der KI-Technologie dar und bauen auf den Fähigkeiten von LLMs auf, um autonomere und funktionalere Systeme zu schaffen.

KI-Agenten verstehen

Ein KI-Agent ist ein autonomes Software-Tool, das Aufgaben der natürlichen Texterzeugung und darüber hinaus erfüllen kann. Aber warum brauchen wir KI-Agenten, und wie sind sie mit LLMs zu vergleichen?

LLMs sind in der Lage, Texte zu generieren und arbeiten auf der Grundlage des Wissens, das ihnen während des Trainings vermittelt wurde. Wenn ein Modell beispielsweise im Jahr 2024 trainiert wurde, kann es keine Fragen auf der Grundlage von Fakten beantworten, die im Jahr 2025 entstanden sind. Darüber hinaus sind LLMs speziell für die Textverarbeitung konzipiert, und obwohl sie sich in diesem Bereich auszeichnen, sind ihre Fähigkeiten auf das Erzeugen und Verstehen von Text beschränkt. Die Idee hinter den KI-Agenten besteht darin, das Leistungsspektrum der LLMs zu erweitern, indem sie Aktionen (Funktionen) in den Arbeitsablauf einführen und so als Texteingabe-/Ausgabeschnittstelle fungieren.

KI-Agenten in der Praxis

Betrachten wir ein einfaches Beispiel, um die Leistungsfähigkeit von KI-Agenten zu veranschaulichen. Stellen Sie sich vor, Sie möchten einen Urlaub in Italien planen. Dazu müssen Sie die Hotelpreise vergleichen und die Reise planen. Sie besuchen verschiedene Websites, erstellen eine Tabelle mit möglichen Optionen und vergleichen diese manuell, was viel Zeit in den Entscheidungsprozess investiert.

Ein spezialisierter KI-Agent für Reisen bietet eine Alternative zu dieser Vorgehensweise. Dieser KI-Agent enthält alle notwendigen Tools, um das Scraping von Reise-Websites, die Reservierung und vieles mehr zu automatisieren. Alles, was Sie tun müssen, ist, die Schnittstelle des KI-Agenten zu öffnen, in der Regel eine LLM-Schnittstelle, und die Aufforderung „Planen Sie eine 7-tägige Reise nach Italien im Juni“ einzugeben. Der KI-Agent sammelt selbstständig alle notwendigen Informationen und präsentiert sie Ihnen in formatierter Form, was Ihnen Zeit und Mühe erspart.

Das Tolle an LLMs in KI-Agenten ist, dass sie Ihre natürlichen Texteingaben selbständig verarbeiten und verstehen können, welche Tools zur Erfüllung der Aufgabe verwendet werden müssen. Diese Fähigkeit, natürliche Sprache zu interpretieren und die entsprechenden Aktionen zu bestimmen, macht KI-Agenten unglaublich leistungsfähig und benutzerfreundlich.

Das Rückgrat von KI-Agenten: Model Context Protocol (MCP)

Wenn wir über das Rückgrat von KI-Agenten sprechen, darf das Model Context Protocol (MCP) nicht fehlen. Vorgestellt von Anthropic im November 2024, fungiert MCP als „USB“ oder Konnektor zwischen LLMs und externen Tools bzw. Datenquellen. MCP bietet einen standardisierten Weg, APIs, Datenquellen und Werkzeuge mit LLMs zu verbinden.

Es umfasst drei Hauptkomponenten:

  • MCP-Server: Diese Komponente betreibt Ihr LLM als Backend-System und übernimmt die zentrale Verarbeitung sowie Generierungsaufgaben.
  • MCP-Client: Dient als Schnittstelle – oft in Form eines Chatbots –, über die Nutzer:innen auf natürliche und intuitive Weise mit dem KI-Agenten interagieren.
  • MCP-Host: Hier findet der Aufruf externer Tools, das Management des Kontexts und die Informations­extraktion statt, sodass der KI-Agent komplexe Aufgaben ausführen und mit verschiedenen Systemen interagieren kann.

Agent-to-Agent (A2A) Protokoll

Google hat mit der Einführung des Agent-to-Agent (A2A)-Protokolls einen weiteren Schritt in der agentenbasierten KI getan. Der Grundgedanke bleibt derselbe wie bei einzelnen KI-Agenten, aber der Hauptunterschied besteht darin, dass mehrere KI-Agenten zusammenarbeiten und die Werkzeuge der anderen nutzen, um ihre Aufgaben zu erfüllen.

In unserem Reisebeispiel hatte die Fluggesellschaft ihren eigenen KI-Agenten, den unser Reise-KI-Agent kontaktierte, um Flüge für unsere geplante Reise zu buchen. Diese Zusammenarbeit zwischen den Agenten ermöglicht eine effizientere und umfassendere Aufgabenerledigung, wobei die spezialisierten Fähigkeiten jedes beteiligten Agenten genutzt werden.

Das A2A-Protokoll ermöglicht es KI-Agenten, miteinander zu kommunizieren und zusammenzuarbeiten, so dass ein Netzwerk spezialisierter Agenten entsteht, das komplexe Aufgaben effizienter erledigen kann als ein einzelner Agent. Dieser kollaborative Ansatz ebnet den Weg für fortschrittlichere und leistungsfähigere KI-Systeme, die ein breites Spektrum an realen Problemen bewältigen können.

SAP Lösungen

SAP Business Technology Platform (SAP BTP)

Der wichtigste Zugangspunkt zu LLM-Diensten innerhalb des SAP-Ökosystems ist die SAP Business Technology Platform (SAP BTP). Das Herzstück der KI-Fähigkeiten von SAP ist SAP AI Core, eine robuste Plattform, die es Anwendern ermöglicht, verschiedene KI-Werkzeuge einzurichten und auf generative KI-Services zuzugreifen.

Über SAP AI Core können sich Anwender mit einer Reihe von LLM-Anbietern verbinden, darunter Branchenführer wie Google, OpenAI, Azure und Mistral. Darüber hinaus bietet SAP selbst gehostete Open-Source-Optionen für diejenigen, die ihre eigene Infrastruktur pflegen möchten. Für Unternehmen, die nicht über die notwendige Infrastruktur verfügen, bietet SAP AI Core die Möglichkeit, Open-Source-Modelle direkt zu hosten.

Ergänzend zu SAP AI Core bietet SAP AI Launchpad ein umfassendes Management-Tool, das die Konfiguration und den Einsatz von LLMs optimiert. Mit SAP AI Launchpad können Anwender einfach:

  • Ihr LLM für eine optimale Leistung konfigurieren
  • Sich für eine nahtlose Integration mit anderen SAP-Services verbinden
  • Die Ressourcennutzung überwachen, um einen effizienten Betrieb zu gewährleisten
  • Datensätze integrieren, um das Wissen und die Fähigkeiten des LLM zu erweitern
  • Robuste Sicherheitsmaßnahmen zum Schutz sensibler Daten implementieren

SAP Joule: Der KI-Kopilot

Im Mai 2024 stellte SAP sein eigenes KI-System Joule vor und machte damit einen bedeutenden Fortschritt in den KI-Angeboten des Unternehmens. SAP Joule dient als KI-Copilot mit nahtlosem Zugang zu SAP-Systemen, einschließlich einer Vielzahl von KI-Agenten, die Routineaufgaben im Zusammenhang mit Geschäftsprozessen automatisieren.

Eines der herausragenden Merkmale von Joule ist das Joule Studio, mit dem die Nutzer ihre eigenen KI-Agenten erstellen können, die auf ihre spezifischen Geschäftsanforderungen zugeschnitten sind. Mit Joule Studio können Anwender

  • ihre Tools und Datenquellen miteinander verbinden, um individuelle KI-Agenten zu erstellen
  • diese Agenten über die SAP-Cloud-Infrastruktur für einen skalierbaren und zuverlässigen Betrieb bereitstellen
  • eine breite Palette von Geschäftsfunktionen automatisieren, einschließlich der Planung in der Logistik, der Konfiguration der Buchhaltung, der Personalverwaltung und mehr

Die Vielseitigkeit von Joule erstreckt sich auf verschiedene Geschäftsfunktionen, darunter die Planung in der Logistik, die Konfiguration der Buchhaltung, die Personalverwaltung und vieles mehr. Durch die Automatisierung von Routineaufgaben und die Bereitstellung intelligenter Unterstützung ermöglicht Joule den Mitarbeitern, sich auf höherwertige Aufgaben und strategische Entscheidungen zu konzentrieren.

Neben SAP Joule hat SAP auch eine integrierte Entwicklungsumgebung namens SAP Build Code eingeführt. Mit dieser Umgebung können Entwickler SAP Joule nutzen, um SAP-spezifische Anwendungen zu erstellen und bestehende SAP-Integrationen, APIs und Services zu nutzen. Derzeit können Anwendungen entwickelt werden mit

  • SAP Build low-code für die schnelle Anwendungsentwicklung mit minimalem Programmieraufwand
  • SAP Build Code for Java oder JavaScript für komplexere und kundenspezifische Anwendungen
  • ABAP für die Entwicklung von Anwendungen innerhalb des SAP-Ökosystems

Dieses flexible und umfassende Entwicklungs-Ökosystem ermöglicht es Unternehmen, maßgeschneiderte Lösungen zu erstellen, die die Leistungsfähigkeit von KI nutzen und sich nahtlos in ihre bestehenden SAP-Systeme integrieren lassen.

Demo Video

KI in SAP S/4HANA

Künstliche Intelligenz ist mittlerweile in sehr vielen Anwendungen zu finden und wird auch in SAP S/4HANA immer stärker eingebettet.

Wir zeigen Ihnen im Video, wo KI-Anwendungen in SAP S/4HANA geplant oder bereits integriert sind. Anhand konkreter Beispiele erfahren Sie, welchen Mehrwert dies für Ihre tägliche Arbeit bedeutet.

PIKON's Dienstleistungen zu KI

Bei PIKON unterstützen wir Unternehmen dabei, Large Language Models (LLMs) und KI‑Agenten in ihre Prozesse zu integrieren. Unser umfassendes Serviceangebot umfasst:

1.LLM‑Konfiguration

  • Modellauswahl: Unterstützung bei der Wahl des für Ihre Anforderungen am besten geeigneten LLM.
  • Model Setup: Einrichtung des gewählten Modells für optimale Performance.
  • Fine‑Tuning: Anpassung des Modells, um es noch besser auf Ihre Geschäftsanforderungen abzustimmen.
  • Prompt Engineering: Erstellung effektiver Prompts zur Maximierung der Qualität der Modell‑Ausgaben.

 2. Modell‑Integration

  • Zugriffskonfiguration: Sicherer und effizienter Zugriff auf das LLM einrichten.
  • Systemanbindung: Integration von LLMs in bestehende Systeme (z. B. Chatbots), um deren Funktionen zu erweitern.
  • KI‑Agent‑Entwicklung: Entwicklung individuell angepasster KI‑Agenten für Ihre Geschäftsprozesse.

3. Workshops und Schulungen

  • KI‑Chancen identifizieren: Spezialisierter Workshop zur Ermittlung von Anwendungsfällen, in denen KI‑Tools in Ihre Geschäftsprozesse integriert werden können.
  • Informations‑Workshops: Schulungen, um Ihr Team mit LLMs und der zugrunde liegenden Technologie vertraut zu machen.
  • Training: Tiefgehende Trainingsprogramme, damit Ihr Team LLMs und KI‑Agenten effektiv nutzen und verwalten kann.

Bei PIKON unterstützen wir Sie dabei, KI‑Technologien wie LLMs und intelligente Agenten gewinnbringend für Ihre Geschäftsprozesse einzusetzen. Unsere Expertise geht über KI hinaus – wir bringen fundierte Programmierkenntnisse, SAP‑Fachwissen und Prozess-Know‑how ein. Wir implementieren KI nicht um der Technologie willen, sondern prüfen kritisch, ob KI in einer jeweiligen Herausforderung der richtige Lösungsansatz ist oder ob alternative Methoden effektiver sind, um echten geschäftlichen Mehrwert zu schaffen.

Fazit

Der rasante Fortschritt von Large Language Models und KI‑Agenten verändert grundlegend, wie wir mit Technologie interagieren und Geschäfte betreiben. Von den Grundlagen der KI und des Machine Learnings bis hin zu den neuesten Fähigkeiten von LLMs und KI‑Agenten eröffnen diese Technologien neue Möglichkeiten für Automatisierung, Kreativität und Effizienz. Wie in diesem Artikel dargestellt, zeichnen sich LLMs durch ihre Fähigkeit aus, menschenähnlichen Text zu verarbeiten und zu generieren, was eine Vielzahl von Anwendungsfällen von der Content-Erstellung bis hin zum Kundenservice ermöglicht. Gleichzeitig haben sie jedoch auch Einschränkungen, etwa die Neigung zu Halluzinationen und den Bedarf an erheblichen Rechenressourcen.

Enterprise-Lösungen wie SAP integrieren diese KI‑Technologien zunehmend in ihre Plattformen und bieten Unternehmen leistungsstarke Werkzeuge zur Steigerung von Produktivität und Innovation. Mit der SAP Business Technology Platform, SAP AI Core und SAP Joule können Organisationen die Vorteile von LLMs und KI‑Agenten nutzen, um Routineaufgaben zu automatisieren, intelligente Unterstützung zu erhalten und maßgeschneiderte Anwendungen zu entwickeln, die ihren spezifischen Anforderungen entsprechen.

Bei PIKON haben wir es uns zur Aufgabe gemacht, Unternehmen durch den komplexen Prozess der KI‑Integration zu führen und sie in jeder Phase zu unterstützen. Von der Konfiguration von LLMs über die Modellintegration bis hin zu Workshops und Schulungen ist unser umfassendes Serviceangebot darauf ausgerichtet, Organisationen zu befähigen, das volle Potenzial dieser transformativen Technologien auszuschöpfen.

Die Reise der KI‑Integration hat gerade erst begonnen, und die Möglichkeiten sind vielfältig und spannend. Mit dem richtigen Ansatz und fachkundiger Begleitung können Unternehmen die Kraft dieser fortschrittlichen Technologien nutzen, um ihre Prozesse zu transformieren und ihre Ziele zu erreichen.

Kontakt

Martina Ksinsik
Martina Ksinsik
Customer Success Manager
TAGS
Teilen Sie diesen Beitrag
LinkedIn
XING
Facebook
Twitter
Über den Autor
Ihor Hetman
Ihor Hetman
Ihor Hetman ist als Data Scientist bei der PIKON Deutschland AG tätig. Sein Fokus liegt auf der Entwicklung intelligenter, datengesteuerter Systeme durch den Einsatz von Machine Learning und KI-Technologien.

Schreibe einen Kommentar

Weitere Blog-Artikel zu diesem Thema

Künstliche Intelligenz im Aufstieg: Was kann sie? Was bewirkt sie?