KI-Agenten: Context Engineering filtert 10.000 Alarme in Minuten (Gesponsert)

Shownotes

Wer montags mit 10.000 Alarmen im Dashboard startet, verliert ohne KI-Unterstützung schnell den Überblick. Markus Klose von Elastic erklärt im Gespräch mit „heise meets …“, wie KI-Agenten und Context Engineering diese Herausforderung lösen – und warum moderne KI nicht nur Antworten liefert, sondern direkt Maßnahmen umsetzt.

Der Trend in der KI-Entwicklung geht über reine Zusammenfassungen und Übersetzungen hinaus. Unternehmen setzen zunehmend auf Systeme, die eigenständig Aktionen auslösen: KI erkennt ein Problem in der IT-Infrastruktur, führt das passende Playbook automatisch aus und startet den Server neu – ohne menschliches Zutun. Auch im Security-Analytics-Bereich spart dieser Ansatz wertvolle Zeit, weil Bedrohungen sofort mit aktuellen Informationen abgeglichen und bekämpft werden.

Eine Schlüsselrolle spielt dabei Context Engineering: Je mehr Kontext ein KI-Agent über Datenstrukturen, Anwendungsfälle und Unternehmensumgebungen erhält, desto präziser fallen seine Ergebnisse aus. Mit dem Agent Builder von Elastic lassen sich solche Agenten schnell als Prototyp aufsetzen und schrittweise zur Produktionsreife bringen – etwa für die Wartungsdokumentation im Flugzeugbau, wo Techniker innerhalb von Minuten das richtige Bauteil und die passende Reparaturanleitung finden.

Neugierig geworden? Im Interview verrät Markus Klose außerdem,

  • wie die Vektorsuche strukturierte und unstrukturierte Daten zugänglich macht,
  • warum E-Commerce-Plattformen von semantischer Suche profitieren und
  • welche Rolle automatisierte Entscheidungen in Zukunft spielen werden.

Keine Folge verpassen: Abonnieren Sie jetzt den Podcast heise meets… – Der Entscheider-Talk auf Apple Podcasts, Spotify und Deezer oder per RSS.

Transkript anzeigen

Sprecherin: Diese Folge wurde vom Arbeitgeber des Interviewpartners gesponsert.

heise meets … – Der Entscheider-Talk. Wir besprechen kritische, aktuelle und zukunftsgerichtete Themen aus der Perspektive eines Entscheiders. heise business services begrüßt Persönlichkeiten aus Wirtschaft, Wissenschaft und Politik. Immer aktuell und nah am Geschehen.

Sprecher: Markus Klose von Elastic. Herzlich willkommen bei heise meets …, mein Lieber.

Markus Klose: Servus, hallo Matthias. Schön, dass wir wieder miteinander reden.

Sprecher: Ja, finde ich auch. Wir hatten ja im Herbst schon mal das Vergnügen, einen Podcast aufzuzeichnen. Den empfehle ich an dieser Stelle nochmal gern zum Nachhören. Was wir damals nicht über dich erfahren haben: Du bist ein Trekkie.

Markus Klose: Unter anderem, ja. Also auf meinem LinkedIn-Profil steht sowas wie „Nerd" drauf. Ich bin nicht nur Trekkie. Man sieht es auch ein bisschen im Hintergrund, aber für die Zuhörer – die sehen es leider nicht –, ich bin auch Star-Wars-Fan. Eigentlich bin ich Science-Fiction-Fan, sehr im Thema Star Wars unterwegs, Star Trek auch. Ich habe sogar einige Kostüme, mit denen ich durch die Gegend laufe, bei Charity-Events mitmache und Geld einsammle – für Krebs zum Beispiel. Aber ja, das ist so die Freizeit.

Sprecher: Da müssen wir unbedingt noch mal wieder drüber reden. In Anlehnung aber daran: Viel zu lernen du noch hast. Deshalb bist du heute wieder bei uns. Was haben wir noch zu lernen?

Markus Klose: Na, kommt drauf an. Viel gibt es zu lernen. Es gibt ganz viele Neuerungen, die wir bei Elastic inzwischen gemacht haben. Das letzte Mal haben wir, glaube ich, relativ viel über Observability geredet und welchen Impact das hat. Und seit dem Vierteljahr haben wir sehr viele Fortschritte auch im Thema AI gemacht. Agent Builder ist eine neue Funktionalität bei uns. Im Zusammenhang mit Workflows ist sehr viel passiert. Das könnte ich mir zum Beispiel vorstellen.

Sprecher: Da will ich unbedingt mit dir drüber reden. Lass uns über die Schwerpunkte reden: Grundlagen, Context Engineering, KI-Agenten. Was ist denn in der Zwischenzeit passiert?

Markus Klose: Das Thema AI entwickelt sich ja stetig weiter. Es ist ja nicht nur so, dass wir jetzt neue Funktionalitäten rausbringen, sondern auch die Art und Weise, wie Unternehmen – unsere Kunden oder auch generell – mit dem Thema AI umgehen, hat sich dramatisch weiterentwickelt. Damals hatten wir noch relativ viel mit Anwendungen zu tun oder Applikationen, die rein mit den Daten arbeiten. Das heißt, ich habe die Daten lokal bei mir, hole mir die Informationen raus und nutze das LLM, um dann beispielsweise Zusammenfassungen zu machen, Übersetzungen zu machen oder ein bisschen Mehrwert zu generieren. Und der Trend geht einfach weiter in Richtung Aktionen ausführen. Das heißt, dass ich mir mit Hilfe des LLMs und dem ganzen Ökosystem, was ich habe, nicht nur eine Antwort generiere, sondern schon eine Maßnahme mit generiere oder implementiere.

Das heißt, noch einfacher etwas umzusetzen, eine Frage zu beantworten, eine Reaktion auszulösen – und quasi Time-to-Market? Wenn es jetzt aus dem Thema Observability nochmal geht: Wie kann ich schneller ein Problem beheben? Ohne menschliche Interaktion oder mit reduzierter menschlicher Interaktion vielleicht?

Sprecher: Das heißt, das Problem taucht auf und gleichzeitig kriege ich eine Lösung angeboten.

Markus Klose: Nicht nur angeboten, sondern auch umgesetzt. Genau, auch umgesetzt beispielsweise. Wenn man ganz klassisch beim Beispiel Observability bleibt: Es gibt ja Probleme, die sind bekannt. Keine Ahnung, die CPU ist hoch ausgelastet oder was auch immer. Und dann gibt es in jeder Company Playbooks oder Regeln, was man als SRE, als Entwickler oder als Techniker tut, um so einem Problem vorzubeugen. Jetzt kann man natürlich hergehen und sagen: Wenn ich die Antwort habe, rufe ich jemanden an oder schreibe ein Ticket. Oder ich starte einfach einen Prozess. Bei bestimmten Sachen – wie zum Beispiel einen Server durchstarten – kann man das verskripten. Und damit geht es schneller. In der Hoffnung, dass das Problem damit behoben ist, kann man so etwas implementieren.

Sprecher: Du hast selber gesagt, in Companys gibt es unterschiedliche Regeln. Sag mir doch mal ein, zwei Beispiele für Unternehmen, vielleicht unterschiedlicher Größe. Wie kann das funktionieren? Wie kann das aussehen? Am Ende wird der Admin entlastet. Aber wo seht ihr die klassischen Anwendungsfälle?

Markus Klose: Die klassischen Anwendungsfälle drehen sich wirklich darum, die Leute zu entlasten. Du hast es gerade schön gesagt. Ganz viele Kunden berichten einfach: Wenn ich morgens – wir haben heute Montag –, wenn ich montags morgens auf Arbeit komme und nach meinem Wochenende ins Dashboard reingucke, sehe ich irgendwie 10.000 Alarme.

Sprecher: Da habe ich ein bisschen was zu tun….

Markus Klose: Eben, genau.

Und das kann man dann abarbeiten, wenn man möchte. Oder man kann einfach die AI nutzen und sagen: Kannst du mir aus diesen 10.000 Alarmen – oder seien es 100 oder welche Zahl auch immer – einfach mal herausarbeiten, ob du irgendeinen Pattern erkennst, ob du einen Root Case findest? Also diese klassische Heuhaufen-Nadel-Geschichte: Worauf soll ich mich fokussieren bei 1.000 oder 10.000 Alarmen? Und da ist AI verdammt hilfreich, vor allem auch im Kontext mit den eigenen Daten und der eigenen Umgebung. Wenn wir beim Thema Observability bleiben: Ich habe jetzt 20.000 Meldungen oder 10.000. Dann kann die AI mir sagen: Guck dir diese fünf an, das betrifft den Server. Dann weiß ich, wo ich anfangen muss. Bei 10.000 habe ich sonst keine Ahnung, wo ich anfangen soll.

Sprecher: Nee, also ich habe relativ viel – ich sage mal ganz despektierlich – Datenmüll. Wenn ich mich da durcharbeite, ist Freitag.

Markus Klose: Quasi, genau. Ja, das wollen wir verhindern. Und das ist genau der Ansatz, den viele Kunden mit AI verfolgen. Aber das ist jetzt nur ein Beispiel. Die Alert Fatigue ist ein gängiges Problem. Es geht darum, eine Noise Reduction zu erreichen: einfach schauen, was habe ich an Informationen, kann ich ein Pattern rausholen, kann ich mich auf etwas konzentrieren? Das ist eine Möglichkeit.

Sprecher: Und die Andere?

Markus Klose: Und es gibt mehrere andere. Wenn ich jetzt mal in Richtung E-Commerce schaue: Wir wissen ja alle, vermutlich hat jeder irgendwo seine spezielle Plattform, auf der er online kauft. Und jetzt, ohne hier Werbung zu machen …

Sprecher: Wir nennen keine Namen, ganz anonym.

Markus Klose: Na ja.

Jede Plattform hat ihre Suche. Auch Google oder eine andere Suchmaschine hat ihre Art und Weise, wie sie funktioniert. AI beziehungsweise Funktionalitäten aus dem Vektorsuchumfeld können einfach helfen, das Erlebnis für den Anwender schöner zu machen. Damit meine ich jetzt nicht zwingend mehr verkaufen, sondern das Richtige verkaufen oder das Richtige anbieten oder das Richtige finden. E-Commerce ist nur ein Beispiel. Die klassische Google-Suche ist ein anderes.

Sprecher: Wie könnte das beispielsweise bei Google aussehen?

Markus Klose: Na, bei Google ist halt die Frage, was der Anwender sucht. Ganz, ganz früher haben wir einfach nur zwei, drei Suchbegriffe reingeschrieben. Keine Ahnung, „grünes Haus" oder irgendwie so was. Und man hat alles aufgelistet bekommen, was mit „grünem Haus" zusammenhängt. Google weiß ja tendenziell schon ein bisschen was über uns. Wo ist der Browser? Also von wo sendet der Browser? Deutschland zum Beispiel. Dann könnte ich diese Information mit in den Kontext nehmen und mir ein grünes Haus in Deutschland anzeigen lassen. Das ist ein ganz einfaches Beispiel. Das kann man auch mechanisch machen. Aber je mehr der Anwender weiß – vielleicht auch über die bisherige Suchhistory –, desto mehr kann er in die Suchanfrage hinein interpretieren, um so ein besseres Ergebnis zu erzielen.

Sprecher: Zurück zu Elastic. Diese Daten – das grüne Haus beispielsweise, ein bisschen potenziert –, wie werden diese Daten in realen Szenarien mit und durch KI zugänglich?

Markus Klose: Eine sehr spannende Frage. Es gibt, grob gesehen, zwei Kategorien. Ich würde es jetzt mal in zwei Töpfe unterteilen. Es gibt die ganz klassischen strukturierten Daten. Das sind Metriken, Log-Informationen, wo wirklich Feld, Inhalt und eine Bedeutung zueinander gehören. Der Titel eines Buches zum Beispiel ist eindeutig definiert. Auf der anderen Seite gibt es die unstrukturierten Daten. Und da ist das Buch gerade ein super Beispiel. Der ganze Volltext ist eine unstrukturierte Sammlung mit vielen Informationen drin. Ich kann natürlich eine Struktur reinbringen – Kapitel vielleicht oder Seiten –, aber im Prinzip sind das zwei verschiedene Informationstypen. Mit den strukturierten Daten kann man in der Suche, wenn ich die Anwendung kenne beziehungsweise den Use Case, viel machen. Bleiben wir beim Beispiel Bücher. Ich habe einen Buchverlag, der eine Suche machen möchte. Da haben wir genug Beispiele bei uns. Wenn jemand nach einem Titel sucht, nach „Perry Rhodan", dann weiß ich ganz genau: Titel „Perry Rhodan" kann ich gut suchen. Wenn ich jetzt nach einer Figur suche – also ich bin auch Science-Fiction- und Perry-Rhodan-Fan …

Sprecher: Ich merke das schon, ja, ja.

Markus Klose: Wenn ich jetzt nach „Julian Tifflor" suche oder so, der wird jetzt nicht zwingend im Titel eines Buches stehen, aber irgendwo im Volltext, also in den unstrukturierten Informationen. Die Frage ist jetzt – und da kann wieder AI helfen –: Julian Tifflor, ich weiß als Mensch, ist eine Person. Das kann mir jetzt auch die Suche helfen das zu klassifizieren und dann entsprechend nach Personen zu suchen. Im unstrukturierten Kontext oder auch in einem Feld, wo nach Personen gesucht wird. Autor ist es nicht zwingend, aber so nach Teilnehmer oder Protagonist zum Beispiel. Macht das so ein bisschen Sinn?

Sprecher: Ich verstehe. Es nimmt ein bisschen den Sex vom Lesen, das Beispiel.

Ja, das ist nicht so schlimm. Weil wenn mir die KI schon den Mörder in dem Krimi vorher sagt – guck mal auf Seite 563, da steht drin, wer das Hackebeilchen in der Hand hatte –, dann ist es für mich als Leser langweilig. Als Admin sage ich: Super, habe ich sofort die Informationen und die Daten gefunden.

Markus Klose:: Ja gut, zum einen, klar, der Gärtner ist immer der Mörder.

Ja, ich gebe dir da recht. Und das ist ja auch nicht Sinn und Zweck, jetzt quasi das Buch zusammenfassen zu lassen. Wobei -

Sprecher: Es ist ein gutes Beispiel..

Markus Klose: es ist auch ein verdammt guter Use Case. Und das sehe ich auch ganz viel in meiner Firma. Ich sehe das auch in anderen Firmen. Ich habe so viel Dokumentation in meinem System – über bestimmte Kunden, über bestimmte Projekte, über unser Produkt. Ich kann mir das alles durchlesen, ich kann es mir aber auch zusammenfassen lassen. Wo sind die Highlights? Was könnte für den Kunden passen? Was könnte für diesen Use Case passen? Also das Zusammenfassen – den Mörder finden oder was auch immer – ist vielleicht gar nicht mal doof für manche Use Cases.

Sprecher: Jetzt kommt natürlich die spannende Frage aus KI-Sicht: Wie strukturiere ich diese Daten? Wie funktioniert das? Wie macht ihr das?

Markus Klose: Da gibt es mehrere Möglichkeiten. Zum einen, wenn man jemanden hat, der die Daten kennt, dann kann er sie manuell strukturieren. Also beim Ingest kann ich hergehen und sagen: Diese ersten zehn Bytes oder die ersten zehn Zeichen sind Artikelname, Zeitstempel oder was auch immer. Das heißt natürlich, ich muss relativ viel Aufwand in die Strukturierung am Anfang reinstecken. Das funktioniert halt nicht immer und macht auch keinen Sinn bei zu vielen und zu unstrukturierten Daten. Da kann die AI - die künstliche Intelligenz helfen. Es gibt sehr viele Modelle, die – um im Beispiel zu bleiben – aus einem Text Orte herausholen können oder Personen oder ob es um Gerichte geht, also irgendwelche Zutatenlisten oder was auch immer. Es gibt Modelle, mit denen ich Informationen aus Volltext extrahieren kann. Es gibt auch viele Möglichkeiten, über die Struktur zu schauen, um Kapitel herauszufinden. Also ich kann mir durch AI - künstliche Intelligenz Struktur dazubauen. Wenn ich jetzt ein bisschen in Richtung Agent Builder weitergucke – weil auch das manuelle Strukturieren wird ein bisschen viel Arbeit –, kann ich auch mit unstrukturierten Daten arbeiten und dem Modell oder der AI selbst überlassen, wie sie an die Sache rangeht, an den Volltext. Sie kann dann ausprobieren, ob sie das eine Modell nutzen möchte oder ein anderes mag. Und dann kann sie halt on the fly mit dem Agent Builder oder einer anderen Technologie quasi selbst eine Struktur zur Suchzeit generieren.

Sprecher: Wir kommen mal weg von den Krimis und gehen tatsächlich zu den Handbüchern, die es im Unternehmen ohne Ende sind. Du hast jetzt diese Daten nach dem einen oder anderen Modell strukturiert. Wie entsteht jetzt tatsächlich der Nutzen, wo man sagen kann: Boah, das hat funktioniert?

Markus Klose: Na ja, die Daten liegen erstmal im System drin – irgendeinem System. Im Optimalfall liegen sie bei ElasticSearch, wenn wir jetzt aus unserer Brille gucken. Dann kann ich mit dem Agent Builder darauf zugreifen. Wenn ich eine Struktur kenne, kann ich dem Agent Builder sagen: Hör zu, dieser Datentopf, den du jetzt durchsuchst, ist so und so aufgebaut. Ich kann quasi ein Mapping mitgeben. Ich kann bestimmte Tools mitgeben, wie er auf diesen Index, auf die Struktur zugreifen kann. Und dann kann er ganz einfach die Information herauslesen. Ich kann aber auch sagen: Du kennst die Struktur nicht, du weißt nur grob, dass es sich zum Beispiel um ein Handbuch handelt. Dann kann das Modell hergehen und sagen: Hm, wie sind typischerweise Handbücher aufgebaut? Gibt es irgendwo eine Executive Summary oben? Gibt es einen Titel? Gibt es irgendwo eine Schritt-für-Schritt-Beschreibung? Und dann kann das Modell helfen und schauen: Ich habe ein Problem, gehe alle Handbücher durch – welches von diesen Lösungsszenarien oder Patterns passt auf mein Problem? Und dann schlägt es das dem Anwender vor oder führt es direkt aus.

Sprecher: Du hast es ja schon ganz plastisch beschrieben. Aber wenn Elastic und ein Unternehmen zusammenarbeiten – ich habe ja immer ganz gerne Beispiele –, kannst du mir so zwei, drei Beispiele sagen, wo das funktioniert? Wie macht ihr was mit euren Kunden?

Markus Klose: Namen darf ich jetzt an der Stelle nicht nennen. Aber stell dir vor, wir haben einen Kunden, der baut Flugzeuge. Und so ein Flugzeug hat ein oder zwei Teile, die man nutzt, die man austauschen muss, die man warten muss. Da ist dann die Frage: Was passiert, oder wo finde ich die Informationen zu einem Teil, zu einem Wartungsprozess? Und da kann AI wirklich wunderbar helfen. Ich habe jetzt hier: Der Gast auf Sitz 22A hat sich beschwert, es klappert rechts irgendwie. Na gut, was mache ich jetzt mit der Information?

Sprecher: Der kritische Fluggeist, den kennen wir alle.

Markus Klose: Der bin ich meistens. Nein. Also da kann ich jetzt einfach mit dieser Information reingehen, und dann kann die AI rausfinden: Mit welchem Flugzeug war es denn, falls ich diese Information habe? Was ist denn Sitz 22A? Was ist denn in der Nähe von Sitz 22A für Bauteile? Ein bisschen gesponnen jetzt, aber das sind durchaus reale Use Cases, wo man einfach mit Hilfe von ganz vielen Dokumentationen – und darauf will ich hinaus –, viel Daten, viel Kontext und einer kleinen Problemstellung die richtigen Informationen und die richtigen Lösungsansätze findet.

Sprecher: Auch wenn wir jetzt nicht genau wissen, welcher Kunde bei euch die Flugzeuge baut – kannst du ungefähr beziffern: Dieses Bauteil, was an Sitz 22A ausgetauscht werden muss, wie ist der Zeitaufwand? Wie war es vorher? Wie ist es jetzt mit Euch und der Kooperation?

Markus Klose: Gute Frage. Wie es vorher war, weiß ich nicht. Da habe ich keinen Einblick beim Kunden.

Sprecher: Wir sagen mal: lang.

Markus Klose: Würde ich jetzt auch mal annehmen. Kannst du dir einfach mal im Kopf überlegen, was alles passieren muss, damit jemand, der keine AI hat, der einfach nur Dokumentation hat, die richtige Information findet.

Sprecher: Genau, das war der Hintergrund meiner Frage. Du hast eine endlos dicke Dokumentation, mehrere Handbücher, und dann fängst du an zu suchen. Aber welchen Vorteil habe ich jetzt? Wie schnell bin ich jetzt?

Markus Klose: Na ja, jetzt bist du unter Umständen – wenn du das Problem identifiziert hast, also im Flugzeug zu warten und auszutauschen – innerhalb von Minuten. Weil die Prozedur geht online vor sich, wir sind quasi im Index, die Daten sind da. Ich muss sie nicht erst aus dem Schrank holen, wälzen, suchen, sondern ich kann direkt mit einer natürlichen Abfragesprache sagen: Sag mir mal, welches Teil kaputt ist, wenn es da klappert.

Sprecher: Das ist ein beeindruckender Zeitgewinn, wenn du sagst: von – ich sage mal in Anführungszeichen – „sehr lang" auf mehrere Minuten.

Markus Klose: Ist es. Und die Bodenmannschaft steht ja massiv unter Zeitdruck, wenn so ein Flugzeug ankommt. Wir alle sind Gäste, wir wollen quasi sofort weiterfliegen. Und die Wartungscrew muss ja auch ihre Zeit einhalten. Wenn sie schnell ihre Informationen finden, können sie auch schneller fixen.

Sprecher: Völlig klar. Hast du noch ein zweites Beispiel in dieser Art, was so eindrücklich ist?

Markus Klose: In welche Richtung darf es denn gehen?

Sprecher: Ich bin da völlig offen.

Markus Klose: Wir haben Situationen – du weißt ja, wir sind auch relativ viel mit Security Analytics unterwegs, also mit SIEM und EDR. Und unsere Kunden haben genau da die Situation, rauszufinden: Ich habe wieder 20.000 Alarme oder irgendwelche Events sind passiert. Was davon ist jetzt schädlich? Ich kann das Ganze auch abgleichen mit den neuesten Informationen aus Online-Publikationen zu neu entdeckten Bedrohungen, Beschreibungen zum Beispiel. Denn nicht alles, was in einem System passiert, muss ja zwingend sofort erkannt werden. Aber wenn ich ein Event habe, kann ich es abgleichen mit den aktuellsten Informationen, ob es sich um ein bekanntes Pattern oder ein Problem handelt. Wenn ja, kann ich reagieren an der Stelle. Auch hier wieder: Ich habe eine Zeitersparnis. Und bei Bedrohungslagen oder bei Security ist es definitiv wichtig, dass man schnell reagiert. Denn wenn einer mal drin ist, ist er drin und kann dann wer weiß was machen. Also hier ist es extrem wichtig schnell zu handeln, schnell das Problem zu identifizieren und dann den Angreifer auszusperren, den Host zu isolieren und so weiter.

Sprecher: Lass uns mal über zwei Dinge reden. Ein bisschen angeklungen ist es schon. Wie funktioniert bei euch die Vektorsuche? Und wie funktioniert der Agent Builder?

Markus Klose: Vektorsuche ist relativ einfach erklärt, für jemanden, der aus dem Bereich Search kommt. Bei Vektoren nimmt man den Text – oder was auch immer da jetzt kommt. Text ist das greifbarste Beispiel. Es funktioniert natürlich auch für Bilder, Videos, Audio und was auch immer. Wenn ich jetzt einen Text suche, dann nehme ich den Text und verarbeite ihn Wort für Wort oder Satz für Satz – verschiedene Möglichkeiten habe ich da. Und dann kann ich Vektoren bauen. Das heißt, ich kann hergehen und den Inhalt beschreiben. Ich kann Synonyme quasi suchen, in ähnlicher Art und Weise. Wie gesagt, das gilt dann auch für Bilder. Wir haben ein schönes Slide-Deck, wo wir Vektorsuche erklären. Kann ich gerne mal zeigen, weil wir müssten mal auf unsere Workshops kommen. Da geht es wirklich um Star Wars – das hat nichts mit mir zu tun, ich habe es nicht erfunden. Das kommt zufälligerweise von unserem Product Management. Die erklären es halt relativ einfach so: In Star Wars gibt es Menschen und es gibt Droiden. Also wenn ich jetzt von R2-D2 rede – was bist du denn? Eher Mensch oder eher Droide? Das kriegt man vielleicht noch hin zu entscheiden: eher Richtung Droide. Dann gibt es eine nächste Dimension, weil Vektorsuche ein bisschen mehrdimensional ist – also mehrere Eigenschaften, die betrachtet werden. Zum Beispiel: Bist du eher aus einem Trickfilm, also Cartoon, oder bist du eher aus einem echten Film, eher eine Realperson? Und daraus kommt quasi so eine Art Vektor, eine Beschreibung von einem Objekt, von einem Namen mit verschiedenen Eigenschaften, verschiedenen Vektoren. Das kann ich für alles machen. Und das mache ich für alle Dokumente, die ich indexiere. Dann kann ich das Ganze auch für die Suchanfragen machen. Wenn ich jetzt sage: Welcher Roboter hat denn bei Star Wars in der Serie „Rebels" mitgespielt? Roboter, also nicht-humanoid, und Star Wars Rebels – für die, die es kennen, ist ein Trickfilm, eine Serie. Also würde ich die Charaktere daraus suchen und nicht den Han Solo aus dem ersten Film.

Sprecher: Ich habe das kapiert. Ich bin jetzt nicht so der Star-Wars-Experte. Ich verlasse mich bei der Vektorsuche dann auf euch. Agent Builder – zweites Stichwort.

Markus Klose: Agent Builder ist eine Funktionalität, eingebaut in unseren Elastic Stack, mit der Anwender, Kunden – wer auch immer – im Prinzip schnell auf Daten zugreifen und diese Daten mit einem Modell, also mit einem Large Language Model, verbinden kann, um entsprechende Mehrwerte rauszuziehen und Informationen zu finden. Einen Schritt zurück vielleicht: Was wir jetzt auch bei Kunden und bei vielen Gesprächen herausgefunden haben, ist, dass viele Kunden Ideen haben, was AI kann. Aber keiner kann es umsetzen, weil es auch kompliziert ist, da überhaupt mal anzufangen. Mit Agent Builder ist genau die Idee: Das ist jetzt nicht dafür gedacht, dass ich innerhalb von zehn Minuten ein produktionsreifes, sicheres System aufbaue, das ich live stellen möchte. Aber ich kann schnell prototypen oder schnell etwas entwickeln, was ich danach zur Produktionsreife bringen kann. Das heißt, die Daten nach Elasticsearch bringen – oder wenn sie schon da sind –, dann kann ich mit Agent Builder einfach sagen: Lieber Agent, der einfachste Agent, den es gibt, kann einfach Volltext suchen. Guck mal rein, was du damit machen kannst. Wenn ich jetzt Ahnung von den Daten habe oder vom Use Case, den ich umsetzen möchte, dann kann ich diesen Agenten vorkonfigurieren. Ich kann sagen: Lieber Agent, du bist jetzt jemand, der eine Movie Database durchsuchen soll. Das heißt, er hat ein bisschen Kontext. Es geht um Filme, es wird wahrscheinlich um Filmtitel gehen, um Content gehen. So werden die Fragen sein. Und dann kann ich ihm sagen: Die Informationen zu diesen Movies, die du durchsuchen sollst, sind in diesen zwei, drei Indizes vorhanden. Gleichzeitig kann ich einen weiteren Agenten bauen und sagen: Du, zweiter lieber Agent, du kümmerst dich um Finanzthemen. Wenn ein Analyst kommt und herausfinden will, wie sein Portfolio steht, dann hat er einen anderen Kontext. Vielleicht die gleichen Daten oder andere Daten in Elasticsearch, aber beide können verschieden darauf zugreifen. Und das machen wir über solche Tunings, also Möglichkeiten der Konfiguration, wie so ein Agent funktioniert, was er wie durchsuchen kann und vielleicht dann auch mit anderen externen Systemen interagieren kann, um noch mehr Informationen zu finden oder zu generieren.

Sprecher: Was bedeutet der Satz: „Wenn KI das Gehirn ist …"? Das habe ich bei euch gelesen. Da bin ich neugierig geworden.

„Wenn KI das Gehirn ist, dann ist Context Engineering ihr Gedächtnis."

Markus Klose: Man könnte es so beschreiben: KI, oder die AI, mit der wir die ganze Zeit reden, ist im Prinzip das Doing. Also irgendwas passiert, ich suche etwas, ich baue mir eine Zusammenfassung zusammen oder ich mache etwas an der Stelle. Und Context Engineering beschreibt den ganzen Teil, wie man die Daten aufbereitet, speichert und bei der Abfrage nutzt. Je mehr Informationen ich der AI beibringen kann – also wie ich gerade sagte: Du bist jetzt eine Finanz-App oder du bist jetzt eine Movie-Datenbank –, je mehr ich reinbringen kann, auch in die Struktur, auch in die Daten selbst oder in die verschiedenen Datentöpfe, desto besser ist nachher die Qualität der Antwort beziehungsweise das, was die AI damit machen kann. Im Prinzip ist Context Engineering für die KI das, was der Körper für das Gehirn ist.

Sprecher: Perfekt. Lass uns mal gemeinsam in die Glaskugel schauen. Wir haben den letzten Podcast – den ersten gemeinsam – im Herbst aufgezeichnet. Jetzt sind wir im Frühjahr. Wenn wir den nächsten Podcast wieder im Herbst aufzeichnen, oder vielleicht schon im Sommer: Werden wir noch über diese Dinge reden? Oder sagst du dann: Ach, das ist so alter Schnee. Lass uns mal da und da drüber reden. Was habt ihr in der Pipeline?

Markus Klose: Pipeline, das ist gut. Also grundlegend wird die Entwicklung von AI immer weiter voranschreiten. Ich würde mal behaupten, wir sind gerade auf der Hälfte oder so der Strecke, wo das Ganze hingehen kann. Wir werden sicherlich noch über Context Engineering und Agent Builder reden. Wir werden aber garantiert weiter sein – bei Elastic und auch generell in der Industrie –, um etwas zu haben, was wirklich effektiv ist und echten Mehrwert im alltäglichen Leben bringt. Und ich sehe das ja immer mehr mittlerweile. Die Apps, die Funktionalitäten, die mit AI zusammenarbeiten, werden einfach mehr. Von Tag zu Tag bekomme ich mehr Sichtbarkeit auf Funktionalitäten direkt im täglichen Leben. Also wir werden, glaube ich, viel mehr sehen – nicht nur die ersten Use Cases, sondern auch die zweiten, die wirklich nicht nur Spielereien sind, sondern echten Mehrwert bringen. Auch für die Unternehmen. Nicht nur bessere Suchergebnisse, sondern auch mehr Zeit gewinnen, mehr Geld gewinnen. Wir werden definitiv darüber reden. Was ich glaube, was auch passieren wird, ist, dass wir mehr zum Thema automatisierte Entscheidungen sehen werden. Es ist ein schwieriges Thema, bei dem nicht jeder sofort ja sagt. Ich will ja auch nicht, dass im Flugzeug zum Beispiel irgendeiner entscheidet, ob wir links oder rechts vom Sturm lang fliegen. Aber zum Beispiel ein Playbook ausführen oder nicht – es gibt ja verschiedene Levels von Entscheidungen, die ich treffen kann. Und ich glaube, wir werden viel weiter sein, was das Thema angeht, um automatisiert Entscheidungen ausführen zu lassen. Das gibt allen Mitarbeitern in den Firmen die Möglichkeit, mehr an anderen Sachen zu arbeiten – nicht am Fixen von Problemen, sondern daran, Mehrwerte für die Firma zu generieren. Bessere Suchergebnisse, bessere Qualität von der Hardware, von der Software, was auch immer.

Sprecher: Also nicht das, was wir eingangs besprochen haben: Du kommst montags rein, hast 10.000 Fehlermeldungen, arbeitest die bis Freitag ab, sondern du bist dann Freitagvormittag damit schon fertig.

Markus Klose: Du bist quasi nach dem Kaffee schon fertig montags. Du hast dann die Möglichkeit, nicht fünf Tage lang als Analyst dir die Alarme anzugucken, sondern du kannst neue Datenquellen erschließen, du kannst die Systeme sicherer machen, neue Software ausrollen oder was anderes patchen. Du bist halt nicht gefangen in diesem „Ich muss die Alarme abarbeiten, ich muss „firefighten". Da kommen wir raus.

Sprecher: Markus Klose von Elastic, herzlichen Dank, dass du bei heise meets … dabei warst. Möge die Macht mit dir sein, Markus.

Markus Klose: Vielen, vielen Dank. Ich freue mich schon aufs nächste Mal, wenn wir uns dann über Agentic unterhalten.

Sprecher: Unbedingt, das machen wir so.

Sprecherin: Das war heise meets … – Der Entscheider-Talk. Sie wollen mehr erfahren? Dann besuchen Sie uns auf heise-meets.de. Wir freuen uns auf Sie.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.