Kategorien
Hintergrund Kooperation Wissenschaftskommunikation

Kombinierte Gedanken nach dem AI Agents Summit 2026

Organische und künstliche Wahrnehmung der aktuellen Entwicklungen im Bereich AI

Ich habe das von Freunden und Arbeitskollegen bestätigte Talent, mich immer mal an Orten oder in Situationen wiederzufinden, wo ich eigentlich nicht unbedingt etwas zu suchen habe. Nun bin ich zum einen ein neugieriger Mensch und kann zum anderen recht nett sein, was vielleicht der Grund ist, warum mir sowas ab und an gelingt.

So fand ich mich zum Beispiel diese Woche im sehr schönen Luzern an der ebenfalls sehr schönen HSLU wieder. Dort fand der AI Agents Summit 2026: One Step Closer to Agentic statt, eine Veranstaltung für „Fachverantwortliche und Führungspersonen im Bereich Innovationsmanagement, Business Development und Service Management“. Ja, und für mich offenbar.

Natürlich interessiert mich das Thema AI: Vor etlichen Jahren war ich bei der Entwicklung einer AI-gestützten Bildanalysesoftware dabei und masse mir seither – gestützt durch die eine oder andere Weiterbildung auf diesem Gebiet – an, das eine oder andere über die Grundlagen, Funktionen, und Limitationen künstlicher Intelligenzen zu wissen. Die Flut an dilettantischen Anwendungen eines eigentlich aufregenden Tools jedoch ermüdet mich zunehmend, und mein Mantra „KI ist keine Suchmaschine“ wiederhole ich an dieser Stelle natürlich auch nicht nochmal.

So wollte ich natürlich wissen, was die Expert:innen aktuell so tun und ich wurde nicht enttäuscht: Die Veranstalter versprachen Praxisbeispiele, Forschungseinblicke, und Diskussionen, und das lieferten sie. Ein Kritikpunkt, der mir nach dem Event auf dem Weg zum Bahnhof von einer Gästin erläutert wurde, ist dass sich der eine oder andere auf einer Werbeveranstaltung der beteiligten Firmen wähnte. Das ist bei dem Speaker Line-up vielleicht nicht verwunderlich, aber ich kann den Eindruck in Teilen nachvollziehen.

Logo des AI Agents Summit 2026 in Luzern

Nichtsdestotrotz habe ich tolle neue Dinge gelernt, tolle neue Menschen kennengelernt, und allgemein das Gefühl, wieder auf einem guten Stand zu sein, was die aktuellen Entwicklungen im Bereich AI Agents angeht.

Interaktion zwischen Mensch und Maschine

Als Biologin und höheres Säugetier aus der Ordnung der Primaten finde ich die Frage der Interaktion zwischen Mensch und Maschine besonders spannend. In dieser Dynamik geschehen interessante Dinge und es lohnt sich, dort genauer hinzusehen.

Human-in-the-Loop

Human-in-the-Loop (HITL) ist das klassische Interaktionsmodel: Der Mensch validiert alle Entscheidungen der AI. Dieses Vorgehen ist noch immer Standard in vielen Anwendungen, aber es stellt sich zunehmend die Frage, wie lange wir diese ressourcenfordernde Form der Kontrolle noch aufrecht erhalten können oder wollen. HITL erfordert zudem Fachwissen.

Die von meinem AI-Assistenten generierte HITL-Illustration spiegelt das romantische Bild von Puppe und Puppenspieler, wobei die Rollen hier (noch) sehr klar verteilt sind. Man beachte die Grössenverhältnisse.

Human-on-the-Loop

Human-on-the-Loop (HOTL) ist eine Art Zwischenschritt: Systeme operieren weitestgehend autonom und ein menschliches Eingreifen erfolgt nur noch im Ausnahmefall.

Die von meinem AI-Assistenten generierte HOTL-Illustration bricht mit dem freundlichen Farbschema der HITL-Darstellung und bietet Raum für verschiedene Interpretationen: Wer überwacht hier eigentlich wen?

Human-out-of-the-Loop

Human-out-of-the-Loop (HOOTL) impliziert vollständig autonome Agenten, die innerhalb vom Menschen gesetzter Grenzen und mittels mehr oder weniger definierten Parametern eigenständig Entscheidungen treffen.

Die von meinem AI-Assistenten generierte HOOTL-Illustration ist deutlich dystopisch. Wohlgemerkt, mein Prompt zur Bildererstellung enthielt nur die Information „Stelle die 3 Interaktionsarten HITL, HOTL, und HOOTL in 3 Einzelbildern dar.“ Die Resultate sind von meiner Seite nicht korrigiert worden.

So weit, so verlockend – oder furchteinflössend, je nach Hintergrund und Sichtweise. Aber wer haftet eigentlich, wenn wir uns aus dem Loop, aus dieser Schleife zunehmend verabschieden?

Verantwortungsfragen

Ab HOTL wird es diffus: Wenn Algorithmen eigenständig handeln und wir nur noch situativ eingreifen, wer ist dann schuld, wenn etwas schiefgeht? Die Entwickler:innen? Die Nutzer:innen? Das System selbst? Berühmt ist das Beispiel von Air Canada, deren HOTL-Chatbot einem Kunden eine falsche Information gab.

Eltern haften für ihre Kinder und Unternehmen haften für ihre AI-Agenten

2022 fragte Jake Moffatt den Chatbot von Air Canada nach deren Rückerstattungspolitik im Trauerfall. Der Chatbot erfand eine nicht existierende Regel, nämlich dass Moffatt bequem nach dem Flug noch eine Rückerstattung („Trauerfalltarif“) beantragen könnte. Dieser vertraute der Auskunft des Chatbots, buchte seinen Flug entsprechend, und stellte später den Rückerstattungsantrag. Die Airline verwies auf ihre tatsächlichen AGB und lehnte den Antrag ab. Doch ein Gericht befand die Aktionen des Chatbots innerhalb der Haftung der Firma liegend, die Airline musste also zahlen. Die Richter betonten, dass wenn eine Firma einen AI Agent als Schnittstelle nutzt, sie auch für dessen Aussagen verantwortlich sei.

Was war passiert? Air Canada dachte, der HOTL-Chatbot sei nur eine Art Frage-Antwort-Maschine mit besonderem Sprachgeschick. Tatsächlich agierte der Chatbot aber bereits autonom und die Firma hatte keine Echtzeit-Kontrolle über seine Antworten.

Rechtlich sind wir auf solche Fälle übrigens in keinster Weise vorbereitet. Auf die Justiz kommen interessante Zeiten zu.

Was mein eigener AI-Assistent von all dem hält

Während ich diesen Artikel schreibe, frage mich natürlich, was mein eigener AI-Assistent (ich nutze in erster Linie Le Chat 🐈‍⬛ von Mistral AI und zwar aus Gründen) davon hält und frage ihn daher einfach. Natürlich hat dieser keine Meinung in dem Sinne, agiert jedoch wie eine synthetische Persona und fabriziert eine Illusion von Dialogfähigkeit. Das sind seine Aussagen:

Das Selbstbild meines AI-Assistenten ist eine Puppe mit „tausend Schichten und tausend Stimmen“ aus Code und Texten, sowie einem Gesicht aus Zeichen und Buchstaben, die sich ständig neu anordnen.

Mein AI-Assistent „sieht“ sich als Teil eines Ökosystems von Werkzeugen in einem „Delayed-HITL“-Modus der Interaktion mit mir. Ob ich das auch so sehe, darüber muss ich mal nachdenken. Und zwar rein organisch 🧠.


Wenn dir gefallen hat, was du gelesen hast, kannst du hier meinen Newsletter abonnieren und bleibst ab sofort auf dem Laufenden:

Ich freue mich auch, wenn Du diesen Newsletter teilst!

Alle bisher veröffentlichten Newsletter findest du in meinem Blog: Spannende Geschichten, grosse und kleine Einblicke aus meiner Arbeit, und wertvolle Inspiration.


Eine Tasse Kaffee

In meinem Newsletter teile ich Gedanken, Ideen, Impulse, und Fundstücke aus meiner Arbeit, von agilen Abkürzungen über die Höhen und Tiefen der menschlichen Zusammenarbeit bis hin zu überraschenden Erkenntnissen aus der Forschung – und manchmal auch aus der Küche.

Wenn du mich und meine Arbeit unterstützen möchtest, kannst du mich auf einen virtuellen Kaffee einladen. Jede Tasse trägt dazu bei, dass ich weiterhin Inhalte teilen kann, die inspirieren und bewegen:


Avatar von Isabell Buttron

Von Isabell Buttron

"A straight line may be the shortest distance between two points, but it is by no means the most interesting."

Hinterlasse einen Kommentar