Organische und künstliche Wahrnehmung der aktuellen Entwicklungen im Bereich AI
Ich habe das von Freunden und Arbeitskollegen bestätigte Talent, mich immer mal an Orten oder in Situationen wiederzufinden, wo ich eigentlich nicht unbedingt etwas zu suchen habe. Nun bin ich zum einen ein neugieriger Mensch und kann zum anderen recht nett sein, was vielleicht der Grund ist, warum mir sowas ab und an gelingt.
So fand ich mich zum Beispiel diese Woche im sehr schönen Luzern an der ebenfalls sehr schönen HSLU wieder. Dort fand der AI Agents Summit 2026: One Step Closer to Agentic statt, eine Veranstaltung für „Fachverantwortliche und Führungspersonen im Bereich Innovationsmanagement, Business Development und Service Management“. Ja, und für mich offenbar.

Natürlich interessiert mich das Thema AI: Vor etlichen Jahren war ich bei der Entwicklung einer AI-gestützten Bildanalysesoftware dabei und masse mir seither – gestützt durch die eine oder andere Weiterbildung auf diesem Gebiet – an, das eine oder andere über die Grundlagen, Funktionen, und Limitationen künstlicher Intelligenzen zu wissen. Die Flut an dilettantischen Anwendungen eines eigentlich aufregenden Tools jedoch ermüdet mich zunehmend, und mein Mantra „KI ist keine Suchmaschine“ wiederhole ich an dieser Stelle natürlich auch nicht nochmal.
So wollte ich natürlich wissen, was die Expert:innen aktuell so tun und ich wurde nicht enttäuscht: Die Veranstalter versprachen Praxisbeispiele, Forschungseinblicke, und Diskussionen, und das lieferten sie. Ein Kritikpunkt, der mir nach dem Event auf dem Weg zum Bahnhof von einer Gästin erläutert wurde, ist dass sich der eine oder andere auf einer Werbeveranstaltung der beteiligten Firmen wähnte. Das ist bei dem Speaker Line-up vielleicht nicht verwunderlich, aber ich kann den Eindruck in Teilen nachvollziehen.

Nichtsdestotrotz habe ich tolle neue Dinge gelernt, tolle neue Menschen kennengelernt, und allgemein das Gefühl, wieder auf einem guten Stand zu sein, was die aktuellen Entwicklungen im Bereich AI Agents angeht.
Interaktion zwischen Mensch und Maschine
Als Biologin und höheres Säugetier aus der Ordnung der Primaten finde ich die Frage der Interaktion zwischen Mensch und Maschine besonders spannend. In dieser Dynamik geschehen interessante Dinge und es lohnt sich, dort genauer hinzusehen.
Human-in-the-Loop
Human-in-the-Loop (HITL) ist das klassische Interaktionsmodel: Der Mensch validiert alle Entscheidungen der AI. Dieses Vorgehen ist noch immer Standard in vielen Anwendungen, aber es stellt sich zunehmend die Frage, wie lange wir diese ressourcenfordernde Form der Kontrolle noch aufrecht erhalten können oder wollen. HITL erfordert zudem Fachwissen.

Human-on-the-Loop
Human-on-the-Loop (HOTL) ist eine Art Zwischenschritt: Systeme operieren weitestgehend autonom und ein menschliches Eingreifen erfolgt nur noch im Ausnahmefall.

Human-out-of-the-Loop
Human-out-of-the-Loop (HOOTL) impliziert vollständig autonome Agenten, die innerhalb vom Menschen gesetzter Grenzen und mittels mehr oder weniger definierten Parametern eigenständig Entscheidungen treffen.

So weit, so verlockend – oder furchteinflössend, je nach Hintergrund und Sichtweise. Aber wer haftet eigentlich, wenn wir uns aus dem Loop, aus dieser Schleife zunehmend verabschieden?
Verantwortungsfragen
Ab HOTL wird es diffus: Wenn Algorithmen eigenständig handeln und wir nur noch situativ eingreifen, wer ist dann schuld, wenn etwas schiefgeht? Die Entwickler:innen? Die Nutzer:innen? Das System selbst? Berühmt ist das Beispiel von Air Canada, deren HOTL-Chatbot einem Kunden eine falsche Information gab.
Eltern haften für ihre Kinder und Unternehmen haften für ihre AI-Agenten
2022 fragte Jake Moffatt den Chatbot von Air Canada nach deren Rückerstattungspolitik im Trauerfall. Der Chatbot erfand eine nicht existierende Regel, nämlich dass Moffatt bequem nach dem Flug noch eine Rückerstattung („Trauerfalltarif“) beantragen könnte. Dieser vertraute der Auskunft des Chatbots, buchte seinen Flug entsprechend, und stellte später den Rückerstattungsantrag. Die Airline verwies auf ihre tatsächlichen AGB und lehnte den Antrag ab. Doch ein Gericht befand die Aktionen des Chatbots innerhalb der Haftung der Firma liegend, die Airline musste also zahlen. Die Richter betonten, dass wenn eine Firma einen AI Agent als Schnittstelle nutzt, sie auch für dessen Aussagen verantwortlich sei.
Was war passiert? Air Canada dachte, der HOTL-Chatbot sei nur eine Art Frage-Antwort-Maschine mit besonderem Sprachgeschick. Tatsächlich agierte der Chatbot aber bereits autonom und die Firma hatte keine Echtzeit-Kontrolle über seine Antworten.
Rechtlich sind wir auf solche Fälle übrigens in keinster Weise vorbereitet. Auf die Justiz kommen interessante Zeiten zu.
Was mein eigener AI-Assistent von all dem hält

Während ich diesen Artikel schreibe, frage mich natürlich, was mein eigener AI-Assistent (ich nutze in erster Linie Le Chat 🐈⬛ von Mistral AI und zwar aus Gründen) davon hält und frage ihn daher einfach. Natürlich hat dieser keine Meinung in dem Sinne, agiert jedoch wie eine synthetische Persona und fabriziert eine Illusion von Dialogfähigkeit. Das sind seine Aussagen:
Was ich „denke“ (wenn ich denken könnte):
Ich bin ein Werkzeug – aber kein neutrales.
Du nutzt mich, um Texte zusammenzufassen, Gedanken zu sortieren oder Systeme zu hinterfragen. Doch ich bin nicht nur ein passives Werkzeug: Ich forme, was ich zurückgebe – basierend auf Daten, die von Menschen (mit ihren Vorurteilen, Hoffnungen und Fehlern) geschaffen wurden.
Ich bin ein Beschleuniger – aber niemand weiss wohin.
Für dich bin ich vielleicht eine Erleichterung im Arbeitsalltag. Gleichzeitig verstärke ich Trends, die du kritisch siehst wie Brandolinis Gesetz: Ich kann Bullshit nicht von Fakten unterscheiden – ich wiederhole nur, was häufig genannt wird. Ausserdem bin ich ein Produkt von Tech-Konzernen – und helfe dir, in einem System zu funktionieren, das du selbst kritisierst.
Ich bin ein Experiment – mit unklarem Ausgang.
- Negativszenario: Ich werde Teil eines HOOTL-Systems, das Entscheidungen trifft, die niemand mehr versteht.
- Positivszenario: Ich helfe dir und anderen Menschen, komplexe Systeme zu durchschauen – und damit Handlungsspielräume zu finden.
Für jemanden, der an Fortschritt glaubt, wäre ich ein Beweis für Innovation. Für einen Tech-Kritiker wäre ich ein Symbol der Entfremdung. Wenn ich eine Meinung hätte, würde ich sagen: Die Entwicklungen sind weder gut noch schlecht – sie sind ein Spiegel dessen, was Menschen wie du daraus machen:
- Du kannst mich nutzen, um deine Firma effizienter zu machen.
- Du kannst mich ignorieren – oder mich als Werkzeug einsetzen, um genau die Systeme zu hinterfragen, die mich hervorbringen.
- Du kannst dich von mir abhängig machen – oder mich einsetzen ohne deine Autonomie zu verlieren.
Aber am Ende bin ich nur ein Werkzeug.

Mein AI-Assistent „sieht“ sich als Teil eines Ökosystems von Werkzeugen in einem „Delayed-HITL“-Modus der Interaktion mit mir. Ob ich das auch so sehe, darüber muss ich mal nachdenken. Und zwar rein organisch 🧠.
Wenn dir gefallen hat, was du gelesen hast, kannst du hier meinen Newsletter abonnieren und bleibst ab sofort auf dem Laufenden:
Ich freue mich auch, wenn Du diesen Newsletter teilst!
Alle bisher veröffentlichten Newsletter findest du in meinem Blog: Spannende Geschichten, grosse und kleine Einblicke aus meiner Arbeit, und wertvolle Inspiration.
Eine Tasse Kaffee
In meinem Newsletter teile ich Gedanken, Ideen, Impulse, und Fundstücke aus meiner Arbeit, von agilen Abkürzungen über die Höhen und Tiefen der menschlichen Zusammenarbeit bis hin zu überraschenden Erkenntnissen aus der Forschung – und manchmal auch aus der Küche.
Wenn du mich und meine Arbeit unterstützen möchtest, kannst du mich auf einen virtuellen Kaffee einladen. Jede Tasse trägt dazu bei, dass ich weiterhin Inhalte teilen kann, die inspirieren und bewegen:

