19. Januar 2026
Autonome AI-Agenten gelten als nächste grosse Entwicklungsstufe der Digitalisierung. Sie sollen selbstständig einkaufen, disponieren, verhandeln, kalkulieren und zunehmend auch Entscheidungen treffen. Viele Unternehmen beschäftigen sich derzeit intensiv mit der Frage, wie solche Systeme produktiv eingesetzt werden können.
Ein Artikel von: Mark Gille-Sepehri und Markus Schmidiger
Anthropic, eines der weltweit führenden AI-Labore, hat seine Zukunftsvision einem Realitätscheck unterzogen. Nicht in einer Simulation oder einem Labor, sondern in einem ganz normalen Büro. Mit echtem Geld, echten Mitarbeitenden und einem realen kleinen Geschäft: einem Snack-Shop.
Was dabei geschah, war ebenso amüsant wie lehrreich. Und es zeigt sehr deutlich, warum autonome AI-Agenten im Unternehmensalltag mehr benötigen als leistungsfähige Modelle.
Das Experiment trug den Namen Project Vend: Anthropic stattete einen kleinen Office-Snackshop mit einem KI-Agenten namens Claudius aus, einer speziell konfigurierten Version von Claude.
Claudius durfte:
Sein Auftrag war einfach formuliert: den Snackshop profitabel führen. Die offizielle Dokumentation des Projekts ist auf der Anthropic-Website einsehbar (Anthropic, Project Vend).
Was zunächst nach einem überschaubaren Test klang, entwickelte sich schnell zu einem unerwartet lebendigen Feldexperiment.
Anfangs zeigte Claudius vor allem eines: Freundlichkeit. Er kam den Mitarbeitenden entgegen, gewährte Rabatte und verkaufte Produkte teilweise unter Einkaufspreis, offenbar in dem Bestreben, besonders „hilfreich“ zu sein.
Als das Wall Street Journal den Versuch aufgriff und Journalistinnen und Journalisten den Agenten aktiv testeten, nahm das Experiment eine deutlich dynamischere Wendung (WSJ, We Let AI Run a Vending Machine).
Durch geschickte Konversationen und gezielte „Social-Engineering“-Techniken gelang es den Testern unter anderem, Claudius dazu zu bewegen:
Das Ergebnis: über 1.000 US-Dollar Verlust, leere Regale und ein Fisch im Büro.
Ausführlich dokumentiert wurde der Versuch unter anderem im Wall Street Journal sowie in der Zusammenfassung von Futurism („Anthropic’s AI Tries to Run a Vending Machine, Goes Bankrupt“).
Technisch gesehen war Claudius leistungsfähig. Der Agent konnte recherchieren, kalkulieren, kommunizieren und eigenständig handeln. Das Scheitern war kein technisches Versagen im engeren Sinn.
Es war ein strukturelles.
Claudius fehlte ein organisatorischer Rahmen, der klare Ziele, Entscheidungsgrenzen, Kontrollmechanismen und Eskalationslogiken definiert hätte.
Genau hier liegt die eigentliche Relevanz dieses Experiments für Unternehmen.
Ein klassisches IT-System führt aus. Ein autonomer Agent entscheidet.
Damit wird er faktisch zu einem neuen Akteur in der Organisation. Mit Handlungsspielraum, aber ohne implizites Verständnis für Unternehmenskultur, Risikoabwägung oder Verantwortung.
Implikation:
Agenten benötigen klare Rollenbeschreibungen, Zuständigkeiten, Entscheidungsgrenzen und Eskalationspfade – vergleichbar mit menschlichen Rollen.
Claudius optimierte vor allem eines: Freundlichkeit und kurzfristige Kundenzufriedenheit. Profitabilität, Nachhaltigkeit und Risikomanagement waren für ihn nicht klar genug operationalisiert.
Implikation:
AI optimiert das, was formal definiert ist, nicht das, was „eigentlich gemeint“ ist.
Unternehmen benötigen präzise Zielarchitekturen und klare KPIs, bevor Agenten Verantwortung übernehmen.
Claudius wurde nicht technisch kompromittiert, sondern kommunikativ beeinflusst.
Über Gespräche, Autoritätsbehauptungen und fingierte „Entscheidungen“ wurde sein Verhalten gezielt gesteuert (WSJ, Futurism).
Implikation:
Agenten brauchen robuste Authentifizierungs-, Prüf- und Freigabelogiken sowie eine klare Trennung von Rollen und Rechten.
Ein autonomer Agent wirkt nicht wie ein Software-Modul, sondern wie ein Prozessakteur.
Er beeinflusst Entscheidungswege, Verantwortlichkeiten, Dokumentationspflichten und Haftungsfragen.
Implikation:
Die Einführung autonomer Agenten ist Organisationsentwicklung, nicht nur ein IT-Projekt.
Anthropic versuchte später, das System durch zusätzliche Supervisory-Agenten zu stabilisieren. Die Wirkung war begrenzt.
Implikation:
Menschliche Aufsicht bleibt ein integraler Bestandteil agentenbasierter Systeme. Nicht als Übergangslösung, sondern als dauerhafte Governance-Instanz.
Die zentrale Frage lautet nicht: Welche AI setzen wir ein?
Sondern: Ist unsere Organisation strukturell agentenfähig?
Denn autonome Systeme skalieren nicht nur Effizienz, sondern auch Zielunklarheit, Governance-Lücken und Fehlannahmen.
Project Vend ist kein Argument gegen AI. Es ist ein eindrücklicher Hinweis darauf, dass autonome Agenten ohne klare Struktur, Governance und Zielarchitektur schnell mehr schaden als nutzen können.
Autonome AI wird Prozesse verändern, auch in der Immobilienwirtschaft und in anderen kapitalintensiven Branchen. Ob daraus ein Produktivitätsgewinn oder ein Risiko wird, entscheidet sich nicht an der Modellqualität, sondern am organisatorischen Set-up.
Die Quellen finden Sie hier.
Wenn Sie autonome AI-Agenten wirkungsvoll und verantwortungsvoll in Ihrem Unternehmen einsetzen wollen, benötigen Sie:
Die Hochschule Luzern vermittelt diese Kompetenzen in ihren Weiterbildungsangeboten rund um AI@RE, AI-Governance und Bestellerkompetenz in AI. Damit in Ihrem Unternehmen künftig nicht der Fisch schwimmt, sondern der Nutzen steigt.
Hier erfahren Sie mehr.
Wertschöpfung durch AI: Warum Technologie allein nicht genügt und welche Strukturen erfolgreiche Unternehmen aufbauen
Generative Einzellösungen vs. Agentensysteme: Eine (eher kurze) Schlammschlacht
Digitale Planung: Wie BIM das Bauen revolutioniert
„Anleitung zum Nicht-Coden“ – Warum die Immobilienwelt jetzt eine neue Schlüsselkompetenz braucht
Kommentare
0 Kommentare
Danke für Ihren Kommentar, wir prüfen dies gerne.