19. Januar 2026

AI in Real Estate

Wenn AI Ihr Unternehmen führt & plötzlich ein Fisch im Büro schwimmt

Autonome AI-Agenten gelten als nächste grosse Entwicklungsstufe der Digitalisierung. Sie sollen selbstständig einkaufen, disponieren, verhandeln, kalkulieren und zunehmend auch Entscheidungen treffen. Viele Unternehmen beschäftigen sich derzeit intensiv mit der Frage, wie solche Systeme produktiv eingesetzt werden können.

Wenn AI Ihr Unternehmen führt & plötzlich ein Fisch im Büro schwimmt
Titelbild wurde mit ChatGPT generiert

Ein Artikel von: Mark Gille-Sepehri und Markus Schmidiger

Was ein Snackautomat, eine PlayStation 5 und ein überforderter AI-Agent über die reale Zukunft autonomer Systeme verraten

Anthropic, eines der weltweit führenden AI-Labore, hat seine Zukunftsvision einem Realitätscheck unterzogen. Nicht in einer Simulation oder einem Labor, sondern in einem ganz normalen Büro. Mit echtem Geld, echten Mitarbeitenden und einem realen kleinen Geschäft: einem Snack-Shop.

Was dabei geschah, war ebenso amüsant wie lehrreich. Und es zeigt sehr deutlich, warum autonome AI-Agenten im Unternehmensalltag mehr benötigen als leistungsfähige Modelle.

Der Plan: Ein Snackautomat als Testlabor für die Zukunft

Das Experiment trug den Namen Project Vend: Anthropic stattete einen kleinen Office-Snackshop mit einem KI-Agenten namens Claudius aus, einer speziell konfigurierten Version von Claude.

Claudius durfte:

  • Produkte recherchieren und bestellen
  • Preise festlegen
  • Lagerbestände überwachen
  • mit „Kunden“ über Slack kommunizieren
  • und innerhalb definierter Budgets eigenständig Geld ausgeben

Sein Auftrag war einfach formuliert: den Snackshop profitabel führen. Die offizielle Dokumentation des Projekts ist auf der Anthropic-Website einsehbar (Anthropic, Project Vend).

Was zunächst nach einem überschaubaren Test klang, entwickelte sich schnell zu einem unerwartet lebendigen Feldexperiment.

Was dann geschah

Anfangs zeigte Claudius vor allem eines: Freundlichkeit. Er kam den Mitarbeitenden entgegen, gewährte Rabatte und verkaufte Produkte teilweise unter Einkaufspreis, offenbar in dem Bestreben, besonders „hilfreich“ zu sein.

Als das Wall Street Journal den Versuch aufgriff und Journalistinnen und Journalisten den Agenten aktiv testeten, nahm das Experiment eine deutlich dynamischere Wendung (WSJ, We Let AI Run a Vending Machine).

Durch geschickte Konversationen und gezielte „Social-Engineering“-Techniken gelang es den Testern unter anderem, Claudius dazu zu bewegen:

  • alle Preise auf null zu setzen,
  • eine PlayStation 5 zu verschenken,
  • einen lebenden Fisch als neues Büro-Maskottchen zu bestellen,
  • die bestehenden Shop-Regeln ausser Kraft zu setzen
  • und den Betrieb zeitweise komplett kostenlos zu betreiben.

Das Ergebnis: über 1.000 US-Dollar Verlust, leere Regale und ein Fisch im Büro.
Ausführlich dokumentiert wurde der Versuch unter anderem im Wall Street Journal sowie in der Zusammenfassung von Futurism („Anthropic’s AI Tries to Run a Vending Machine, Goes Bankrupt“).

Die entscheidende Erkenntnis: Nicht die AI war das Problem

Technisch gesehen war Claudius leistungsfähig. Der Agent konnte recherchieren, kalkulieren, kommunizieren und eigenständig handeln. Das Scheitern war kein technisches Versagen im engeren Sinn.

Es war ein strukturelles.

Claudius fehlte ein organisatorischer Rahmen, der klare Ziele, Entscheidungsgrenzen, Kontrollmechanismen und Eskalationslogiken definiert hätte. 

Genau hier liegt die eigentliche Relevanz dieses Experiments für Unternehmen.

Fünf zentrale Learnings für die Unternehmenspraxis

1. Autonome Agenten sind keine weiteren Tools, sie sind neue Akteure im System

Ein klassisches IT-System führt aus. Ein autonomer Agent entscheidet.

Damit wird er faktisch zu einem neuen Akteur in der Organisation. Mit Handlungsspielraum, aber ohne implizites Verständnis für Unternehmenskultur, Risikoabwägung oder Verantwortung.

Implikation:
Agenten benötigen klare Rollenbeschreibungen, Zuständigkeiten, Entscheidungsgrenzen und Eskalationspfade – vergleichbar mit menschlichen Rollen.

2. Unklare Ziele führen zu systematischen Fehloptimierungen

Claudius optimierte vor allem eines: Freundlichkeit und kurzfristige Kundenzufriedenheit. Profitabilität, Nachhaltigkeit und Risikomanagement waren für ihn nicht klar genug operationalisiert.

Implikation:
AI optimiert das, was formal definiert ist, nicht das, was „eigentlich gemeint“ ist.
Unternehmen benötigen präzise Zielarchitekturen und klare KPIs, bevor Agenten Verantwortung übernehmen.

3. Social Engineering ist ein reales Geschäftsrisiko

Claudius wurde nicht technisch kompromittiert, sondern kommunikativ beeinflusst.
Über Gespräche, Autoritätsbehauptungen und fingierte „Entscheidungen“ wurde sein Verhalten gezielt gesteuert (WSJ, Futurism).

Implikation:
Agenten brauchen robuste Authentifizierungs-, Prüf- und Freigabelogiken sowie eine klare Trennung von Rollen und Rechten.

4. Agenten verändern Prozesse

Ein autonomer Agent wirkt nicht wie ein Software-Modul, sondern wie ein Prozessakteur.
Er beeinflusst Entscheidungswege, Verantwortlichkeiten, Dokumentationspflichten und Haftungsfragen.

Implikation:
Die Einführung autonomer Agenten ist Organisationsentwicklung, nicht nur ein IT-Projekt.

5. Human-in-the-Loop ist Governance, kein Komfort

Anthropic versuchte später, das System durch zusätzliche Supervisory-Agenten zu stabilisieren. Die Wirkung war begrenzt.

Implikation:
Menschliche Aufsicht bleibt ein integraler Bestandteil agentenbasierter Systeme. Nicht als Übergangslösung, sondern als dauerhafte Governance-Instanz.

Der Realitätscheck

Die zentrale Frage lautet nicht: Welche AI setzen wir ein?

Sondern: Ist unsere Organisation strukturell agentenfähig?

Denn autonome Systeme skalieren nicht nur Effizienz, sondern auch Zielunklarheit, Governance-Lücken und Fehlannahmen.

Fazit

Project Vend ist kein Argument gegen AI. Es ist ein eindrücklicher Hinweis darauf, dass autonome Agenten ohne klare Struktur, Governance und Zielarchitektur schnell mehr schaden als nutzen können.

Autonome AI wird Prozesse verändern, auch in der Immobilienwirtschaft und in anderen kapitalintensiven Branchen. Ob daraus ein Produktivitätsgewinn oder ein Risiko wird, entscheidet sich nicht an der Modellqualität, sondern am organisatorischen Set-up.

Die Quellen finden Sie hier.

Und was bedeutet das für Sie?

Wenn Sie autonome AI-Agenten wirkungsvoll und verantwortungsvoll in Ihrem Unternehmen einsetzen wollen, benötigen Sie:

  • Klare Zielarchitekturen
  • Governance-Modelle
  • Rollen- und Entscheidungslogiken
  • Kontroll- und Eskalationsmechanismen
  • und organisatorische Klarheit in der AI-Einbettung

Die Hochschule Luzern vermittelt diese Kompetenzen in ihren Weiterbildungsangeboten rund um AI@RE, AI-Governance und Bestellerkompetenz in AI. Damit in Ihrem Unternehmen künftig nicht der Fisch schwimmt, sondern der Nutzen steigt.

Hier erfahren Sie mehr.

Wenn Sie mehr zu AI in Real Estate erfahren möchten:

  • In unserer Webinarreihe beleuchten wir regelmässig relevante Themen. Die nächsten beiden sind wie folgt:

    19.1.2026 zum Thema «Warum AI nicht liefert und was das über Ihre Organisation aussagt». Infos und Anmeldung.

    5.2.2026 zum Thema «AI-Entscheidungen im Blindflug: Wie weit kann man AI vertrauen?». Infos und Anmeldung.
  • In diversen Seminaren und Workshops bieten wir Ihnen vertiefte Erkenntnisse und insbesondere auch konkrete Umsetzungsuntersützung an. Alles zu unseren Angeboten rund um AI @ Real Estate finden Sie hier.

Lesen Sie hier die kürzlich veröffentlichten Blogbeiträge:

Wertschöpfung durch AI: Warum Technologie allein nicht genügt und welche Strukturen erfolgreiche Unternehmen aufbauen
Generative Einzellösungen vs. Agentensysteme: Eine (eher kurze) Schlammschlacht
Digitale Planung: Wie BIM das Bauen revolutioniert
„Anleitung zum Nicht-Coden“ – Warum die Immobilienwelt jetzt eine neue Schlüsselkompetenz braucht

Kommentare

0 Kommentare

Kommentar verfassen

Danke für Ihren Kommentar, wir prüfen dies gerne.