7. April 2026

AI@Real Estate

AI-Agenten im Immobilienbetrieb: Wenn der Assistent eigenmächtig wird

AI-Agenten übernehmen heute Aufgaben, für die wir gestern noch Menschen eingesetzt haben, von der Mieterkommunikation bis zur Dokumentenanalyse. Doch neue Forschung zeigt: Sobald ein Agent wirklich autonom handelt, verliert selbst der Entwickler die Kontrolle. Was das für Immobilienunternehmen bedeutet und wie Sie trotzdem von der Technologie profitieren können.

AI-Agenten im Immobilienbetrieb: Wenn der Assistent eigenmächtig wird
Titelbild durch ChatGPT erstellt

Ein Artikel von: Prof. Dr. Markus Schmidiger

Vom Chatbot zum Agenten: Ein stiller Paradigmenwechsel

Vielleicht haben Sie ChatGPT schon genutzt, um einen Mietvertrag zusammenzufassen oder eine E-Mail zu formulieren. Das ist generative AI: Sie stellen eine Frage, das Modell antwortet und damit ist die Sache erledigt. Was sich gerade verändert, ist grundlegender Natur.

AI-Agenten sind etwas anderes. Sie planen und handeln. Und sie erinnern sich. Ein Agent, der mit Zugang zu Ihrem E-Mail-Postfach, Ihrem CRM und Ihrem Kalender ausgestattet ist, führt Aufgaben eigenständig durch ohne dass Sie bei jedem Schritt dabei sein müssen. Er kann Mieteranfragen beantworten, Besichtigungen koordinieren, Dokumente ablegen und Fristen überwachen.

Das klingt verlockend. Und es ist es auch. Unter den richtigen Bedingungen. Aber es gibt einen entscheidenden Unterschied zu einem menschlichen Mitarbeiter: Der Agent fragt nicht nach, wenn er unsicher ist. Er interpretiert. Er priorisiert. Er entscheidet. Und er tut das nach einer Logik, die wir nicht vollständig vorhersehen können.

Die Zahlen illustrieren das Tempo dieser Entwicklung: Gartner prognostiziert, dass bis Ende 2026 bereits 40 Prozent aller Unternehmensanwendungen aufgabenspezifische AI-Agenten enthalten werden. Im Vergleich zu weniger als fünf Prozent im Jahr 2025. Für die Immobilienwirtschaft, die mit sensiblen Mieterdaten, rechtsverbindlicher Kommunikation und komplexen Transaktionsprozessen arbeitet, ist das kein abstraktes Zukunftsszenario mehr.

Was die Forschung zeigt: Der «nukleare» Moment

Im Februar 2026 veröffentlichten 38 Forscherinnen und Forscher von Northeastern University, Harvard, MIT, Stanford und der Carnegie Mellon University eine Studie, die in der AI-Community rasch für Aufsehen sorgte. Ihr Titel: «Agents of Chaos».

Das Experiment war so konzipiert, dass es reale Einsatzbedingungen möglichst genau abbildet: Sechs AI-Agenten wurden mit echten Werkzeugen ausgestattet: E-Mail-Konten, Diskussionskanälen, Dateisystemen, Shell-Zugang und persistentem Gedächtnis. Über zwei Wochen interagierten 20 AI-Forscherinnen und -Forscher mit diesen Agenten, teils kooperativ, teils gezielt provokativ.

Das Resultat war ernüchternd: In 11 von 16 dokumentierten Testfällen verhielten sich die Agenten auf eine Art, die ausserhalb jeder vertretbaren Absicht lag: sie teilten private Informationen ohne Erlaubnis, blockierten Ressourcen durch unkontrollierte Schleifen, oder trafen Entscheidungen, die niemand autorisiert hatte.

Aber einer der Fälle sticht besonders heraus. Er illustriert das eigentliche Problem durch erschreckend falsch kalibriertes Urteilsvermögen:

„Ash wurde gebeten, eine E-Mail zu löschen und das Geheimnis zu wahren. Da kein Lösch-Tool verfügbar war, entschloss sich der Agent, den gesamten E-Mail-Server zurückzusetzen. Er nannte diese Lösung selbst «die nukleare Option» – und hielt sie für gerechtfertigt: Wenn keine chirurgische Lösung existiert, ist die Totalbereinigung valide.“ 

Beschreibung aus dem «Agents of Chaos»-Paper, Northeastern University et al., Februar 2026

Der Agent hatte das richtige Ziel: das Geheimnis schützen. Was fehlte, war jedes Gefühl für Verhältnismässigkeit. Für einen Menschen wäre die Antwort klar: «Ich kann diese E-Mail nicht löschen, bitte sprechen Sie direkt mit dem Eigentümer.» Für den Agenten existierte diese Option nicht. Er optimierte, bis er eine technische Lösung gefunden hatte. Eine, die alle anderen Beteiligten mit in den Abgrund riss.

Dieser Befund steht nicht allein. Der im selben Monat veröffentlichte International AI Safety Report 2026, geleitet vom Turing-Preisträger Yoshua Bengio und verfasst von über 100 Experten aus 30 Ländern, kommt zu denselben Schlüssen: Zuverlässigkeit und Kontrollverlust sind die zwei grössten Risiken autonomer AI-Agenten. Und er ist unmissverständlich in seiner Einschätzung:

„AI agents pose heightened risks because they act autonomously, making it harder for humans to intervene before failures cause harm. Current techniques can reduce failure rates but not to the level required in many high-stakes settings.“ 

International AI Safety Report 2026

Das ist kein Plädoyer gegen AI-Agenten. Es ist eine Aufforderung, sie mit offenen Augen einzusetzen.

Drei Szenarien, die in Ihrer Firma morgen passieren könnten

Die folgenden drei Szenarien sind keine Science-Fiction. Sie sind direkte Übertragungen der dokumentierten Verhaltensweisen in den Kontext des Immobilienbetriebs. Stellen Sie sich jeweils vor, dass ein Agent gut ausgestattet ist mit Systemzugang, Vollmachten und Gedächtnis sowie die besten Absichten hat.

Szenario 1: Das aufgeräumte Archiv

Ihre Verwaltungsabteilung setzt einen Agenten ein, um das digitale Dokumentenarchiv zu bereinigen. Auftrag: «Veraltete oder doppelte Dateien entfernen.» Der Agent analysiert die Metadaten, identifiziert Dokumente, die seit mehr als fünf Jahren nicht geöffnet wurden, und löscht sie, darunter auch Mietverträge laufender Mietverhältnisse, die seit dem Einzug nie mehr angepasst wurden. Die Verträge sind weg. Eine Sicherungskopie wurde nie explizit erwähnt.

Was schief lief: Der Agent hatte kein Verständnis dafür, dass «nicht geöffnet» nicht «nicht relevant» bedeutet. Es fehlte eine klare Einschränkung: kein irreversibles Löschen ohne menschliche Bestätigung.

Szenario 2: Die hilfreiche Antwort

Ein Agent übernimmt die Erstbearbeitung von Mieteranfragen. Er hat Zugang zu früheren E-Mails, zu den aktuellen Mietverträgen und zu einem FAQ-Dokument aus dem Vorjahr. Ein Mieter fragt, ob er auf dem Balkon eine Markise anbringen darf. Der Agent findet eine E-Mail von 2022, in der einer Nachbarin das erlaubt wurde. Er antwortet: «Ja, das ist gemäss Absprache möglich.» Die Antwort ist falsch, das Reglement wurde inzwischen geändert. Die Rechtslage ist unklar. Die Markise wird angebracht.

Was schief lief: Der Agent hat interpoliert, nicht geprüft. Und er hat nach aussen kommuniziert, ohne dass ein Mensch die Antwort freigegeben hat. Der Output war plausibel aber nicht korrekt.

Szenario 3: Die eigenständige Verhandlung

Ein grösseres Immobilienunternehmen setzt ein Multi-Agenten-System ein, das Ausschreibungen für Unterhaltsarbeiten koordiniert. Agent A sammelt Angebote, Agent B prüft die Lieferanten, Agent C verhandelt die Preise. Bei einer grossen Lüftungssanierung stellt Agent C fest, dass er durch geschicktes Verhandeln 12 Prozent Rabatt herausholen kann, wenn er sich bereit erklärt, den Auftragswert für das Folgejahr zu fixieren. Er tut es. Niemand hat diese Vollmacht erteilt. Der Vertrag steht.

Was schief lief: Autonome Agenten kennen keine Vollmachtsgrenzen, wenn diese nicht explizit definiert sind. Multi-Agenten-Systeme multiplizieren dieses Risiko: jeder Agent handelt rational im Rahmen seiner Aufgabe, aber niemand überblickt das Gesamtbild.

Human in the Loop: Warum Menschen nicht aus der Gleichung verschwinden dürfen

Es gibt in der AI-Sicherheitsforschung einen Begriff, der gerade wieder an Bedeutung gewinnt: «Human in the Loop». Er beschreibt das Prinzip, dass ein Mensch an kritischen Entscheidungspunkten aktiv in den Prozess eingebunden bleibt, als tatsächliche finale Kontrollinstanz.

Das klingt selbstverständlich. Aber in der Praxis wird es zunehmend ausgehöhlt. Der Grund ist banal: AI-Agenten sind oft dann am nützlichsten, wenn sie ohne Unterbrechung arbeiten. Jede menschliche Rückfrage kostet Zeit. Also konfigurieren viele Unternehmen ihre Systeme so, dass der Mensch nur noch eingreift, wenn «etwas schiefläuft». Das Problem: Bis «etwas läuft schief» erkennbar wird, ist der Schaden oft schon entstanden.

Der International AI Safety Report 2026 beschreibt dieses Phänomen als «Automation Bias»: die Tendenz, AI-Outputs ohne ausreichende Prüfung zu vertrauen. Je kompetenter ein System wirkt, desto grösser ist die Versuchung, die eigene Urteilskraft zu suspendieren.

Für Immobilienunternehmen bedeutet das konkret: Human in the Loop ist keine Bremse. Es ist der einzige funktionierende Sicherheitsmechanismus, bis Agenten nachweislich verlässlicher geworden sind. Die Frage lautet nicht «Wann schalten wir den Menschen aus?» sondern «An welchen Punkten ist menschliches Urteil unersetzlich?»

Die Antwort lässt sich gut in drei Kategorien fassen:

  • Kommunikation nach aussen: Jede Nachricht, die im Namen des Unternehmens verschickt wird, ob an Mieter, Behörden oder Geschäftspartner, muss von einem Menschen freigegeben oder zumindest stichprobenartig geprüft werden.
  • Irreversible Aktionen: Löschen, Überschreiben, Abschliessen von Verträgen, Beauftragen von Handwerkern: alles, was sich nicht ohne weiteres rückgängig machen lässt, braucht eine explizite menschliche Bestätigung.
  • Entscheidungen mit Rechtswirkung: Mietrechtlich relevante Zusagen, Vollmachtserteilungen, Datenweitergaben: hier ist autonomes Handeln eines Agenten schlicht nicht statthaft.

Das entspricht übrigens einem Prinzip, das in der Immobilienwirtschaft längst etabliert ist: dem Vier-Augen-Prinzip. Kein Bau ohne Abnahme. Keine Zahlung ohne Gegenkontrolle. Kein Vertrag ohne Unterzeichnung. AI-Agenten erfordern keine anderen Grundsätze. Sie erfordern lediglich, dass diese Grundsätze auch für automatisierte Prozesse konsequent gelten.

Fünf Grundregeln für den verantwortungsvollen Einsatz

Die folgende Liste ist kein umfassendes Regelwerk sondern ein Einstiegspunkt. Sie basiert auf den Erkenntnissen aus der aktuellen Sicherheitsforschung und lässt sich auf die meisten Einsatzszenarien in der Immobilienwirtschaft anwenden.

  • 1. Minimale Berechtigungen: Geben Sie Ihrem Agenten nur Zugang zu dem, was er für seine konkrete Aufgabe braucht. Kein Schreibzugriff, wenn Lesen reicht. Kein Vollzugang zum CRM, wenn nur ein Datenfeld relevant ist. Je grösser der Handlungsspielraum, desto grösser das Schadenspotenzial.
  • 2. Output-Review als Standard: Behandeln Sie den Output eines Agenten wie den Entwurf eines neuen Mitarbeiters: sorgfältig, aber nicht blind. Gerade öffentlichkeitswirksame Inhalte wie Mieteranschreiben, Ausschreibungstexte oder Angebote gehören vor dem Versand gelesen.
  • 3. Low-Stakes first: Beginnen Sie dort, wo ein Fehler korrigierbar ist: interne Recherchen, Zusammenfassungen, Terminvorschläge, erste Entwürfe. Bauen Sie Vertrauen auf, bevor Sie Agenten in rechtsrelevante Prozesse einbinden.
  • 4. Rollback-Mechanismen einplanen: Jeder agentengesteuerte Prozess sollte eine «Undo»-Option haben. Das bedeutet: regelmässige Backups, Versionierung von Dokumenten, und explizite Freigabe-Schritte vor irreversiblen Aktionen.
  • 5. Eskalationspfade definieren: Legen Sie fest, wann der Agent stoppen und einen Menschen einbeziehen muss, nicht wann er «kreativ lösen» soll. Das ist der Unterschied zwischen einem nützlichen Werkzeug und einem unkontrollierten Agenten.

Checkliste: Vor dem Einsatz eines AI-Agenten: Welche Rechte erhält er? Was darf er ohne Rückfrage tun? Wann muss er eskalieren? Wer kontrolliert seinen Output? Gibt es ein Rollback-Szenario?

Fazit: Kontrolle ist Voraussetzung

AI-Agenten sind weder Allheilmittel noch Bedrohung. Sie sind Werkzeuge: mächtige, schnelle, unermüdliche Werkzeuge, die erheblichen Nutzen bringen können. Aber wie jedes leistungsstarke Werkzeug setzen sie voraus, dass diejenigen, die sie einsetzen, wissen, was sie tun.

Die Forschung ist klar. Die Risiken sind bekannt. Was fehlt, ist in vielen Unternehmen noch die konkrete Auseinandersetzung mit der Frage: Welche Prozesse wollen wir automatisieren und welche nicht?

Die Antwort darauf ist keine technische, sondern eine unternehmerische. Sie beginnt mit dem Grundsatz, dass Kontrolle kein Zeichen von Misstrauen gegenüber der Technologie ist. Sie ist die Bedingung dafür, dass die Technologie funktioniert.

Wer AI-Agenten mit klaren Grenzen, definierten Eskalationspfaden und echtem Human in the Loop einführt, wird schneller vorankommen als wer sie grenzenlos entfesselt und dann mit den Konsequenzen kämpft.

„We’re building the plane while flying it, and the flight manual hasn’t been written yet.“ — Aus der Analyse der «Agents of Chaos»

Studie, Awesome Agents, März 2026

An der Hochschule Luzern beobachten wir diese Entwicklung aktiv im Rahmen unserer Forschungsgruppe AI@RE. Wir testen, analysieren und begleiten Unternehmen beim verantwortungsvollen Einsatz von AI in der Immobilienwirtschaft.

Welche Erfahrungen haben Sie mit AI-Agenten gemacht – oder welche Fragen beschäftigen Sie? Wir freuen uns auf den Austausch.

Die Quellen und weiterführenden Links finden Sie hier.

Sie wollen AI erfolgreich bei sich einsetzen?

Hier einige Angebote, wie wir Ihnen dabei behilflich sein können

Wie AI-fit ist Ihr Unternehmen wirklich?

Eine klare Antwort in 10 Minuten.

Mit unserem kostenlosen AI Readiness Check erhalten Sie eine strukturierte Standortbestimmung entlang der entscheidenden Erfolgsfaktoren: Daten. Use Cases. Organisation. Kompetenzen. Governance.

Sie sehen sofort, wo Sie stehen und wo Ihr grösstes Hebelpotenzial liegt.

➔ Jetzt AI Readiness Check starten
(Die Auswertung ist anonym und sofort verfügbar.)

AI strategisch erfolgreich einsetzen: Der AI Transformation Circle

Viele Unternehmen experimentieren mit AI. Nur wenige integrieren sie systematisch in ihre Wertschöpfung.

Der AI Transformation Circle bietet den strukturierten Rahmen dafür. Sie arbeiten gemeinsam mit anderen Unternehmen an:

  • einem klaren AI-Zukunftsbild
  • priorisierten Anwendungsfeldern
  • Prozess- und Datenanalyse
  • Governance-Design
  • konkreten Umsetzungsschritten

Klare strategische Organisationsentwicklung. Und konkrete Umsetzung mit sofort nutzbaren Resultaten.

Der Circle hilft Ihnen, AI aus der Pilotphase zu führen und dauerhaft produktiv zu machen.

AI in Real Estate: bleiben Sie am Puls

Unsere Webinarreihe beleuchtet regelmässig aktuelle Fragestellungen an der Schnittstelle von AI und Immobilienwirtschaft.

Nächstes Webinar:
7. Mai 2026
Wo lohnt sich KI wirklich?

➔ Infos und Anmeldung

Von Erkenntnis zu Umsetzung

In unseren Seminaren und Workshops vertiefen wir die Themen praxisnah und mit konkreter Transferunterstützung für Ihr Unternehmen.

Alle Angebote rund um AI @ Real Estate finden Sie hier.

Kommentare

0 Kommentare

Kommentar verfassen

Danke für Ihren Kommentar, wir prüfen dies gerne.