7. April 2026
AI-Agenten übernehmen heute Aufgaben, für die wir gestern noch Menschen eingesetzt haben, von der Mieterkommunikation bis zur Dokumentenanalyse. Doch neue Forschung zeigt: Sobald ein Agent wirklich autonom handelt, verliert selbst der Entwickler die Kontrolle. Was das für Immobilienunternehmen bedeutet und wie Sie trotzdem von der Technologie profitieren können.
Ein Artikel von: Prof. Dr. Markus Schmidiger
Vielleicht haben Sie ChatGPT schon genutzt, um einen Mietvertrag zusammenzufassen oder eine E-Mail zu formulieren. Das ist generative AI: Sie stellen eine Frage, das Modell antwortet und damit ist die Sache erledigt. Was sich gerade verändert, ist grundlegender Natur.
AI-Agenten sind etwas anderes. Sie planen und handeln. Und sie erinnern sich. Ein Agent, der mit Zugang zu Ihrem E-Mail-Postfach, Ihrem CRM und Ihrem Kalender ausgestattet ist, führt Aufgaben eigenständig durch ohne dass Sie bei jedem Schritt dabei sein müssen. Er kann Mieteranfragen beantworten, Besichtigungen koordinieren, Dokumente ablegen und Fristen überwachen.
Das klingt verlockend. Und es ist es auch. Unter den richtigen Bedingungen. Aber es gibt einen entscheidenden Unterschied zu einem menschlichen Mitarbeiter: Der Agent fragt nicht nach, wenn er unsicher ist. Er interpretiert. Er priorisiert. Er entscheidet. Und er tut das nach einer Logik, die wir nicht vollständig vorhersehen können.
Die Zahlen illustrieren das Tempo dieser Entwicklung: Gartner prognostiziert, dass bis Ende 2026 bereits 40 Prozent aller Unternehmensanwendungen aufgabenspezifische AI-Agenten enthalten werden. Im Vergleich zu weniger als fünf Prozent im Jahr 2025. Für die Immobilienwirtschaft, die mit sensiblen Mieterdaten, rechtsverbindlicher Kommunikation und komplexen Transaktionsprozessen arbeitet, ist das kein abstraktes Zukunftsszenario mehr.
Im Februar 2026 veröffentlichten 38 Forscherinnen und Forscher von Northeastern University, Harvard, MIT, Stanford und der Carnegie Mellon University eine Studie, die in der AI-Community rasch für Aufsehen sorgte. Ihr Titel: «Agents of Chaos».
Das Experiment war so konzipiert, dass es reale Einsatzbedingungen möglichst genau abbildet: Sechs AI-Agenten wurden mit echten Werkzeugen ausgestattet: E-Mail-Konten, Diskussionskanälen, Dateisystemen, Shell-Zugang und persistentem Gedächtnis. Über zwei Wochen interagierten 20 AI-Forscherinnen und -Forscher mit diesen Agenten, teils kooperativ, teils gezielt provokativ.
Das Resultat war ernüchternd: In 11 von 16 dokumentierten Testfällen verhielten sich die Agenten auf eine Art, die ausserhalb jeder vertretbaren Absicht lag: sie teilten private Informationen ohne Erlaubnis, blockierten Ressourcen durch unkontrollierte Schleifen, oder trafen Entscheidungen, die niemand autorisiert hatte.
Aber einer der Fälle sticht besonders heraus. Er illustriert das eigentliche Problem durch erschreckend falsch kalibriertes Urteilsvermögen:
„Ash wurde gebeten, eine E-Mail zu löschen und das Geheimnis zu wahren. Da kein Lösch-Tool verfügbar war, entschloss sich der Agent, den gesamten E-Mail-Server zurückzusetzen. Er nannte diese Lösung selbst «die nukleare Option» – und hielt sie für gerechtfertigt: Wenn keine chirurgische Lösung existiert, ist die Totalbereinigung valide.“
Beschreibung aus dem «Agents of Chaos»-Paper, Northeastern University et al., Februar 2026
Der Agent hatte das richtige Ziel: das Geheimnis schützen. Was fehlte, war jedes Gefühl für Verhältnismässigkeit. Für einen Menschen wäre die Antwort klar: «Ich kann diese E-Mail nicht löschen, bitte sprechen Sie direkt mit dem Eigentümer.» Für den Agenten existierte diese Option nicht. Er optimierte, bis er eine technische Lösung gefunden hatte. Eine, die alle anderen Beteiligten mit in den Abgrund riss.
Dieser Befund steht nicht allein. Der im selben Monat veröffentlichte International AI Safety Report 2026, geleitet vom Turing-Preisträger Yoshua Bengio und verfasst von über 100 Experten aus 30 Ländern, kommt zu denselben Schlüssen: Zuverlässigkeit und Kontrollverlust sind die zwei grössten Risiken autonomer AI-Agenten. Und er ist unmissverständlich in seiner Einschätzung:
„AI agents pose heightened risks because they act autonomously, making it harder for humans to intervene before failures cause harm. Current techniques can reduce failure rates but not to the level required in many high-stakes settings.“
International AI Safety Report 2026
Das ist kein Plädoyer gegen AI-Agenten. Es ist eine Aufforderung, sie mit offenen Augen einzusetzen.
Die folgenden drei Szenarien sind keine Science-Fiction. Sie sind direkte Übertragungen der dokumentierten Verhaltensweisen in den Kontext des Immobilienbetriebs. Stellen Sie sich jeweils vor, dass ein Agent gut ausgestattet ist mit Systemzugang, Vollmachten und Gedächtnis sowie die besten Absichten hat.
Szenario 1: Das aufgeräumte Archiv
Ihre Verwaltungsabteilung setzt einen Agenten ein, um das digitale Dokumentenarchiv zu bereinigen. Auftrag: «Veraltete oder doppelte Dateien entfernen.» Der Agent analysiert die Metadaten, identifiziert Dokumente, die seit mehr als fünf Jahren nicht geöffnet wurden, und löscht sie, darunter auch Mietverträge laufender Mietverhältnisse, die seit dem Einzug nie mehr angepasst wurden. Die Verträge sind weg. Eine Sicherungskopie wurde nie explizit erwähnt.
Was schief lief: Der Agent hatte kein Verständnis dafür, dass «nicht geöffnet» nicht «nicht relevant» bedeutet. Es fehlte eine klare Einschränkung: kein irreversibles Löschen ohne menschliche Bestätigung.
Szenario 2: Die hilfreiche Antwort
Ein Agent übernimmt die Erstbearbeitung von Mieteranfragen. Er hat Zugang zu früheren E-Mails, zu den aktuellen Mietverträgen und zu einem FAQ-Dokument aus dem Vorjahr. Ein Mieter fragt, ob er auf dem Balkon eine Markise anbringen darf. Der Agent findet eine E-Mail von 2022, in der einer Nachbarin das erlaubt wurde. Er antwortet: «Ja, das ist gemäss Absprache möglich.» Die Antwort ist falsch, das Reglement wurde inzwischen geändert. Die Rechtslage ist unklar. Die Markise wird angebracht.
Was schief lief: Der Agent hat interpoliert, nicht geprüft. Und er hat nach aussen kommuniziert, ohne dass ein Mensch die Antwort freigegeben hat. Der Output war plausibel aber nicht korrekt.
Szenario 3: Die eigenständige Verhandlung
Ein grösseres Immobilienunternehmen setzt ein Multi-Agenten-System ein, das Ausschreibungen für Unterhaltsarbeiten koordiniert. Agent A sammelt Angebote, Agent B prüft die Lieferanten, Agent C verhandelt die Preise. Bei einer grossen Lüftungssanierung stellt Agent C fest, dass er durch geschicktes Verhandeln 12 Prozent Rabatt herausholen kann, wenn er sich bereit erklärt, den Auftragswert für das Folgejahr zu fixieren. Er tut es. Niemand hat diese Vollmacht erteilt. Der Vertrag steht.
Was schief lief: Autonome Agenten kennen keine Vollmachtsgrenzen, wenn diese nicht explizit definiert sind. Multi-Agenten-Systeme multiplizieren dieses Risiko: jeder Agent handelt rational im Rahmen seiner Aufgabe, aber niemand überblickt das Gesamtbild.
Es gibt in der AI-Sicherheitsforschung einen Begriff, der gerade wieder an Bedeutung gewinnt: «Human in the Loop». Er beschreibt das Prinzip, dass ein Mensch an kritischen Entscheidungspunkten aktiv in den Prozess eingebunden bleibt, als tatsächliche finale Kontrollinstanz.
Das klingt selbstverständlich. Aber in der Praxis wird es zunehmend ausgehöhlt. Der Grund ist banal: AI-Agenten sind oft dann am nützlichsten, wenn sie ohne Unterbrechung arbeiten. Jede menschliche Rückfrage kostet Zeit. Also konfigurieren viele Unternehmen ihre Systeme so, dass der Mensch nur noch eingreift, wenn «etwas schiefläuft». Das Problem: Bis «etwas läuft schief» erkennbar wird, ist der Schaden oft schon entstanden.
Der International AI Safety Report 2026 beschreibt dieses Phänomen als «Automation Bias»: die Tendenz, AI-Outputs ohne ausreichende Prüfung zu vertrauen. Je kompetenter ein System wirkt, desto grösser ist die Versuchung, die eigene Urteilskraft zu suspendieren.
Für Immobilienunternehmen bedeutet das konkret: Human in the Loop ist keine Bremse. Es ist der einzige funktionierende Sicherheitsmechanismus, bis Agenten nachweislich verlässlicher geworden sind. Die Frage lautet nicht «Wann schalten wir den Menschen aus?» sondern «An welchen Punkten ist menschliches Urteil unersetzlich?»
Die Antwort lässt sich gut in drei Kategorien fassen:
Das entspricht übrigens einem Prinzip, das in der Immobilienwirtschaft längst etabliert ist: dem Vier-Augen-Prinzip. Kein Bau ohne Abnahme. Keine Zahlung ohne Gegenkontrolle. Kein Vertrag ohne Unterzeichnung. AI-Agenten erfordern keine anderen Grundsätze. Sie erfordern lediglich, dass diese Grundsätze auch für automatisierte Prozesse konsequent gelten.
Die folgende Liste ist kein umfassendes Regelwerk sondern ein Einstiegspunkt. Sie basiert auf den Erkenntnissen aus der aktuellen Sicherheitsforschung und lässt sich auf die meisten Einsatzszenarien in der Immobilienwirtschaft anwenden.
Checkliste: Vor dem Einsatz eines AI-Agenten: Welche Rechte erhält er? Was darf er ohne Rückfrage tun? Wann muss er eskalieren? Wer kontrolliert seinen Output? Gibt es ein Rollback-Szenario?
AI-Agenten sind weder Allheilmittel noch Bedrohung. Sie sind Werkzeuge: mächtige, schnelle, unermüdliche Werkzeuge, die erheblichen Nutzen bringen können. Aber wie jedes leistungsstarke Werkzeug setzen sie voraus, dass diejenigen, die sie einsetzen, wissen, was sie tun.
Die Forschung ist klar. Die Risiken sind bekannt. Was fehlt, ist in vielen Unternehmen noch die konkrete Auseinandersetzung mit der Frage: Welche Prozesse wollen wir automatisieren und welche nicht?
Die Antwort darauf ist keine technische, sondern eine unternehmerische. Sie beginnt mit dem Grundsatz, dass Kontrolle kein Zeichen von Misstrauen gegenüber der Technologie ist. Sie ist die Bedingung dafür, dass die Technologie funktioniert.
Wer AI-Agenten mit klaren Grenzen, definierten Eskalationspfaden und echtem Human in the Loop einführt, wird schneller vorankommen als wer sie grenzenlos entfesselt und dann mit den Konsequenzen kämpft.
„We’re building the plane while flying it, and the flight manual hasn’t been written yet.“ — Aus der Analyse der «Agents of Chaos»
Studie, Awesome Agents, März 2026
An der Hochschule Luzern beobachten wir diese Entwicklung aktiv im Rahmen unserer Forschungsgruppe AI@RE. Wir testen, analysieren und begleiten Unternehmen beim verantwortungsvollen Einsatz von AI in der Immobilienwirtschaft.
Welche Erfahrungen haben Sie mit AI-Agenten gemacht – oder welche Fragen beschäftigen Sie? Wir freuen uns auf den Austausch.
Die Quellen und weiterführenden Links finden Sie hier.
Hier einige Angebote, wie wir Ihnen dabei behilflich sein können
Mit unserem kostenlosen AI Readiness Check erhalten Sie eine strukturierte Standortbestimmung entlang der entscheidenden Erfolgsfaktoren: Daten. Use Cases. Organisation. Kompetenzen. Governance.
Sie sehen sofort, wo Sie stehen und wo Ihr grösstes Hebelpotenzial liegt.
➔ Jetzt AI Readiness Check starten
(Die Auswertung ist anonym und sofort verfügbar.)
Viele Unternehmen experimentieren mit AI. Nur wenige integrieren sie systematisch in ihre Wertschöpfung.
Der AI Transformation Circle bietet den strukturierten Rahmen dafür. Sie arbeiten gemeinsam mit anderen Unternehmen an:
Klare strategische Organisationsentwicklung. Und konkrete Umsetzung mit sofort nutzbaren Resultaten.
Der Circle hilft Ihnen, AI aus der Pilotphase zu führen und dauerhaft produktiv zu machen.
Unsere Webinarreihe beleuchtet regelmässig aktuelle Fragestellungen an der Schnittstelle von AI und Immobilienwirtschaft.
Nächstes Webinar:
7. Mai 2026
„Wo lohnt sich KI wirklich?“
In unseren Seminaren und Workshops vertiefen wir die Themen praxisnah und mit konkreter Transferunterstützung für Ihr Unternehmen.
Alle Angebote rund um AI @ Real Estate finden Sie hier.
Kommentare
0 Kommentare
Danke für Ihren Kommentar, wir prüfen dies gerne.