27. Oktober 2025, 12:25 Uhr
Mit stolzen 113 Artikeln stellt die EU-Verordnung 2024/1689 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz – kurz KI-Verordnung oder AI-Act – selbst „Bürokratiemonster“ wie die Datenschutzgrundverordnung oder die Gebäuderichtlinie in den Schatten. Damit scheint sie auf den ersten Blick sämtliche Vorurteile zu den überregulierenden EU-Behörden zu bestätigen. Heruntergebrochen auf Wohnungsunternehmen, die im Sinne der Verordnung zumeist als Betreiber von KI-Anwendungen auftreten dürften, ergeben sich jedoch nur wenige Punkte, die es zu beachten gilt. Spannend hingegen wird das Zusammenspiel mit bestehenden Gesetzen wie der DSGVO oder dem Urheberrechtsgesetz, die teilweise deutlich engere Rahmenbedingungen für den Betrieb setzen. Der Beitrag gibt einen Überblick über die wesentlichen Aspekte der Regulatorik rund um den Einsatz von KI in Wohnungsunternehmen und zeigt, wie der regelkonforme Einsatz in der Praxis aussieht.
Das Wohnungsunternehmen als KI-Betreiber
Der AI-Act unterscheidet mit abgegrenzten Definitionen zwischen Anbietern, nachgelagerten Anbietern und Betreibern von KI-Lösungen. Anbieter sind dabei die Entwickler eines KI-Systems (bspw. OpenAI), auf das nachgelagerte Anbieter dann mittels Integration in eigene Anwendungen aufsetzen können (bspw. Anbieter eines Mieterportals, in das ein bestehendes KI-System integriert ist). Betreiber ist eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI-System in eigener Verantwortung verwendet. Wohnungsunternehmen werden im Regelfall von Dritten entwickelte KI-Lösungen unter eigener Verantwortung im Geschäftskontext verwenden. Im Sinne der. Verordnung gelten sie somit als Betreiber des KI-Systems.
Verbot von Hochrisiko-Systemen
Auch wenn der AI Act erst zum August 2026 vollständig in Kraft treten wird, wurde der Geltungsbeginn des Kapitels 2 zum Verbot sogenannter „Hochrisiko-Systeme“ auf den 2. Februar 2025 vorgezogen. Mit dem Ziel, Grundrechte, die öffentliche Sicherheit sowie gesellschaftliche Werte zu schützen, verbietet die Verordnung z.B. manipulative oder diskriminierende Anwendungen sowie eine KI-Technologie, die für unkontrollierte Massenüberwachung oder das aus China bekannte „Social Scoring“ genutzt werden kann.
Im Kontext eines Wohnungsunternehmens wären verbotene KI-Anwendungsfälle voraussichtlich nur im Ausnahmefall zum Einsatz gekommen. Dennoch sollte etwa bei der KI-gestützten Auswahl von Mietinteressenten oder dem Training von Chatbots mit Mieterkontakt überprüft werden, ob die KI diskriminierend oder manipulativ agiert – also auf die Entscheidung des Mieters Einfluss nimmt. Damit könnte sie unter die verbotenen Anwendungen fallen.
Verpflichtung zur Kompetenzvermittlung
Ebenfalls bereits zum Februar dieses Jahres vorzeitig in Kraft getreten ist Artikel 4, der von vielen Unternehmen als „Schulungspflicht“ für KI-Anwender interpretiert wird. So sinnvoll es ist, die Mitarbeiter als Endanwender von KI-Lösungen fit für den verantwortungsvollen und rechtssicheren Umgang mit KI zu machen: Eine allgemeine Pflicht, ausschließlich zertifizierte Schulungen für viel Geld zu buchen, lässt sich aus dem bewusst offen formulierten Artikel der Verordnung nicht erkennen.
Der vorgeschriebene „Kompetenzerwerb“ kann auf verschiedene, andere Wege erfolgen, wie bspw. durch einfache Einweisung in die KI-Lösung durch den Anbieter, Zugang zu E-Learning-Plattformen oder interne Arbeitsgruppen für einen regelmäßigen Austausch zu Chancen und Risiken der Nutzung von KI im Arbeitsalltag.
So bietet das DigiWoh Kompetenzzentrum Digitalisierung Wohnungswirtschaft e.V. seinen Mitgliedsunternehmen kostenfreie, praxisnahe Workshop- und Weiterbildungsformate zum Thema an. Entsprechende Maßnahmen zur Kompetenzvermittlung sind zu dokumentieren.
Transparenzgebot
Mit Inkrafttreten des Artikel 50 zum 2. August 2026 gelten im Kontext der KI-gestützten Erstellung oder Veränderung von Texten bzw. Mediendateien zusätzliche Transparenzvorschriften gegenüber den Nutzern solcher Systeme. Sie dürften bei typischen Anwendungsfällen der Wohnungswirtschaft ebenfalls eine eher geringere Rolle spielen.
Zusammengefasst müssen Betreiber von KI-Systemen, mit denen sie Bild- oder Ton-Inhalte erzeugen, sicherstellen, dass sogenannte „Deepfakes“ bei Veröffentlichung klar als KI-generiert kenntlich gemacht werden. Deepfakes sind manipulierte Medieninhalte, die so realistisch wirken, dass sie von einem realen Bild nur schwer zu unterscheiden sind.
Beispiele hierfür sind Videoaufnahmen von Politikern, denen mittels KI falsche Worte in den Mund gelegt werden. Mittels KI erstellte Medien, die offensichtlich künstlich generiert wurden – wie bspw. ein sprechendes Maskottchen auf der Unternehmenswebsite – unterliegen hingegen nicht der Kennzeichnungspflicht.
Auch bei der Veröffentlichung KI-generierter Texte muss ab August 2026 offengelegt werden, dass diese mittels KI verfasst wurden, wenn nicht noch vor der Veröffentlichung eine „redaktionelle Kontrolle“ durch einen Menschen stattfand. Ein Beitrag für die Mieterzeitschrift, der mittels ChatGPT erstellt wurde und danach von einem Mitarbeiter des Unternehmens gegengelesen und freigegeben wurde, muss somit nicht als KI-generierter Content gekennzeichnet werden. Hier liegt die Verantwortung für den Inhalt dann ausschließlich beim Mitarbeiter bzw. dem herausgebenden Unternehmen.
Ein Chatbot für Mieteranfragen, der dem Fragesteller eigenständig und ohne vorherige menschliche Freigabe Antworten generiert und ausgibt, fällt hingegen unter die Transparenzpflicht: Er muss dem Nutzer vorher anzeigen, dass seine Antworten KI-generiert sind.
Datenschutz
Auch im Kontext von KI-Systemen gilt die DSGVO ausschließlich dann, wenn personenbezogene oder beziehbare Daten durch das System verarbeitet werden. In den meisten Anwendungsfällen der Wohnungswirtschaft funktionieren KI-Systeme jedoch bereits ohne die Verarbeitung personenbezogener Daten.
Deswegen ist der Einsatz aus Sicht der DSGVO in diesen Fällen unbedenklich. Die Verarbeitung personenbezogener Daten durch das KI-System ist dabei nur möglich, wenn dies der Vertragserfüllung dient (bspw. die Identifikation eines Mieters bei einer Schadensmeldung), oder das Wohnungsunternehmen mit der Verarbeitung einer rechtlichen Verpflichtung nachkommt (bspw. bei der Speicherung von Mitgliedsdaten im ERP-System).
Weitere mögliche Gründe für die Datenverarbeitung wie die Einwilligung des Betroffenen sind im KI-Kontext hingegen schwierig umzusetzen. Die Einwilligung des KI-Anwenders müsste dann nämlich über einen dokumentierten Prozess wiederrufbar sein, was sich bspw. bei automatisiert antwortenden KI-gestützten Chatbots schwierig gestalten dürfte.
Grundsätzlich sollte auf die Eingabe personenbezogener Daten in öffentlich zugängliche KI-Anwendungen wie ChatGPT, wo der Abschluss eines Auftragsverarbeitungsvertrages (AVV) nicht möglich ist, verzichtet werden. Es ist sinnvoll, stattdessen mit Pseudonymen („Max Mustermann“) zu arbeiten.
Es empfiehlt sich, KI-Lösungen bereits mit Einführung standardmäßig datenschutzfreundlich einzustellen („privacy by default“). Dazu zählt, die Erhebung unnötiger Daten wie das Geburtsdatum als zusätzliche Identifikationsmethode zu vermeiden, stets pseudonymisierte Daten zu verwenden und technisch-organisatorische Maßnahmen wie regelmäßige Sicherheits-Updates oder verschlüsselte Verfahren zur Datenübertragung intern zu regeln.
Auch in Unternehmensanwendungen, mit denen eine AVV abgeschlossen werden kann (z.B. das Mieterportal mit KI-Integration), gelten für die Datenverarbeitung die in der DSGVO-vorgeschriebenen Prinzipien wie Transparenz, Zweckbindung oder Datenminimierung.
Urheberrecht
Weder Texte noch Bild- oder Videodateien begründen einen Urheberrechtsanspruch, wenn sie ausschließlich mittels KI generiert wurden. Dies gilt unabhängig davon, wie originell der menschlich erdachte Prompt ist, durch dessen Eingabe der Inhalt in ChatGPT, Adobe Firefly & Co. generiert wurde.
Komplexer wird die Situation, wenn urheberrechtlich geschützte Werke als Grundlage für die Erstellung neuer Inhalte in ein KI-Tool hochgeladen werden. Hier kommt es auf einen ausreichenden Abstand zwischen Original und KI-verändertem Ergebnis an.
Der Upload von urheberrechtlich geschützten Bildern, Texten o.ä. zu Analyse- oder Recherchezwecken ist dabei zumeist unbedenklich – lediglich eine Vervielfältigung des Werks in Verbindung mit wirtschaftlichen Interessen ist problematisch. Gegen die nicht genehmigte Veröffentlichung eines mittels KI veränderten Werks, dass dem Ursprungswerk stark ähnelt, kann der Rechteinhaber Unterlassungs- und Schadensansprüche geltend machen. Es empfiehlt sich daher, ausschließlich Bilder bzw. Texte, die mittels eigener Prompts generiert wurden, in Publikationen, Websites & Co. zu veröffentlichen.
Weiterführende Informationen
Welche rechtlichen Rahmenbedingungen für den KI-Einsatz greifen, hängt zumeist vom jeweiligen Einsatzgebiet der KI-Lösung ab.
Die meisten wohnungswirtschaftlichen Anwendungsfälle sind rechtlich unbedenklich, wenn die Vorschriften von AI-Act, DSGVO und Urheberrecht eingehalten werden, die Mitarbeitenden für die Nutzung des Tools entsprechend sensibilisiert sind und bspw. eine interne KI-Richtlinie sicherstellt, dass der Anwendungsfall zu Werten und Strategie des Unternehmens passt.
Für alle, die sich detaillierter in die Materie einlesen möchten und sich neben einer ausführlichen Betrachtung der regulatorischen Anforderungen ebenso für Hintergrundinformationen zur technischen Funktionsweise von KI sowie Handlungsempfehlungen für die Umsetzung erster KI-Projekte interessieren, hat der GdW eine umfangreiche Arbeitshilfe mit dem Titel „Generative Künstliche Intelligenz in der Wohnungswirtschaft“ veröffentlicht. Diese kann über www.gdw.de/downloads/ bestellt werden.