Schön. Perfekt. Falsch! KI-Fakes überfluten das queere Dating
In Dating-Apps wie Grindr oder Romeo tauchen immer häufiger Profile auf, die nicht eindeutig als real oder künstlich erkennbar sind. KI-generierte Bilder verändern die visuelle Wahrnehmung und stellen uns vor Herausforderungen: Wer ist optimiert, wer komplett fake?
Wer heute durch Grindr, Romeo oder ähnliche Apps scrollt, bewegt sich durch eine Bildwelt, die mit klassischen Schnappschüssen nur noch wenig zu tun hat. Die Gesichter wirken glatter, gleichmässiger, fast schon modellhaft. Vieles davon folgt der Ästhetik, die Instagram, Tiktok und moderne Filterprogramme in den vergangenen Jahren geprägt haben. Seit 2024 kommt jedoch ein weiterer Faktor hinzu: KI-Systeme, die Bilder erzeugen, die aussehen wie echte Fotos – nur dass hinter ihnen kein Mensch steht.
Für das queere Dating hat diese Entwicklung Folgen. Eine Community, die stark über visuelle Eindrücke funktioniert, begegnet plötzlich Profilen, die nicht mehr eindeutig einzuordnen sind. Was ist echt, was optimiert – und was komplett künstlich? Diese Unsicherheit verändert das Miteinander, oft unmerklich, aber stetig.
Immer mehr künstliche Profile in Dating-Apps Schätzungen von Sicherheitsfirmen und Branchenanalysen gehen davon aus, dass ein nicht unerheblicher Teil der Profile auf Dating-Plattformen gefälscht ist. In manchen Untersuchungen ist von rund zehn Prozent die Rede. In Befragungen sagt etwa ein Viertel der Nutzer*innen, schon einmal von einer falschen Identität getäuscht worden zu sein.
In aktuellen Berichten aus dem Jahr 2025 taucht zudem ein Begriff immer häufiger auf: «synthetische Identitäten». Gemeint sind Profile, die mit künstlich erzeugten oder stark bearbeiteten Bildern arbeiten – teilweise kombiniert mit automatisierten Chatverläufen. Solche Accounts seien einer der Bereiche, in dem Betrugsaktivitäten im digitalen Umfeld am schnellsten zunehmen.
Romeo: geringe Zahlen, wachsender Trend Die Plattform Romeo beobachtet das Thema, sieht aber bislang noch keine explosive Entwicklung. «Im vergangenen Jahr ist die Zahl der gemeldeten oder bestätigten Fakeprofile auf unserer Plattform relativ stabil geblieben. Speziell der Anteil KI-generierter Bilder liegt derzeit bei weniger als 1 Prozent der von uns erkannten Fakeprofile. Es ist ein kleiner Anteil, aber wir sind uns bewusst, dass dieser Bereich wächst», sagte Romeo-Geschäftsführer Jens Schmidt auf Anfrage von MANNSCHAFT. Im Oktober führte die Plattform bei ihren Nutzer*innen eine Umfrage zum Thema KI-Assistenz durch (MANNSCHAFT berichtete).
Romeo betont ausserdem, dass nicht jede Form der Bildoptimierung automatisch problematisch sei. Vieles kenne man schon aus der klassischen Bildbearbeitung – relevant werde es erst, wenn die Bearbeitung eine falsche Identität suggeriert.
Grindr: Sicherheit steht im Vordergrund Grindr fasst das Thema weniger über Zahlen, sondern stärker über Sicherheit. Emilee Serwan, Strategic Communications bei Grindr, sagt gegenüber MANNSCHAFT: «Bei Grindr nehmen wir unsere Rolle als vernetzende Plattform für die queere Community sehr ernst. Wir arbeiten kontinuierlich daran, ein sicheres und authentisches Umfeld zu schaffen – unter anderem, indem wir gegen Spam, Betrug und nicht-authentische Profile vorgehen, einschliesslich solcher, die KI-generierte Bilder nutzen, um ihre Identität falsch darzustellen.»
Grindr verweist dazu auf mehrere Ebenen der Kontrolle: automatisierte Systeme, Analysen von Verhaltensmustern und manuelle Prüfungen im Moderationsteam. Ausserdem empfiehlt die App, vor persönlichen Treffen die Video-Funktion zu nutzen, um potenzielle Kontakte besser einschätzen zu können. Im Frühjahr 2025 gab Grindr die Entwicklung einer KI-Assistenz bekannt (MANNSCHAFT berichtete).
Die grosse Grauzone Die schwierigsten Fälle sind nicht unbedingt die komplett künstlichen Gesichter. Häufiger geht es um echte Fotos, die so weit optimiert wurden, dass sie vom Original kaum noch zu unterscheiden sind. Viele KI-Tools glätten Haut, verändern Proportionen oder modellieren das Licht nach – ohne typische Spuren klassischer Bildbearbeitung.
Schmidt sagt dazu, solche Optimierungen seien bei Romeo erlaubt, solange sie nicht täuschen. Grindr wiederum setzt stärker auf Verhaltensanalysen, um ungewöhnliche Profile zu erkennen. Einig sind sich beide Plattformen darin, dass KI-Bildgeneratoren technisch inzwischen eine Qualität erreicht haben, die frühere Kontrollmechanismen deutlich erschwert.
Warum Queers besonders betroffen sind Dating-Apps haben im queeren Leben eine besondere Bedeutung. In vielen Regionen sind sie einer der wenigen Orte, an denen Austausch, Sichtbarkeit und Kontakt überhaupt möglich sind. Entsprechend hoch ist der Stellenwert, den Fotos dort haben – und entsprechend stark wirken sich künstliche Bilder aus.
Schmidt formuliert es so: «Wir sehen durchaus ein Risiko, dass queere Nutzer*innen – wie alle Nutzer*innen – grössere Schwierigkeiten haben könnten, Realität und idealisierte KI-Bildwelten auseinanderzuhalten.»
Grindr verweist auf die Rolle der Community selbst: «Wir ermutigen Grindr-Nutzer*innen, die Sicherheitsfunktionen der App zu nutzen – etwa Meldung und Blockierung beim ersten Anzeichen verdächtigen Verhaltens.»
Je grösser die Unsicherheit wird, desto schwieriger wird es, Vertrauen aufzubauen – ein zentrales Element im Dating, online wie offline.
Verifizierung am Limit Eine offensichtliche Lösung wären strengere Identitätsprüfungen. Foto- oder Videoverifizierungen gelten als mögliche Werkzeuge, stossen aber schnell an Grenzen. Wasserzeichen in KI-Bildern lassen sich umgehen, biometrische Verfahren sind datenschutzrechtlich heikel, und Videoverifizierungen sind aufwendig und nicht immer praktikabel. Romeo schreibt dazu: «Derzeit planen wir keine strengeren Foto- oder Video-Verifizierungsprozesse speziell zur Erkennung von KI-Inhalten. Es gibt zwar Verfahren wie das Watermarking von KI-Bildern, aber diese lassen sich leicht umgehen.»
Grindr erklärt, man überprüfe laufend, wie sich die eigenen Sicherheitsmechanismen weiterentwickeln lassen. Grundsätzlich bleibt das Problem: Die Technik zur Erzeugung künstlicher Bilder entwickelt sich oft schneller als die Verfahren, sie zuverlässig zu erkennen. Im November 2025 wurden Grindr-Pläne über einen Rückzug von der Börse bekannt (MANNSCHAFT berichtete).
Trotz Erkennungssystemen: Das Misstrauen bleibt Romeo weist auf eine hohe Erkennungsquote hin: «Momentan erkennen wir etwa 95 Prozent der Fakeprofile innerhalb der ersten Stunde. Tatsächlich stammen weniger als 0,5 Prozent aller geöffneten Nachrichten von Profilen, die sich später als Fake herausstellen.»
Auch wenn solche Zahlen beruhigend wirken: Auf der Nutzerseite ändert sich der Eindruck nur langsam. Wenn jedes besonders perfekte Bild künstlich sein könnte, verändert das die Art, wie Gespräche beginnen, wie Erwartungen entstehen – und wie vorsichtig viele geworden sind. KI-Fakes sind damit weniger ein rein technisches Problem als ein stabiles soziales Phänomen. Sie verschieben, wie Nähe entsteht, wie Vertrauen aufgebaut wird und wie digitale Räume wahrgenommen werden.
Die entscheidende Frage wird in den kommenden Jahren nicht sein, ob Plattformen KI vollständig ausschliessen können. Sondern, wie sich in einer zunehmend synthetischen Umgebung verlässliche Formen von Authentizität entwickeln lassen – ohne jede Begegnung in Zweifel zu ziehen.
Mehr lesen > Zensur: China löscht schwule Dating-Apps (MANNSCHAFT berichtete)
Unterstütze LGBTIQ-Journalismus
Unsere Inhalte sind für dich gemacht, aber wir sind auf deinen Support angewiesen. Mit einem Abo erhältst du Zugang zu allen Artikeln – und hilfst uns dabei, weiterhin unabhängige Berichterstattung zu liefern. Werde jetzt Teil der MANNSCHAFT!