Dark Pattern

Aus Social-Media-ABC
Version vom 3. Juni 2020, 20:20 Uhr von Lisa (Diskussion | Beiträge)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Der Begriff Dark Pattern (dunkles Muster, im Sinne von Verhaltensmuster), gelegentlich auch als deceptive design (irreführendes Design) bezeichnet, wurde 2010 vom UX-Experten Harry Brignull geprägt, um eine Abgrenzung zu dem Begriff Anti-Pattern zu schaffen, also zu Designfehlern, die infolge von mangelhafter Erfahrung oder fehlender Qualifikation der Programmierer entstanden sind.[1]

Definition

Als Dark Pattern wird ein Funktionsmerkmal in der Benutzeroberfläche von Webpages oder Apps bezeichnet, das die Nutzer dazu bringen soll, Dinge zu tun, die sie eigentlich gar nicht tun wollen und das stattdessen für das betreffende Unternehmen einen Mehrwert impliziert (bspw. ungewollte Preisgabe von persönlichen Information, Kauf unerwünschter Produkte, Dienstleistungen, Abonnements). Unter Ausnutzung der Kenntnisse über die menschliche Psychologie und das Nutzerverhalten bei der Navigation auf Webseiten oder in einer App wird deren Design sorgfältig bis ins kleinste Detail hinein gestaltet, einzig und allein mit dem Ziel, den Nutzer zum Vorteil des Unternehmens unbemerkt in seinem Verhalten zu manipulieren. Das staatliche, beratende Büro für Technikfolgenabschätzung beim Deutschen Bundestag (TAB) befasste sich im November 2019 ausführlicher mit dem Thema Dark Pattern und beschrieb sie als „unethisch, mitunter unlauter und ggf. betrügerisch.“[2] Nutzer würden „gezielt gesteuert, manipuliert und getäuscht“. Insbesondere für unerfahrene Nutzer sind Dark Pattern häufig schädlich, denn Aufmerksamkeit und das Kennen der eingesetzten Tricks sind häufig die einzige Möglichkeit, sich gegen sie zu wappnen.

Rechtliche Bewertung

Unternehmen, die Dark Pattern einsetzen, bewegen sich damit häufig an der Grenze zur Illegalität und scheinen mit dem Gesetzgeber bewusst Katz und Maus zu spielen. Die europäische Datenschutz-Grundverordnung (DSGVO) sollte bspw. mit Artikel 7 (aktive Einwilligung des Nutzers) eine deutliche Hürde bzgl. des Erschleichens von personenbezogenen Daten setzen. Über die Art des Zustandekommens dieser Einwilligungserklärungen und den Grad ihrer „Freiwilligkeit“ bestehen im Nachhinein aber manchmal Zweifel. Hier besteht weiterer Handlungsbedarf der Legislative.

Auch gegen §3 des Gesetzes gegen unlauteren Wettbewerb (UWG) verstoßen die eingesetzten Muster zumeist.[2] Die Dunkelziffer der nicht gemeldeten Fälle ist jedoch hoch und der Vorsatz der Gesetzesverstöße schwer nachweisbar. Häufig scheitern juristische Verfahren auch an der schwierigen Belangbarkeit der oft im Ausland sitzenden Unternehmen.[3]

Mit einem der wenigen großen strafrechtlich verfolgten Fälle erlangte 2015 die Business-Plattform LinkedIn fragwürdige Berühmtheit. Durch Täuschung neuer Nutzer im Zuge der Erstanmeldung erschlich sich LinkedIn die Erlaubnis, jeden Kontakt in deren Emailkonten mit automatisch generierten Einladungen zu kontaktieren. Ein Gericht in San José wertete diese Einladungsmails daher dennoch als illegale Spam-Nachrichten. LinkedIn stimmte einem Vergleich über 13 Millionen US-Dollar zu.[4]

Beispiele für Dark Patterns

Brignull listete in seinem Artikel von 2010 bereits einige typische Beispiele auf. [1] Seitdem sammelt, typisiert und katalogisiert er zusammen mit Alexander Darlington auf der gemeinsamen Webpage die dunklen Unternehmens-Praktiken und legt die dreistesten Fälle in einer „Hall of Shame“ auf seinem Twitter-Account offen.[5] In der zunehmenden Presseöffentlichkeit werden diese Kategorien aufgegriffen, aber auch um neue Kategorien ergänzt.[6] Häufig werden mehrere Dark Pattern gemeinsam verwendet. Anhand des zu erzielenden Zwecks unterscheidet das TAB drei Untergruppen:[2]

  • Ködern, Täuschen und Ausüben von emotionalem Druck
  • Entlocken von Daten
  • Ablenken und Hervorrufen von Ermüdung

Die nachfolgende Liste der Beispiele von Dark Patterns erhebt keinen Anspruch auf Vollständigkeit und läßt sich noch fortführen.

Ködern, Täuschen und Ausüben von emotionalem Druck

Bait and Switch

(=Lockvogeltaktik, wörtlich: Ködern und Wechseln). Die Gestaltung der Benutzeroberfläche bewegt den Anwender zu einer bestimmten Aktion, doch statt des erwarteten Ergebnisses geschieht etwas ganz anderes,unerwünschtes.[7] Klassisch, und in ähnlicher Form auch aus der analogen Welt bekannt, ist das Beispiel des Lockpreises. Bei der Produktanzeige in einer Suchmaschine werden Minimal-Preise angezeigt. Folgt der Nutzer dem Link, ist das Produkt dann nur zu deutlich höheren Preisen bestellbar.[8] Bekannt geworden sind aber vor allem besonders dreiste Praktiken von Microsoft im Zusammenhang mit dem Upgrade auf Windows 10. Unter anderem schaltete Microsoft vermeintliche Werbung bei Nutzern von Windows 7 oder Windows 8.1, die das Upgrade auf Windows 10 „empfahl“. Versuchte der Nutzer das Fenster per Klick auf das dafür bekannte „X“ zu schließen, stimmte er damit stattdessen dem Upgrade auf Windows 10 zu.[7] [9]

Confirmshaming

(wörtlich: Bestätigungs-Beschämung, auch als guilt-tripping (Schuldgefühle hervorrufen) bezeichnet.) Bei einer Auswahlentscheidung durch den Nutzer ist die ablehnende, und damit für das Unternehmen ungünstigere Option derart formuliert, dass beim Kunden Unsicherheit und Schuldgefühle ausgelöst werden und somit doch die bestätigende Auswahl getroffen wird. Typisches Beispiel sind Rabattangebote, die dem Kunden die Wahl lassen zwischen „Ja“ oder „Nein, ich hab es nicht so mit dem Sparen und bevorzuge, den vollen Preis zu zahlen“.[10] [11]

Hidden Costs

(=Versteckte Kosten). Hierunter verstehen sich Kosten, die bei einem mehrstufigen Kaufprozess erst im letzten Schritt vor dem Bezahlen unvorhergesehen im Warenkorb erscheinen. Häufig sind es Versandkosten, Steuern, Bearbeitungsgebühren und ähnliches.[12]

Scarcity

(=Knappheit). Die visuelle Gestaltung der Webpage erzeugt beim Anwender emotionalen Stress. In der Alarmfarbe rot und mit animierten Schriftzügen wird bspw. auf angeblich begrenzte Lagerbestände („nur noch 2-mal verfügbar“) und/oder eine vorgeblich besonders hohe Nachfrage („schon 16-mal in den letzten 24 h gebucht“) hingewiesen. Vor allem die Reisebranche weckt mit derartigen Mitteln gerne den Eindruck, der Kunde müsse sich besonders rasch entscheiden.[6] [13]

Urgency

(=Dringlichkeit). Im Nutzer wird die Sorge geweckt, ein „Schnäppchen“ zu verpassen, wenn er sich nicht mit der Entscheidung beeilt. So sind bspw. Angebote vorgeblich nur sehr kurz verfügbar oder werden scheinbar bereits von anderen Nutzern beobachtet. Vergleichbare oder noch günstigere Angebote wurden angeblich gerade knapp verpasst. Ein ablaufender Timer erzeugt mitunter zusätzlich Druck.[6] [13]


Entlocken von Daten

Friend Spam

(=Freunde-Spam). Unter dem Vorwand, dass es für ein gewünschtes Ergebnis (bspw. um Freunde zu finden) notwendig sei, erbittet eine Anwendung vom Nutzer Zugriff auf Kontaktdaten. Später werden diese Daten zum Versenden von Spam-Mails genutzt, die den Anschein erwecken, vom betroffenen Nutzer zu stammen. Der bereits erwähnte LinkedIn-Fall ist ein Beispiel dafür.[14]

Privacy Zuckering

(=Privatsphären-„Zuckering“ - benannt nach Mark Zuckerberg, dem CEO von Facebook). Aufgrund von irreführenden Privatsphäreeinstellungen teilen Nutzer mehr private Informationen mit, als sie eigentlich beabsichtigen. Besonders in den Anfangsjahren von Facebook war die Plattform dafür berühmt, es den Nutzer besonders leicht zu machen, versehentlich zu vielen Daten preiszugeben. Als „Homage“ wurde dieses Muster daher von Tim Jones nach Zuckerberg benannt. Heute wird dieses Webdesign vor allem von im Hintergrund agierenden Datenbrokern genutzt, um den Kunden bei der Nutzung bestimmter Dienstleistungen die unbewusste Erlaubnis zum Verkauf ihrer Datensätze an Dritte zu entlocken.[2] [15]

Trick Questions

(=Trickfragen). Fragen, werden derart formuliert, dass sie bei raschem, nur überfliegendem Lesen eine andere Entscheidung provozieren, als es gründliches Lesen getan hätte. Ein typisches Beispiel ist das Ausfüllen von Registrierungsformularen, an deren Ende verschiedene Kontrollkästchen auszuwählen sind. Während die ersten Checkboxen nach dem Opt-Out-Prinzip arbeiten („Nein, ich möchte keine weiteren Produktinformationen erhalten“), wechselt die Bedeutung der Kästchen später zum Opt-In-Prinzip („Bitte senden Sie mir Ihren Newsletter zu!“).[2] [16]


Ablenken und Hervorrufen von Ermüdung

Forced Continuity

(=erzwungene Fortführung). Bei diesem Design-Muster muss der Nutzer bereits für eine kostenfreie Testversion eines Services bspw. seine Kreditkartendaten angeben. Nach Ablauf der Probephase setzt ohne weitere Information automatisch die kostenpflichtige Nutzung ein und eine Kündigung des sich immer wieder erneuernden Nutzungs-Abonnements wird zusätzlich erschwert.[17] Vor allem der Mangel an Transparenz macht diese Vorgehensweise problematisch.[18]

Misdirection

(=Fehlleitung, benannt nach der bewussten Täuschung in der Theatermagie, bei der die Aufmerksamkeit des Publikum bewusst abgelenkt wird). So versucht auch dieses Design-Muster die Aufmerksamkeit des Nutzers auf einen bestimmten Punkt zu lenken, in der alleinigen Absicht, von einem anderen Punkt (z.B. häufig von Versteckten Kosten) abzulenken. Low-Cost-Airlines nutzen dieses Designmuster bspw. gerne bei der vermeindlichen Sitzplatzauswahl gegen ein zusätzliches Entgelt. Ein zufällig ausgewählter Sitzplatz ist dabei jedoch schon voreingestellt. Die Zusatzkosten lassen sich nur durch Deaktivierung eines schwer auffindbaren Kontrollkästchens vermeiden.[2] [19]

Price Comparison Prevention

(=Verhinderung von Preisvergleichen). Ein Preisvergleich mit ähnlichen Produkten oder den Angeboten anderer Verkäufer wird mit diesem Muster bewusst erschwert, bspw. durch Angebote in abweichenden Gebinden oder als Paketangebote, also in Kombination mit anderen Produkten. [20]

Roach Motel

(=Schaben-Motel). Mit dieser Metapher werden Designs zusammengefasst, die es dem Anwender zunächst sehr leicht machen, in eine bestimmte Situation zu kommen. Ein Wieder-Verlassen wird aber - in der Hoffnung auf einen Ermüdungseffekt - bewusst sehr erschwert. Typisches Beispiel sind Mitgliedschaften oder die Einrichtung von Kundenkonten. So ist bspw. die Registrierung für ein Kundenkonto bei amazon sehr einfach gehalten, wohingegen die Konto-Auflösung eine sehr umständliche Prozedur durchläuft.[21] [22]

Sneak into Basket

(=in den Warenkorb schleichen). Im Zuge eines Online-Einkaufs werden über leicht übersehbare Voreinstellungen Produkte oder Dienstleistungen zum Warenkorb hinzugefügt, sofern der Kunde sie nicht bewusst abwählt (Opt-Out-Option).[23]


Einzelnachweise

  1. 1,0 1,1 Harry Brignull:90 Percent of Everything - Dark Patterns: dirty tricks designers use to make people do stuff, 8. Juli 2010, abgerufen am 17. Mai 2020, (englisch).
  2. 2,0 2,1 2,2 2,3 2,4 2,5 Christoph Bogenstahl:Dark Patterns – Mechanismen (be)trügerischen Internetdesigns, Themenkurzprofil Nr. 30 des Büros für Technikfolgenabschätzung des Deutschen Bundestags (TAB), November 2019, ISSN 2629-2874, abgerufen am 17. Mai 2020, (PDF; 551KB).
  3. Jürg Tschirren:Üble Tricks im Internet - Die dunkle Seite des Designs, SRF-Digital, 31. August 2018, abgerufen am 17. Mai 2020.
  4. John Brownlee:After Lawsuit Settlement, LinkedIn’s Dishonest Design Is Now A $13 Million Problem 10. Mai 2015, abgerufen am 17. Mai 2020, (englisch).
  5. Harry Brignull und Alexander Darlington:Dark Pattern.org, abgerufen am 17. Mai 2020, (englisch).
  6. 6,0 6,1 6,2 Patrick Beuth und Marcel Rosenbach: 50 Leute lesen diesen Text. In: Der Spiegel Nr. 12/2020 vom 14. März 2020, S. 100-102, bzw. online auf Magazin/Spiegel.de, abgerufen am 27. Mai 2020.
  7. 7,0 7,1 Harry Brignull und Alexander Darlington:Bait and Switch, abgerufen am 26. Mai 2020, (englisch).
  8. Kishan Salian:UX Dark Pattern — Bait and Switch, abgerufen am 26. Mai 2020, (englisch).
  9. Paul Thurrott: Upgradegate: Microsoft’s Upgrade Deceptions Are Undermining Windows 10 (Updated), 24. Mai 2016, abgerufen am 26. Mai 2020, (englisch).
  10. Harry Brignull und Alexander Darlington:Confirmshaming, abgerufen am 26. Mai 2020, (englisch).
  11. Confirmshaming, abgerufen am 26. Mai 2020, (fortlaufende Auflistung von zahlreichen Beispielen für Confirmshaming auf Tumblr.com, englisch).
  12. Harry Brignull und Alexander Darlington:Hidden Costs, abgerufen am 26. Mai 2020, (englisch).
  13. 13,0 13,1 Andreas Proschofsky: Stressfaktor: Wie Booking.com und Co die Nutzer zu unüberlegten Buchungen bringen, Auf: Der Standard - Netzpolitik, 23. September 2019, abgerufen am 26. Mai 2020.
  14. Harry Brignull und Alexander Darlington:Friend Spam, abgerufen am 26. Mai 2020, (englisch).
  15. Harry Brignull und Alexander Darlington:Privacy Zuckering, abgerufen am 26. Mai 2020, (englisch).
  16. Harry Brignull und Alexander Darlington:Trick Questions, abgerufen am 26. Mai 2020, (englisch).
  17. Harry Brignull und Alexander Darlington:Forced Continuity, abgerufen am 26. Mai 2020, (englisch).
  18. Michel Fortin:The Real Sinister Side of Forced Continuity, 2020, abgerufen am 26. Mai 2020, (englisch).
  19. Harry Brignull und Alexander Darlington:Misdirection, abgerufen am 26. Mai 2020, (englisch).
  20. Harry Brignull und Alexander Darlington:Price Comparison Prevention, abgerufen am 26. Mai 2020, (englisch).
  21. Sandro Morgan:Dark Patterns - Die dunkle Seite der User Experience, 21. Oktober 2019, abgerufen am 26. Mai 2020.
  22. How Dark Pattern trick You Online, 29. März 2018, abgerufen am 26. Mai 2020, (Youtube-Video; 6:56, englisch).
  23. Harry Brignull und Alexander Darlington:Sneak into Basket, abgerufen am 26. Mai 2020, (englisch).