Die meisten Systeme brechen nicht zusammen, wenn Ideen eingeführt werden.

Sie kämpfen später.

Wenn diese Ideen auf echten Druck treffen.

Die allgemeine Annahme ist, dass die standardmäßige Privatisierung alles das Problem löst.

Dass, wenn Informationen verborgen sind, das Risiko mit ihnen verschwindet.

Es klingt vernünftig.

Bis sich die Bedingungen ändern.

Das ist kein Makel in der Kryptographie.

Es ist das, was passiert, wenn Systeme — und die Menschen, die sie benutzen — gezwungen sind, unter Audits, Streitigkeiten und Verantwortung zu arbeiten.

Unter Stress fühlt sich absolute Privatsphäre nicht schützend an.

Es fühlt sich einschränkend an.

Die meisten auf Privatsphäre ausgerichteten Systeme reagieren, indem sie Informationen vollständig abschotten.

Nicht, weil es das beste Ergebnis ist – sondern weil es die sauberste Regel ist, die zu verteidigen ist.

Wenn Offenlegung erforderlich ist, gibt es keinen nativen Weg dazu.

Nur Ausnahmen, Umgehungen oder Vertrauen.

Wir haben bereits frühe Versionen dieses Verhaltens während kürzlicher Stressereignisse gesehen.

Einige neuere Ansätze, wie Dusk, betrachten Privatsphäre nicht als einen permanenten Zustand.

Sie betrachten es als Standard, der sich ändern kann, wenn der Kontext es verlangt.

Manchmal scheitern Systeme nicht laut, wenn die Voreinstellungen falsch sind.

Sie scheitern, indem sie jede Ausnahme kostspielig machen.

Vielleicht ist die eigentliche Frage nicht, ob Privatsphäre der Ausgangspunkt sein sollte.

Vielleicht ist es das, was passiert, wenn Systeme nicht wissen, wie sie sich anpassen sollen, wenn der Druck ansteigt.

@Dusk #dusk $DUSK