Im weitesten Sinne können Zero-Trust-Prinzipien auf den gesamten Lebenszyklus der Anwendungsentwicklung angewendet werden, einschließlich des Systemdesigns, der verwendeten Hardware-Plattformen und der Beschaffungsverfahren.2 In diesem Beitrag werden jedoch die operativen Aspekte der Implementierung des Zero-Trust-Konzepts zum Schutz von Anwendungen und Daten während der Laufzeit erörtert.
Allgemein formuliert, werden bei der Zero-Trust-Sicherheit Technologien eingesetzt, mit denen eines von drei verschiedenen Zielen erreicht werden soll:
Die folgende Grafik zeigt das allgemeine Transaktionsmodell der Zero-Trust-Sicherheit, wobei in den folgenden Abschnitten auf die einzelnen Technologiekategorien näher eingegangen wird.
Die ersten beiden Technologien – Authentifizierung und Zugriffskontrolle – sind eng miteinander verbunden und werden direkt durch die Grundsätze der „expliziten Überprüfung“ und des „Least Privilege“-Ansatzes motiviert, da diese Technologien den Kern der Durchsetzung des Prinzips „Wer kann was unternehmen“ bilden. Anspruchsvollere Methoden der Authentifizierungsumsetzung setzen auf die Beobachtung des kontinuierlichen Verhaltens eines Akteurs und tragen dem Gedanken der „kontinuierlichen Bewertung“ Rechnung.
Bei Authentifizierungstechnologien geht es darum, Vertrauen in eine bestätigte Identität zu schaffen: Wer ist an einer Transaktion aktiv beteiligt. Der Authentifizierungsprozess besteht aus drei Komponenten:
Die einfachste Form der Bestätigung wird oft als „Benutzer“ bezeichnet – ein Mensch oder ein im Namen eines Menschen handelnder Vertreter, der eine Transaktion durchführen möchte. Da im Falle des Zero-Trust-Konzepts innerhalb einer Anwendung ein Akteur jedoch auch eine Workload sein kann (z. B. ein Prozess, ein Dienst oder ein Container), sollte das generalisierte Identitätskonzept auch solche Akteure umfassen. In anderen Fällen umfasst der Begriff Wer nicht nur einen Menschen oder eine Workload, sondern zusätzliche Überlegungen oder Dimensionen der Identität. Aus dieser Perspektive könnten zusätzliche Dimensionen der Identität das Gerät oder die Plattform des Benutzers bzw. der Workload oder das für die Interaktion verwendete Ökosystem bzw. den Standort des Vertreters umfassen. So kann beispielsweise die Benutzerin „Alice“ einen PC unter der Bezeichnung „ABC-0001“ nutzen und eine bestimmte, mit Fingerabdrücken versehene Browserinstanz verwenden, die von der IPv4-Adresse 10.11.12.13 stammt.
Manche Systeme erlauben es nicht authentifizierten Benutzern, die manchmal als „Gäste“ oder „anonyme“ Benutzer bezeichnet werden, eine limitierte Anzahl von Transaktionen durchzuführen. Für solche Systeme sind die zusätzlichen Schritte des Identitätsnachweises und der Urteilsfällung durch das System nicht relevant. Für eine bestimmte bestätigte Identität werden jedoch in der Regel folgende Methoden zur Untermauerung der Bestätigung herangezogen:
Wenn ein hohes Maß an Vertrauen erforderlich ist, werden oft mehrere Methoden eingesetzt. Dies kommt im Google BeyondCorp-Modell3 zum Ausdruck, das eine Multi-Faktor-Authentifizierung (MFA) verlangt, bevor es höherwertige Transaktionen zulässt. Anspruchsvolle Authentifizierungslösungen ordnen jeder Identität ein bestimmtes Maß an „Vertrauen“ zu und legen für jede Art von Transaktion einen Mindestvertrauenswert fest, der sich nach dem Wert und dem Risiko der Transaktion richtet.
Schließlich ist zu beachten, dass es sich bei einigen dieser Methoden nicht um statische, einmalige Aktionen handelt, sondern dass sie nach dem Prinzip der „kontinuierlichen Bewertung“ fortlaufend durchgeführt werden können und sollten. In solchen Fällen kann sich der der Identitätsbestätigung zugewiesene Vertrauenswert im Laufe der Zeit nach oben oder unten hin verändern. So kann sich beispielsweise der Fingerabdruck des Browsers oder die IP-Adresse innerhalb einer einzigen Benutzersitzung ändern, was als verdächtig und vertrauensmindernd angesehen werden könnte. Werden in einer Sitzung weitere Daten zum Verhalten des Akteurs gesammelt, kann der Vertrauenswert steigen oder sinken, je nachdem, wie das aktuelle Verhalten im Vergleich zu früheren Beobachtungen ausfällt.
Bei fortschrittlichen Systemen kann die dynamische Authentifizierung mit der Zugriffskontrolle Hand in Hand gehen. Auf der ersten Ebene dieser Interaktion kann die Zugriffskontrollrichtlinie für verschiedene Transaktionsklassen einen Mindestvertrauenswert festlegen, wie bereits erwähnt. Auf der nächsten Ebene der Interaktion kann das Zugriffskontrollsubsystem dem Authentifizierungssubsystem eine Rückmeldung geben und in der Regel eine zusätzliche Authentifizierung verlangen, um den Vertrauenswert auf den Mindestwert zu erhöhen.
Nachdem mit Hilfe von Authentifizierungsmethoden festgestellt wurde, wer an einer Transaktion beteiligt ist, stellen sich die nächsten Fragen: Was darf dieser Akteur unternehmen? Und wem gegenüber? Dies ist der Aufgabenbereich der Zugriffskontrolltechnologien.
Stellen Sie sich als Analogie zur physischen Sicherheit vor, Sie wollten einen Militärstützpunkt besuchen. Nachdem die Wachen festgestellt haben, ob Sie ein Zivilist, Politiker oder Soldat sind, würden sie anhand dieser Feststellung entscheiden, welche Gebäude Sie betreten dürfen und ob Sie eine Kamera in die jeweiligen Gebäude mitnehmen dürfen. Die Richtlinien für diese Entscheidungen können sehr grob gehalten sein und für alle Gebäude gelten (z. B. „Politiker dürfen jedes Gebäude betreten“) oder sie können feiner unterteilt sein (z. B. „Politiker dürfen die Gebäude und betreten, dürfen jedoch nur in Gebäude eine Kamera mitnehmen“).
Auf den Cybersicherheitskontext übertragen, sollten die Zugriffskontrollmethoden das Zero-Trust-Prinzip der geringsten Rechte („Least Privilege“-Prinzip) verkörpern. Mit anderen Worten: Die optimale Zugriffskontrollrichtlinie würde nur genau jene Rechte zubilligen, die der Akteur benötigt, und alle anderen Rechte verweigern. Darüber hinaus würde sie idealerweise ein bestimmtes Mindestmaß an Vertrauen in die Identität des Akteurs voraussetzen, wobei der Vertrauensschwellenwert anhand der Granularität des jeweils zugebilligten Rechts festgelegt wird.
Der Wert einer Zugriffskontrolllösung kann somit danach beurteilt werden, wie sehr sie diesen Idealen entspricht. Konkret muss eine Zero-Trust-Sicherheitslösung eine Zugriffskontrolle beinhalten, und sie sollte die Zugriffskontrolltechnologie anhand der unten dargestellten und nachfolgend beschriebenen Dimensionen evaluieren.
Nach dem Prinzip der „kontinuierlichen Bewertung (und Neubewertung)“ sollte sich das Vertrauen in die Authentizität des Akteurs im Laufe der Zeit anpassen. Bei einer einfachen Lösung könnte es sich einfach um eine Zeitüberschreitung handeln; bei komplexeren Systemen könnte sich der Vertrauenswert aufgrund von Beobachtungen des Akteurverhaltens im Laufe der Zeit ändern.
Wenn Authentifizierung und Zugriffskontrolle eine Umsetzung des Grundsatzes „immer überprüfen“ und des „Least Privilege“-Prinzips sind, dann sind Transparenz und kontextbezogene Analyse die Grundlage für die Prinzipien „kontinuierliche Bewertung“ und „Annahme einer Sicherheitsverletzung“.
Transparenz ist die notwendige Vorstufe zur Analyse – ein System kann nicht abwehren, was es nicht erkennt. Daher verhält sich die Wirksamkeit der Zero-Trust-Sicherheitslösung direkt proportional zur Tiefe und Breite der Telemetriedaten, die aus dem Systembetrieb und dem externen Kontext gewonnen werden können. Eine moderne transparenzorientierte Infrastruktur ist jedoch in der Lage, viel mehr potenziell nützliche Daten, Metadaten und Kontexte zu liefern, als ein Mensch ohne Hilfe zeitnah verarbeiten kann. Aufgrund des Wunsches nach mehr Daten und der Fähigkeit, diese Daten schneller in Erkenntnisse umzuwandeln, ist eine maschinelle Unterstützung für menschliche Bediener eine wichtige Voraussetzung.
Diese Unterstützung erfolgt in der Regel durch automatisierte Algorithmen, die von der regelbasierten Analyse über statistische Methoden bis hin zu hochentwickelten Algorithmen für maschinelles Lernen reichen. Diese Algorithmen sind dafür verantwortlich, den Schwall der Rohdaten in ein verwertbares und operationalisiertes Lagebewusstsein zu übersetzen, das von menschlichen Bedienern zur Bewertung und, falls erforderlich, zur Abhilfe genutzt werden kann. Aus diesem Grund geht die ML-gestützte Analyse Hand in Hand mit der Transparenz.
Die generalisierte Pipeline von den Rohdaten (Transparenz) zu den Maßnahmen (Abhilfe) ist unten dargestellt:
Transparenz ist die Umsetzung – das „Wie“ – des Zero-Trust-Prinzips der „kontinuierlichen Bewertung“. Sie umfasst eine Bestandsaufnahme der verfügbaren Dateneingaben (Katalogisieren) sowie die Speicherung von Echtzeit-Telemetriedaten und historischen Daten (Sammeln).
Der Reifegrad einer Zero-Trust-Transparenz-Implementierung hängt von vier Faktoren ab:
Die Latenzzeit ist eine Untergrenze dafür, wie schnell auf eine potenzielle Bedrohung reagiert werden kann. Die Latenzzeit einer Zero-Trust-Lösung sollte in Sekunden oder weniger gemessen werden. Andernfalls ist es sehr wahrscheinlich, dass jede noch so genaue Analyse zu spät kommt, um die Auswirkungen des Angriffs, z. B. eine Datenexfiltration/Verschlüsselung oder eine Nichtverfügbarkeit infolge einer Ressourcenerschöpfung, verhindern zu können. Komplexere Systeme können sowohl synchrone als auch asynchrone Abwehrmaßnahmen zulassen. Eine synchrone Abwehr würde den Abschluss der Transaktion bis zur Herstellung einer vollständigen Transparenz und dem Abschluss der Analyse verhindern. Da die synchrone Abwehr aller Wahrscheinlichkeit nach zu einer Verzögerung der Transaktion führt, wäre diese Vorgehensweise vor allem anomalen oder riskanten Transaktionen vorbehalten, während alle anderen Transaktionen Telemetriedaten senden und asynchron analysiert werden können.
Dieses Problem ist von Bedeutung, wenn Daten aus verschiedenen Quellen stammen oder von verschiedenen Arten von Datensensoren herrühren, was häufig der Fall ist. Dieser Faktor lässt sich in der Regel in zwei Teilaspekte unterteilen.
Ein wichtiger Vorteil einer hochwertigen Transparenzlösung ist die Fähigkeit, verdächtige Aktivitäten als Indikator für eine mögliche Sicherheitsverletzung zu erkennen. Damit dies effektiv möglich ist, muss die Lösung Telemetriedaten von allen relevanten „Schichten“ der Anwendungsbereitstellung erhalten: natürlich der Anwendung selbst, aber auch der Anwendungsinfrastruktur, der Netzwerkinfrastruktur, allen Diensten, die auf die Anwendung angewendet oder von ihr genutzt werden, und sogar den Ereignissen auf dem Client-Gerät. Die Identifizierung eines Benutzers, der sich von einem neuen, noch unbekannten Gerät aus anmeldet, mag für sich genommen schon etwas verdächtig sein, doch in Kombination mit Netzwerkinformationen (z. B. GeoIP-Mapping aus einem fremden Land) steigt der Verdacht noch weiter an. Dieser Verdacht äußert sich in einem niedrigeren Vertrauen in die Identität des Benutzers. Im Zusammenhang mit einer Zero-Trust-Sicherheitsrichtlinie bedeutet dies, dass die Zugriffskontrolllösung, wenn der Akteur versucht, eine hochwertige Transaktion durchzuführen (z. B. eine Überweisung auf ein ausländisches Konto), auf der Grundlage des geringen Vertrauenswerts diese Transaktion blockieren kann.
In Bezug auf den Zero-Trust-Ansatz gilt: Je tiefgreifender und vollständiger die Transparenzlösung ist, desto effektiver kann das System Transaktionen angemessen einschränken und Sicherheitsverletzungen aufdecken.
Und schließlich muss jede Datenerfassung den gesetzlichen und lizenzrechtlichen Anforderungen an die Sicherheit, Aufbewahrung und Verwendung von Daten entsprechen. Eine solide Transparenzlösung muss daher all diese Anforderungen erfüllen. Bei einer Zero-Trust-Transparenzlösung sind die Datennutzungsvorgaben, die sich aus der Governance ergeben, zu berücksichtigen. Werden beispielsweise IP-Adressdaten als personenbezogene Daten angesehen, so müssen die Verwendung und die langfristige Aufbewahrung von IP-Adressen für Analysen der zulässigen Verwendung der IP-Adressen entsprechen.
Neben der Transparenz sind für die Umsetzung der „kontinuierlichen Bewertung“ zur Durchführung einer aussagekräftigen Bewertung auch Analysetools erforderlich. Die Bewertung muss also von einer Zero-Trust-Lösung operationalisiert werden können.
Eine Überlegung bei der Analyse ist der Rahmen und Umfang der Eingabedaten. Die Eingaben für die Analysealgorithmen können sich auf einen einzigen Datenstrom aus einer einzigen Quelle beschränken oder mehrere Datenströme aus verschiedenen Datenquellen und allen Schichten der Infrastruktur und Anwendung umfassen.
Ein zweiter, besonders relevanter Aspekt der Analyse im Rahmen des Zero-Trust-Konzepts ist der Umgang mit der Menge und Geschwindigkeit der eingehenden Daten, die die Fähigkeit eines jeden Menschen übersteigen, sie zu verarbeiten. Um für Menschen verwertbare Erkenntnisse zu gewinnen, ist daher eine Art von maschineller Unterstützung erforderlich. Auch hier kann die Ausgereiftheit der Unterstützung als Fortschritt bezeichnet werden.
Wie beim regelbasierten Ansatz kann die ML-Unterstützung nur der Erkennung dienen oder mit einer automatischen Abhilfemaßnahme verbunden sein. Darüber hinaus kann die ML-Unterstützung in Verbindung mit einem regelbasierten System verwendet werden, wobei das maschinell gefällte „Urteil“ (bzw. die Meinung oder das Vertrauen) als Eingabe für eine Regel herangezogen werden kann, z. B. „Führe Aktion aus, wenn gilt: .“
Der letzte Grundsatz des Zero-Trust-Ansatzes ist die „Annahme einer Sicherheitsverletzung“. Um es klar und deutlich zu formulieren: Fachmännisch implementierte Authentifizierungs- und Zugriffskontrollmethoden verhindern die allermeisten böswilligen Transaktionen. Allerdings sollte man im Sinne einer gesunden Paranoia davon ausgehen, dass die Durchsetzungsmechanismen der Authentifizierung und Zugriffskontrolle von einem Angreifer, der ausreichend motiviert ist oder Glück hat, überwunden werden können. Die Erkennung von Verstößen – eine Voraussetzung für eine rechtzeitige Reaktion auf begangene Sicherheitsverletzungen – erfordert Transparenz und maschinengestützte Analysen. Da die anderen Durchsetzungsmechanismen gelegentlich überwunden werden, sind die Transparenztechnologien, die die ML-unterstützte kontextbezogene Analyse speisen, von entscheidender Bedeutung, wenn es darum geht, die Zero-Trust-Sicherheitslösung der risikobasierten Abhilfemaßnahmen zu unterstützen.
Für „falsch negative“ Fälle, in denen eine tatsächlich bösartige Transaktion die Authentifizierung und Zugriffskontrolle unterlaufen hat, sollte der Mechanismus der automatischen risikobasierten Abhilfe als Rückhalt genutzt werden. Da diese Technologie jedoch nur bei Transaktionen zum Einsatz kommt, die die vorherigen Kontrollen bestanden haben, besteht das Risiko, dass eine in Wahrheit „richtig negative“ Transaktion (eine gültige, erwünschte Transaktion) fälschlicherweise als „falsch positiv“ (fälschlicherweise als bösartige Transaktion) eingestuft wird. Um dieses Risiko zu verringern, sollten alle Abhilfemaßnahmen, die durch die Annahme einer möglichen Bösartigkeit ausgelöst werden, die nicht im Rahmen der Authentifizierung oder Zugriffskontrolle erkannt wurde, auf folgenden drei Faktoren beruhen4:
Die Zero-Trust-Sicherheit ist eine modernere Variante früherer Sicherheitsansätze wie der tiefgreifenden Abwehr, die den bisherigen Stand der Technik um eine transaktionsorientierte Sichtweise auf die Sicherheit erweitert – wer versucht, was gegenüber wem zu unternehmen? Dieser Ansatz ermöglicht es, nicht nur den externen Zugriff auf eine Anwendung zu sichern, sondern auch die internen Komponenten der Anwendung zu schützen.5 Angesichts dieser grundlegenden transaktionalen Sichtweise basiert die Zero-Trust-Sicherheit auf einer Reihe von Kernprinzipien, die zur Verteidigung von Anwendungen in der heutigen komplexen und anspruchsvollen Umgebung verwendet werden. Die Kernprinzipien und ihre Zuordnung zu den Lösungsmethoden sind im Folgenden zusammengefasst.
Diese Werkzeuge – Authentifizierungsmethoden, Zugriffskontrolle, Transparenz, kontextbezogenen Analyse und risikobewussten Abhilfemaßnahmen – sind notwendig und ausreichend, um eine Vielzahl von Angriffsarten zu verhindern.
1 https://www.f5.com/services/resources/white-papers/why-zero-trust-matters-for-more-than-just-access
2Der Zero-Trust-Ansatz kann und sollte auch „links“ von der CI/CD-Pipeline zur Anwendung gelangen. Werkzeuge wie Tools zur Bewertung von Schwachstellen, statische Analysen, CVE-Datenbanken, Open Source-Code-Reputationsdatenbanken und Systeme zur Überwachung der Lieferkettenintegrität stehen im Einklang mit dem Zero-Trust-Gedanken.
3https://cloud.google.com/beyondcorp-enterprise/docs/quickstart
4Es ist zu beachten, dass die Grenze zwischen kontextbezogener, risikobewusster Zugriffskontrolle und dem allgemeinen Thema der risikobewussten Abhilfemaßnahmen sehr unscharf ist und dass es gewisse Überschneidungen gibt.
5Wird häufig als „Ost-West“-Schutz innerhalb der Anwendung bezeichnet, im Gegensatz zum „Nord-Süd“-Schutz der Anwendung.