Internet der Dinge: Microsoft rüstet Azure IoT Suite auf

Microsoft möchte mit etlichen neuen Produkten in der Microsoft Azure IoT Suite das IoT-Gerätemanagement verbessern und für mehr Sicherheit und die flexiblere Anbindung von Geräten an seine Plattform sorgen.

Microsoft hat gleich mehrere neue Angebote rund um die Azure IoT Suite vorgestellt, die die Anbindung, das Management und die Sicherheit von IoT-Geräten (Internet of Things) verbessern sollen. Ziel von Microsofts Cloud-Plattform für das Internet der Dinge ist die einfache Integration einer großen Zahl von Geräten und Services in On-Premises-, Public-Cloud- oder hybride Infrastrukturen.

Mit der Erweiterung des Azure IoT Gateway SDK lassen sich sowohl ältere wie auch unzureichend vernetzte Geräte und Sensoren in IoT-Szenarien einbinden. Das SDK unterstützt hierfür Node.js, Java, C# und C. Das SDK ist quelloffen ab sofort über GitHub verfügbar.

In Kooperation mit Intel bietet Microsoft außerdem das sogenannte Grove IoT Commercial Gateway Kit an, das für die schnelle Entwicklung von Prototypen für kommerzielle Gatewayszenarien gedacht ist. Zudem listet das Partnernetzwerk von Microsoft eine Reihe zertifizierter Gateway-Hardware für Azure IoT auf, die unterschiedliche Betriebssysteme unterstützen, darunter Wind River Linux, Ubuntu, Windows 10 und Windows Server 2012.

Geräteverwaltung in der Azure IoT Suite

Außerdem ist Azure IoT Hub Device Management nun generell verfügbar. Die Anwendung umfasst Funktionen zur Skalierung und Automatisierung der Geräteverwaltung für unterschiedliche Geräte, Plattformen, Betriebssysteme und Protokolle. Die Funktion ist Teil des Azure IoT SDK. Clientseitige Unterstützung ist zurzeit für C und Node.js gegeben, C# und Java sind in Planung.

Das „Security Program“ für Azure IoT kann nun mit IP Filtering aufwarten: Anwender können damit festlegen, welche IP-Adressen von Azure IoT Hub akzeptiert (Whitelisting) oder abgelehnt werden (Blacklisting). Das IP Filtering unterstützt zurzeit die Protokolle AMQP, MQTT, AMQP/WS, MQTT/WS und HTTP/1. Ein bereits im Oktober veröffentlichtes Tutorial zeigt, wie sich IP-Adressen auf eine Blacklist setzen lassen. Microsoft möchte damit die Anbindung einer Vielzahl autonomer Geräte sicherer machen.

MediaWiki Sitemap mittels PHP generieren

Fertige Wiki’s mittels MediaWiki unter Microsoft Azure sind eine feine Sache. Sie sind schnell eingerichtet und installiert. Eine fertige Vorlage ist vorhanden, und auch der Aufbau mit den ersten Beiträgen funktioniert innerhalb weniger Minuten. Wenn das Wiki dann aber veröffentlicht werden soll, stellt sich schnell die Frage, wie eine MediaWiki Sitemap automatisch generiert werden kann.

Anmeldung an Kudu

MediaWiki Sitemap

Zuerst ist eine Anmeldung am Kudu-Web-Frontend notwendig. Das System ist in Microsoft Azure über eine eigene URL für jede Website erreichbar:

Powershell starten

Als nächstes sucht man sich die Powershell über das obere Menü unter „Debug Console“.

Sitemap generieren

Als letzten Schritt führt man den Befehl zur Erstellung der Sitemap aus. Es handelt sich dabei um ein kleines PHP-Programm, welches in der MediaWiki-Vorlage automatisch enthalten ist.

php maintenance/generateSitemap.php --compress=no

Optionen

Folgende Optionen stehen für das Script zur Verfügung:

--help

zeigt die verfügbaren Optionen für generateSitemap.php an

--fspath=<path>

Der Pfad, in dem die fertige Sitemap gespeichert werden soll. Für die spätere Nutzung muss dieser Pfad natürlich online sichtbar sein.

Beispiel: sitemap/

--identifier=<identifier>

Welche Site Identifier soll genutzt werden? Standardmäßig wird $wgDBname verwendet

--urlpath=<prefix>

Die URL, die auf –fspath zeigt, also z.B. http://wiki.example.com/sitemap/

Besonders für Google ist das hilfreich, diese Pfadangabe wird jeder URL in der Sitemap vorangestellt und von Google erwartet. Diese Einstellung sollte immer in Verbindung mit –server verwendet werden.

--server=<server>

Der Servername einschließlich Protokoll (http/https), der in den URL’s verwendet werden soll. Beispiel: http://en.wikipedia.org

Manchmal ist dieser optionale Parameter notwendig, wenn die Erkennung des Servernamens fehlschlägt und Einträge in der Sitemap mit „localhost“ erscheinen.

--compress=[yes|no]

Schaltet die Kompression der Sitemap-Datei ein oder aus. Standardmäßig ist die Kompression aktiviert.

Beispiel zur Erstellung einer MediaWiki Sitemap

MediaWiki Sitemap für Google Webmaster Tools erstellen:

Zuerst legt man ein eigenes Verzeichnis für die Sitemap an:

mkdir sitemap

Danach generiert man die Sitemap mittels des Scripts:

php maintenance/generateSitemap.php \
--fspath sitemap \
--server http://mydomain.org \
--urlpath http://mydomain.org/sitemap

Microsoft tritt der Linux Foundation bei

Microsoft ist der Linux Foundation als Platinum-Mitglied beigetreten und spielt damit künftig eine wichtige Rolle.

Microsoft bekräftigt seine Unterstützung für Linux und Open Source und ist nun der Linux Foundation beigetreten. Microsoft tritt der Linux Foundation als Platinum-Mitglied bei, wie die Stiftung meldet. Damit spielt Microsoft in der Stiftung künftig eine ähnlich wichtige Rolle wie andere Platinum-Mitglieder wie Intel, IBM, Samsung und Oracle. Für Microsoft ist nun John Gossman im Board of Directors der Linux Foundation. Gossmann leitet bei Microsoft die Entwicklung von Microsoft Azure und treibt seit einiger Zeit auch Microsofts Partnerschaften mit Linux-Projekten und Open-Source-Technologien an.

linux_microsoft

Zeitgleich hat Microsoft auch die Beta von SQL Server 2016 für Linux veröffentlicht. Microsoft hatte im März angekündigt, den SQL Server künftig auch für Linux anbieten zu wollen. Außerdem dürfen Linux-Entwickler nun ab sofort mit einer Beta des Azure App Service arbeiten.

Der frühere Microsoft-Chef Steve Ballmer hatte Linux noch Anfang des Jahrtausends als „Krebsgeschwür“ bezeichnet. Der im Jahr 2014 als Nachfolger angetretene Satya Nadella hat allerdings dem Unternehmen einen Kurswechsel verordnet. Die Botschaft lautet seit dem: Microsoft liebt Linux.

Jetzt patchen! Angriffe auf WordPress-Seiten nehmen zu und werden gefährlicher

Nach der Verunstaltung von verwundbaren WordPress-Webseiten versuchen Angreifer nun Schadcode auszuführen, um Angriffe auf WordPress-Seiten vorzunehmen, warnen Sicherheitsforscher.

Angriffe auf WordPress

Wer noch immer die durch aktuelle Angriffe gefährdeten WordPress-Ausgaben 4.7 und 4.7.1 einsetzt, sollte dringend die abgesicherte Version 4.7.2 installieren: Derzeit versuchen Angreifer Schadcode auf verwundbaren WordPress-Webseiten zu platzieren und auszuführen, warnen Sicherheitsforscher von Sucuri.

Die als kritisch einstufte Sicherheitslücke klafft in der REST API, die es seit WordPress 4.7 gibt. Bisher haben verschiedene Hacker-Gruppen die Lücke ausgenutzt, um Beiträge und Kommentare über so genannte Defacement-Attacken zu verunstalten. Vergangene Woche waren davon rund 120.000 Seiten betroffen. Aktuell sind es Sicherheitsforschern zufolge bereits über zwei Millionen.

PHP-Plugins können gefährlich werden

Ein derartiger Übergriff ist ärgerlich, richtig gefährlich wird es aber erst jetzt: Unbekannte Angreifer versuchen derzeit PHP-Code auf Webseiten zu schieben, um auf diesem Weg eine Hintertür zu platzieren. So können sie sich zu einem späteren Zeitpunkt Zugang zur kompromittierten Webseite verschaffen.

Davon sind aber ausschließlich verwundbare WordPress-Versionen bedroht, auf denen ein PHP-Plugin zum Einsatz kommt, das PHP-Code in Kommentaren zulässt. Dazu zählen etwa Exec-PHP und Insert PHP.

Quelle: heise.de

Particle Cloud bringt IoT-Anbindung für Raspberry Pi

IoT-Entwickler können jetzt auch Raspberry Pi über die Web-IDE programmieren und Daten über die Particle Cloud verarbeiten. Außerdem hat das Unternehmen eine Finanzspritze von 10,4 Millionen US-Dollar erhalten.

Particle Cloud

Die IoT-Plattform Particle bietet nun eine Anbindung für Raspberry Pis. Das Start-up-Unternehmen entstand 2013 aus einer Kickstarter-Kampagne als eine „Arduino-komaptible Entwicklungsplattform mit WiFi-Unterstützung und einer Cloud-basierten Entwicklungsplattform“. Die erste Hardware, die 2015 unter dem Namen Spark Core erschien, wurde inzwischen vom Nachfolger Photon Board abgelöst.

Daneben baute das Unternehmen die Particle Cloud als Gateway zwischen Endgeräten und Anwendungen, die von Beginn an auf plattformübergreifende Verwaltung unterschiedlicher Devices ausgelegt war. Sie ermöglicht unter anderem die Verteilung von Firmware-Update und die Verteilung der an den Endgeräten anfallenden Daten. Ein Kernprodukt ist die Web-IDE, mit der Entwickler IoT-Anwendungen im Browser erstellen.

Raspi-Programmierung und -Verwaltung

Nun bietet die Particle Cloud auch eine Anbindung an den Raspberry Pi. Damit lässt sich der Kleinstcomputer über die Web-IDE programmieren. Nutzer können Over-the-air-Updates einspielen und ferngesteuerte Batch-Skripte auf einer Gruppe von Raspis ausführen. Darüber hinaus gibt es eine Anbindung an Google Cloud, Microsoft Azure und den Dienstanbieter IFTTT, der wiederum verschiedene Webanwendungen anspricht.

Weitere Details stehen im Blogbeitrag des Firmenmitgründers Zach Supalla. Offensichtlich darf sich das Unternehmen zudem über eine kräftige Finanzspritze freuen, wie die Internetplattform Venturebeat berichtet. In einer anfänglichen Finanzierungsrunde (Series A) investieren Root Ventures, O’Reilly Alpha Tech Ventures und Rincon Venture Partners insgesamt 10,4 Millionen US-Dollar in Particle.

Sophos Next Generation XG Firewall auch über Microsoft Azure erhältlich

Der Spezialist für Netzwerk und Endpoint Security Sophos baut seine Unterstützung für IaaS-Plattformen aus und bietet seine Next Generation XG Firewall auch in der Microsoft Azure-Plattform an. Kunden und Nutzer der Microsoft Azure-Plattform haben einen direkten und schnellen Zugriff auf alle Sicherheitsfunktionen der Sophos XG Firewall, zahlen jedoch nur für die Sicherheitskomponenten und -Features, die sie tatsächlich nutzen. Die Sophos XG Firewall ist bei Microsoft Azure ab Ende 2016 verfügbar, eine Vorschau ist bereits heute eingerichtet.

Schnelle und einfache Konfiguration

Basierend auf der Sophos UTM und der Next Generation Firewall, liefert die Sophos XG Firewall einen umfassenden Schutz der nächsten Generation, der die Managementkosten reduziert und die Cloud-basierte Verwaltung deutlich erleichtert. Innerhalb des Microsoft Azure Ecosystems können Kunden mit Hilfe des Azure Resource Managers die XG Firewall als eine vorkonfigurierte virtuelle Maschine je nach Bedarf nahtlos einsetzen und anpassen. Sie generiert und speichert detaillierte Out-of-the-Box-Berichte, die genaue Auskunft über das Nutzerverhalten geben. Im „User Threat Quotient“-Bericht werden Ausgangswerte festgelegt, um ungewöhnliches Nutzerverhalten zu erkennen.

Mehr Sicherheit durch integrierte Synchronized Security

Wichtiger Bestandteil der Sophos XG Firewall ist die Cloud-basierte Sophos Synchronized Security inklusive der Heartbeat-Technologie, einem technologischen Kommunikations-Tool zwischen Endpoints und der Firewall. Sophos Synchronized Security ist zentraler Bestandteil der Sophos Next Generation Firewall und bietet erweiterten Schutz durch eine direkte Kommunikation zwischen Firewall und Endpoint Security. Die Lösungen teilen ihr Wissen und bieten so ein wesentlich schnelleres Erkennen von Attacken, eine automatische Isolation infizierter Geräte und so eine schnellere Behebung des Problems. Sophos Heartbeat ist dabei das technologische Kommunikationsnetz zwischen Endpoints und der Firewall. Heartbeat übermittelt verdächtiges Verhalten einzelner Geräte oder bösartige Attacken in Echtzeit. Sophos Heartbeat leitet eine sofortige Aktion ein, die einen Malware-Ausbruch oder Datendiebstahl unterbindet.

„Organisationen verlagern ihre Aktivitäten zunehmend in die Cloud und die Sicherheit steht häufig nicht an erster Stelle. Das möchten wir ändern und bieten eine Infrastruktur, die gleich von Beginn an schützt. Benutzerdefinierte Vorlagen, flexible Lizenzoptionen und Support für den Azure Resource Manager und klassische Deployment-Modelle gehören dazu“, erläutert Joe Levy, Chief Technology Officer bei Sophos. „Sicherheit muss stark und leistungsfähig sein. Dazu ist es besonders wichtig ist, dass sie sich möglichst einfach in die IT-Infrastruktur der Organisationen integriert.“

Kernfunktionen der Sophos XG Firewall

  • Security Heartbeat. Diese einzigartige Technologie verbindet Firewall und Endpoint, um Informationen zu teilen und den Schutz vor Bedrohungen deutlich erhöhen.
  • Network Security Control Center. Eine innovative Schnittstelle, die umgehend Netzwerk- und Bedrohungsinformationen liefert, damit eine Reaktion auf Angriffe schnell erfolgen kann.
  • Einheitliches Policy-Modell. Eine vereinfachte Richtlinienverwaltung mit vorkonfigurierten Templates für Business-Anwendungen, um die Konfiguration deutlich zu vereinfachen.
  • Benutzer- und App-Risikoanalyse. Eine App-Risk-Score-Funktion hilft, Risiko-Benutzer und -Anwendungen zu identifizieren und potenzielle Sicherheits-Hotspots auszumachen.
  • Benutzer Threat Quotient. Verwalten von Benutzer-Policies, die sich auf das Verhalten des Individuums sowie auf den Zustand seines Computers oder seines mobilen Geräts stützt.
  • Sophos Firewall Manager. Zentrale Verwaltung mehrerer Firewalls, die für Sophos- Partner und Managed Service Provider kostenlos ist.
  • Zentrales Cloud Management. Mit dem neuen Sophos Cloud Firewall Manager können Sophos Partner und MSPs mehrere Sophos XG Firewall-Installationen zentral aus der Cloud verwalten.

Flexible Preisgestaltung

Das Lizenzmodell ermöglicht das „Pay As You Go“ direkt in Microsoft Azure oder die Option von „Bring Your Own License“ (BYOL). Bei der BYOL-Option können Kunden die Lizenz bei einem Sophos Partner erwerben und in Microsoft Azure verwenden. Dazu gehören auch Support und Preisvorteile, die der gewählte Partner anbietet. Die Verfügbarkeit von BYOL kann von Land zu Land variieren. Informationen sind beim lokalen Sophos Partner erhältlich.

Quelle: PresseBox, Wiesbaden

Version 1.1 der Microsoft .NET-Core-Familie ist erschienen

Dreieinhalb Monate nach der ersten Release-Version hat Microsoft nun eine erste funktionale Erweiterung für seine aus .NET Core, ASP.NET Core und Entity Framework Core bestehende neue .NET-Generation veröffentlicht.

Auf der Entwicklerkonferenz connect(); hat Microsoft .NET Core 1.1 vorgestellt und holt dabei neue Plattformen an Bord: Mit dem Release kommen Linux Mint 18, OpenSUSE 42.1, macOS 10.12 und Windows Server 2016 hinzu. Samsung liefert künftig auch .NET Core für Tizen.

Die neue Version 1380 bietet zusätzliche APIs, erläutert Microsoft. Damit sind aber nicht komplette Bibliotheken gemeint, sondern die Redmonder haben jede neue Klasse und jedes neue Klassenmitglied einzeln gezählt. Beim Blick in die Liste der API-Neuerungen finden Entwickler dann auch wenig, was sie typischerweise brauchen. Die meisten Ergänzungen betreffen interne Funktionen von .NET Core oder dienen der Unterstützung für die Version 7.0 der Programmiersprache C#. Die .NET Standard Library ändert den Versionsstand daher auch nur von 1.6 auf 1.6.1. Die von Microsoft unter dem Slogan „One library to rule them all“ groß angekündigte Angleichung an die Programmierschnittstellen der Base Class Library des großen .NET Framework 4.6 soll erst im Jahr 2017 im Rahmen der .NET Standard Library 2.0 erfolgen.

Performancesteigerung in ASP.NET Core

Eine Performancesteigerung von Webanwendungen von rund 15 Prozent wollen die Macher durch Verwendung der Profile Guided Optimization (PGO) erreicht haben, die auch beim großen .NET Framework zum Einsatz kommt. Durch Aufzeichnung der tatsächlichen Nutzung des Programmcodes wird dessen Reihenfolge im Kompilat optimiert.

In der dreizehnten Ausgabe des TechEmpower-Webserverframework-Performanztest ist ASP.NET 1.1 bereits berücksichtigt und belegt dort den zehnten Platz in der „Plain Text“-Auswertung. Allerdings wird dabei ASP.NET Core auf Linux und ohne das MVC-Framework eingesetzt. Mit dem MVC-Framework rutscht ASP.NET Core in der Leistung auf den 29. Platz ab.

Quelle: Techempower

Quelle: Techempower

Nachgerüstete Funktionen

In ASP.NET Core hat Microsoft bisher fehlende Funktionen zum Umlenken von HTTP-Anfragen (URL Rewriting) ergänzt. Entwickler können nun in der Startup-Klasse mit regulären Ausdrücken, der XML-Syntax der Internet Information Services (IIS) oder der Mod_Rewrite-Syntax des Apache-Webservers Umlenkungen definieren. Auch eine Funktion zum Umlenken aller HTTP-Anfragen auf HTTPS ist realisiert.

Das frühere ASP.NET hatte einen Output Cache, der gerenderte Webseiten für eine definierbare Zeit zwischengespeichert hat. In ASP.NET Core 1.1 füllt diese in der Juli-Version noch bestehende Lücke das Paket Microsoft.AspNetCore.ResponseCaching in Verbindung mit dem Memory Cache (Microsoft.Extensions.Caching.Memory). Das Paket Microsoft.AspNetCore.ResponseCompression ermöglicht eine ZIP-Komprimierung der HTTP-Datenströme. Die Views, die in ASP.NET Core 1.0 immer zur Laufzeit kompiliert wurden, lassen sich nun zur Entwicklungszeit vorkompilieren.

Mehr Auswahl

ASP.NET-Core-Webanwendungen laufen immer in einem eigenständigen Prozess. Als Prozess-Host bietet Microsoft dafür in Version 1.1 neben Krestrel mit dem WebListener-Server eine Alternative an, die auf Basis des Windows-eigenen HTTP Server API auch Windows-spezifische Verfahren zur Authentifizierung, zum Port Sharing und Caching an Bord hat. Die Verwendung des Pakets Microsoft.AspNetCore.Server.WebListener zerstört jedoch die Plattformunabhängigkeit einer ASP.NET-Core-Anwendung.

Mit ASP.NET Core hat Microsoft View Components und Tag Helper zur Wiederverwendung von Markup und Logik eingeführt. In Version 1.1 gibt es nun eine Integration beider Konzepte. Während eine View Component bisher immer über den Befehl Component.InvokeAsync(„viewcomponentname“) in eine View einzubinden war, erledigt den Job nun eleganter ein Tag Helper (<viewcomponentname>…</viewcomponentname>).

Die Kernfunktionen von ASP.NET Core bilden Entwickler in der Startup-Klasse durch eine Aneinanderreihung von Middleware-Komponenten. Mit der Annotation [MiddlewareFilter]lassen sich nun auch Middleware-Komponenten auf einzelne Controller oder Actions beschränken. Die neue Komponente Microsoft.AspNetCore.AzureAppServicesIntegrationspeichert alle von den Logger-Objekten erzeugten Nachrichten in Microsofts Cloud. Mit den Paketen Microsoft.AspNetCore.DataProtection.Redis, Microsoft.AspNetCore.DataProtection.AzureStorage und Microsoft.Extensions.Configuration.AzureKeyVault können Entwickler sensible Informationen wie kryptografische Schlüssel in Redis oder Microsoft Azure nutzen. Im TempData-Objekt gespeicherte Daten lassen sich nun auch per Cookie auf dem Client speichern.

Entity Framework Core 1.1

Auch für den Objekt-Relationalen Mapper Entity Framework ist eine erweiterte Version 1.1 erschienen. Hier bringt Microsoft einige Programmierfunktionen aus dem Vorgänger Entity Framework 6.1 zurück, die in Entity Framework Core 1.0 fehlten. Dazu gehört die Suche nach Objekten im Cache mit Find(), das explizite Nachladen verbundener Objekte mit Load(), das erneute Laden bereits geladener Objekte mit Reload() sowie die einfache Abfrage des alter und neuer Objektinhalte mit GetDatabaseValues() und GetModifiedProperties().

Auch das Mapping auf einfache Fields anstelle von Properties und die Wiederaufnahme abgebrochener Datenbankverbindungen (Connection Resiliency) zum Microsoft SQL Server oder SQL Azure ist wieder möglich. Ganz neu ist die Möglichkeit, Objekte auch auf die speicheroptimierten Tabellen von Microsoft SQL Server 2016 abzubilden. Außerdem haben die Macher die API vereinfacht, mit der sich Standardfunktionen von Entity Framework Core durch eigene Implementierungen ersetzen lassen.

Core-Werkzeuge bleiben unfertig

Auch mit der Version 1.1 der Core-Produkte bleiben alle Werkzeuge einschließlich der Visual Studio-Integration weiterhin im Preview-Stadium. Microsoft hatte angekündigt, von den JSON-basierten Konfigurationsdateien zu MSBuild zurückzukehren – allerdings mit einem vereinfachtem XML-Format.

Für das entsprechende Projektformat existiert nun eine erste Alpha-Version in Verbindung mit Visual Studio 2017, Visual Studio Code und dem neuen Visual Studio for Mac. Bestehende project.json-Dateien können Entwickler in .csproj-Dateien konvertieren, müssen jedoch bedenken, dass es keine Option zur Rückkonvertierung gibt, falls sie später doch mit dem JSON-Format oder Visual Studio 2015 weiterarbeiten möchten.

Microsoft Azure Deutschland erhält TÜV-Zertifikat

Das Datentreuhändermodell von Microsoft Azure Deutschland mit T-Systems wurde jetzt durch den deutschen TÜV zertifiziert und für sicher befunden.

Die Public-Cloud-Dienste von Microsoft Azure Deutschland sind zu ISO/IEC 27001:2013 konform. Das bescheinigt TÜV NORD CERT GmbH dem Informationssicherheits-Managementsystems des Anbieters.

ISO/IEC 27001 bedeutet, dass neben eigenen Sicherheitsstandards auch regulatorische und gesetzliche Anforderungen in Bezug auf die Informationssicherheit einhalten werden. Weil dieses ISO/IEC 27001 ein international akzeptierter Standard ist, habe Microsoft diesen auch als Grundlage für die internen Anforderungen in Fragen der Informationssicherheit festgelegt, wie das Unternehmen mitteilt.

Parallel dazu habe sich Microsoft auch für ISO/IEC 27018:2014 zertifizieren lassen. ISO/IEC 27018 beschreibt den Schutz von personenbezogenen Daten (PII) in Public Clouds.

Zertifizierung durch den TÜV Nord

Zertifiziert wurde in einem unabhängigen Audit durch TÜV NORD CERT das Management ausgewählter Dienste von Microsoft Azure Deutschland durch die Betreibergesellschaft Microsoft Deutschland MCIO GmbH. Vor allem die Überprüfung des Datentreuhand-Modells, inklusive der Zugangskontrollen zu den Kundendaten (Role Based Access Control) durch den Datentreuhänder habe in dem Audit auf dem Prüfstand gestanden, heißt es von Microsoft.

Wichtig für öffentliche Kunden

Gerade für den öffentlichen Sektor ist die Konformität nach ISO/IEC 27018 ein wichtiges Argument. Denn öffentliche Kunden sind eine wichtige Zielgruppe für die Microsoft Azure Cloud. Für zahlreiche Entscheider im öffentlichen Sektors in Deutschland in dieser Zertifizierung eine zentrale Anforderung für Public-Cloud-Anbieter. Viele haben in ihrem Lastenheft stehen, dass die Rechenzentren des ISPs sich ausschließlich in Deutschland befinden müssen. Natürlich müsse der Betrieb den gesetzlichen deutschen Datenschutz- und Compliance-Anforderungen entsprechen.

Neben Azure bietet Microsoft auch die Microsoft Cloud Deutschland als gesonderten Service an. Dieser bietet derzeit zwar noch eine abgespeckte Version des Weltweiten Angebotes, wird aber aus ausschließlich über die Rechenzentren in Frankfurt/Main und Magdeburg bereitgestellt. Damit liegen sämtliche Kundendaten in Deutschland verarbeitet und gespeichert.

Zugang zu diesen Daten aber hat nicht Microsoft, sondern T-Systems. Nur mit Zustimmung durch den Endanwender oder durch T-Systems könne Microsoft beispielsweise im Fehlerfall für einen bestimmten Zeitraum auf diese auf Daten zugreifen. Der Zugriff erfolge auch stets unter Aufsicht eines Mitarbeiters von T-Systems.

Weitere Details zum Thema Datenschutz in der Microsoft Cloud Deutschland stellt Microsoft in dem kostenlosen “IT Grundschutz Compliance Workbook Microsoft Azure Germany” bereit. Das Workbook mit Empfehlungen für den Erhalt eines “IT Grundschutz-Zertifikat” ist ab dem 24. Januar verfügbar.

Quelle: silicon.de