E-Mail-Archivierung ist nach GoBD nun Pflicht!

Seit dem 01.01.2017 ist die Übergangsfrist der GoBD vorbei und E-Mail-Archivierung für Unternehmen Pflicht. Unter GoBD versteht man die Grundsätze zur ordnungsmäßigen Führung und Aufbewahrung von Büchern, Aufzeichnungen und Unterlagen in elektronischer Form sowie zum Datenzugriff. Seit einigen Jahren wird auf die Wichtigkeit hingewiesen. Unternehmen müssen die Vorgaben nun erfüllen. Im Folgenden werden wir das Thema erläutern.GoBD Änderungen 2017 - Grafik - E-Mail-Archivierung

E-Mail-Archivierung: Was heißt das explizit?

Sofern E-Mails die Funktion eines Belegs oder eines Geschäftsbriefs haben, sind diese entsprechend der gesetzlichen Fristen aufzubewahren. Es genügt nicht die E-Mail abzuspeichern. Dokumente sind jederzeit verfügbar, sicher vor Manipulation und vollständig vorzuhalten. Dazu zählen auch Anhänge. Ferner müssen Inhalte maschinell auswertbar sein. Somit reicht ein Ausdruck nicht mehr aus.
Darüber hinaus ist Zugriffsschutz sicher zu stellen. Die wichtigsten Anforderungen hat die BITKOM in einem Leitfaden zusammen gestellt.
Wir empfehlen alle eingehenden und ausgehenden E-Mails zu archivieren.

Private E-Mails im Unternehmen

Mit der geschäftlichen E-Mail private Inhalte zu versenden ist gang und gäbe. Einige Unternehmen haben hier bestimmte Vereinbarungen mit ihren Mitarbeitern. Diese weisen auf eine Speicherung hin. Doch selbst dann gibt es aus Sicht des Datenschutz ein Problem. Der Empfänger der E-Mail hat ebenfalls ein Anrecht auf den Schutz auf seine Privatsphäre. Wir empfehlen stets betriebliche und private Mails zu trennen.

Lösungsmöglichkeiten

Für diesen Einsatzzweck gibt es bereits zertifizierte Software. Aus unserer Sicht ist eine solche Lösung unverzichtbar, um den GoBD vollständig gerecht zu werden. Die Software besteht in der Regel aus zwei Teilen: zum einen eine leistungsfähige Datenbank und zum anderen eine einfach zu bedienende Oberfläche. Nach Einrichtung wird jede E-Mail unveränderbar abgelegt.
Seit einiger Zeit setzen wir solche Lösungen produktiv ein. Gerne können Sie uns kontaktieren, wenn Sie weitere Fragen haben.

Nicht nur E-Mails?

Natürlich sind von der neuen Regelung nicht nur E-Mails betroffen. Eine Korrektur eines Geschäftsvorfalls muss jederzeit ersichtlich sein. Dies ist vor allem bei Kassen und Buchhaltung relevant.

HW auf der Cloud Computing in FFM


Seit einigen Jahren ist der Begriff „Cloud“ in aller Munde und mittlerweile der Modebegriff in der IT-Branche. In diesem Blogeintrag geht es kurz um die Cloud im Allgemeinen und anschließend um unseren Besuch auf der Cloud Computing & Virtualisierungskonferenz in Frankfurt am 15.09.2016 (Link zur Homepage).

Was ist Cloud bzw. Cloud Computing überhaupt?

Unter Cloud bzw. Cloud Computing versteht man die Auslagerung von Hard- und Software an externe Betreiber. Der Zugriff erfolgt dabei über das Internet. Der Umfang des angebotenen Services reicht von der Nutzung eines einzelnen Programms oder Dienstes bis hin zur vollständigen Netzwerk-Infrastruktur. Die zwei wichtigsten Begriffe sind hierbei Private- bzw. Public Cloud. Das Fraunhofer Institut liefert hierzu sehr gute Definitionen.

Vorträge auf der Cloud Computing & Virtualisierungskonferenz

Wir starten in den Tag mit einer Keynote zum Thema „Infrastruktur 2020“. In diesem Vortrag wird zu Beginn die Evolution der IT-Infrastruktur während der letzten Jahren und im Ausblick um die personellen Anforderungen an IT-Fachkräfte beschrieben. Diese verschieben sich durch den Betrieb der immer komplexer werdenden IT-Systeme durch den Einfluss des Cloud Computing. Dadurch steigt das benötigte Know How des Einzelnen. Nicht nur reines Server- bzw. Netzwerkwissen sondern auch Programmierkenntnisse sind von Nöten.

Danach folgt eine Live-Demo im VMware-Umfeld. Es geht um die schnelle, sichere und zuverlässige Nutzung von Online Diensten im privaten Rechenzentrum, der Public Cloud oder im Hybriden Netzwerk. Durch intelligente Lastausgleichssysteme werden dem Anwender jederzeit die notwendigen Ressourcen bereitgestellt.

Nach zwei theoretischen und softwarelastigen Vorträgen streuen wir einen Technikworkshop ein. Durch den Preisverfall der Flashspeicher ist die Verwendung dieser in Server- und Speichersysteme erschwinglich geworden. Stresstests, Leistungsdiagramme und Preisvergleiche füllen eine weitere sehr interessante Stunde.

Es folgt ein Vortrag aus dem Gebiet der IT-Sicherheit. Konkret wird das Risiko der „großen“ Clouds und die daraus zu ziehenden Schlüsse erläutert. Eine Vielzahl von Beispielen verdeutlicht dies anschaulich.

Nach der Mittagspause beschäftigen wir uns mit den Möglichkeiten der Hybriden Cloud für Unternehmen. Unter der Hybriden Cloud versteht man eine Mischung der Private- und Public Cloud. Nach einem kurzen Vortrag diskutieren wir im großen Kreis unsere bisherigen Erfahrungen und die Handlungsmöglichkeiten für die Zukunft.

Was für Schlüsse ziehen wir aus der Vielzahl an neuen Eindrücken

Wie bei der klassischen IT bedarf ein cloudbasierendes Konzept einer ganzheitlichen Planung. Nur weil es gerade „Mode“ ist, sollten nicht unüberlegt einzelne Prozesse in die großen Public Clouds ausgelagert werden. Eine Migration in die Cloud bietet vielen Unternehmen die Möglichkeit Kosten einzusparen und die Effizienz zu steigern. Wir unterstützen Sie gerne auf diesem Weg.

HW auf der Cloud Computing in Frankfurt 2016

Private Cloud mit „owncloud“

Seit geraumer Zeit ist bekannt, dass öffentliche Clouds (wie zum Beispiel Dropbox oder OneDrive) nicht sicher sind und unter Umständen private Daten eingesehen werden können. Eine Option, dies zu umgehen, ist, die Cloud selbst zu verwalten und ins eigene Netzwerk zu holen.

Hierfür ist das Open-Source-Projekt „owncloud“ eine Alternative, die wir in diesem Blogeintrag genauer vorstellen.

Neben der Möglichkeit Daten zentral abzulegen, stehen Kalender und Kontakte zur Verfügung. Letztere beide können nicht nur in diversen Mailclients am PC (wie zum Beispiel Thunderbird), sondern auch an Mobilgeräten (Smartphone und Tablets) über die Protokolle CalDAV und CardDAV eingebunden werden. Neben Synchronisationsclients für Windows, Mac OSX und Linux gibt es für die Mobilbetriebssysteme iOS und Android eine App für diesen Verwendungszweck.

Die Voraussetzungen für eine Installation sind gering; je nach Firmengröße und vorhandener Infrastruktur kann die Installation zum Beispiel auf einem virtuellen Server mit Ubuntu 14.04 LTS oder auf einem NAS-System der Firmen Synology und QNAP erfolgen. Damit die eigene Cloud leicht aus dem Internet erreicht werden kann, sollten eine feste IP-Adresse und eine DNS-Adresse (beispielsweise über DynDNS) vorhanden sein. Wir empfehlen aus Sicherheitsgründen dringend die Installation eines SSL-Zertifikates und die Benutzung eines anderen Ports zum Zugriff auf owncloud.

Eine weitere interessante Option ist das Einbinden eines Netzlaufwerkes als externen Ordner, um unterwegs einfach und schnell auf Dateien zuzugreifen, die auf eben diesem liegen. Hierbei sollte die Einbindung nur lesend erfolgen, um keine Sicherheitslücke zu eröffnen. Selbstverständlich ist bei hochsensiblen Daten hiervon abzuraten.

Sollte Sie Fragen zu Ihrer persönlichen Cloud, zu der Installation oder zur Sicherheit dieser haben, kontaktieren Sie uns über Telefon oder E-Mail.

Owncloud Login

Owncloud Dateisicht Browser

Supportende von Windows Server 2003 (non-R2, SBS und R2) steht kurz bevor

Wir wünschen Ihnen zu allererst ein frohes Neues Jahr 2015!

Den heutigen Blogeintrag widmen wir dem bevorstehenden Supportende von Windows Server 2003; davon sind sowohl die R2 als auch die erste Version sowie der Small Business Server betroffen. Microsoft hat dazu eine eigene Webseite eingerichtet, die unter anderem Informationen zur Migration und einen Countdown enthält.

Aktuell setzen noch einige unserer Kunden Windows Server 2003 ein: Das liegt nicht an mangelnder Migrationsbereitschaft sondern viel mehr an der Tatsache, dass ältere Spezialanwendungen ausschließlich mit Windows Server 2003 kompatibel sind und oftmals nur auf 32-Bit-Systemen lauffähig sind. Wird lediglich ein 32-Bit-System benötigt, bleibt in vielen Fällen nur die Möglichkeit der Migration auf Windows 7 32-Bit oder auf Windows Server 2008 non-R2 32-Bit. Für letzteren bietet Microsoft Support bis Anfang 2020 an.

Das offizielle Supportende von Windows Server 2003 ist auf den 14. Juli 2015 datiert. Wir raten dazu, frühzeitig eine Migration zu planen, denn nicht nur das United States Computer Emergency Readiness Team (US-CERT) sondern auch Microsoft selbst warnt vor einem Einsatz des Systems nach dem Supportende, da Microsoft keinerlei Sicherheitsupdates, Patches und Bugfixes zur Verfügung stellen wird.

Sollten Sie Fragen generell zu diesem Thema oder speziell zum Umstieg auf neuere Microsoft Server Versionen haben, stehen wir Ihnen gerne zur Verfügung.

[Projekt] Komfortable Softwaremigration durch Aufbau einer Parallelumgebung

Ge rade in einer über viele Jahre gewachsenen Infrastruktur kommt bei umfassenden Softwareumstellungen der Punkt, an dem sich die Frage stellt, ob das bisherige Gerüst sinnvoll weiter verwendet werden kann, oder ob es nötig ist, die Serverlandschaft von Grund auf neu aufzubauen.

Dieses Szenario finden wir immer wieder bei (Neu)-Kunden vor. Dabei ist es besonders für Kunden, die rund um die Uhr eine funktionierende Arbeitsumgebung benötigen, wichtig, dass sämtliche „alten“ Applikationen bis zum Livegang der neuen Infrastruktur und somit der neuen Software verfügbar sind.

In der Praxis ist diese Aufgabenstellung mit dem Aufbau einer Parallelumgebung lösbar. Hierzu wird ein paralleles Netzwerk eingerichtet und beide Netzwerke über einen Router mit entsprechenden Firewallregeln verbunden. Da wir fast ausschließlich virtuelle Umgebungen einsetzen, ist es auf Serverseite möglich, die Netze über verschiedene Netzwerkkarten den alten und neuen virtuellen Maschinen zuzuordnen. Dies wird mit einer Grafik untenstehend veranschaulicht. 2014-12-11-Parallelumgebung-vmNIC

Eine weitere schematische Darstellung zeigt, wie auf den Hosts der virtuellen Server die Parallelumgebung aufgebaut ist.

2014-12-11-Parallelumgebung-Schema

Nach dem Aufsetzen der neuen Server, das ohne große Einschränkungen im Hintergrund geschehen kann, müssen die Clients umgestellt bzw. in die neue Domäne gebracht werden. Hierfür ist nur ein Umstecken auf einen (temporären) Switch und die Aufnahme in die neue Domäne notwendig. Es empfiehlt sich jedoch, die Rechner – je nach Zustand – komplett neu aufzusetzen.

Die alten Applikationen und alten Server sind nach wie vor über das Routing mittels IP-Adresse zu erreichen. Einige Anwendungen, wie zum Beispiel Lexware, erfordern jedoch DNS. In kleineren Netzwerken (bis 30-40 Clientcomputern) ist dies problemlos über die hosts-Datei des jeweiligen Rechners lösbar, alternativ ist es möglich, den DNS-Server anzupassen.

Selbstverständlich ist in der Übergangsphase mit Leistungseinbußen zu rechnen, jedoch sollten sich diese bei entsprechend dimensionierten Systemen in Grenzen halten.

Mit diesem Blogeintrag verabschieden wir uns aus dem Jahr 2014 und freuen uns Ihnen nächstes Jahr wieder interessante Beiträge zu liefern.

Erfahrungen mit der OS-X-Server-App

Bei einem Kunden mit insgesamt 15 Computerarbeitsplätzen sollte eine Client/Server-Umgebumg auf Apple-Basis geschaffen werden. Zu Beginn des Projektes fanden wir bei unserem Kunden eine reine Mac-Umgebung (Mac Mini, Macbook, iMac) vor. Die Daten wurden zentral auf einem QNAP NAS gespeichert. Die Benutzer waren in einer simplen Rechtestruktur lokal auf dem QNAP NAS angelegt.

Da der Kunde eine Client/Server Software benötigte deren Serverkomponente ein Apple-Betriebssystem vorraussetzt, wurde hierfür ein Mac Pro (2014) angeschafft. Über einen weiteren Mac Pro sollte mit Hilfe der OS-X-Server-App für Mavericks eine Benutzerverwaltung sowie Netzlaufwerke mit einer Berechtigungsstruktur nachgerüstet werden. Die technischen Informationen rund um die OS-X-Server-App bestätigten alle Anforderungen. Als Datenspeicher wurde neben den beiden Mac Pro zudem ein 4-Bay Thunderbolt Storage System von Apple angeschafft.

In der Praxis stellte sich die Umstellung leider problematischer dar als zunächst erwartet. Konkret ergaben sich folgende Probleme:

– Nach dem Anlegen der Benutzer konnten sich diese nicht authentifizieren/anmelden.
– Es war möglich Freigaben anzulegen, es konnte allerdings kein Benutzer darauf zugreifen.
– Berechtigungen auf die Freigaben konnten gesetzt werden, sie wurden aber nicht übernommen.

Das einzige Feature, das zuverlässig funktionierte, war der DHCP-Server. Selbst der DNS-Server funktionierte nicht wie gewünscht.

Im Apple-Support-Forum fanden sich viele Beiträge zu dieser Problematik (https://discussions.apple.com/thread/5509703?tstart=0).

Auch der Support seitens Apple und die mehrmalige Neuinstallation des kompletten Mac Pro führten nicht dazu, die gewünschten Funktionen in Betrieb nehmen zu können.

Aufgrund der beschriebenen Fehlfunktionen, wurde letztendlich auf die OS-X-Server-App verzichtet. Es wurden alle Benutzer lokal auf dem Mac Pro mit dem angeschlossenen Storage-System angelegt und die Berechtigungen mit den lokalen Benutzern gesetzt. DNS und DHCP wurden auf dem Router eingerichtet.

In der Praxis zeigte sich in der Folgezeit bisher lediglich ein erwähnenswertes Problem: Berechtigungen können zwar über die GUI in OS X für die freigegebenen Ordner vergeben werden, sie werden allerdings nicht vererbt. Möchte man dies tun, muss man mittels dem Befehl

sudo chmod +a „user:USERNAME allow list, add_file, search, add_subdirectory, delete_child, readattr, writeattr, readextattr, writeextattr, readsecurity, file_inherit, directory_inherit“ /Volumes/PromiseRAID/Freigabe

die Berechtigungen über das Terminal für jede Freigabe / jeden Benutzer händisch setzen. Bei entsprechender Menge der vorhandenen User oder einer größeren Komplexität, handelt es sich hierbei um einen nicht zu unterschätzenden Aufwand.

V2V Konvertierung von Citrix XenServer zu VMware ESXi 5.5

Dieser Blogeintrag beschreibt die Vorgehensweise, wie virtuelle Maschinen (hauptsächlich Windows 2008 R2) auf Basis von Citrix XenServer zu VMware ESXi 5.5 migriert werden können.

Zunächst einmal besteht die Möglichkeit, den VMware Converter für die Konvertierung zu benutzen. Es zeigte sich jedoch, dass die virtuellen Festplatten nicht erkannt werden konnten. Wir haben verschiedene Versionen des Converters getestet, bei allen zeigte sich das gleiche Bild.

Da wir keine weiteren Software Produkte (zum Beispiel Acronis Universal Restore) kaufen wollten, haben wir uns letztlich dazu entschieden, das Windows-eigene Server Backup zu nutzen. Das erzeugte Backup speicherten wir auf ein NAS der Marke Synology mit LAN-Bonding zur Durchsatzerhöhung ab. Anschließend haben wir auf dem neuen Server mit VMware ESXi 5.5 jeweils neue virtuelle Maschinen mit ähnlichen Hardwareeigenschaften angelegt und diese von der Windows 2008 R2 DVD gebootet. Der nächste Schritt war die Wiederherstellung des Backups über die Computerreparaturoptionen.

Der erste Start des zu zurückgespielten Backups endete in einem Blue-Screen, da noch die falschen Festplattencontrollertreiber in der Registry aktiv waren. Die Behebung des Fehlers machte einen Eingriff in der Registry mittels Regedit im Computerreparaturmodus nötig. In unserem Fall mussten wir die LSI-SAS Treiber aktivieren, da VMware jene als Controllertreiber in virtuellen Maschinen verwendet (kann je nach Konfiguration jedoch variieren.)

Nach dem erfolgreichen Start der so konvertierten virtuellen Maschine haben wir uns mit dem lokalen Administrator angemeldet (kein Domänen-Account), die XenTools deinstalliert und die VMware Tools zur besseren Treiberunterstützung installiert. Abschließend empfiehlt sich noch die Umstellung der virtuellen Netzwerkkarten vom E1000 auf VMXNET3.

Für die komplette Konvertierung einer ca. 400GB großen virtuellen Maschine mit Windows 2008 R2 und MS SQL-Datenbank dauerte etwa zweieinhalb Stunden, was nicht zuletzt stark durch die Verwendung von LAN-Bonding (einer Bündelung der Netzwerkkarten mittels LACP) beschleunigt wurde.