Gitlab-Mitarbeiter wehrt Hacker ab – und begeht dabei folgenschweren Tippfehler
So ruhig und sachlich wie es der Blog-Post des IT-Unternehmens Gitlab vermuten lässt, war die Stimmung unter den Mitarbeitern zuletzt wohl nicht: „Wir hatten einen ernsten Zwischenfall mit einer unserer Datenbanken“, steht dort geschrieben. Die Folgen sind gravierend.
„Wir haben dabei sechs Stunden unserer Datenbankdaten verloren“, erklärt jetzt das Unternehmen. Wegen der Riesen-Panne muss es hinter den Kulissen des niederländischen Unternehmens an Mittwochabend aber lichterloh gebrannt haben. Das legt die Zusammenfassung des ungewöhnlichen Abends nahe.
Hacker “hämmern auf die Datenbank ein”
Und der begann gegen 7 Uhr deutscher Zeit. Zu diesem Zeitpunkt hatten Mitarbeiter des Unternehmens entdeckt, dass Hacker geradezu „auf die Datenbank hämmerten, indem sie Datenschnipsel erstellten“. Weil die Firmenseite Gitlab.com dadurch nicht mehr einwandfrei funktionierte, überlegten sich die Gitlab-Leute, wie die Eindringlinge „bekämpft werden könnten.“
Vorerst ohne Erfolg: Obwohl die Anschlüsse der Hacker gleich nach dem Angriff gesperrt wurden, musste die Seite kurzzeitig vom Netz gehen. Während Gitlab in seiner Zentrale in Utrecht (in den Niederlanden) alle Hände damit zu tun hatte, die Hacker, die versuchten, die Datenbank vollzumüllen, wieder loszuwerden, arbeiteten die Gitlab-Kunden in aller Ruhe an ihren Software-Entwicklungen weiter.
Konzerne wie Alibaba, Bayer und Sony betroffen
Und natürlich versuchten die Nutzer, zu denen etwa der Ebay-Konkurrent Alibaba, der Chemie-Produzent Bayer oder das Unterhaltungs-Unternehmen Sony gehören, weiterhin, ihre Programme zwischenzuspeichern. Während des Absturzes der Seite allerdings vergeblich.
Die wirklich schwerwiegenden Folgen versuchte aber erst ein gut gemeinter Kniff eines Gitlab-Administrators. Auf der Suche nach dem Auslöser für den Seitenabsturz entdeckte der Administrator, dass ein Datenbank-Nutzer gleichzeitig auf 47.000 IP-Adressen in der leeren Datenbank db2 zugegriffen hatte. Also gab er einen Löschbefehl in seine Kommandozeile ein – nur mit einem folgenschweren Tippfehler.
Durch ein weiteres Versehen wurden wenigstens nicht alle Daten gelöscht
Anstatt „db2“ gab er „db1“ ein, das Hauptverzeichnis, auf dem die Kunden ihre Zwischenstände speichern. Aber da war es schon zu spät. Von den 300 Gigabyte Kundendaten hatte er mit einem Klick nur noch 4,5 Gigabyte übriggelassen.
Umso schlimmer für Gitlab: Weil die Datenbanken bis vor Kurzem nur einmal pro Tag als Back-Up zwischengespeichert wurden, war keine Sicherungskopie angelegt. Nur für den Daten-Bruchteil von 4,5 Gigabyte fand die IT-Firma ein Back-Up. Und das auch bloß, weil die Sicherung von einem Mitarbeiter zeitweise aus Versehen aufgezeichnet wurde.
Gitlab arbeitet Vorfall auf und stellt sich vor seinen Mitarbeiter
Zum Ärger der Kunden sind die restlichen Daten, die über einen Zeitraum von sechs Stunden gesammelt wurden, unwiederbringlich gelöscht. Was die Kunden Gitlab aber zu Gute halten müssen, ist die Weise, wie offen das Unternehmen mit dem Vorfall umgegangen ist. Über Twitter und auf der Firmenseite können sie den Problemverlauf und die Gründe für den Datenverlust genau nachvollziehen.
Der Administrator, der die Daten gelöscht hatte, sei aus Sicht von Gitlab tatsächlich der einzige Grund für den Verlust des Zwischenspeichers. An den Pranger stellt ihn das Unternehmen deswegen nicht. „team-member-1“, wie der Mitarbeiter im Blog bezeichnet wird, darf seinen Job behalten. Damit es nicht wieder zu einem Daten-Desaster kommt, will Gitlab den Vorfall genau aufarbeiten und bessere Vorkehrungen treffen.
Keine Kommentare