Springe zum Inhalt

Furcht um Rückschritt führte zum Fortschritt

Symbolbild: Das Internet als dezentrales Netz

Die Geschichte des Internets ist so alt, wie der erste Satellit. Im Jahre 1957 schickte die Sowjetunion den Satelliten Sputnik 1 ins Weltall. Dadurch sorgten sich die USA um einen nuklearen Raketenangriff, wodurch sie sich indirekt zu technischem Fortschritt gedrängt fühlten. Um dieses Ziel zu erreichen wurde die DARPA, die Kurzform von Defense Advanced Research Project Agency, gegründet. Ihr Ziel war es den Wissens- und Informationsaustausch durch die Entwicklung eines computergesteuerten Netzwerkes zu beschleunigen. 1963 kam auch Wissenschaftlern die Idee, ihre Computer zu vernetzen, um komplizierte Berechnungen durchführen zu können. Noch im selben Jahrzehnt starteten die ersten Versuche zur Datenübermittlung. Es galt das Wort "LOGIN" als erste Nachricht im Internet an einen entfernten Rechner zu schicken. Anfänglich stürzte das System noch nach "LOG" ab. So kam es, dass sich vier Universitäten aus Kalifornien und Utah zusammenschlossen.

Die erste E-Mail

Symbolbild: Die erste E-Mail im Internet
Schon 1970 existierte ein Netz aus mehreren tausend Rechnern. Die erste E-Mail ging 1971 aus Cambridge in Massachusetts ins Netz. Das @-Zeichen wird seit eh und je für E-Mail-Adressen genutzt, um den Empfänger-Namen und seinem Provider voneinander zu trennen. Zwei Jahre später gab es insgesamt 37 Rechnernetze über den Globus verteilt. Die Kommunikation lief teilweise über Satellit. Das ARPANET war geboren. Seine Besonderheit war die Dezentralität; es gab keinen zentralen Netzknoten. Dadurch war das Netz ausfallsicherer, aber auch der Datenaustausch verschnellerte sich, denn die Datenpakete ließen sich parallel über diverse Routen versenden. Das war auch wichtig, denn die damalige Netzgeschwindigkeit lag bei wenigen kbit/s.

Der Wandel vom ARPANET zum Internet (durch HTML)

Symbolbild: Der Wandel vom ARPANET zum Internet (durch HTML)
HTML-Quelltext

Ab den 1980er Jahren wurde aus dem ARPANET ein allgemein zugängliches Computernetz. Zu dem Austausch von Wissen kam der Verwendungszweck der Kommunikation hinzu. Einen weiteren Meilenstein erlangte das Internet durch Tim Berners-Lee. Am europäischen Forschunszentrum CERN erfand er die Seitenbeschreibungssprache HTML für die Darstellung inklusive dem Hypertext zum Finden der Inhalte. Es ist die Basis des World Wide Webs. Durch sein Gesamtpaket können auch Laien im Netz recherchieren, denn es ermöglicht die Verlinkung von Inhalten, wie Texten, Bilder oder Filmen. Der Chef von Tim Berners-Lee kommentierte die Idee mit "Wage, aber aufregend". Du möchtest wissen, wie die erste Website aussah? Unter der originalen Domain info.cern.ch existiert selbst heutzutage noch eine Kopie von den ursprünglichen Inhalten.

Hinweis: Der Beitrag entstand im Rahmen der Sendung radio.exe bei Radio Darmstadt. Alle Inhalte - Podcast & Skripte - gibt es online bei radioexe.de. Schalte an jedem vierten Sonntag im Monat ab 17:00Uhr live zu via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream!

©2020 Hessentrend/ Leon Ebersmann

Das Internet ist ein Netzwerk aus Millionen von Rechnern, wie dem PC, Smartphone, Fernseher oder gar Auto, die untereinander Daten und Informationen austauschen. Dieses Konstrukt besteht im Wesentlichen aus vier Hardware-Komponenten: Server, Kabel, Router als auch den internetfähigen Clients.

Die Aufgaben von Servern

Symbolbild: Die Aufgaben von Servern
Das mittlerweile eingedeutschte Wort "Server" heißt übersetzt Diener. Kurz gesagt sind Server leistungsstarke Computer - meist ohne Bildschirm oder grafische Benutzeroberfläche -, die auf Anfragen aus dem Internet reagieren. Der Endbenutzer, also Du vor Deinem Bildschirm erhält daraufhin eine Kopie der Nachricht, einer Website, eines Videos, oder, oder, oder, denn die Originaldatei befindet sich weiterhin auf dem Server. Danach folgen die Kabel in der Rangliste der "digitalen Nahrungskette". Obwohl im privaten Umfeld oft versucht wird, so wenig Kabel wie möglich zu verwenden, sind sie für das weltweite Netz absolut notwendig. Nur so können Daten über längere Strecken, z.B. in die Vereinigten Staaten transportiert werden.

Wozu Kabel? Ich hab' WLAN!

Symbolbild: Wozu Kabel im Internet? Ich hab' WLAN!
Dabei ist die Frage berechtigt, ob man das weltweite Internet nicht auch mithilfe von Satelliten unterstützen könnte. Die Antwort lautet aus einfachen Gründen nein. Die Daten müssten eine Strecke von 44.000 Meilen - 22.000 Meilen einfach - zurücklegen. Das würde zu einer enorm hohen Latenz führen. Selbst wenn bspw. Smartphones nur kabellos im Netz unterwegs sind, ist es dennoch immer an einem Kabelnetz angeschlossen: entweder durch den Heimrouter oder die Funkzelle. Der Router wandelt bei einer Ethernet-Verbindung die Lichtsignale in technische Signale um, während Funkzellen die Informationen in Form von elektromagnetischen Wellen weiterleite. Durch das sogenannte Transmission-Control Protocol oder Internet Protocol (kurz: TCP/ IP) spielt es keine Rolle, welche Technologien Server oder Anwender benutzen. Die Dokumente werden transportiert.

Der Router: Das Navi für Deine Daten

Symbolbild: Der Router: Das Navi für Deine Daten
In jedem Fall gehört das Kabelnetz einem Provider; häufig große Dienstleister der Telekommunikation, die für die Nutzung entlohnt werden wollen. Provider ist der englische Begriff für Anbieter oder Lieferant. Mit Vertragsabschluss folgt der schon mehrfach erwähnte Router. Seine Aufgabe ist es, dass die Daten beim richtigen Gerät ankommen. Sonst könnte es passieren, dass die Websiten, die man nur im Inkognito-Modus besucht auf dem Smartphone seiner Oma landet. Ähnlich agieren die viel leistungsstärkeren Router im Server-Gebilde: sie suchen den passenden Weg, wodurch das Internet effizienter als andere Netze wurde.

Eine Analogie zum Postnetz

Symbolbild: Eine Analogie zum Postnetz
Vergleichen wir es mit dem Postnetz. Dieses ist weitaus weniger fehlertolerant, wenn sich der Absender nicht strikt an die Vorgaben hält. Das Internet ist dem überlegen, denn die Datenpakete müssen nicht den identischen Weg einschlagen. Darüber hinaus kann ein Client den Server ein weiteres Mal anfragen, wenn Pakete verloren gegangen sein sollten.

Hinweis: Der Beitrag entstand im Rahmen der Sendung radio.exe bei Radio Darmstadt. Alle Inhalte - Podcast & Skripte - gibt es online bei radioexe.de. Schalte an jedem vierten Sonntag im Monat ab 17:00Uhr live zu via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream!

©2020 Hessentrend/ Leon Ebersmann

Wer auf iOS als Betriebssystem seiner Wahl verzichten kann, hat die Qual der Wahl sich für eines der zahlreichen Smartphones zu entscheiden, die auf Googles Android basieren. Einer dieser Hersteller nennt sich OnePlus und veröffentlichte kürzlich seine Handys der achten Generation.

OnePlus 8: Außergewöhnliche Bezeichnungen für Gewöhnliches

Symbolbild: OnePlus 8: Außergewöhnliche Bezeichnungen für Gewöhnliches
Das Bild hat nur einen symbolischen Charakter. Das Aussehen weicht von den Geräten der 8. Generation ab.

Das OnePlus 8 gibt es in zwei Ausführungen: sowohl das "normale" als auch mit dem Namenszusatz Pro. Das Pro-Modell wird in den Farben schwarz, grün und blau angeboten. Diese Realität verbirgt sich hinter den besonders klingenden Bezeichnungen "Onyx Black", "Glacial Green" oder auch "Ultramarine Blue". Die Rückseite ist gezeichnet von vielen Kameras. Je nach Gerät gibt es neben dem Hauptsensor eine Ultraweitwinkel-, Zoom-, Makro- als auch die sogenannte "Farbfilter"-Kamera. Bei beiden Geräten präsentiert sich auf der Vorderseite ein randloses OLED-Panel mit einem 19,8:9" Seitenverhältnis, das zu den Seiten abgerundet ist. Im Gegensatz zu der Vorgänger-Serie fährt die Front-Kamera nicht mehr aus dem Gerät heraus, sondern wanderte als Loch-Kamera in die linke obere Ecke des Bildschirms. In der Theorie müsste die Gesichtserkennung zur Entsperrung dadurch schneller arbeiten. Alternativ ist nach wie vor ein Fingerabdrucksensor im Display verbaut.

Viele Köche verderben den Brei! -Oder etwa nicht?

Symbolbild: Viele Köche verderben den Brei! -Oder etwa nicht?
Die notwendige Rechenleistung liefert ein Snapdragon 865 Prozessor mit acht bis zu 12GB Arbeitsspeicher. Doch die beste Hardware bringt kaum etwas, wenn die Software schrott ist. Das System läuft unter Android 10 mit minimalen Anpassungen. Zur Abwechslung wirkten sich die Veränderungen positiv auf die Gesamtperformance aus, wie der Technik-YouTuber Kilian alias iKnowReview in einem seiner Videos berichtet.

Erstmals Wireless-Charging & Wasserschutz-Zertifizierung

Symbolbild: Erstmals Wireless-Charging & Wasserschutz-Zertifizierung
Das Smartphone auf dem Bild zeigt nicht das OnePlus 8 (Pro)

Die interessant werdenden Unterschiede zwischen dem OnePlus 8 verglichen mit dem Pro-Smartphone liegen im Detail. Erstmals wird Wireless Charging, als auch Reverse Wireless Charging unterstützt. Mit der separat erhältlichen Lade-Basis, die sogar eine Kühlung verbaut hat, soll der Akku innerhalb von 30 Minuten auf bis zu 50% kommen. Das wäre kaum langsamer als das Aufladen mit dem kabelgebundenen Warp-Charge-Netzteil, das auch mit dem Einsteiger- Gerät funktioniert. Eine weitere Premiere feiert man mit der IP 68-Zertifizierung, wodurch bestätigt wird, dass die Geräte einerseits staubdicht und gegen dauerndes Untertauchen geschützt sind. Bisher mied das Unternehmen solch offizielle Auszeichnungen, um laut eigenen Angaben den Verkaufspreis niedrig halten zu können.

OnePlus' Trumpf: QuadHD+ mit 120Hz

Symbolbild: OnePlus' Trumpf: QuadHD+ mit 120Hz
Symbolbild

Obwohl eine Auflösung von QuadHD+ und eine Bildwiederholrate von 120Hz, das heißt, dass sich der Bildschirminhalt 120 Mal/ Sekunde aktualisiert, an und für sich nichts neues sind, ist es trotzdem eine Erwähnung wert. Bisher musste sich der Anwender zwischen einer höheren Auflösung oder flüssigerer scheinenden Benutzung entscheiden. Mit dem OnePlus 8 Pro ist beides zeitgleich möglich.

Fazit: Neuste Technik & Spielereien, aber nicht mehr günstig

Symbolbild: Fazit: Neuste Technik & Spielereien, aber nicht mehr günstig
Symbolbild

Mit den neuen Smartphones wirft OnePlus alte Gewohnheiten über Bord und betritt neues Terrain. Die Hardware ist nicht mehr das Nötigste reduziert worden, um auf diesem Weg das Gerät preiswert zu halten. Ein Beispiel gefällig? -Die "Farbfilter"-Kamera, die für kaum einen Filter genutzt wird. Oder das 5G-Modul, das in beiden Varianten verbaut ist. Versteht es nicht falsch, aber in wie vielen Jahren wird das flächendeckend verfügbar sein? Hätte man all das berücksichtigt, wären die neue OnePlus-Generation nicht so teuer, wie nie zuvor, denn die Anschaffungskosten liegen bei 699€ bzw. 899€ für Geräte mit 128GB. Für einen gewissen Aufpreis lässt sich der Systemspeicher auf 256GB verdoppeln. Fotografie-Enthusiasten sollten sich schon zu Beginn über ihren Speicherbedarf im Klaren sein, denn einen Steckplatz für microSD-Karten gibt es nicht; dafür Dual-SIM.

Hinweis: Der Beitrag entstand im Rahmen der Sendung radio.exe bei Radio Darmstadt. Alle Inhalte - Podcast & Skripte - gibt es online bei radioexe.de. Schalte an jedem vierten Sonntag im Monat ab 17:00Uhr live zu via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream!

©2020 Hessentrend/ Leon Ebersmann

Die Preise für Smartphones sind in den letzten Jahren rasant gestiegen. Dass man mittlerweile über 1000€ für ein Gerät blechen muss, ist keine Seltenheit mehr. Besonders die iPhone-Liebhaber mussten lange Zeit tief in die Tasche greifen. Doch in 2016 kam das iPhone SE und kürzlich ein weiteres Modell unter gleichem Namen auf den Markt.

Das Auffälligste zuerst: Die äußeren Merkmale

Symbolbild: Das Auffälligste zuerst: Die äußeren Merkmale
Hinweis: Die Vorderseite der (PRODUCT)RED-Edition war beim iPhone 7 noch weiß.

Das Handy hat eine Glasrückseite in den Farben schwarz, weiß und rot mit dem Firmenlogo in der Mitte. Die rote Edition wird als Product Red vertrieben. Dabei geht ein Teil des Preises an eine Stiftung im Kampf gegen AIDS, aber aufgrund der aktuellen Umstände wird die Forschung an COVID-19 unterstützt. Schade ist, dass sich Apple über die Höhe der Spende bedeckt hält. Die Vorderseite ist in allen Ausführungen schwarz.

TouchID: Alte Bekannte im iPhone SE

Symbolbild: TouchID: Alte Bekannte im iPhone SE
Neben dem 4,7 Zoll LCD-Panel mit einer Auflösung von etwas über HD, das seit dem iPhone 6 verbaut wurde, kehrt die Hometaste inklusive TouchID zurück. Dafür fällt die Geräteentsperrung via FaceID weg. Im Gegensatz dazu steht das neue Mittelklasse-Gerät den Flaggschiffen im Bezug auf die Rechenleistung ins nichts nach. Es wurde der A13 Bionic Prozessor verbaut. Dieser gilt als der beste auf dem Smartphone-Markt.

iPhone SE: Die beste Kamera ist die, die man immer dabeihat

Symbolbild: iPhone SE 2: Die beste Kamera ist die, die man immer dabeihat
Dadurch sind trotz nur einer Kamera Spielereien, wie der Portrait-Modus für Menschen oder Smart HDR möglich. Die Kamera-Einstellungen Deep Fusion als auch den Nachtmodus wird es für das iPhone SE nicht geben. Experimentierfreudige Fotograf*innen können demnächst wortwörtlich neue Gewässer betreten, denn die IP 67 Zertifizierung besagt einen Wasserschutz für bis zu 30 Minuten in maximal ein Meter Tiefe. Sollte der Akku dabei an seine Grenzen kommen, so kann er mit Fast Charging in einer halben Stunde auf bis zu 50% geladen werden. Das kabellose Laden ist mit passendem Zubehör auch möglich.

Fazit: Über die mögliche Zielgruppe des iPhones SE

Symbolbild: Fazit: Über die mögliche Zielgruppe des iPhones SE
Das iPhone SE: Ein Smartphone, das für all diejenigen interessant sein könnte, die entweder nicht Unmengen ausgeben möchten oder ein handliches Gerät suchen, das sich problemlos mit einer Hand bedienen lässt. Doch wird Apple die Kundenwünsche erfüllen können? Hierzu ein eindeutiges Jein! Obwohl die 4,7 Zoll per se nicht winzig sind, ist es zu wenig Bildschirm für den Formfaktor. Die breiten Ränder ließen sich vielleicht noch eine ganze Weile verkaufen, doch nun ist es zu viel des Guten. Statt OLED mit verbesserten Schwarzwerten entschied man sich für ein günstigeres LCD-Panel. Dadurch wird ersichtlich, wo das Unternehmen sparte.

Apropos Preis: Der liegt bei 479€ in der günstigsten Ausführung mit 64GB Speicher. Das Upgrade auf 256GB hat einen Aufpreis von fast 200€ zur Folge. Unabhängig von der Speicherkapazität gibt es ein Jahr Apple tv+ kostenlos obendrauf. Unternehmen oder Selbstständige können für geschäftliches und privates von der Dual-SIM-Funktion Gebrauch machen. Dabei wird eine SIM-Karte als physischer Chip und die andere als sogenannte eSIM mit dem iPhone SE verbunden.

Hinweis: Der Beitrag entstand im Rahmen der Sendung radio.exe bei Radio Darmstadt. Alle Inhalte - Podcast & Skripte - gibt es online bei radioexe.de. Schalte an jedem vierten Sonntag im Monat ab 17:00Uhr live zu via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream!

©2020 Hessentrend/ Leon Ebersmann

Was ist ein RAID?

Wer mit einem netzgebundenen Speicher liebäugelt, wird spätestens bei der Einrichtung nach einem RAID-Verbund gefragt. RAID ist die Abkürzung für den technischen Begriff "redundant array of independent disks" - zu deutsch: redundante Anordnung unabhängiger Festplatten. Durch eine wohlüberlegte Entscheidung lassen sich Datenverfügbarkeit (sowie ansatzweise die Datensicherheit) gewährleisten. Bei falscher Wahl kann der Schuss auch nach hinten losgehen und Deine Daten sind gefährdeter als je zuvor. Damit das nicht passiert, setzten wir uns damit auseinander.

JBOD

Grafische Skizze: JBOD mit zwei Festplatten
©hessentrend

JBOD steht für "Just a Bunch of Disks", also lediglich eine Ansammlung an Datenträgern. Es werden mindestens zwei Festplatten benötigt. Die Daten werden nicht gespiegelt. Der Speicherplatz entspricht der Summe aller angeschlossenen Festplatten. Bei zwei vier Terabyte HDDs stehen insgesamt acht Terabyte zur Verfügung. Daher sind es für den Nutzer keine einzelnen Komponenten mehr, sondern ein Volume. Letztendlich entscheidet der Controller, wo er die Dateien ablegt. Bei einem Defekt kann es vorkommen, dass ebenfalls Daten auf der intakten Festplatte unwiderbringlich verloren sind, weil der Controller sie zuvor stückelte. JBOD sollte nur gewählt werden, wenn Ausfallzeiten bei der Wiederherstellung tolerierbar sind.

RAID-Modus 0

Grafische Darstellung: RAID Modus 0 mit zwei Festplatten
©hessentrend

Der Modus RAID-0 hat absolut nichts mit der Sicherheit seiner Daten oder einer permanenten Verfügbarkeit gemein. Stattdessen kommt es auf eine erhöhte Schreib- und Lesegeschwindigkeit an. Wie zuvor bei JBOD schließt man alle Festplatten zu einem Volume zusammen. Mit zwei vier Terabyte HDDs stehen wieder acht Terabyte bereit. Der Clue hinter RAID-0 ist, dass alle Daten gestückelt werden. Technisch werden die Blöcke - wie bei einem Puzzle verteilt. Statt die Datei von nur einem Datenträger zu lesen, sind beide Festplatten beim Lese- und Schreibvorgang gefragt. Daher ist es logisch, dass beim Ausfall einer Komponente der vollständige Datenbestand verloren ist.

RAID 1

Grafische Darstellung: RAID Modus 1 mit zwei Festplatten
©hessentrend

RAID 1 ist der wohl am häufigsten angewandte Modus, denn es ist die einzige Option zur erhöhten Datenverfügbarkeit bei NAS-Geräten mit maximal zwei Festplatteneinschüben, wobei die Menge nach oben nicht limitiert ist. Trotzdem wächst mit mehr Festplatten nicht die Speicherkapazität, weil diese auf die des kleinsten Datenträgers beschränkt ist. Dafür dürfen alle bis auf eine ausfallen, weil sich eine Kopie des Gesamtdatenbestandes auf jeder HDD befindet. Je nach Controller steigt die Lesegeschwindigkeit, da die Daten von vielen Festplatten zeitgleich ausgeliefert werden können.

RAID 5

Grafische Darstellung: RAID Modus 5 mit drei Festplatten
©hessentrend

Der Modus RAID 5 lässt sich oft im Heimbetrieb mit mindestens drei Festplatten vorfinden. Statt einer Eins-zu-Eins Kopie werden in dem Fall mathematische Tricks hinzugezogen. Es beginnt zwar zunächst mit einer Zerstückelung, doch werden Daten zur Rekonstruktion mit angelegt. Im Fachjargon auch Paritätsdaten genannt. Technisch errechnet der RAID-Controller aus den noch vorliegenden Daten, jene, die auf dem defekten Datenträger waren. Daher darf eine beliebige Festplatte ausfallen bis die Wiederherstellung fertiggestellt ist. Bis das geschafft ist, vergehen womöglich Tage. In dieser Zeit muss mit Geschwindigkeitseinbußen gerechnet werden. In unserem Beispiel mit drei Festplatten à vier Terabyte, die eine Rohkapazität von zwölf Terabyte haben, stehen insgesamt 8TB Speicherplatz bereit.

RAID 6

Der RAID 6-Modus ähnelt der vorherigen Einstellung. Statt nur einer können bis zu zwei Datenträger den Dienst kündigen, ohne dass es einen Datenverlust mit sich zieht. Diese Option steht jedem, ab vier Festplatten zur Auswahl. Dafür werden mehr Paritätsdaten hinterlegt. Das Plus an Sicherheit hat ein Minus bei der Speicherkapazität zur Folge. Bei vier Platten à 4TB sind es am Ende des Tages nur acht Terabyte.

RAID 10

Grafische Darstellung: RAID Modus 10 mit vier Festplatten
©hessentrend

Um ehrlich zu sein, ist RAID 10 kein eigenständiger Modus, sondern sollte als eine Kombination aus Null mit Eins verstanden werden. Das Minumum beginnt bei vier Festplatten, wobei die Anzahl aus folgenden Gründen stets gerade sein muss. Wie auch bei RAID 0 werden Deine Dateien zunächst in Puzzleteile zerlegt. Dabei werden die Platten auf die anderen gespiegelt, wodurch sie mindestens zweimal existieren. Im besten schlimmsten Falle verkraftet das System in der kleinsten Konfiguration den Ausfall von zwei Festplatten, solange eine Kopie unbeschadet davon kommt.

Darum ist ein RAID kein Backup!

Trotz RAID-Konfiguration bleiben regelmäßige Backups unerlässlich. Ziel von RAID-Verbünden ist nicht die Datensicherheit, sondern die permanente Verfügbarkeit. Mit einer ordentlichen Backup-Strategie sind selbst aus Versehen gelöschte Dateien wiederherstellbar; bei einem RAID wirkt sich die Löschung auf den Datenbestand aller Festplatten aus. In modernen NAS-Geräten lässt sich zwar ein Papierkorb aktivieren, doch sollte man sich nicht davon abhängig machen.

Außerdem: Was passiert bei einem Diebstahl, Wasser- oder Brandschaden? Wünscht man zwar absolut niemandem, aber möglich ist es. Zusätzlich schützen die meisten Modi lediglich gegen den Ausfall einer Komponente. Gerade bei Festplatten, die durch Altersschwäche ihren Dienst versagten, können andere Festplatten bei der Wiederherstellung sterben, denn es ist durchaus eine große Herausforderung.

Hinweis: Der Beitrag entstand im Rahmen der Sendung radio.exe bei Radio Darmstadt. Alle Inhalte - Podcast & Skripte - gibt es online bei radioexe.de. Schalte an jedem vierten Sonntag im Monat ab 17:00Uhr live zu via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream!

©2020 Hessentrend/ Leon Ebersmann

Warum soll ich mich mit Backups auseinandersetzen?

Wenn man reflektiert, wie wichtig teils die Daten auf unseren technischen Helfern sind, ist es erschreckend, wie leichtsinnig ein Großteil der Anwender*innen mit der Thematik Backup umgeht.

Symbolbild: Warum soll ich mich mit Backups auseinandersetzen?Klar, es gibt weitaus schönere Beschäftigungen, als Sicherheitskopien anzulegen, doch im Falle eines Falles, wird man gerne auf Backups zurückgreifen wollen. Damit sich der Aufwand auch lohnt, bedarf es einer Strategie. Die bekannteste unter ihnen ist die 3-2-1-Regel.

Was ist die 3-2-1-Backup-Regel?

Symbolbild: Was ist die 3-2-1-Backup-Regel?
Ziel der 3-2-1-Methode ist es, in möglichst vielen Situationen noch zumindest einen Datensatz zur Wiederherstellung parat zu haben. Kurz zusammengefasst sollen wir drei Kopien auf mindestens zwei Speichermedien anlegen. Eine davon fungiert als sogenanntes Offsite-Backup. Zu den drei Sicherungen gehört ebenfalls das primäre System, wie das eigene Smartphone, der Rechner im Büro oder das NAS. Es ist selbsterklärend, dass man dort die jeweils aktuellsten Versionen der Dateien hat, doch dafür ist es durch den ständigen Einsatz am gefährdetsten. Dafür sind die zwei Backups gedacht. Mit dem Vorschlag diese auf zwei Datenträgern zu sichern, hat man nicht nur den netten Nebeneffekt, dass eine Art Versionierung des Datenbestandes möglich ist, sondern schützt dich die Offsite-Datenablage auch vor "höherer Gewalt". Offsite kommt aus dem Englischen und bedeutet sinngemäß "außerhalb des Hauses". Die 3-2-1-Regel verlangt demnach eine Sicherheitskopie bei z.B. Familie, Freunden oder Verwandten abzulegen.

Das Offsite-Backup

Symbolbild: Das Offsite-Backup
Doch in welchem Szenario bewahrt es mich vor Datenverlust? Nun, man will zwar nie in eine solche Lage kommen, aber was ist bei Diebstahl, Wasser- oder Brandschaden? Bei Festplatten, die permanent am Hauptgerät oder lediglich am Stromnetz hängen, kann ein Blitzeinschlag schnell das Ende der Lebenszeit bedeuten. Was Du aus deinem Offsite-Datensatz machst, ist Dir selbst überlassen. Üblicherweise besorgt man sich eine externe Festplatte, kopiert dort alle relevanten Daten drauf und lässt diese von einer vertrauten Person bei sich deponieren. Zur Sicherheit sollte die Kopie verschlüsselt vorliegen. Nicht zwingend, weil man der Person misstraut, sondern damit bspw. bei einem Diebstahl der Datenschutz gewährt bleibt. Am komfortabelsten bleiben Clouds, die bis zu einer gewissen Datenmenge sogar kostenlos sind. Die Crème de la crème wäre erreicht, wenn zwei sich bekannte Menschen jeweils einen Netzwerkspeicher bei sich zu Hause einrichten und sich nach einem Zeitplan automatisch gegenseitig sichern.

Wenn meine Bude abfackelt, habe ich andere Probleme

Symbolbild: Wenn meine Bude abfackelt, habe ich andere Probleme
Kritiker des Offsite-Backups meinen - überspitzt gesagt -, dass man bei Elementarschäden weitaus andere Probleme habe, als seine digitalen Unterlagen. Das mag zwar stimmen, doch ist es nicht besser weniger Sorgen zu haben, als diese in ihrer Schwere sortieren zu müssen?

Das Ziel der 3-2-1-Backup-Strategie

Symbolbild: Das Ziel der 3-2-1-Backup-Strategie
Rückblickend betrachtet, kann man sich durchaus fragen, weshalb zwei Datenbestände bei einem von Nöten sind, wenn ohnehin einer außer Haus ist? Der Sinn dahinter ist, ein Backup sofort verfügbar zu haben. Sofern Dein Backup-Partner auf der Arbeit, im Urlaub oder schlicht unterwegs ist, wärst Du bis zu einem gewissen Grat aufgeschmissen. Clouds sind zwar 24 Stunden an sieben Tagen in der Woche ansprechbar, doch wird der Flaschenhals die Download-Geschwindigkeit sein. Zusätzlich sollte geklärt sein, wofür das Backup angelegt wird? Ist es für die - Achtung Klischee - Oma, die aus Versehen wichtige Dateien löscht oder soll es ein Backup im Sinne eines Desaster Recovery werden? Je nachdem scheiden bestimmte Möglichkeiten aus. Bei einer Sicherung von NAS-Geräten in die Cloud müsste man mit den Bordmitteln alles herunterladen, um ein gelöschtes Text-Dokument wiederherstellen zu können. Auch hier: Ausnahmen bestätigen die Regel, wenn Synology NAS-Besitzer*innen ein Backup in die C2-Cloud laden.

Ein Backup ist besser als keins

Symbolbild: Ein Backup ist besser als keins
Neben dem Zeitaufwand oder technischem Know-How basiert eine Aussage gegen Sicherungen auf den Kosten für die zusätzlichen Festplatten. Doch gerade heutzutage kostet Speicher beinahe nichts mehr. 4TB gibt es schon für unter 100€ zu haben. Wenn man bedenkt, dass die professionelle Wiederherstellung schnell im vierstelligen Bereich liegen kann, sind die 200€ auf jeden Fall das kleinere Übel. Selbst der Zeitaufwand hält sich in Grenzen. Einmal eingerichtet, kümmert sich zum Beispiel Time Machine auf Apple PCs um die Backups.

Hinweis: Der Beitrag entstand im Rahmen der Sendung radio.exe bei Radio Darmstadt. Alle Inhalte - Podcast & Skripte - gibt es online bei radioexe.de. Schalte an jedem vierten Sonntag im Monat ab 17:00Uhr live zu via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream!

©2020 Hessentrend/ Leon Ebersmann

Wer die Wahl hat, hat die Qual! Auch vor dem Kauf der Festplatten für den eigenen Netzwerkspeicher macht dieses Sprichwort keinen Halt. Es gibt solche mit einem geringen Stromverbrauch, dann für den Betrieb einer Videoüberwachung, Backup-Datenträger mit besonders viel Speicherkapazität, aber verminderter Schreibgeschwindigkeit sowie leistungsstarke, aber keineswegs leise oder stromsparende Festplatten. Im Laufe der Zeit kamen SSDs hinzu. Theoretisch lassen sich alle Modelle überall einbauen, solange sie über den korrekten Anschluss verfügen, doch warum das keine gute Idee ist, zeigen wir in den nächsten Minuten auf.

NAS- vs. Desktopfestplatten

Symbolbild: NAS- vs. Desktop-Festplatten
Bei handelsüblichen Desktopfestplatten geht man von einer maximalen täglichen Nutzung von bis zu zehn Stunden aus. Im Gegensatz dazu stehen netzgebundene Speicher nicht nur einer Einzelperson zur Verfügung, sondern womöglich der gesamten Familie, Verwandten, Freunden oder der Kollegenschaft. Andernfalls braucht man das Gerät nicht. Unter Umständen kommen NAS-Festplatten höchstens bei Stromausfall zur harten Ruhe. Zusätzlich kommen NAS-Komponenten selten allein, wodurch sie erhöhte Temperaturen durch die kompakte Bauweise ertragen sollen. Aber auch die aufeinander auswirkenden Vibrationen durch Schreib- und Lesevorgänge sind nicht ohne. Um das zu verstehen, muss gesagt sein, dass sich in Festplatten stetig Speicherscheiben drehen. In der Regel sind es 5.400 oder 7.200 Umdrehungen/ Minute. Auf Befehl erreichen die Schreib- oder Leseköpfe blitzschnell den geforderten Bereich.

Symbolbild: NAS- vs. Desktop-Festplatten
Kurz gesagt: Datenträger in solchen Systemen haben es ein wenig schwerer. Daher sollten sie mit den erschwerten Bedingungen problemlos auskommen und selbst kaum weitere Vibrationen erzeugen. Darüber hinaus sind Lesefehler nicht auszuschließen. Desktop-Festplatten würden die Situation durch mehrmaliges Lesen lösen. In Server-Einheiten kann das zum Verhängnis werden, denn ein RAID-Controller toleriert das nicht und stuft stattdessen den Datenträger als generell defekt ein. In redundanten Umgebungen springt die schnellste Festplatte ein und meldet diesen Lesefehler. Die Robustheit der Geräte hat natürlich auch ihren Preis, doch dafür geben Hersteller oft einen längeren Gewährleistungszeitraum.

NAS-Festplatten im Desktop-PC

Umgekehrt kann es sogar positiv sein, eine NAS-Festplatte in sein passiv gekühltes Computergehäuse einzubauen.

Archiv-Festplatten fürs NAS-Datengrab?

Symbolbild: Archiv-Festplatten fürs NAS-Datengrab?
Obwohl Netzwerkspeicher früher hauptsächlich als Datengrab verstanden wurden und es heutzutage noch einen hohen Stellenwert hat, ist der Einsatz von sogenannten Archiv- oder Backup-Festplatten keine gute Idee. Das liegt an der speziellen Bauweise der Datenträger. Um möglichst kostensparend massenweise Dateien zu hinterlegen, wendeten die Produzenten einen Trick an. Durch die enge Anordnung überlagern sich die Spuren auf den Datenscheiben. Exakt dieser Prozess verbirgt sich hinter dem technischen Shingled Magnetic Recording (kurz: SMR). Daher wird der Schreibkopf bei Änderung des Datenbestandes durch Hinzufügen oder Löschen von Inhalten teils anliegende Spuren neu beschreiben. Für uns Nutzer*innen resultiert das in einer geminderten Schreibgeschwindigkeit.

Darf es noch etwas mehr sein? SSDs im NAS

Symbolbild: Darf es noch etwas mehr sein? SSDs im NAS
Wenn der Geschwindigkeit ein hoher Stellenwert zugeschrieben wird, gelten Solid State Drives (kurz: SSDs) als das Nonplusultra. Zusätzlich ist diese Art von Speichermedien geräuschlos, hat einen geringen Energieverbrauch, wird kaum warm und lässt sich von Vibrationen nicht beeinflussen. Daher liegt der Gedanke nahe, eine SSD in sein NAS einzubinden. Allerdings lassen sich die Vorzüge im privaten Einsatz nicht ausspielen. Üblicherweise ist ein Gigabit-Ethernet- Port verbaut. Der Anschluss macht seinem Namen alle Ehre und übermittelt Daten mit einer Geschwindigkeit von bis zu 1 Gbit/s. Umgerechnet macht das maximal 125 Megabyte je Sekunde; also etwas mehr als eine zweistündige Audio-Podcast-Episode von uns. Selbst durch die sogenannte Link Aggregation, also der Bündelung von zwei Anschlüssen lassen sich die Übertragungsraten von 500 MB/s nicht annähernd ausreizen.

Symbolbild: Darf es noch etwas mehr sein? SSDs im NAS
Je nach Aufstellort mag der leise Betrieb ein Argument sein, doch ein netzgebundener Speicher braucht nichts weiteres als eine Stromversorgung als auch den Netzwerkanschluss. Daher lassen sich NAS-Geräte auch im Wohnzimmer oder gar im Keller platzieren. Einzig und allein als Cache - das ist ein besonders schneller Zwischenspeicher - würden wir zu SSDs greifen.

Hinweis: Der Beitrag entstand im Rahmen der Sendung radio.exe bei Radio Darmstadt. Alle Inhalte - Podcast & Skripte - gibt es online bei radioexe.de. Schalte an jedem vierten Sonntag im Monat ab 17:00Uhr live zu via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream!

©2020 Hessentrend/ Leon Ebersmann

Wolken entstehen aus einer Ansammlung von winzigen Wassertröpchen. Sobald die Wolke zu schwer wird, kommt es zum Regenschauer. Clouds hingegen speichern die abgelegten Dateien im besten Falle für die Ewigkeit. Zugegeben, die Metapher lässt zu wünschen übrig, doch bringt sie das Thema auf den Punkt: Die Cloud.

Was macht die Cloud mit meinen Daten?

Symbolbild: Was macht die Cloud mit meinen Daten?
Cloud-Services haben im Vergleich zu persönlichen Datenträgern, wie USB-Stick oder externer Festplatte einen entscheidenen Vorteil. Die Datenübertragung geschieht über das Internet in das Rechenzentrum seines Providers. Dadurch ist ein Datenverlust aufgrund von defekter oder verlorener Hardware ausgeschlossen. Zwar ist ein einzelner Festplattenausfall selbst beim Hoster möglich, aber meistens wurden Schutzmaßnahmen ergriffen. Ein Beispiel ist die permanente Spiegelung in ein zweites Rechenzentrum an einem anderen Ort.

Symbolbild: Eine englischsprachige Wolke; Die Cloud
Neben dem Zusatz an Datensicherheit sind Cloud-Dienste komfortabel in der Benutzung. Durch eine Dateifreigabe wird ein öffentlich zugänglicher Link zur ausgewählten Datei oder ganzen Ordnern erstellt. Somit müssen E-Mai-Postfächer nicht mehr als Cloud missbraucht werden. Womöglich sind E-Mail-Anhänge bei Dir auf wenige Megabytes beschränkt, weshalb nach nur ein paar Bildern das Limit bereits erreicht war. Abhängig von der ausgewählten Cloud haben Freigabe-Links ein Ablaufdatum und können mit einem Passwort versehen werden. Eine - unserer Meinung nach - unterschätze Funktion ist die Dateianforderung. Über einen entsprechenden Link dürfen Familie, Freunde oder Geschäftspartner Daten in die eigene Cloud hochladen. Dabei bekommen diese niemals weitere abgelegte Dateien zu sehen. Besonders praktisch, wenn das Gegenüber keinen Cloud-Speicher nutzt. Neben dem Verwendungszweck als Datenablage wird stets an neuen Funktionen gearbeitet. Mittlerweile dringen Clouds in den produktiven Einsatzbereich hervor. Die Option online gemeinsam Präsentationen zu erstellen oder an Dokumenten zu arbeiten ist nur ein Beispiel dafür.

15GB kostenlos mit Google Drive

Symbolbild: 15GB kostenlos mit Google Drive
Google bietet mit seiner Cloud-Lösung Drive den meisten Speicherplatz für lau. Doch die 15GB werden von allen Google-Diensten, wie Gmail oder den Office-Apps verwendet. Für monatlich 1,99€ lässt sich das Volumen um 100GB anheben. Nach 30TB für fast 300€ pro Monat endet das Angebot. Aus Transparenzgründen sowie für die bessere Vergleichbarkeit gelten die Preise bei einer monatlichen Abrechnung. Im Abonnement sind gewisse Rabatte möglich. Dropbox gilt als das Urgestein unter den Cloud-Anbietern und nicht selten auch als Messlatte. Dabei sind nur 2GB kostenlos inbegriffen. Bis zu weitere 16GB lassen sich durch das Anwerben von neuen Dropbox-Kunden freischalten. Aber Achtung: Der zusätzliche Speicher steht nur zur Verfügung, wenn sich das neue Mitglied mit einer bestätigten E-Mail-Adresse über die Dropbox-Desktop-Applikation anmeldet. Die kostenpflichtige Pläne steigen bei 11,99€ je Monat für 2TB und gehen bis 20€ für 3TB.

Nur im technischen Ökosystem perfekt: Die iCloud

Symbolbild: Nur im technischen Ökosystem perfekt: Die iCloud
Während die vorherigen Anbieter Zugriff per App oder die Web-Oberfläche bieten, ist Apples iCloud kurzgesagt spezieller. Die Integration in die eigenen Betriebssysteme iOS oder macOS funktioniert. Sicherungen der Geräte landen in der Cloud und Dokumente sind schnell synchronisiert. Dennoch empfiehlt sich die ernsthafte Nutzung nur für Menschen mit ausschließlich Produkten von Apple. 5GB sind kostenfrei. Ein Upgrade auf 50GB kostet 0,99€. Zwei Terabyte bilden hier die Obergrenze und liegen bei 9,99€. Ab 200GB lässt sich die Familienfreigabe für den Cloud-Speicher aktivieren. Bis zu sechs Familienangehörige haben Zugriff auf den Cloud-Speicher ohne Zugang auf die Daten der anderen. Google bietet die Option auch im kleinsten Tarif.

Die Cloud und Datenschutz: Ein Konflikt?

Symbolbild: Die Cloud und Datenschutz: Ein Konflikt?
Alle bisherige Angebote teilen diese Eigenschaft: Der Unternehmenssitz ist in den Vereinigten Staaten. Die Daten verlassen deutschen als auch europäischen Boden. Seit dem sogenannten Patriot Act, den man im Zuge der Terroranschläge des elften Septembers 2001 verabschiedete, müssen Unternehmen US-Behörden wie FBI, NSA sowie CIA selbst ohne richterlichen Beschluss deren Systeme für die Ermittler öffnen. Auch ausländische Töchter von US-Konzernen werden in die Pflicht genommen. Privatnutzern mag das ein Dorn im Auge sein, doch eine Speicherung von Firmendaten außerhalb Europas ist rechtswidrig. In beiden Fällen bietet sich ein Cloud-Hoster mit seinen Servern in Deutschland an, weil sie sich an unsere Datenschutzbestimmungen halten müssen.

Telekoms Magentacloud

Symbolbild: Telekoms Magentacloud
Die Magentacloud von Telekom kommt mit mindestens 10GB kostenlosem Speicherplatz daher. Allen Telekom-Kunden - egal, ob Mobilfunk oder Festnetz - werden weitere 15GB geschenkt. Mit 1,95€/ Monat ist das kostenpflichtige Upgrade um 50GB fast doppelt so teuer im direkten Vergleich zur iCloud. Ein Terabyte Webspeicher werden eine gewisse Zeit reichen, doch unter den bisher vorgestellten Angeboten ist es das kleinste Limit. Dafür ist der Preis mit fast zehn Euro vergleichsweise hoch. Außerdem liegt die Mindestvertragslaufzeit bei drei Monaten. Positiv zu betrachten ist, dass eine Ende-zu-Ende Verschlüsselung bereit steht. Damit hast nur du Zugriff auf die Daten, denn aus Anbieter-Sicht speichert er nur Datenmüll.

Strato HiDrive: Satter Aufschlag für SMB, WebDAV & FTP

Symbolbild: Strato HiDrive: Satter Aufschlag für SMB, WebDAV & FTP
Strato bietet in seiner HiDrive als einziger in diesem Ranking keinen Gratis-Speicher an. Der günstigste Tarif beinhaltet 100GB für monatliche drei Euro. Maximal sind 3TB im Sinne von 3072GB möglich. Der Spaß kostet dann schon 22€. Hinzu kommt in allen Tarifen eine einmalige Einrichtungsgebühr von zehn Euro, die bei den einjährigen Verträgen entfällt. Strato bittet seine Kundschaft für weitere Dateiprotokolle kräftig zur Kasse. So hat der Zugang via SMB und WebDAV einen monatlichen Aufpreis von vier Euro zur Folge. SMB und WebDAV eignen sich bswp. für die Integration in den Windows Dateiexplorer. Das weit verbreitete File-Transfer-Protocol (kurz: FTP) kostet satte sieben Euro.

Symbolbild: Eine englischsprachige Wolke; Die Cloud
Ein vor allem kostenpflichtiger Cloud-Speicher ist eine Investition in die Zukunft. Genau so, wie man nicht ständig seine physischen Datenträger wechselt, sollte man auch länger einen Anbieter behalten. Es erleichert Dir den Überblick über Deine Daten und resultiert in Rabatten bei den Verträgen. Dabei weist nur Du am besten was Du brauchst: eine einfache Datenablage zum Teilen mit der Familie, muss es ein deutscher Dienst sein und brauchst Du die zusätzlichen Dateiprotokolle? Wir empfehlen beim Support nach der Ende-zu-Ende-Verschlüsselung und einer ISO27001-Zertifizierung zu fragen.

Hinweis: Der Beitrag entstand im Rahmen der Sendung radio.exe bei Radio Darmstadt. Alle Inhalte - Podcast & Skripte - gibt es online bei radioexe.de. Schalte an jedem vierten Sonntag im Monat ab 17:00Uhr live zu via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream!

©2020 Hessentrend/ Leon Ebersmann

Seit 1997 sendet das nichtkommerzielle Lokalradio Radio Darmstadt rund um die Uhr. Der 23. Geburtstag ist zwar kein runder, aber der Verein RadaR e.V. lädt seine Mitglieder*innen und Fans zum Feiern ein: am Samstag, 1. Februar ab 15 Uhr im "Zucker" (Liebfrauenstraße 66). Die Redaktionen stellen einige Sendungen vor und freuen sich, ihre Hörer*innen "live" zu treffen. Getränke, Kuchen und Herzhaftes stehen bereit.

Radio Darmstadt zeigt sich in einem neuem Gewand

Radio Darmstadt feiert 23-jähriges Dauersendejubiläum
Ab 1. Februar ist auch die Homepage nicht mehr blau, sondern bunt, genau wie das Programm. Das Ganze wirkt wie ein Aufbruch, mit neuen Sendungen, gestaltet von jungen Audio-Fans. "radio.exe" etwa beschäftigt sich mit den aktuellen Entwicklungen der Smartphones und mehr digitaler Technik für Heimanwender.  YoungPOWER gibt neben viel (neuer) Musik einen Rückblick auf die Nachrichten der letzten Woche. "Popcorn Partnermenü" bringt Kino-News und Hintergründe dazu. Der "RadaR-Sportplatz" ist wieder DA, frisch und flott moderiert mit neuem Blickwinkel auf Gender- und Umweltthemen. "RaccoonRrrdio" ist eine Sendung, die sich mit Antifaschismus, Feminismus und Antirassismus befasst.

Auch das Frauenradio ist mit "Mathilde on Air" seit drei Jahren wieder DA! Um Grünflächen und die Landschaft geht es bei "green places".

Traditionell gibt es bei Radio Darmstadt den Bericht aus der Stadtverordnetenversammlung, "Bülent Spezial" (mit Kommentaren zur aktuellen Politik und deren Nebenwirkungen), "Ökotopia" (von der Greenpeace-Gruppe Darmstadt), "C-RadaR" (von der Darmstädter Gruppe des Caos Computer Clubs). Positive Rückmeldungen erhält auch die Sendereihe "Onimac – zurück zur Vernunft" (weg von der Spiritualität, hin zur Realität). Hinter "Meet & Speak" versteckt sich ein pensionierter Lehrer, der mit seinem Sohn ehemalige Schüler*innen trifft, die ihren Weg aus schwierigen Verhältnissen zurück in die Gesellschaft fanden.

Der Ass im Ärmel: Sendungen rund um & über Darmstadt

In Sachen Kultur war RadaR e.V. schon immer groß. Die Sendung "Jazz Szene" ist ein Sendeplatz über das international renommierte Jazzinstitut. Der "KultTourKalender" gibt Tipps für das kommende Wochenende, die freie Theaterszene hat mit "Shakespeare & Co" einen festen Platz im Hörprogramm und seit kurzem einen zweiten Moderator. "RadaR-Klassik" sendet klassische Konzerte, die meist in Darmstadt aufgezeichnet werden. Die Darmstädter Musikszene hat viele Möglichkeiten sich im Radio zu präsentieren, z.B. in der "GIGparade", wenn ein Konzert in Darmstadt (oder Umgebung) ansteht. Die "Bandsupporter" -Sendungen stellen (noch) unbekannte Darmstädter Bands vor.

RadaR ist auch international! Da sich das Deutsche Polen-Institut in Darmstadt befindet, ist es kein Wunder, dass es vier polnischsprachige Sendungen gibt. "Aller-Retour" glänzt seit Jahren mit französischem Charme. Die ebenfalls zweisprachige Sendung "HamAwas" thematisiert Afghanische Kultur und Integration.

Radio Darmstadt sendet unter der UKW-Frequenz 103,4 MHz und ist im Webradio unter radiodarmstadt.de zu empfangen. Von Juli bis Dezember sind wir ebenfalls über DAB+ erreichbar. Eine Auswahl der Sendungen ist in der RadaR+7 Mediathek eine Woche lang zu hören. Darüber hinaus bieten wir manche Shows für mehr Hörspaß als Podcast an.

Sei selbst Radio-Moderator*in bei Radio Darmstadt

Wer eine einmalige Sendung (z.B. eine ausführliche Vereinsvorstellung) gestalten möchte, dem stehen die Türen der Sendung "Offenes Haus" – ja eben, offen! Das nächste Basic Seminar, der Einstieg zum Moderieren bei Radio Darmstadt, findet am 15. und 16. Februar statt.

Weitere Informationen unter
Mehr Info über (06151) 8 7000 oder (06151) 29 11 11
Internet: https://www.radiodarmstadt.de

©2020 Radio Darmstadt/ Aurel Jahn

Mit Mario Kart Tour wird ein weiterer Konsolenklassiker von Nintendo für die mobilen Endgeräte der Kundschaft neu aufbereitet. Die App steht zum kostenlosen Download im Google Play Store oder Apples App Store bereit.

Bevor es losgeht: Nach dem Download ist vor dem Download

Symbolbild: Mario und Bowser treten in einem Kart-Rennen gegeneinander an.
Aber der Spielspaß muss noch auf sich warten lassen, denn mit der Installation selbst hat es sich nicht getan. Zum einen braucht es zwingend einen Nintendo Account, der mit dem Spiel verknüpft wird, damit eine Art virtuelle Mitgliedskarte erstellt werden kann. Auf der anderen Seite stehen die für Nintendo-Apps typischen Zusatzdownloads mit mehreren hundert Megabyte an. Diese Schritte werden zwar niemanden aufhalten, jedoch sollte der Spielehersteller allein aus Transparenzgründen die vollständige Dateigröße im Store angeben sowie eine Überspringen-Option beim Verknüpfen mit seinem Online-Account.

Mario Kart Tour: Free-to-Start oder Pay-to-win?

Symbolbild: Das Geschäftsmodell von Mario Kart Tour: Free-to-Start oder Pay-to-win?
Das Ziel ist - wie es sich für ein wahres Rennspiel gehört - den ersten Platz zu belegen oder im Einzelspielermodus die bisherige Rekordzeit zu unterbieten. Je nach Platzierung oder Zeit erhält man Sterne, Münzen oder bald auch Rubine. Kurzgesagt: es gibt drei virtuelle Währungen. Mit den Münzen können im Shop bestimmte Charaktere, Fahrzeuge oder Segler erworben werden. Alternativ bietet sich auch die Glücksröhre. Für fünf Rubine wird ein zufälliges Objekt freigeschaltet. Mit den Sternen schalten sich nach der Zeit die Cups frei. Wie auch schon zuvor bei Dr. Mario World ist spätestens jetzt bekannt, welches Geschäftsmodell Nintendo nutzt: Pay to Win. Auf der offiziellen Website zum Spiel heißt es: Free-to-Start.

Kürzere Renndauer & verworfene Items bei Mario Kart Tour

Symbolbild: Kürzere Renndauer & verworfene Items bei Mario Kart Tour
Das Spielgeschehen in Mario Kart Tour läuft im Hochkantmodus ab; beim Drehen des Geräts passiert nichts. Die Auswahl von Charakter, Fahrzeug und Segler beeinflusst die Menge von Items pro Item-Box oder den Multiplikator von Bonuspunkten. Gas geben ist nicht mehr nötig. Zum Lenken bietet Nintendo zwei Möglichkeiten an. Entweder durch Wischen über den Bildschirm oder durch Neigen seines Geräts. Bei der ersten Option kam es des häufigeren vor, dass Items versehentlich eingesetzt worden sind. Es kann auch beides gleichzeitig aktiv sein, doch ob es letztendlich einen Mehrwert bietet, muss jeder für sich selbst beantworten. Zu unserer Überraschung wurde die Renndauer auf zwei Runden gekürzt. Eine weitere Änderung im Vergleich zu den Konsolen besteht darin, dass die noch nicht genutzten Items verworfen werden, sobald man eine andere Item-Box trifft.

Weltweites Feedback

Symbolbild: Weltweites Feedback
Die Zukunft von Mario Kart Tour bringt ein Mehrspielermodus, dessen Beta-Tests planmäßig im Dezember beginnen sollen. Daran können nur Kunden mit dem kostenpflichtigen Gold Pass teilnehmen. Die Bewertungen die Spiels in den App Stores sind überaus positiv. Apple errechnete einen Durchschnitt von 4,6 Sternen bei 40Tsd. Bewertungen, im Play Store sind es 4,2 von fünf Sternen.

Hinweis: Der Beitrag entstand im Rahmen der Sendung radio.exe bei Radio Darmstadt. Alle Inhalte - Podcast & Skripte - gibt es online bei radioexe.de. Schalte an jedem vierten Sonntag im Monat ab 17:00Uhr live zu via 103,4MHz, DAB+ oder im weltweiten Stream!

©2019 Hessentrend/ Leon Ebersmann