Über die Inhalte des Podcasts: Über die vergangene Woche hinweg veranstaltete das Hard- und Softwareunternehmen Apple zum 31. Mal die WWDC; durch Corona gänzlich online. Auf welche Features können wir uns in iOS 14, iPadOS 14, watchOS 7 & macOS freuen. Warum hat Apple so entschieden? – Sicherlich nicht ganz uneigennützig. Des Weiteren mit diesen Technik-News: Französische Dating-App geht mit Katzenbildern gegen Dick-Pics vor, Twitter sperrt 170.000 Nutzer*innenkonten, Surfen mit der umweltfreundlichen Suchmaschine Ekoru & Forscher brechen 44,2Tbit/s Datendurchsatzrekord.
Also, einschalten lohnt sich!
Hinter radio.exe steckt ein Team aus Jugendlichen, die zum Spaß an der Technik jeden vierten Sonntag im Monat ab 17:00Uhr eine Sendung auf die Beine stellen. Um 23:00Uhr des selben Tages, wie auch am Montag ab 05:00Uhr & 10:00Uhr wird die Show wiederholt. Dabei wird über das NKL Radio Darmstadt via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream gesendet.
Wir bedanken uns beim User "TolerableDruid6" dafür, dass er sein Werk – die News-Transition – unter der CC0 1.0 Universal (CC0 1.0) Public Domain Dedication Lizenz zur Verfügung stellte. Gleiches tat auch "Leifgreen" mit seiner "Slow Drump Loop Transition"; danke dafür! Die Information zum ShowOpener werden schnellstmöglich ergänzt.
"Deep Web" und "Darknet": klingen wie böse oder gar gemeine Orte. Aber der erste Eindruck trügt. Und gleich sind beide auch nicht. Aber auf die Frage was die beiden Wörter überhaupt bedeuten, haben wir eine Antwort. Fangen wir mit dem Deep Web an.
Das Deep-Web
Das Deep Web wird oft auch als "Hidden Web" bezeichnet. Was zu Deutsch "verstecktes Netz" bedeutet. Es beinhaltet alles, das man nicht mit einem einfachen Suchen mit einer Suchmaschine finden kann. Internetseiten, bei denen man einen besonderen Zugriff braucht, zählen dort auch noch dazu. Es gibt verschiedene Arten des Deep Webs, doch alle kurz anzusprechen würde unseren Zeitrahmen sprengen.
Eine Firewall gehört dazu
Um ein Beispiel zu nennen aus der Kategorie "Truly Invisible Web": eine Firewall gehört zum Deep Web. Eine Firewall ist schnell gesagt eine Art Mauer, die nur das durchlässt, was der Computer haben soll. Damit ist das Deep Web der Größte Teil des Internets. Da man nicht genau weiß wie groß das Deep Web ist, schätzt man trotzdem, dass das Deep Web zwischen 400 bis 550-mal größer ist als das gesamte Surface Web; der Teil, den man per Suchmaschine erreicht.
Es wird dunkel: Das Darknet
Das Darknet hingegen ist ein eigenes Netzwerk. Denn um in das auf Deutsch sogenannte Dunkle Netz zu kommen, benötigt man einen besonderen Internet Browser. Ein Eigenes Programm, dass Tor–Browser heißt. Manche nennen ihn auch Onion Browser. Das nicht zu Unrecht, denn das von der US-amerikanischen Marine entwickelte System nennt sich Onion-Router-Technik. Dieses System funktioniert folgendermaßen: der Computer schickt seine Daten an einen Server. Der Server sucht sich dann das raus was benötigt wird, um die angefragten Daten zu bekommen. Diese Daten schickt dieser Server dann an einen weiteren. Damit weiß schon der zweite Server nicht mehr wer denn da ursprünglich angefragt hat. Das Ganze passiert einige Male. Irgendwann landet die Anfrage beim Ziel und alles geht wieder zurück zum Computer. Doch im Darknet ist das was man so aus dem Internet kennt ganz anders. Denn es gibt ein anderes System.
Dieses System nennt sich Peer-to-Peer; man kann nur von einer Internetseite zur nächsten über Links. Also über direkte Weiterleitungen. Es gibt keine Suchmaschinen, lediglich Ansammlungen von Links. Eine ist zum Beispiel Hidden Wiki. Doch wer denkt im Darknet wird nur Böses getrieben der liegt falsch. Es gibt auch ganz normale Internetseiten wie Facebook im Darknet. Was das Darknet so besonders macht ist, dass alles mit absoluter Anonymität geschieht. So kann man nicht per Kreditkarte zahlen, sondern per Kryptowährung (bspw. Bitcoin).
Hinweis: Der Beitrag entstand im Rahmen der Sendung radio.exe bei Radio Darmstadt. Alle Inhalte - Podcast & Skripte - gibt es online bei radioexe.de. Schalte an jedem vierten Sonntag im Monat ab 17:00Uhr live zu via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream!
Die Geschichte des Internets ist so alt, wie der erste Satellit. Im Jahre 1957 schickte die Sowjetunion den Satelliten Sputnik 1 ins Weltall. Dadurch sorgten sich die USA um einen nuklearen Raketenangriff, wodurch sie sich indirekt zu technischem Fortschritt gedrängt fühlten. Um dieses Ziel zu erreichen wurde die DARPA, die Kurzform von Defense Advanced Research Project Agency, gegründet. Ihr Ziel war es den Wissens- und Informationsaustausch durch die Entwicklung eines computergesteuerten Netzwerkes zu beschleunigen. 1963 kam auch Wissenschaftlern die Idee, ihre Computer zu vernetzen, um komplizierte Berechnungen durchführen zu können. Noch im selben Jahrzehnt starteten die ersten Versuche zur Datenübermittlung. Es galt das Wort "LOGIN" als erste Nachricht im Internet an einen entfernten Rechner zu schicken. Anfänglich stürzte das System noch nach "LOG" ab. So kam es, dass sich vier Universitäten aus Kalifornien und Utah zusammenschlossen.
Die erste E-Mail
Schon 1970 existierte ein Netz aus mehreren tausend Rechnern. Die erste E-Mail ging 1971 aus Cambridge in Massachusetts ins Netz. Das @-Zeichen wird seit eh und je für E-Mail-Adressen genutzt, um den Empfänger-Namen und seinem Provider voneinander zu trennen. Zwei Jahre später gab es insgesamt 37 Rechnernetze über den Globus verteilt. Die Kommunikation lief teilweise über Satellit. Das ARPANET war geboren. Seine Besonderheit war die Dezentralität; es gab keinen zentralen Netzknoten. Dadurch war das Netz ausfallsicherer, aber auch der Datenaustausch verschnellerte sich, denn die Datenpakete ließen sich parallel über diverse Routen versenden. Das war auch wichtig, denn die damalige Netzgeschwindigkeit lag bei wenigen kbit/s.
Der Wandel vom ARPANET zum Internet (durch HTML)
HTML-Quelltext
Ab den 1980er Jahren wurde aus dem ARPANET ein allgemein zugängliches Computernetz. Zu dem Austausch von Wissen kam der Verwendungszweck der Kommunikation hinzu. Einen weiteren Meilenstein erlangte das Internet durch Tim Berners-Lee. Am europäischen Forschunszentrum CERN erfand er die Seitenbeschreibungssprache HTML für die Darstellung inklusive dem Hypertext zum Finden der Inhalte. Es ist die Basis des World Wide Webs. Durch sein Gesamtpaket können auch Laien im Netz recherchieren, denn es ermöglicht die Verlinkung von Inhalten, wie Texten, Bilder oder Filmen. Der Chef von Tim Berners-Lee kommentierte die Idee mit "Wage, aber aufregend". Du möchtest wissen, wie die erste Website aussah? Unter der originalen Domain info.cern.ch existiert selbst heutzutage noch eine Kopie von den ursprünglichen Inhalten.
Hinweis: Der Beitrag entstand im Rahmen der Sendung radio.exe bei Radio Darmstadt. Alle Inhalte - Podcast & Skripte - gibt es online bei radioexe.de. Schalte an jedem vierten Sonntag im Monat ab 17:00Uhr live zu via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream!
Das Internet ist ein Netzwerk aus Millionen von Rechnern, wie dem PC, Smartphone, Fernseher oder gar Auto, die untereinander Daten und Informationen austauschen. Dieses Konstrukt besteht im Wesentlichen aus vier Hardware-Komponenten: Server, Kabel, Router als auch den internetfähigen Clients.
Die Aufgaben von Servern
Das mittlerweile eingedeutschte Wort "Server" heißt übersetzt Diener. Kurz gesagt sind Server leistungsstarke Computer - meist ohne Bildschirm oder grafische Benutzeroberfläche -, die auf Anfragen aus dem Internet reagieren. Der Endbenutzer, also Du vor Deinem Bildschirm erhält daraufhin eine Kopie der Nachricht, einer Website, eines Videos, oder, oder, oder, denn die Originaldatei befindet sich weiterhin auf dem Server. Danach folgen die Kabel in der Rangliste der "digitalen Nahrungskette". Obwohl im privaten Umfeld oft versucht wird, so wenig Kabel wie möglich zu verwenden, sind sie für das weltweite Netz absolut notwendig. Nur so können Daten über längere Strecken, z.B. in die Vereinigten Staaten transportiert werden.
Wozu Kabel? Ich hab' WLAN!
Dabei ist die Frage berechtigt, ob man das weltweite Internet nicht auch mithilfe von Satelliten unterstützen könnte. Die Antwort lautet aus einfachen Gründen nein. Die Daten müssten eine Strecke von 44.000 Meilen - 22.000 Meilen einfach - zurücklegen. Das würde zu einer enorm hohen Latenz führen. Selbst wenn bspw. Smartphones nur kabellos im Netz unterwegs sind, ist es dennoch immer an einem Kabelnetz angeschlossen: entweder durch den Heimrouter oder die Funkzelle. Der Router wandelt bei einer Ethernet-Verbindung die Lichtsignale in technische Signale um, während Funkzellen die Informationen in Form von elektromagnetischen Wellen weiterleite. Durch das sogenannte Transmission-Control Protocol oder Internet Protocol (kurz: TCP/ IP) spielt es keine Rolle, welche Technologien Server oder Anwender benutzen. Die Dokumente werden transportiert.
Der Router: Das Navi für Deine Daten
In jedem Fall gehört das Kabelnetz einem Provider; häufig große Dienstleister der Telekommunikation, die für die Nutzung entlohnt werden wollen. Provider ist der englische Begriff für Anbieter oder Lieferant. Mit Vertragsabschluss folgt der schon mehrfach erwähnte Router. Seine Aufgabe ist es, dass die Daten beim richtigen Gerät ankommen. Sonst könnte es passieren, dass die Websiten, die man nur im Inkognito-Modus besucht auf dem Smartphone seiner Oma landet. Ähnlich agieren die viel leistungsstärkeren Router im Server-Gebilde: sie suchen den passenden Weg, wodurch das Internet effizienter als andere Netze wurde.
Eine Analogie zum Postnetz
Vergleichen wir es mit dem Postnetz. Dieses ist weitaus weniger fehlertolerant, wenn sich der Absender nicht strikt an die Vorgaben hält. Das Internet ist dem überlegen, denn die Datenpakete müssen nicht den identischen Weg einschlagen. Darüber hinaus kann ein Client den Server ein weiteres Mal anfragen, wenn Pakete verloren gegangen sein sollten.
Hinweis: Der Beitrag entstand im Rahmen der Sendung radio.exe bei Radio Darmstadt. Alle Inhalte - Podcast & Skripte - gibt es online bei radioexe.de. Schalte an jedem vierten Sonntag im Monat ab 17:00Uhr live zu via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream!
Wer auf iOS als Betriebssystem seiner Wahl verzichten kann, hat die Qual der Wahl sich für eines der zahlreichen Smartphones zu entscheiden, die auf Googles Android basieren. Einer dieser Hersteller nennt sich OnePlus und veröffentlichte kürzlich seine Handys der achten Generation.
OnePlus 8: Außergewöhnliche Bezeichnungen für Gewöhnliches
Das Bild hat nur einen symbolischen Charakter. Das Aussehen weicht von den Geräten der 8. Generation ab.
Das OnePlus 8 gibt es in zwei Ausführungen: sowohl das "normale" als auch mit dem Namenszusatz Pro. Das Pro-Modell wird in den Farben schwarz, grün und blau angeboten. Diese Realität verbirgt sich hinter den besonders klingenden Bezeichnungen "Onyx Black", "Glacial Green" oder auch "Ultramarine Blue". Die Rückseite ist gezeichnet von vielen Kameras. Je nach Gerät gibt es neben dem Hauptsensor eine Ultraweitwinkel-, Zoom-, Makro- als auch die sogenannte "Farbfilter"-Kamera. Bei beiden Geräten präsentiert sich auf der Vorderseite ein randloses OLED-Panel mit einem 19,8:9" Seitenverhältnis, das zu den Seiten abgerundet ist. Im Gegensatz zu der Vorgänger-Serie fährt die Front-Kamera nicht mehr aus dem Gerät heraus, sondern wanderte als Loch-Kamera in die linke obere Ecke des Bildschirms. In der Theorie müsste die Gesichtserkennung zur Entsperrung dadurch schneller arbeiten. Alternativ ist nach wie vor ein Fingerabdrucksensor im Display verbaut.
Viele Köche verderben den Brei! -Oder etwa nicht?
Die notwendige Rechenleistung liefert ein Snapdragon 865 Prozessor mit acht bis zu 12GB Arbeitsspeicher. Doch die beste Hardware bringt kaum etwas, wenn die Software schrott ist. Das System läuft unter Android 10 mit minimalen Anpassungen. Zur Abwechslung wirkten sich die Veränderungen positiv auf die Gesamtperformance aus, wie der Technik-YouTuber Kilian alias iKnowReview in einem seiner Videos berichtet.
Erstmals Wireless-Charging & Wasserschutz-Zertifizierung
Das Smartphone auf dem Bild zeigt nicht das OnePlus 8 (Pro)
Die interessant werdenden Unterschiede zwischen dem OnePlus 8 verglichen mit dem Pro-Smartphone liegen im Detail. Erstmals wird Wireless Charging, als auch Reverse Wireless Charging unterstützt. Mit der separat erhältlichen Lade-Basis, die sogar eine Kühlung verbaut hat, soll der Akku innerhalb von 30 Minuten auf bis zu 50% kommen. Das wäre kaum langsamer als das Aufladen mit dem kabelgebundenen Warp-Charge-Netzteil, das auch mit dem Einsteiger- Gerät funktioniert. Eine weitere Premiere feiert man mit der IP 68-Zertifizierung, wodurch bestätigt wird, dass die Geräte einerseits staubdicht und gegen dauerndes Untertauchen geschützt sind. Bisher mied das Unternehmen solch offizielle Auszeichnungen, um laut eigenen Angaben den Verkaufspreis niedrig halten zu können.
OnePlus' Trumpf: QuadHD+ mit 120Hz
Symbolbild
Obwohl eine Auflösung von QuadHD+ und eine Bildwiederholrate von 120Hz, das heißt, dass sich der Bildschirminhalt 120 Mal/ Sekunde aktualisiert, an und für sich nichts neues sind, ist es trotzdem eine Erwähnung wert. Bisher musste sich der Anwender zwischen einer höheren Auflösung oder flüssigerer scheinenden Benutzung entscheiden. Mit dem OnePlus 8 Pro ist beides zeitgleich möglich.
Fazit: Neuste Technik & Spielereien, aber nicht mehr günstig
Symbolbild
Mit den neuen Smartphones wirft OnePlus alte Gewohnheiten über Bord und betritt neues Terrain. Die Hardware ist nicht mehr das Nötigste reduziert worden, um auf diesem Weg das Gerät preiswert zu halten. Ein Beispiel gefällig? -Die "Farbfilter"-Kamera, die für kaum einen Filter genutzt wird. Oder das 5G-Modul, das in beiden Varianten verbaut ist. Versteht es nicht falsch, aber in wie vielen Jahren wird das flächendeckend verfügbar sein? Hätte man all das berücksichtigt, wären die neue OnePlus-Generation nicht so teuer, wie nie zuvor, denn die Anschaffungskosten liegen bei 699€ bzw. 899€ für Geräte mit 128GB. Für einen gewissen Aufpreis lässt sich der Systemspeicher auf 256GB verdoppeln. Fotografie-Enthusiasten sollten sich schon zu Beginn über ihren Speicherbedarf im Klaren sein, denn einen Steckplatz für microSD-Karten gibt es nicht; dafür Dual-SIM.
Hinweis: Der Beitrag entstand im Rahmen der Sendung radio.exe bei Radio Darmstadt. Alle Inhalte - Podcast & Skripte - gibt es online bei radioexe.de. Schalte an jedem vierten Sonntag im Monat ab 17:00Uhr live zu via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream!
Die Preise für Smartphones sind in den letzten Jahren rasant gestiegen. Dass man mittlerweile über 1000€ für ein Gerät blechen muss, ist keine Seltenheit mehr. Besonders die iPhone-Liebhaber mussten lange Zeit tief in die Tasche greifen. Doch in 2016 kam das iPhone SE und kürzlich ein weiteres Modell unter gleichem Namen auf den Markt.
Das Auffälligste zuerst: Die äußeren Merkmale
Hinweis: Die Vorderseite der (PRODUCT)RED-Edition war beim iPhone 7 noch weiß.
Das Handy hat eine Glasrückseite in den Farben schwarz, weiß und rot mit dem Firmenlogo in der Mitte. Die rote Edition wird als Product Red vertrieben. Dabei geht ein Teil des Preises an eine Stiftung im Kampf gegen AIDS, aber aufgrund der aktuellen Umstände wird die Forschung an COVID-19 unterstützt. Schade ist, dass sich Apple über die Höhe der Spende bedeckt hält. Die Vorderseite ist in allen Ausführungen schwarz.
TouchID: Alte Bekannte im iPhone SE
Neben dem 4,7 Zoll LCD-Panel mit einer Auflösung von etwas über HD, das seit dem iPhone 6 verbaut wurde, kehrt die Hometaste inklusive TouchID zurück. Dafür fällt die Geräteentsperrung via FaceID weg. Im Gegensatz dazu steht das neue Mittelklasse-Gerät den Flaggschiffen im Bezug auf die Rechenleistung ins nichts nach. Es wurde der A13 Bionic Prozessor verbaut. Dieser gilt als der beste auf dem Smartphone-Markt.
iPhone SE: Die beste Kamera ist die, die man immer dabeihat
Dadurch sind trotz nur einer Kamera Spielereien, wie der Portrait-Modus für Menschen oder Smart HDR möglich. Die Kamera-Einstellungen Deep Fusion als auch den Nachtmodus wird es für das iPhone SE nicht geben. Experimentierfreudige Fotograf*innen können demnächst wortwörtlich neue Gewässer betreten, denn die IP 67 Zertifizierung besagt einen Wasserschutz für bis zu 30 Minuten in maximal ein Meter Tiefe. Sollte der Akku dabei an seine Grenzen kommen, so kann er mit Fast Charging in einer halben Stunde auf bis zu 50% geladen werden. Das kabellose Laden ist mit passendem Zubehör auch möglich.
Fazit: Über die mögliche Zielgruppe des iPhones SE
Das iPhone SE: Ein Smartphone, das für all diejenigen interessant sein könnte, die entweder nicht Unmengen ausgeben möchten oder ein handliches Gerät suchen, das sich problemlos mit einer Hand bedienen lässt. Doch wird Apple die Kundenwünsche erfüllen können? Hierzu ein eindeutiges Jein! Obwohl die 4,7 Zoll per se nicht winzig sind, ist es zu wenig Bildschirm für den Formfaktor. Die breiten Ränder ließen sich vielleicht noch eine ganze Weile verkaufen, doch nun ist es zu viel des Guten. Statt OLED mit verbesserten Schwarzwerten entschied man sich für ein günstigeres LCD-Panel. Dadurch wird ersichtlich, wo das Unternehmen sparte.
Apropos Preis: Der liegt bei 479€ in der günstigsten Ausführung mit 64GB Speicher. Das Upgrade auf 256GB hat einen Aufpreis von fast 200€ zur Folge. Unabhängig von der Speicherkapazität gibt es ein Jahr Apple tv+ kostenlos obendrauf. Unternehmen oder Selbstständige können für geschäftliches und privates von der Dual-SIM-Funktion Gebrauch machen. Dabei wird eine SIM-Karte als physischer Chip und die andere als sogenannte eSIM mit dem iPhone SE verbunden.
Hinweis: Der Beitrag entstand im Rahmen der Sendung radio.exe bei Radio Darmstadt. Alle Inhalte - Podcast & Skripte - gibt es online bei radioexe.de. Schalte an jedem vierten Sonntag im Monat ab 17:00Uhr live zu via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream!
Über die Inhalte des Podcasts: Du brauchst ein wenig Abwechslung zur andauernden Berichterstattung rund um das Corona-Virus? Dann ist das Technik-Magazin radio.exe genau richtig für Dich! In der neusten Episode fragen wir uns, ob das neue iPhone SE seinem Vorgänger oder den Flaggschiff-Modellen das Wasser reichen kann. Für Android-Nutzer*innen brachte OnePlus ebenfalls ein weiteres Smartphone auf den Markt. In der zweiten Hälfte beschäftigen wir uns mit DEM Internet. Wie entstand es? Wie funktioniert das? Was sind Deep- bzw. Darkweb? All das beantworten wir in der April-Folge von radio.exe.
Hinter radio.exe steckt ein Team aus Jugendlichen, die zum Spaß an der Technik jeden vierten Sonntag im Monat ab 17:00Uhr eine Sendung auf die Beine stellen. Um 23:00Uhr des selben Tages, wie auch am Montag ab 05:00Uhr & 10:00Uhr wird die Show wiederholt. Dabei wird über das NKL Radio Darmstadt via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream gesendet.
Wir bedanken uns beim User "TolerableDruid6" dafür, dass er sein Werk – die News-Transition – unter der CC0 1.0 Universal (CC0 1.0) Public Domain Dedication Lizenz zur Verfügung stellte. Gleiches tat auch "Leifgreen" mit seiner "Slow Drump Loop Transition"; danke dafür! Die Information zum ShowOpener werden schnellstmöglich ergänzt.
Wer mit einem netzgebundenen Speicher liebäugelt, wird spätestens bei der Einrichtung nach einem RAID-Verbund gefragt. RAID ist die Abkürzung für den technischen Begriff "redundant array of independent disks" - zu deutsch: redundante Anordnung unabhängiger Festplatten. Durch eine wohlüberlegte Entscheidung lassen sich Datenverfügbarkeit (sowie ansatzweise die Datensicherheit) gewährleisten. Bei falscher Wahl kann der Schuss auch nach hinten losgehen und Deine Daten sind gefährdeter als je zuvor. Damit das nicht passiert, setzten wir uns damit auseinander.
Der RAID 6-Modus ähnelt der vorherigen Einstellung. Statt nur einer können bis zu zwei Datenträger den Dienst kündigen, ohne dass es einen Datenverlust mit sich zieht. Diese Option steht jedem, ab vier Festplatten zur Auswahl. Dafür werden mehr Paritätsdaten hinterlegt. Das Plus an Sicherheit hat ein Minus bei der Speicherkapazität zur Folge. Bei vier Platten à 4TB sind es am Ende des Tages nur acht Terabyte.
Trotz RAID-Konfiguration bleiben regelmäßige Backups unerlässlich. Ziel von RAID-Verbünden ist nicht die Datensicherheit, sondern die permanente Verfügbarkeit. Mit einer ordentlichen Backup-Strategie sind selbst aus Versehen gelöschte Dateien wiederherstellbar; bei einem RAID wirkt sich die Löschung auf den Datenbestand aller Festplatten aus. In modernen NAS-Geräten lässt sich zwar ein Papierkorb aktivieren, doch sollte man sich nicht davon abhängig machen.
Außerdem: Was passiert bei einem Diebstahl, Wasser- oder Brandschaden? Wünscht man zwar absolut niemandem, aber möglich ist es. Zusätzlich schützen die meisten Modi lediglich gegen den Ausfall einer Komponente. Gerade bei Festplatten, die durch Altersschwäche ihren Dienst versagten, können andere Festplatten bei der Wiederherstellung sterben, denn es ist durchaus eine große Herausforderung.
Hinweis: Der Beitrag entstand im Rahmen der Sendung radio.exe bei Radio Darmstadt. Alle Inhalte - Podcast & Skripte - gibt es online bei radioexe.de. Schalte an jedem vierten Sonntag im Monat ab 17:00Uhr live zu via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream!
Warum soll ich mich mit Backups auseinandersetzen?
Wenn man reflektiert, wie wichtig teils die Daten auf unseren technischen Helfern sind, ist es erschreckend, wie leichtsinnig ein Großteil der Anwender*innen mit der Thematik Backup umgeht.
Klar, es gibt weitaus schönere Beschäftigungen, als Sicherheitskopien anzulegen, doch im Falle eines Falles, wird man gerne auf Backups zurückgreifen wollen. Damit sich der Aufwand auch lohnt, bedarf es einer Strategie. Die bekannteste unter ihnen ist die 3-2-1-Regel.
Was ist die 3-2-1-Backup-Regel?
Ziel der 3-2-1-Methode ist es, in möglichst vielen Situationen noch zumindest einen Datensatz zur Wiederherstellung parat zu haben. Kurz zusammengefasst sollen wir drei Kopien auf mindestens zwei Speichermedien anlegen. Eine davon fungiert als sogenanntes Offsite-Backup. Zu den drei Sicherungen gehört ebenfalls das primäre System, wie das eigene Smartphone, der Rechner im Büro oder das NAS. Es ist selbsterklärend, dass man dort die jeweils aktuellsten Versionen der Dateien hat, doch dafür ist es durch den ständigen Einsatz am gefährdetsten. Dafür sind die zwei Backups gedacht. Mit dem Vorschlag diese auf zwei Datenträgern zu sichern, hat man nicht nur den netten Nebeneffekt, dass eine Art Versionierung des Datenbestandes möglich ist, sondern schützt dich die Offsite-Datenablage auch vor "höherer Gewalt". Offsite kommt aus dem Englischen und bedeutet sinngemäß "außerhalb des Hauses". Die 3-2-1-Regel verlangt demnach eine Sicherheitskopie bei z.B. Familie, Freunden oder Verwandten abzulegen.
Das Offsite-Backup
Doch in welchem Szenario bewahrt es mich vor Datenverlust? Nun, man will zwar nie in eine solche Lage kommen, aber was ist bei Diebstahl, Wasser- oder Brandschaden? Bei Festplatten, die permanent am Hauptgerät oder lediglich am Stromnetz hängen, kann ein Blitzeinschlag schnell das Ende der Lebenszeit bedeuten. Was Du aus deinem Offsite-Datensatz machst, ist Dir selbst überlassen. Üblicherweise besorgt man sich eine externe Festplatte, kopiert dort alle relevanten Daten drauf und lässt diese von einer vertrauten Person bei sich deponieren. Zur Sicherheit sollte die Kopie verschlüsselt vorliegen. Nicht zwingend, weil man der Person misstraut, sondern damit bspw. bei einem Diebstahl der Datenschutz gewährt bleibt. Am komfortabelsten bleiben Clouds, die bis zu einer gewissen Datenmenge sogar kostenlos sind. Die Crème de la crème wäre erreicht, wenn zwei sich bekannte Menschen jeweils einen Netzwerkspeicher bei sich zu Hause einrichten und sich nach einem Zeitplan automatisch gegenseitig sichern.
Wenn meine Bude abfackelt, habe ich andere Probleme
Kritiker des Offsite-Backups meinen - überspitzt gesagt -, dass man bei Elementarschäden weitaus andere Probleme habe, als seine digitalen Unterlagen. Das mag zwar stimmen, doch ist es nicht besser weniger Sorgen zu haben, als diese in ihrer Schwere sortieren zu müssen?
Das Ziel der 3-2-1-Backup-Strategie
Rückblickend betrachtet, kann man sich durchaus fragen, weshalb zwei Datenbestände bei einem von Nöten sind, wenn ohnehin einer außer Haus ist? Der Sinn dahinter ist, ein Backup sofort verfügbar zu haben. Sofern Dein Backup-Partner auf der Arbeit, im Urlaub oder schlicht unterwegs ist, wärst Du bis zu einem gewissen Grat aufgeschmissen. Clouds sind zwar 24 Stunden an sieben Tagen in der Woche ansprechbar, doch wird der Flaschenhals die Download-Geschwindigkeit sein. Zusätzlich sollte geklärt sein, wofür das Backup angelegt wird? Ist es für die - Achtung Klischee - Oma, die aus Versehen wichtige Dateien löscht oder soll es ein Backup im Sinne eines Desaster Recovery werden? Je nachdem scheiden bestimmte Möglichkeiten aus. Bei einer Sicherung von NAS-Geräten in die Cloud müsste man mit den Bordmitteln alles herunterladen, um ein gelöschtes Text-Dokument wiederherstellen zu können. Auch hier: Ausnahmen bestätigen die Regel, wenn Synology NAS-Besitzer*innen ein Backup in die C2-Cloud laden.
Ein Backup ist besser als keins
Neben dem Zeitaufwand oder technischem Know-How basiert eine Aussage gegen Sicherungen auf den Kosten für die zusätzlichen Festplatten. Doch gerade heutzutage kostet Speicher beinahe nichts mehr. 4TB gibt es schon für unter 100€ zu haben. Wenn man bedenkt, dass die professionelle Wiederherstellung schnell im vierstelligen Bereich liegen kann, sind die 200€ auf jeden Fall das kleinere Übel. Selbst der Zeitaufwand hält sich in Grenzen. Einmal eingerichtet, kümmert sich zum Beispiel Time Machine auf Apple PCs um die Backups.
Hinweis: Der Beitrag entstand im Rahmen der Sendung radio.exe bei Radio Darmstadt. Alle Inhalte - Podcast & Skripte - gibt es online bei radioexe.de. Schalte an jedem vierten Sonntag im Monat ab 17:00Uhr live zu via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream!
Wer die Wahl hat, hat die Qual! Auch vor dem Kauf der Festplatten für den eigenen Netzwerkspeicher macht dieses Sprichwort keinen Halt. Es gibt solche mit einem geringen Stromverbrauch, dann für den Betrieb einer Videoüberwachung, Backup-Datenträger mit besonders viel Speicherkapazität, aber verminderter Schreibgeschwindigkeit sowie leistungsstarke, aber keineswegs leise oder stromsparende Festplatten. Im Laufe der Zeit kamen SSDs hinzu. Theoretisch lassen sich alle Modelle überall einbauen, solange sie über den korrekten Anschluss verfügen, doch warum das keine gute Idee ist, zeigen wir in den nächsten Minuten auf.
NAS- vs. Desktopfestplatten
Bei handelsüblichen Desktopfestplatten geht man von einer maximalen täglichen Nutzung von bis zu zehn Stunden aus. Im Gegensatz dazu stehen netzgebundene Speicher nicht nur einer Einzelperson zur Verfügung, sondern womöglich der gesamten Familie, Verwandten, Freunden oder der Kollegenschaft. Andernfalls braucht man das Gerät nicht. Unter Umständen kommen NAS-Festplatten höchstens bei Stromausfall zur harten Ruhe. Zusätzlich kommen NAS-Komponenten selten allein, wodurch sie erhöhte Temperaturen durch die kompakte Bauweise ertragen sollen. Aber auch die aufeinander auswirkenden Vibrationen durch Schreib- und Lesevorgänge sind nicht ohne. Um das zu verstehen, muss gesagt sein, dass sich in Festplatten stetig Speicherscheiben drehen. In der Regel sind es 5.400 oder 7.200 Umdrehungen/ Minute. Auf Befehl erreichen die Schreib- oder Leseköpfe blitzschnell den geforderten Bereich.
Kurz gesagt: Datenträger in solchen Systemen haben es ein wenig schwerer. Daher sollten sie mit den erschwerten Bedingungen problemlos auskommen und selbst kaum weitere Vibrationen erzeugen. Darüber hinaus sind Lesefehler nicht auszuschließen. Desktop-Festplatten würden die Situation durch mehrmaliges Lesen lösen. In Server-Einheiten kann das zum Verhängnis werden, denn ein RAID-Controller toleriert das nicht und stuft stattdessen den Datenträger als generell defekt ein. In redundanten Umgebungen springt die schnellste Festplatte ein und meldet diesen Lesefehler. Die Robustheit der Geräte hat natürlich auch ihren Preis, doch dafür geben Hersteller oft einen längeren Gewährleistungszeitraum.
NAS-Festplatten im Desktop-PC
Umgekehrt kann es sogar positiv sein, eine NAS-Festplatte in sein passiv gekühltes Computergehäuse einzubauen.
Archiv-Festplatten fürs NAS-Datengrab?
Obwohl Netzwerkspeicher früher hauptsächlich als Datengrab verstanden wurden und es heutzutage noch einen hohen Stellenwert hat, ist der Einsatz von sogenannten Archiv- oder Backup-Festplatten keine gute Idee. Das liegt an der speziellen Bauweise der Datenträger. Um möglichst kostensparend massenweise Dateien zu hinterlegen, wendeten die Produzenten einen Trick an. Durch die enge Anordnung überlagern sich die Spuren auf den Datenscheiben. Exakt dieser Prozess verbirgt sich hinter dem technischen Shingled Magnetic Recording (kurz: SMR). Daher wird der Schreibkopf bei Änderung des Datenbestandes durch Hinzufügen oder Löschen von Inhalten teils anliegende Spuren neu beschreiben. Für uns Nutzer*innen resultiert das in einer geminderten Schreibgeschwindigkeit.
Darf es noch etwas mehr sein? SSDs im NAS
Wenn der Geschwindigkeit ein hoher Stellenwert zugeschrieben wird, gelten Solid State Drives (kurz: SSDs) als das Nonplusultra. Zusätzlich ist diese Art von Speichermedien geräuschlos, hat einen geringen Energieverbrauch, wird kaum warm und lässt sich von Vibrationen nicht beeinflussen. Daher liegt der Gedanke nahe, eine SSD in sein NAS einzubinden. Allerdings lassen sich die Vorzüge im privaten Einsatz nicht ausspielen. Üblicherweise ist ein Gigabit-Ethernet- Port verbaut. Der Anschluss macht seinem Namen alle Ehre und übermittelt Daten mit einer Geschwindigkeit von bis zu 1 Gbit/s. Umgerechnet macht das maximal 125 Megabyte je Sekunde; also etwas mehr als eine zweistündige Audio-Podcast-Episode von uns. Selbst durch die sogenannte Link Aggregation, also der Bündelung von zwei Anschlüssen lassen sich die Übertragungsraten von 500 MB/s nicht annähernd ausreizen.
Je nach Aufstellort mag der leise Betrieb ein Argument sein, doch ein netzgebundener Speicher braucht nichts weiteres als eine Stromversorgung als auch den Netzwerkanschluss. Daher lassen sich NAS-Geräte auch im Wohnzimmer oder gar im Keller platzieren. Einzig und allein als Cache - das ist ein besonders schneller Zwischenspeicher - würden wir zu SSDs greifen.
Hinweis: Der Beitrag entstand im Rahmen der Sendung radio.exe bei Radio Darmstadt. Alle Inhalte - Podcast & Skripte - gibt es online bei radioexe.de. Schalte an jedem vierten Sonntag im Monat ab 17:00Uhr live zu via 103,4MHz, DAB+ (Juli-Dezember) oder im weltweiten Stream!