Leselaunen Umzug und Technikkram

Leselaunen

Die Aktion „Leselaunen“ ist ein wöchentlicher Bericht und Austausch unter Buchbloggern über das aktuell gelesene Buch, die Lesemotivation und andere Kleinigkeiten im Leben eines Buchbloggers. Der Leselaunen Bericht erscheint wöchentlich am Sonntag um 20:00 und jeder darf jederzeit mitmachen und seinen Link dann bei Trallafittibooks verlinken. Einfach einen Leselaunen-Beitrag schreiben, verlinken, andere Teilnehmer besuchen/kommentieren und genießen!

Da ich unten ggf. einige Markennamen erwähne, kennzeichne ich den Beitrag hiermit als Werbung.

Aktuelles Buch:

Noch nichts. Ich hoffe aber in der kommenden Woche mehr zu lesen.

Aktuelle Lesestimmung:

Maxton Hall 3 Save Us - Mona Kasten

Mein Lesefortschritt lag diese Woche quasi bei Null. Das lag aber nicht an der Lesestimmung oder am Buch, sondern einfach daran, dass ich anderweitig beschäftigt war (siehe unten).

Die Rezension zur obigen Maxton Hall Reihe findet ist nun auch online. Ich war unerwartet begeistert. Trotz der eigentlich recht normalen Story (keine Aliens, Trolle, Elfen oder sonstige unnatürliche Elemente), konnte mich die Geschichte begeistern.

Zitat der Woche:

‘Gib einem Menschen Macht und du erkennst seinen wahren Charakter. – Sam Feuerbach, Die Krosann Saga 

Was für ein Zufall (wirklich! es ist einfach das nächste nach der letzten Woche, schaut selbst nach!) das Zitat passt super zu den Postmastern von T-Online bzw. zu meinem Post unten. 😉

Und sonst so?

Diese Woche hatte ich drei tage Kurzarbeit (also frei, einen Tag Urlaub, einen Feiertag und trotzdem ein maximal volles Programm. Es stand Technikkram, ein Blogumzug und anschließend Aufregen über T-Online auf der todo Liste.

Ich bin nicht mal zum Lesen gekommen. 🙁

Heute habe ich drei Blogeinträge geschrieben. Die Rezension zur Maxton Hall Reihe, diesen Beitrag und das erste Lesequartal (der geht Dienstag online). Somit hat sich auch im Blog mal wieder was getan.

Ich hatten in den letzten Leselaunen bereits geschrieben, dass der Versuch den Blogserver auf Ubuntu 20.04 LTS zu bringen den Blog für 1,5 Tage lahmgelegt hat. Sagen wir es einfach mal so, es lief nicht ganz rund. Danach musste ich ein Backup vom Vortag einspielen, weil ich den Stand so nicht behalten wollte (hätte ich mal machen sollen, besser wurde es das Ergebnis auch später nicht).

Da ich mir nach der Aktion einen neuen VPS Server angemietet habe, der auch Snapshots unterstützt und ich über den Schritt auf einen SSD Server zu wechseln eh schon länger in Angriff nehmen wollte, weil der Blog temporär einfach sehr lahm war, habe ich die Woche für den Umzug genutzt. D.h. der Blog ist nun bereits umgezogen.

Gleichzeitig habe ich die Chance temporär einen zweiten Server zur Verfügung zu haben dafür verwendet um das Ubuntu Upgrade noch mal anzugehen. Faktisch habe ich beim ersten Mal aber nichts falsch gemacht Der Upgradeprozess auf Ubuntu 20.04 ist aktuell einfach extrem unrund es gibt diverse Bugs.

Wie so häufig wenn man den Server oder besser gesagt die IP Adresse des Servers wechselt ist T-Online mal wieder extrem negativ aufgefallen. T-Online verweigert die Nutzung von Standards im Mail Bereich (kein Dane, kein DKIM, kein DMARC, kein SPF und es werden vollkommen veraltete Ciphers und Verschlüsselungsstandards verwendet, die so unsicher sind, dass man sie mit etwas Recherche im Netz in Sekunden oder Minuten knacken könnte, wenn man es darauf anlegen würde).

Den offiziellen “Standpunkt” von T-Online man auch ganz offiziell nachlesen: https://postmaster.t-online.de/

Lustig ist zum Beispiel die Passage in der kurz angesprochen wird, dass kein DKIM verwendet wird. Warum das so ist wird nicht weiter begründet. DKIM fügt an eine Mail eine Information an, die bestätigt, dass die Mail seitens des Absenders (Mailadresse) autorisiert ist. Das ist ein Wirksames verfahren um Spam von gefälschten Adressen aussondern zu können.

Es gibt aber immerhin ein Projekt. Hört sich ein wenig nach einer Bachelor oder Masterarbeit an. Bei großen Unternehmen dauert es halt schon mal länger.

Bisher werden DKIM-Signaturen weder gesetzt noch ausgewertet. (Eine Ausnahme ist das Projekt “Trusted Dialog”, bei dem DKIM-Signaturen für das “Inbox Branding” eingesetzt werden.)

Auch andere Schutzverfahren werden so nebenbei alle als Quatsch ausgesondert. Für mich ist die Aussage in etwa so wie “Wenn ich eh wieder dreckig werde, warum soll ich mich überhaupt jemals im leben waschen?” oder bezogen auf Corona “Warum gehe ich nicht gleich zu einer Großveranstaltung mit 1 Mio Leuten, wenn die Schutzmaßnahmen wie Abstand halten oder Masken eh nicht 100% sicher sein.” oder um konkret auf die IP Sperren einzugehen.

“Von den aktuellen Testverhalten halten wir nichts. Wir haben einen Schamanen der durch anschauen prüft, ob jemand Corona hat. Wir lassen nur noch Leute in unser Haus rein, die der Schamae abgesegnet hat. Wir erwarten allerdings, dass Leute aus unserem Haus raus dürfen. Wir haben per Definition kein Corona, obwohl wir alle offiziellen Test ablehnen.”

Desto unverschämter ist es, dass sich T-Online offenbar als Bekämpfer des Spam sieht (fehlt nur das Superman Kostüm). Das macht T-Online aber nicht durch die Nutzung durch obige Standards und ausschließliches bannen von negativ auffälligen Mailservern.

Nein, warum denn das? Das macht der Rest der Welt. T-Online proklamiert für sich besser und schlauer zu sein als alle anderen (mithilfe der Schamanen Supermänner Postmaster).

D.h. Standards werden ignoriert aber Anbieter von Servern werden mit permanenten IP Sperren überzogen. Bisher ist mit das bei den letzten VPS Servern immer so gegangen, dass Mails an T-Online nicht zugestellt werden können, weil T-Online IPs dauerhaft blockt. Bei dem aktuellen ist es so, dass er in keiner Blacklist (das sind Negativlisten, in denen Spamserverbetreiber aufgeführt werden) enthalten ist.

Für die Sperren wird auch kein Grund genannt, das wird einfach gemacht nach Gutdünken der Postmaster, die sich als kleine Götter aufschwingen können (wenn man sonst nichts zu sagen hat, muss man das wohl kompensieren). Das ist wahrscheinlich so ähnlich wie mit großen Autos und … ach nein lassen wir das. 😉

Nach den bisherigen Erfahrungen sieht das für mich auch nicht nach Einzelsperren, sondern eher nach großflächigen Sperren von IP Bereichen aus. Das ist aber meine persönliche Meinung, die ich nicht belegen kann. Im Netz finden sich aber durchaus diverse Beiträge zu dem Thema, die durchaus eine Regelmäßigkeit erkennen lassen (ich weigere mich das System zu nennen).

Bisher hat T-Online die Sperren auf Zuruf entfernt. Die Zeiten scheinen aber vorbei zu sein. Somit ist aktuell keine Zustellung von Mails an T-Online möglich. Ich werde wohl noch eine nette Mail verfassen, bei denen ich mit rechtlichen Schritten drohe.

Eine rechtliche Grundlage für die Handlungsweise von T-Online gibt es zumindest nicht. Lustig ist auch, dass die meinen alten Bogserver zugelassen haben, obwohl ich dort weniger Aufwand betrieben habe, als beim aktuellen. In jedem Fall waren beide Server deutlich besser konfiguriert als die T-Online Mailserver.

Für den aktuellen Mailserver habe ich sogar eine separate Domein eingerichtet (bei einem VPS hat man normalerweise eine Domain wie 3514.serveranbieter.de). Für diese Domain kann man aber z.B. kein DANE einrichten. Weiterhin gilt die Domain als generisch weil fortlaufend. Eine separate Domain bedeutet mehr Aufwand in der Einrichtung und kostet natürlich jedes Jahr Geld.

Ein echter Sicherheitsgewinn ist sie nicht, weil man ja über den Serveranbieter oder auch so schnell raus bekommt wer der Betreiber einer Domain ist. Im Zweifelsfall geht bei einem guten Anbieter der Server in Stunden vom Netz, wenn er zur Spamverteilung verwendet wird. Zusätzlich werden die Blacklists weltweit gefüllt und die Mails werden nicht mehr angenommen. Echte Spambetreiber werden also sicher nicht den Aufwand betreiben und Mails an T-Online schreiben, sondern einfach IPs nutzen, die noch nicht gesperrt sind.

Dauerhafte Sperren treffen also nur Mailserver, die ihre IPs nicht ständig wechseln. Das wird gerade bei Spamservern anders sein, sonst wären sie nicht erfolgreich.

Zumindest gibt T-Online ein super Beispiel dafür ab, wie man es nicht machen sollte und die Antworten strotzen nur so vor Arroganz. Wer im Glashaus sitzt (siehe Standardunterstützung oben), sollte nicht mit Steinen werfen. Als Kämpfer gegen Spam braucht sich T-Online nun wirklich nicht darstellen.

So genug Dampf abgelassen.

Wie war eure Woche?

Weitere Leselaunen:

Viel Netflix und ein toller Film! bei Andersleser back to work bei Letterheart ∗

Maxton Hall [Serie]

Maxton Hall 1 Save Me - Mona Kasten  Maxton Hall 2 Save You - Mona Kasten  Maxton Hall 3 Save Us - Mona Kasten

Mehrfach gelesen:

Nein

Autor(in):

Mona Kasten

Teile der Serie:

  • Maxton Hall 1 – Save Me –  (416 Seiten)
  • Maxton Hall 2 – Save You –  (384 Seiten)
  • Maxton Hall 3 – Save Us –  (384 Seiten)

Gelesenes Format:

eBook

Rezension und Inhalt:

Band 1:

Er sieht mir direkt in die Augen. »Weil sich auf dieser Welt niemand für dich interessiert, wenn du kein Geld hast.«

Ruby kommt aus normalbürgerlichen Verhältnissen, geht aber an eine Eliteschule.

Sie versucht an der Schule möglich wenig aufzufallen, weil sie mit den Reichen bzgl. der Statussymbole nicht mithalten kann und auch nicht in deren Schusslinie geraten will.

Vielleicht solltest du dich dran gewöhnen, Kontra zu bekommen, oder dich mit dem Gedanken anfreunden, abgelehnt zu werden. Wobei du selbst dann keine Probleme haben solltest, schließlich bist du ja immer noch reich, und die Welt interessiert sich für dich.«

Anfangs erlebt sie wie ein Lehrer mit einer Mitschülerin rummacht, die ausgerechnet zu einer der reichsten Familie des Landes gehört und sie versucht den Vorfall schnell zu vergessen. Der gutaussehende Bruder der reichen Familie kommt auf Ruby zu und versucht sie mit Geld und Drohungen mundtot zu machen.

Mir ist die Handlung am Beginn zu gewöhnlich. Der Hauptinhalt ist Highschoolalltag und eine Teenager Lovestory, die mit ungewöhnlichen Voraussetzungen beginnt.

Anfangs ist die größte Sorge von Ruby, dass sie einen Lehrer und eine Schülerin zusammen rummachen sieht. Wenn man sonst keine Probleme hat, geht’s doch. Der Einschüchterungs- und Bestechungsversuch ist vorhersehbar.

»Okay. Vielleicht reicht es für den Anfang, wenn du einfach nicht alle deine Mitmenschen so ansiehst, als würdest du dir vorstellen, wie sie in Flammen aufgehen.«

Es ist von Anfang an klar, dass Ruby sich in den unausstehlichen James verliebt und ihr schön durchgeplantes und unauffälliges Leben komplett durcheinander würfelt. Die beiden kommen aus komplett unterschiedlichen Welten. Da die Autorin die Perspektiven wechselt, kann man auch die Sicht von James viel besser verstehen. Das ist bei derartigen Büchern sehr hilfreich. Gerade bei den Biss Büchern oder auch der Lux Reihe wären einige Rezensionen wohl anders ausgefallen, wenn man beide Seiten liest (bei beiden Reihen geht das).

James ist verwöhnt, arrogant, kann sehr viele Tätigkeiten an gestellte delegieren und sträubt sich gegen die Verpflichtungen, die ihm aus seinem Elternhaus auferlegt werden. In der Schule rebelliert er gern und benimmt sich als wenn ihm die Schule gehört. Seine Freunde sucht er sich allerdings sehr sorgfältig aus, weil die meisten nur wegen Reichtum und Macht Interesse an ihm haben.

Ich habe keine Ahnung, wie wir von »James zerstört beim Sex Betten« auf »Das sind Rubys Lieblingsmangas« gekommen sind. Wirklich keinen blassen Schimmer.

Ruby ist maximal durchorganisiert, pedantisch, sehr fleißig und hat sich selbst ein Stipendium für die Eliteschule erarbeitet. Sie versucht unter dem Radar zu bleiben.

Als sich dann etwas zwischen den beiden entwickelt, spricht natürlich alles gegen die Beziehung.

Den Reiz des Buches macht vor allem der lockere Schreibstil und die stellenweise guten und oft auch witzigen Dialoge aus.

Das Buch Endet mit einen bösen Cliffhanger.

Der Titel des Buches passt aber nicht wirklich. Gerettet wird im ersten Band niemand – Weder Ruby noch James.

Band 2:

Deswegen versuche ich …« »… überhaupt nichts zu fühlen«, beendet Ember leise meinen Satz. Ich nicke. »Das klingt nicht besonders gesund, Ruby.«

James Mutter ist gestorben und als erste Kurzschlussreaktion hat er sich volllaufen lassen, Drogen genommen und mit einem anderen Mädchen rumgemacht. Ruby hasst ihn dafür, fühlt sich aber noch immer mit ihm verbunden.

Die erste Hälfte des zweiten Teils ist nach dem Tod von James Mutter und seinen anschließenden Aktionen Wunden lecken auf beiden Seiten.

Bei manchen Autoren staune ich wie gut Sie Zusammenfassungen des Vorbandes unterbringen. Bei einigen wirkt es wie eine Pflichtaufgabe und bei anderern fällt es kaum auf. Letzteres ist hier eindeutig der Fall. Ich finde im Gegenteil, dass der Autorin das meisterhaft gelungen ist.

»Ein netter Junge aus dem Veranstaltungskomitee.« Mum atmet erleichtert auf. »Gott sei Dank. Und ich dachte schon, bald hätten wir den nächsten Liebeskummerkäfer auf der Couch liegen.«

Weiterhin hat die Autorin eine erstaunliche Fähigkeit Alltagssituationen oder Dialoge so zu beschreiben, dass man lust hätte selbst dabei zu sein.

Im zweiten Band wird ist die Geschichte zwar noch immer auf Ruby und James zentriert aber die anderen Charaktere wie Lydia, Ember und auch die Freunde von James spielen eine wichtigere Rolle.

Die Geschichte wird dementsprechend aus mehr Perspektiven beschrieben. Das bereichert das Buch.

Der Cliffhanger am Ende des zweiten Teils ist noch schlimmer als im ersten, wenn auch vorhersehbar. Man rechnet als Leser eigentlich schon viel früher mit dem Ergebnis. Nach zwei Bänden wähnt man die beiden aber in einer gewissen Sicherheit. Das ist von der Autorin klasse umgesetzt.

Band 3:

»Also hat dein Vater mich als Küchenhilfe eingestellt.« Stirnrunzelnd sehe ich zwischen Dad und James hin und her. »Ich bin auch gar nicht so schlecht wie befürchtet«, sagt James, und Dad nickt. »Definitiv. Mittlerweile haben wir schon mehr Kartoffel als Schale.«

Es kommt wie es kommen musste. Der Vater von James hat entschieden, dass Ruby nichts für James ist und ihr Leben zerstört in dem er gefakte Fotos von einem Lehrer und ihr dem Rektor übergeben hat. Ruby ist von der Schule geflogen und Ihre Zukunft in Oxford scheint unerreichbar.

Die Beziehung von James und Ruby ist äußerst gefährdet, weil James die Fotos, die als Basis verwendet wurden gemacht hat.

Den Rest dürft ihr selber lesen. Klar dürfte sein, dass auch im dritten Teil die Beziehung zwischen Ruby und James von außen bedroht wird.

Gut finde ich auch, dass die Autorin ohne kitschiges Ende auskommt, dass es bei derartigen Serien oft gibt. Das fühlt sich glaubwürdig an.

Fazit:

Wenn Ruby mir so nahe ist, fühlt es sich nicht mehr an, als würde die Last der Welt auf meinen Schultern ruhen. Vielmehr fühlt es sich so an, als würde sich die Welt in meinen Armen befinden.

Grundsätzlich ist die Geschichte nichts anderes als Biss oder vergleichbare Bücher ohne Vampire. Auch bei Biss kommen beide aus zwei verschiedenen Welten und alles spricht gegen die Beziehung und wie es zu erwarten ist, führen die beiden auch in der Maxton Hall Reihe eine on / off Beziehung mit diversen Hindernissen.

Anders würde man auch kaum auf 3 Bücher kommen nur das der on / off Faktor hier noch mal deutlich ausgeprägter ist als bei Biss (Drama!).

Zu Beginn meiner Schulzeit hätte ich nie gedacht, an der Maxton Hall einmal in eine solche Situation zu geraten. Ich habe gedacht, es wäre besser, mich unterhalb des Radars meiner Mitschüler zu bewegen, um mich nicht angreifbar zu machen. Alles, was ich vor Augen hatte, war mein Ziel, einen Abschluss zu machen – und sonst nichts. Jetzt gerade merke ich, wie falsch das war. Und dass ich möglicherweise eine ganze Menge schöner Momente verpasst habe.

Es geht nicht um viel mehr als junge Liebe, den Tod eines Elternteils und Intrigen auf dem Niveau von mächtigen Leuten aber die Autorin verpackt es genauso spannend wie das anderen Autoren nur gelingt, wenn sie lebensbedrohliche Situationen in Fantasy oder Alien Szenarios heraufbeschwören.

Die Autorin hat einen außergewöhnlich guten Schreibstil.

Ich bin auf jeden Fall Neugierig auf mehr von der Autorin und hoffe, dass Sie irgendwann noch etwas mehr als ein paar Standardlebenssituationen einbaut. Kombiniert mit dem Schreibstil und den Dialogen wird das hoffentlich grandios.

Bewertung:

4 out of 5 stars 4/5

Vergleichbare Bücher / Serien:

Verwandte Bücher / Serien:

Offene Fragen / Ideen / Diskussionsstoff (Spoilerwarnung):

  • Die Aktionen von Beauforts Familie sind nicht so harmlos wie sie dargestellt werden und bei jemanden der nicht so viel Geld hat, würden sie schnell einen Schulverweis bedeuten (ein Streit der Eltern, der von der Presse aufgebauscht wird = harmlos, einen Streifen Koks ziehen – nicht so harmlos, mit dem Lehrer rummachen – auch eher problematisch, wie sich später auch zeigt).
  • Wenn James eh Angst davor hat, dass Ruby etwas ausplaudert, dann ist es ziemlich dämlich sie mit der Aktion auf der Party auch noch zu provozieren. Dass sie wütend werden kann weiß er doch schon.
  • Die Gruppe um James scheint ein Alkoholproblem zu haben, wenn zu jeder Tageszeit und ohne besonderen Grund Whiskey, Gin usw. getrunken wird
  • Warum sollte James auf einmal in einen anderen Ort fahren um Kleider abzuholen, wo er es im Alltag nicht mal schafft sich Essen aus der Küche zu holen? Es sei denn er will einen halben Tag mit Ruby zusammen sein. Ich habe aber Zweifel, ob es ihm überhaupt in den Sinn kommen würde eine derartige Standardtätigkeit selbst zu übernehmen, statt einen Angestellten zu schicken.
  • 150 Jahre alte Kostüme würden heute wohl kaum jungen Leuten passen, die deutlich größer sind (knapp 185cm bei James).
  • Schön ist, dass die Geschichte nicht nur schwarz weiß ist. Die scheinbar arroganten reichen Schnösel sind zumindest nicht alle Arschlöcher, was Ruby aber erst auf den zweiten Blick rausfindet.
  • Die Darstellungsweise bzw. die Sicht von James ist ziemlich verzerrt: Ruby steht die Welt offen und ihm nicht? Eine Runde Mitleid bitte. Er braucht nur sein Erbe in den Wind schießen und Ruby hat wahrlich nicht die besten Voraussetzungen für Ihre Ziele.
  • Meiner Meinung nach ist es unrealistisch, dass jemand so selbstbewusst auftritt sich andererseits so von seinem Vater unterbuttern lässt. Selbstbewusstsein kommt nicht von Unterdrückung, sondern durch Förderung und Erfolg …
  • Ruby hat noch nie Sex gehabt aber weiß genau was sie will und ist auch alles andere als schüchtern…
  • Ich kann Jamens Verhalten nicht nachvollziehen. Er verhält sich immer wie ein Arsch um danach dann reumütig einzusehen, dass es falsch war. Also weiß er doch was er falsch macht. Das passiert einem intelligenten Menschen doch nicht immer wieder. Zumal Ruby ihm auch immer wieder vergibt.
  • Wieso sollte jemand einen Monat frei bekommen “nur” weil jemand gestorben ist. Das wird zwar im Buch sehr dramatisch aufbereitet aber im allgemeinen interessiert sich das Umfeld eher wenig dafür, ob jemand gestorben ist. Nach ein bis zwei Wochen wird die Rückkehr zur Normalität erwartet. Besonders bei Erwachsenen.
  • Was soll er Besuch von Ruby bei James an Sylvester? Es ist angeblich so viel zu klären zwischen den beiden und sie sagt ihm nichts neues außer, dass sie offiziell Schluss macht, obwohl das eigentlich klar ist, weil Sie keinen Kontakt mehr zu ihm hat.
  • Die Idee sich von der Firma von James Vater ein Stipendium zu besorgen ist nicht sonderlich schlau, wo beide wissen wie er zu ihr steht …
  • Schon witzig: James und Lydia denken Anfangs, dass Ruby den Beziehungsstatus von Lydia verrät und wer macht es? Einer aus James engstem Freundeskreis.
  • Der Rausschmiss ist schon ziemlich gekünstelt. Fotos auf denen nichts konkretes zu sehen ist und die zufällig Monate später auftauchen und die dann zum unverzüglichen Rausschmiss aus der Schule führen? Dazu kommen Sie von James Vater, wo jeder weiß, dass der mit Ruby eine Beziehung hat. So dumm kann nicht mal ein Schulrektor sein, dass er nicht ein wenig ins grübeln kommt. Auch der betroffene Lehrer würde zu so einem Vorfall befragt werden und um eine Stellungnahme gebeten.
  • Rubys Mum vollbringt nach dem Rausschmiss auch eine Glanzleistung. Ruby reagiert danach noch äußerst besonnen.
  • Warum sollte Lydias Tante Sie aufnehmen, nachdem Lydias Vater die Tante immer wie ein Arschloch behandelt?
  • James Handy ist weder mit Code noch anders gesperrt?
  • So perfektionistisch wie der Vater von James veranlagt ist, hätte er wohl etwas mehr Aufwand betrieben um das Originaltestament aufzutreiben. Das Kästchen bietet auch nicht gerade viel Schutz. Das hätte man sicher auch ohne Schlüssel leicht öffnen können.

[collapse]

Backups und das BTRFS Filesystem mit Linux Ubuntu 20.04 Focal Fossa und Backintime / Timeshift [Kommentar]

Die Ausgangslage

Nachdem ich mir einen neuen VPS (Virtual Private Server) angemietet habe, der ausschließlich auf SSDs setzt, ist die Schreib- / Leseperformanz zwar deutlich besser als vorher mit HDD aber SSD Speicherplatz ist nach wie vor teurer als klassische Festplatten. Somit sind VPS Server die auf SSD basieren teurer bzw. andersrum gibt es für das gleiche Geld deutlich weniger Speicherplatz. Bei Contabo ist der angebotene Speicherplatz ca. halb so groß wie bei den HDD Servern.

Somit hat sich mir die Frage gestellt, wie ich von dem alten Server mit 1,4 TB Speicherplatz auf einen Server mit 800GB umziehen kann ohne zu viel Sicherheit / Komfort zu verlieren.  Voll war der Server nicht aber es waren über ca. 950 GB belegt.

Ein guter Teil des Speicherplatzes auf dem Server ist von Backups belegt, die man auf einem Server unweigerlich benötigt, gerade auch wenn man mal etwas testet / ausprobiert. Neben dem Buchblog sind auf dem Server auch diverse andere Dienste. Der Blog nimmt eher den kleinsten Teil ein. Oft fallen Fehler auch nicht direkt auf, weil man nicht jede Funktion täglich nutzt. Somit schadet es nicht auch mal einen alten Stand einsehen zu können? War das schon immer so? Wie war es wann?

Backups aber wie?

Tägliche Backups speichern in der Regel von Tag zu Tag das gleiche (es ändert sich ja kaum was, wenn man zum Beispiel auf dem Blog ein oder zwei Beiträge verfasst). Viele Backuplösungen in Linux basieren auf Rsync. Rsync ist ein sehr gutes Tool zum synchronisieren zwischen zwei Verzeichnissen und bietet Funktionen wie Resuming / Checksummenprüfung usw. mit. Für Backups ist es aber nur bedingt geeignet, weil es die Daten einfach x Mal neu anlegt.

D.h. es werden bei einem Backupsystem (z.B. Daten der letzten 3 Tage, vorherigen 2 Wochen, letzten 2 Monate, letzte 2 Jahre = 3+2+2+3 = 10 facher Platz der Daten). Wenn man 50GB sichert, dann sind das mal eben 500GB nur für Backups. Dafür ist SSD Speicherplatz eigentlich zu schade.

Alternativ bieten sich Backuplösungen an, die Daten komprimieren. Diese lassen sich jedoch schlechter lesen. Einige Varianten müssen erst entpackt werden. Auf Linux gibt es z.B. Tar in Kombination mit einem Packverfahren. Das ist mit einer SSD und nicht zu großen Files ganz erträglich. Ein direkter Zugriff auf einzelne Dateien ist aber ziemlich unpraktisch, weil die ganze Datei gelesen werden muss (das ist der Teil wo die SSD durch höhere Leseraten den Prozess halbwegs erträglich macht). Wenn so eine große Datei beschädigt wird, kann es aber auch sein, dass das ganze Backup nicht mehr lesbar ist.

In einer grafischen Umgebung dauert das Öffnen zwar eine Weile ist aber von der Bedienung ansonsten erträglich. Wenn man auf der Kommandozeile arbeitet, wird es aber ziemlich unschön, weil es nicht einfach möglich ist Verzeichnisse zu entpacken oder ähnliches durchzuführen. Im schlimmsten Fall muss man also alles auspacken. Das benötigt Zeit und Speicherplatz.

Es gibt auch weitere Lösungen wie z.B. Bacula, was aber recht aufgebläht ist (ein Webfrontend – das benötigt also einen Webserver – für eine Backuplösung finde ich zum Beispiel ziemlich unglücklich). Im Zweifelsfall kommt man nur noch mit einer Rescuecd an den Server und dann sollte das Restore einfach sein.

Zusätzlich ist die Lösung halbkommerziell. Man kann sich also soweit ich das gesehen habe nicht einfach die aktuelle Version per apt install ziehen ohne einen Key dafür zu haben. Bei der 9.4er Version hat bei mir die Installation in Ubuntu 20.04 nicht funktioniert. Auch das ist nicht vertrauensbildend aber Ubuntu 20.04 holpert eh noch an so einigen Stellen aktuell.

Filesystem zur Backupunterstützung?

Ich hatte schon vor einer Weile von Dateisystemen wie BTRFS / ZFS angesehen aber die Guides zu dem Thema sahen nicht so einfach aus und die diversen Anmerkungen dies oder jenes ist nicht stabil oder “ich würde es nicht produktiv verwenden”, haben mich immer wieder abgehalten.

Für Btrfs spricht, dass es Komprimierung unterstützt. Das heißt die Dateien werden zum Teil deutlich kleiner, als im Original, sind aber transparent zugreifbar. Man benötigt keine extra Werkzeuge und kann direkt per Kommandozeile die Dateien zugreifen, ohne mit zusätzlichen Programmen / Befehlen zu hantieren (so als wenn sie nicht komprimiert wären). Zusatznutzen ohne Komforteinbußen hört sich immer gut an.

Weiterhin beherrscht Btrfs die Deduplizierung. In Obigem Fall von 10 Kopien wird also nur 1/10 des Platzes belegt, wenn sich die Daten nicht geändert haben. Wenn sich die Daten drei mal geändert haben dann eben 3/10 (ausgehend von ca. gleicher Gesamtgröße). Man steht also in Kombination mit der Komprimierung immer noch deutlich besser da.

Mein Backup mache ich mit Timeshift / Backintime. Beides sind Werkzeuge, die auf RSYNC basieren. In Kombination mit einem Filesystem wie BTRFS oder ZFS führ das aber in der Theorie zu einer deutlichen Verringerung des belegten Speicherplatzes. Die Komprimierung liegt ca. bei dem Faktor 2,5 bis 3. Allerdings werden nur bestimmte Datentypen komprimiert.

Ein weiterer Vorteil, der mich aktuell nicht interessiert ist die Snapshotfunktion. Diese Funktion hat mein Server über die SSDs bereits eingebaut. Ich kann also über den VPS 3 Snapshots erzeugen und zu diesen Ständen zurückkehren.

Diese Funktion werde ich ggf. Später testen. Die Snapshotfunktion ist z.B. interessant, wenn man ein neues Betriebssystem installiert und dabei geht etwas schief. Man kann damit sehr leicht und schnell zu einem vorherigen Stand zurückkehren. Beim Test von Ubuntu 20.04 hätte mir die Funktion wohl einen Tag Arbeit erspart. Mittlerweile habe ich es installiert aber ohne Snapshots (in meinem Fall direkt auf dem SSD Server, hätte ich das definitiv nicht gemacht).

Welches darf es den sein ZFS oder Btrfs?

Die oben genannten Funktionen bieten sowohl ZFS als auch Btrfs. Btrfs ist allerdings bei meinem VPS anbietet bereits in der Rescue CD integriert. Weiterhin bietet das auf der Rescue CD integrierte Pratitionierungswerkzeug Btrfs an und Btrfs bietet eine Migration von Ext4 nach Btrfs an. Besonders letzterer Aspekt klang reizvoll.

Da ich vorher einen Snapshot erstellt hatte, habe ich die Migration gestartet und nach grob 4-5 Stunden (auf einer SSD! – nur ca. 30-40MB pro Sekunden und nur ein Kern der CPU benutzt) war die Migration durch. Danach habe ich das Laufwerk gemountet und dann beim Boot diverse Fehlermeldungen bekommen. Scheinbar ist das mit dem Migrieren doch nicht so einfach wie versprochen. Die Warnung vorher Backups durchzuführen ist also absolut ernst zu nehmen.

Das Vertrauen in Btrfs und die Migrationsfunktion war bereits gesunken aber dank Snapshot habe ich einen zweiten Versuch gestartet. Der ist schon viel früher abgebrochen. Somit stand für mich fest, die Migration kann man vergessen. Theoretisch soll man die auch rückgängig machen können aber da ich einen Snapshot hatte, habe ich das gelassen.

Somit bin ich zu Ansatz zwei übergegangen. Eine neue Partition mit Btrfs zusätzlich zur vorhandenen

Nach den obigen Migrationsversuchen war das Vertrauen in Btrfs deutlich geschrumpft aber ganz ehrlich: Ich habe noch nie eine erfolgreiche Migration von einem Dateisystem in ein andres gesehen.

Backup mit Btrfs

Mein Hauptfokus lag auf der Verkleinerung der Backups also lag es nahe einen Teil der 800GB als Bbtrfs Partition anzulegen. Somit habe ich über das Rettungsystem Gparted gestartet und 200GB in Btrfs umgewandelt. Dort habe ich mehrere Subvolumes angelegt (Backintime, Timeshift, Root – für einen späteren Boottest, Snapshot – für spätere Snapshottests), dort kann man wiederum ein weiteres Subvolume für jedes Subvolume anlegen, von dem man Snapshots erstellen will).

Die Trennung der Snapshots hat damit zu tun, dass man die beim Zurücksetzen eines anderen Snapshots nicht verlieren möchte. Somit sollten man die separat halten.

Wichtig ist, dass man beim Mounten (ich habe direkt die Variante über die fstab Einbindung genutzt) die Komprimierung aktiviert. Die Daten werden dann während des Schreibens gepackt. Das komprimieren geht auch nachträglich, ist aber aufwendiger. Das Aktivieren der Komprimierung auf oberster Ebene hat sich auf die Subvolumes vererbt.

Anschließend kann man die Daten ganz normal auf das Laufwerk schreiben, dass in das Dateisystem eingebunden wird (in meinem Fall Verzeichnis btrfs mit den o.g. Unterverzeichnissen / Subvolumes).

Das Ergebnis vom Packen war bereits vielversprechend. Die Daten werden deutlich geschrumpft. Allerdings packt Btrfs mit den Standardeinstellungen nur die Daten, bei denen es eine deutliche Einsparung erwartet. Dateien bei denen das nicht der Fall ist, werden nicht gepackt. Man kann das erzwingen aber das habe ich bisher nicht getestet.

Der zweite Schritt ist das Deduplizieren. Das macht Btrfs nicht beim Schreiben, sondern man kann es nachträglich ausführen. Interessant ist dabei, dass man für jedes Subvolume einzelne Snapshots erstellen kann aber das Deduplizieren volumeübergreifend funktioniert.

Was bringt’s?

Bei obigem Beispiel würde also bei moderater Datenänderung zwischen 1/10 (Bester Fall fast ohne Änderungen der Daten) und 1/2 (bei deutlich mehr Änderungen) der Daten übrig bleiben. Wie sich in meinem Fall gezeigt hat sind es etwas mehr als 1/4.

Die o.g. Zahlen verstehe ich so:

Ursprünglich wurden durch die Daten 314GB belegt. Fast die Hälfte der Daten wurde komprimiert (152GB). Die komprimierten Daten hatten nach der Komprimierung noch ca. 1/3 der vorherigen Größe (das passt auch zu den Messungen die ich im Netz gefunden habe).

Der zweite Effekt ist die Deduplizierung, die in einem Backupszenario extrem gut funktioniert. Effektiv werden die vorher 314GB auf 86GB gespeichert. Das ist nicht schlecht dafür, dass ich den geringsten Kompressionslevel (ZSTD1) verwendet habe ohne erzwungene Komprimierung.

Es kann sein, dass man noch etwas mehr rausholen kann allerdings steigt die Rechenzeit dafür überproportional an. Sollten über die Komprimierung noch mal 5GB eingespart werden können, wird das ziemlich lange dauern bzw. zu sehr geringen Schreibraten führen. Den Effekt der erzwungenen Komprimierung kann ich nicht abschätzen.

Die Performanz beim Schreiben kann ich nicht wirklich bewerten, weil es sich um ein VPS handelt und die Performanz dort naturgemäß geteilt ist. Teilweise waren es 200MB, teilweise auch nur 50MB/s. Die Schreibgeschwindigkeit mit Komprimierung ist natürlich nicht so hoch wie z.B. bei ext4 ohne Komprimierung.

Die Frage ist was limitierend ist (wenn es die Schreibleistung der SSD / HDD ist, dann kann Btrfs schneller sein als ext4, wenn es die Rechenleistung des Prozessors ist, dann wird eher das Gegenteil der Fall sein, wenn man die Komprimierung verwendet).

Man möge mich korrigieren, wenn ich mit obigen Annahmen falsch liege aber meine Einschätzung der Daten oben deckt sich ca. mit der Ersparnis, sollte also richtig sein.

Ist Btrfs stabil?

Das wird die Zeit zeigen. Ich gehe im schlimmsten Fall das Risiko ein meine Backups zu verlieren. So lange ich nicht gleichzeitig die Originale kaputt mache, ist das Risiko begrenzt. Zumal ich bei dem SSD Server nun zusätzlich Snapshots anfertigen kann und somit (sofern ich denn vorher einen Snapshot erzeugt habe) auf diesen Stand zurückkehren kann. Das Risiko sollte also begrenzt sein.

Die Funktionen, die nicht stabil waren scheinen aber bereits vor zwei Jahren angepasst worden zu sein. Die Probleme bezogen sich auch primär auf Raid 5 / 6. Ich benutze kein Raid.

Aktuell konnte ich aber auch nicht erkennen, dass die Entwicklung voran getrieben wird oder zumindest kommunizieren die Entwickler das nicht. Die arbeiten offenbar eher im stillen Kämmerlein für sich selbst.

Somit sind die Guides alle nicht aktuell und vieles von dem was man dort findet ist veraltet. Einige Einstellungen sind überholt oder werden nicht mehr unterstützt.

Andersrum sind Werkzeuge wie die Deduplizierung nicht direkt integriert, sondern funktionieren über zusätzliche Tools, die oft auch mit nicht vertrauenserweckenden Kommentaren versehen sind (sollte funktionieren, sollte fehlerfrei sein). Der typische Informatikerkonjunktiv. Die Versionsstände sind oft alles andere als hoch 0.1x. Aber das muss alles nichts bedeuten. Bisher läuft es rund aber nach einer Woche ist das noch nicht viel Wert. 😉

Ein detailliertes How to zur Einrichtung von Btrfs in Kombination mit Luks Verschlüsselung habe ich ein einem separaten Blogpost erstellt.

Nachtrag 02.05.2020 – 22:00

Ich habe jetzt auch den Boot von Btrfs hinbekommen. Dafür habe ich mithilfe des Grubcustomizer einen neuen Booteintrag erzeugt und dort einfach die ID der Btrfs Partition angegeben und das entsprechende Subvolume. Die UUID bleibt immer die der Partition (auch wenn man Subvolumes adressiert!).

Beispieleinträge in der fstab:

UUID=f8fcb1ae-51b1-4ab2-b79d-66cf34ad77d9 /btrfs btrfs defaults,ssd,compress=zstd:1 0 0
UUID=f8fcb1ae-51b1-4ab2-b79d-66cf34ad77d9 /btrfs/ROOT/.snapshots btrfs defaults,ssd,compress=zstd:1,subvolid=422,subvol=/snapshots/ROOT_snaps 0 0

Was bedeutet das? Der Hauptknoten wird unter btrfs eingehängt. Alle untergeordneten Subvolumes werden dadurch automatisch gemountet. Der Zweite Eintrag mountet ein spezielles Subvolume auf /btrfs/ROOT/.snapshots. In der Subvolumehierarchie befindet sich das aber unter /snapshots/ROOT_snaps. Man muss immer aufpassen was Subvolumes und was Verzeichnisse sind. Im Verzeichnisbaum sieht das gleich aus.

Auch die Snapshotfunktion (zumindest das Anfertigen von Snapshots habe ich erfolgreich getestet).

Nachtrag 03.09.2020

Ich habe mittlerweile 2 Server komplett auf Btrfs umgestellt einschließlich dem ROOT Verzeichnis / Laufwerk. Somit spart man sich natürlich noch mal eine Kopie der Dateien und die Speicherung wird effizienter. Das setzt allerdings volles Vertrauen ins Dateisystem voraus.

Bisher hatte ich noch keine Probleme (auf Holz klopf), obwohl ich besonders den lokalen Sever auch schon mehrfach hart runtergefahren habe. Bei beiden Servern nutze ich keine Zusatzsoftware wie Timeshift / Backintime, sondern verwende die automatischen btrfs Snapshots über Snapper. Bei einem Server habe ich das Bootlaufwerk nicht umgestellt und nutze Btrfs nur für Backups mit Backintime und täglicher Deduplizierung.

Ich habe zwischenzeitlich auch noch Mal über ZFS nachgedacht aber die Deduplizierung funktioniert dort leider nur online und benötigt dann immens viel Speicher. Dazu kommt, dass Ubuntu zwar den Support eingebaut hat aber Tools wie gparted nach wie vor ZFS nicht anbieten. Das könnte man natürlich in der Kommandozeile lösen aber so lange mir Btrfs keinen Grund liefert, werde ich ZFS wohl nicht testen.

Weiterhin hat btrfs den Ruf nachträgliche Änderungen einfacher zu Unterstützen (z.B. Raidlevel), während bei ZFS ein Neuaufbau erforderlich ist. Bleibt noch die Aussage ZFS ist stabiler Aussage von einigen Leuten im Netz, die sich aber nicht objektiv untermauern lässt. Das hängt wohl auch immer von Versionen und Setup (z.B. Raid ja oder nein und wenn ja welcher Level) ab.

 

 

Ubuntu 20.04 LTS Focal Fossa Upradeerfahrungen [Kommentar]

Neu = gut?

Am 23.04 ist offiziell die nächste LTS Version von Ubuntu erschienen.

Da ich Ubuntu für meinen VPS nutze und beim letzten Update auf 18.04 der Prozess sehr rund verlief war ich – wie sich anschließend gezeigt hat – etwas zu optimistisch / mutig.

Der normale Prozess beim Release Upgrade ist bei Ubuntu über “sudo do-release upgrade” den Prozess zu starten. Das funktioniert aktuell noch nicht, wenn man von Ubuntu 18.04 LTS Bionic kommt. Das hat seine Gründe, wie ich festgestellt habe. Über sudo do-release upgrade -d kann man etwas nachhelfen.

Ich hatte zwar ein vollständiges Backup von 18.04 LTS aber ich hatte nicht ernsthaft damit gerechnet, dass ich es brauche. Allerdings habe ich damals bis zum ersten Patch gewartet und hatte auch deutlich weniger auf dem Server installiert.

Upgrade mit Überraschungen

Wie waren die Erfahrungen bei der Installation? Sehr durchwachsen. Je nach Zugriff auf den Installer (z.B. VNC auf einem VPS) kann ich nur davon abraten Detail / Vergleichsdialoge oder ähnliches aufzurufen. Man sollte sich auf simples ja / nein beschränken.

Teilweise werden Konfigurationdialoge ohne Rückfrage erzwungen und wenn man dann versucht sie zu verlassen wird das als Versuch gewertet das komplette Upgrade abzubrechen (bei mir z.B. mehrere LDAP Dialoge). Generell sollte der ganze Upgradeprozess robuster sein. Das mag aber auch auf andere Linux Versionen zutreffen.

An einer Stelle ich bei mir die Installation einer Endlosschleife gelandet, die ich nur durch Abbruch der Installation beenden konnte.

man path config
updating database manual page

Das scheint aber nicht ungewöhnlich zu sein oder spezifisch für Ubuntu 20.04. Trotzdem hat mein definitiv kein gutes Gefühl, wenn man die Installation abbrechen muss. Der Beim Versuch mit sudo apt upgrade das Upgrade fort zu setzten war DPKG durch einen Prozess geblockt. Ich habe den Prozess über kill <id> beendet. Anschließend lies sich sudo apt upgrade wieder starten und das Upgrade fortsetzen.

Darf es etwas weniger sein?

Nach der Installation waren diverse Pakete deinstalliert. Das hängt damit zusammen, dass z.B. FirewallD diverse andere Pakete voraussetzt. Auch der X2GOCLIENT verwendet teilweise diese Pakete. Diese Pakete werden teilweise durch neue Versionen mit anderen Namen ersetzt. Um also FirewallD auf den aktuellen Stand zu bringen muss vorher X2GO und FirewallD deinstalliert werden, dann die diversen alten Pakete runter, die neuen Pakete drauf und danach wieder X2GO und FirewallD.

Während des Installationsprozesses werden diverse Pakete entfernt (z.B. auch Webmin, das ist ein Cockpit zur Steuerung des Webservers). Neu installiert werden sie aber nicht alle. Ohne Backups ist das Upgrade also eine ganz schlechte Idee, weil Webmin bei mir z.b. auch nach der Neuinstallation nicht wieder richtig lief. Erst das Rücksichern der alten Ordner (auch die diversen Ablageordner muss man erst mal kennen – im Falle von Webmin zum Beispiel /etc/webmin, /var/webmin, /usr/shares/webmin/.

Empfohlene Variante? – lieber nicht

Die zweite Installationsvariante (sources bionic gegen focal tauschen und anschließend dist-upgrade ausführen) hat sich bei mir wegen diverser nicht erfüllbarer Abhängigkeitsbeziehungen in Endlosschleifen geendet. Deinstallation nicht möglich weil, x gebraucht wird, x hängt von y ab aber y kann nicht installiert werden. Das heißt bei dieser Variante zerlegt sich Ubuntu selber.

Bei Apache wurde ein Mod deinstalliert und die Konfiguration wird nun schärfer geprüft. Im Meinem Fall wurde der SSL Port für SSL / GNUTLS belegt (also doppelt), früher wurde wohl einfach der zweite Eintrag genutzt und ein Mod von Apache wurde beim Upgrade deinstalliert (Reparatur über a2enmod socache_dbm).

Zur Sicherheit habe ich auch OpenOTP auf dem Server (Token zusätzlich zur Passworteingabe was verhindert, dass sich jemand auf dem Server anmelden kann, der das PW erlangt hat). Das Problem ist noch auf meiner To-Do Liste. Offenbar gibt es Probleme bei der Kommunikation von LDAP und der PAM Anmeldung. Warum ist mir aber noch nicht klar.

Und Ubuntu 20.04 verursacht Probleme im Kontext GUI. Ich habe es bisher auf zwei VPS Servern von Contabo installiert (VPS SSD und HDD) und in beiden Fällen ist der Start der grafischen Oberfläche Gnome nicht möglich. Auch das Problem ist noch ungelöst.

Bei X2GO verhält sich Ubuntu auch anders. Ohne Root Rechte lassen sich einige Programme nicht mehr starten. Bei vielen Programmen macht das wenig bis keinen Sinn. Beispielsweise lässt sich die Konsole nur mit root Rechten öffnen. Dort muss man aber eh ein Passwort eingeben, um irgendwelche Aktionen durchzuführen. Was soll also diese Zusatzprüfung? Somit meldet man sich gleich als Root an, das ist viel schlimmer.

Stand heute ist der Upgradeprozess also eher im Beta oder Alphastadium aber definitiv nicht für produktive Server geeignet, wenn man kein Snapshot hat. Ich habe das System zwar mit einem Backup auf den Stand vor dem Releaseupgrade zurückversetzen können aber dabei muss man höllisch aufpassen bei einem Laufenden Linux oder gleich ein Rescue System nutzen, was aber auch diverse Probleme mit sich bringt (Stichwort Rechte).

Fazit und Ausblick

Nicht ohne Grund wird das Upgrade erst zum ersten Patch auf 20.04.1 angeboten.

Aktuell bieten die meisten auch keine focal Version an. Somit ist es durchaus angeraten einige Wochen / Monate zu warten.

Erste Tests zeigen, dass 20.04 unter bestimmten Rahmenbedingungen im Schnitt 25% schneller als 18.04. Wenn der Upgradeprozess also irgendwann mal rund läuft und die o.g. Probleme (GUI, LDAP, X2GO, Webadm) irgendwann behoben sind, ist das ein gutes Upgrade.

Einige Versionen in Ubuntu 20.04 waren ziemlich vorsintflutlich. Der Versionssprung ist teilweise dementsprechend groß.

Aktuell kann ich von einem Upgrade auf einem produktiven Server aber nur abraten. Wenn man es versuchen will ist ein Snapshot sehr hilfreich. Wenn man die Option nicht hat, dann benötigt man wenigstens ein Backup und einen Zugriff auf ein Rescue System.

Das ist eine Voraussetzung, an der man bei vielen VPS Anbietern bereits scheitert. In dem Kontext muss ich den Support und die Möglichkeiten bei Contabo loben (nein, ich bekomme für die Aussage kein Geld und wurde auch nicht von Contabo darum gebeten das zu erwähnen).

Man sollte nach meinen Erfahrungen auf eine Downtime von mindestens einem Tag planen und ggf. auch damit rechnen, dass man ein Backup zurückspielen muss. Das hängt natürlich individuell davon ab was auf dem Server alles läuft. Bei mir ist das schon einiges.

Nachtrag 1 27.04.2020 – 16:55

Das Problem mit OpenOTP wurde mir vom Support bestätigt. Wenn man die Zertifikatsprüfung zwischen Webadm und OpenOTP deaktiviert, dann geht es wieder (einfach den Zertifikatseintrag bei OpenOTP auskommentieren). D.h. das LDAP Problem ist noch mal ein anderes. Wobei mir aktuell nicht so ganz klar ist, ob das wirklich ein Problem ist. Das sieht eher nach einer Zusatzfunktion aus, die nur halb konfiguriert ist. Scheinbar ist das eine zusätzlich genutzte Variante (Authentifizierung von LDAP statt mit PW File), die mit Ubuntu 20.04 scharf geschaltet wird, obwohl ich die Konfiguration abgebrochen habe, da ich mit SLAPD bereits einen funktionierenden LDAP Server habe.

Das Problem der nicht aufrufbaren Konsole konnte ich umgehen, in dem ich einfach einen anderen Terminalemulator installiert habe (Terminator).

Somit bleibt noch das Problem bei der GUI in VNC, das ich bisher noch nicht lösen konnte (aktuell weiß ich aber auch nicht, ob dafür evtl. Anpassungen vom VPS Anbieter nötig sind). Somit sieht es nun nicht mehr so schlecht aus. Trotzdem ist Ubuntu 20.04 als Gesamtpaket noch recht experimentell.

Wie ich gerade festgestellt habe geht auch RDP noch nicht. Aber das war schon immer nicht so ganz stabil und kommt eigentlich auch aus der Windows Welt. Das muss also nicht zwingend mit Ubuntu 20.04 zu tun haben aber das es auch GUI Probleme gibt, ist die Wahrscheinlichkeit durchaus vorhanden.

Ein RDP Zugang ist aber immer dann hilfreich, wenn man einen grafischen Zugang aus der Ferne benötigt (zum Beispiel auf dem Handy oder Pad und funktioniert auch mit iOS Devices). Das Thema werde ich aber erst angehen, wenn die GUI funktioniert. X2Go, RDP und Gui verwenden X11 / XORG. Somit beeinflussen die sich gegenseitig.

Nachtrag 2 03.05.2020 – 8:30

Ein paar Nachwehen gibt es noch aber teilweise auch Sachen, die durch das Update erst aufgefallen sind aber schon vorher da waren (vermutlich bereits durch das 18.04.4 Update).

Aktuell stürzt NGINX reproduzierbar zu einer bestimmten Uhrzeit mit einem Coredump ab. Das hatte ich vorher noch nie. Da ich die Ursache anfangs noch nicht ermitteln konnte habe ich mir nun mit restart always im Service Eintrag beholfen. D.h. mitten in der Nacht ist Nginx für zwei Sekunden weg. Das sollte verschmerzbar sein.

Das Problem hängt scheinbar damit zusammen, dass NGINX neuerdings empfindlich darauf reagiert, wenn ein Host nicht erreichbar ist. Da ich Nginx im Proxymodus auf einem Apache 2 Server nutze und den Nachts für Zertifikatsupdates durchstarte, killt das den NGINX gleich mit (die Fehlermeldung in den logs besagt, dass der Upstream nicht verfügbar ist). Die Lösung ist eine Variable statt einer direkten Adressierung.

Die o.g. Probleme (Stand 27.04) sind nach wie vor vorhanden. Auch jetzt sind diverse Repositories noch nicht für Focal verfügbar.

Ich habe einen neuen VPS bei Contabo augesetzt mit einem frischen Ubuntu 20.04 – die GUI Probleme in VNC sind auch dort vorhanden. Ich habe diverse Guides im Netz befolgt und Ubuntu Desktop, Gnome Desktop und StartX Pakete installiert. Weiterhin habe ich den Displaymanager testweise gewechselt (gdm3 / lightdm). Keine Variante hat reproduzierbar funktioniert.

Einmal habe ich den Desktop zu Gesicht bekommen aber reproduzieren konnte ich es später nicht (plötzlich war er im VNC sichtbar, währen ich gerade im Terminal gearbeitet habe).

Das heißt irgendwie geht es aber ich habe nach mehreren Stunden basteln aufgegeben. Das ist bestenfalls Alphazustand. Zum Glück kommt man mit X2Go und Webmin i.d.R. Auch ohne die Linux Standard Gui zurecht.

Bei Webmin ist noch ein Problem hinzugekommen. Die CPU und RAM Monitore im Dashboard sind verschwunden.

Die Webmin Probleme sind auf dem frischen VPS nicht vorhanden. Wie ich festgestellt habe liegt das an den Einstellungen für den Befehl PS im Prozess Manager von Webmin. Entweder funktionierende Gauges für CPU / Ram (Einstellung Linux) oder die Prozessliste (andere Einstellungen z.B. HPUX). Beides zusammen geht nicht. Ich habe einen Bugreport bei Webmin dazu eröffnet.

In Summe kann man Ubuntu 20.04 bei einfachen Setups nutzen oder eben wenn man experimentierfreudig ist. Ansonsten sollte man auf 20.04.1 warten.

Nachtrag 3 03.07.2020

Die meisten Probleme konnte ich unterdessen einkreisen. Das Nginx Problem hatte ich ja bereits im letzen Update bedchrieben. Nginx reagiert unterdessen offenbar äußerst empfindlich darauf, wenn das Weiterleitungsziele zum Zeitpunkt des Nginx starts nicht verfügbar sind. Das lässt sich über dynamische Aufrufe beheben.

set $platzhalter1 https://<URL>:8082;
proxy_pass $platzhalter1;

Früher hat man einfach bei proxy_pass die URL direkt eingetragen. Durch die Variable prüft Nginx nicht beim Start, sondern beim Aufruf.

Die externen Repositories sind jetzt weitgehend (noch immer nicht alle) für Focal verfügbar.

Die Probleme mit Webmin lagen an einem Bug in Webmin, der im aktuellsten Entwicklungsstand behoben ist. Das ist also ein Fehler in Kombination von Webmin / Ubuntu 20.04

Die Desktop Probleme auf dem VPS waren / sind ein ganzes Sammelsurium von Effekten. Es wurden automatisch nicht alle Treiber installiert, die für die virtuellen Devices benötigt wurden. Somit musste ich Maus / Tastatur Treiber manuell nachinstallieren. Weiterhin funktioniert der Login Screen von GDM nicht auf dm VPS (bei einem Wechsel auf lightdm funktioniert der Login Screen).

Zusätzlich sind zwingend root Rechte erforderlich, damit der Ubuntu Desktop auf dem VPS startet. Die Standardlösungen, die man beim googeln findet helfen alle nicht. Auch ein Kontakt zum Support hat nichts gebracht. Offenbar sind die Probleme aber VPS bezogen also nur für einen überschaubaren Teil der Anwender relevant.

Wenn ich also den GDM service stoppe und mit sudo startx aufrufe, gibt es auch einen Desktop zu bewundern. Der automatische Start in die GUI funktioniert nach wie vor nicht. Auf einem Server kann man damit leben, da man die GUI in der Regel nicht so oft verwendet.

Bei einem Aufruf des Dektop per RDP gilt das gleiche – aktuell geht es nur mit ROOT Rechten.

Das OpenOTP Problem in Kombination mit Ubuntu wurde von dem Entwicklern mit der aktuellen Version behoben.

Montagsfrage: Habt ihr ein ’Comfort’-Buch?

Bei der Montagsfrage wird von lauter-und-leise jeden Montag eine Frage gestellt, die auf dem eigenen Blog zu beantworten ist. Diese Frage muss innerhalb einer Woche beantwortet werden.  An dieser Aktion nehmen diverse Blogs teil.

Die Montagsfrage ist umgezogen und hat nun endlich ein neues zu Hause. Bisher war die Montagsfrage bei Buchfresserchen angesiedelt und nun bei lauter-und-leise.

Letzte Woche habe ich primär die Maxton Hall Serie gelesen, die ich nun fast beendet habe und wirklich gut fand. Bei dem Inhalt hatte ich nicht damit gerechnet, obwohl ich vorher ein paar gute Rezensionen gelesen hatte. Manchmal ist es erstaunlich wie stark der Effekt eines guten Autors ist und Mona Kasten beherrscht ihr Handwerk wirklich gut.

Letzte Woche dachte ich mir, dass ich den Blog Server auf die aktuelle Version von Ubuntu (20.04) bringe – was kann schon schief gehen? Ich wurde eines besseren belehrt. Auch open Source Software wird offensichtlich immer bananenartiger an den Kunden ausgeliefert. Danach war der Blog dann 1,5 Tage offline und ich durfte das Backup von der Vorversion einspielen.

Als Folge wird der Blog jetzt wohl auf einen SSD Server umziehen. In der letzten Zeit war die Performance zwar ok, aber SSD sind nun mal viel Flotter als Festplatten und ermöglichen bei Contabo auch Snapshots. D.h. ich kann einfach einen Snapshot erstellen (z.B. vor der Installation von Ubuntu 20.04) und anschließend in wenigen Sekunden auf den vorherigen Stand zurückkehren. Der nachteil ist, dass deutlich weniger Speicherplatz fürs gleiche Geld geboten wird.

In den letzten Tagen muss ich öfter daran denken, dass ich letzte Jahr ungefähr zur gleichen Zeit den Pacific Crest Trail (PCT) begonnen hatte. Di ersten fast zwei Wochen lagen schon hinter mir. Wenn man sich überlegt, dass einem letztes Jahr die Welt noch “zu Füßen lag” (im Kontext PCT passt das wirklich gut), ist das schon irgendwie lustig. Diese Jahr wollte ich eigentlich an den PCT zurückkehren aber das hat sich wohl auch erledigt.

Ich bin zumindest froh letztes Jahr knapp 5 Monate gereist zu sein und froh, dass ich das nicht für dieses Jahr geplant hatte. Wer weiß wie und wann Freizeitparks wieder zu besuchen sind. Glücklicherweise habe ich letztes Jahr den besten weltweit einen Besuch abgestattet. Dieses Jahr stand ja eigentlich auch noch Japan auf dem Programm aber das war vor Corona.

Zur Frage:

Nachdem ich oben ziemlich viel geschrieben habe, wird es hier kürzer.

Ein comfort Buch im Sinne von – wenn ich einen schlechten Tag hatte, nehme ich immer wieder das Buch und lese es – gibt es nicht.

Ich habe eine Zeit lang man jeden Tag eine Folge son Star Trek Next Generation geschaut oder auf Luciver. Genauso habe ich eine Zeit lang jeden Tag Musik gehört. Beides hilft um runter zu kommen.

Wenn ich also kein Buch habe, dass ich als comfort Buch bezeichnen würde, so gibt es aber sehr viele Bücher an die ich denken muss, wenn ich den Begriff höre.

Exemplarisch sei die Harry Potter Serie genannt, die fast jeder kennt und die sich daher gut als Beispiel eignet. Es gibt aber diverse Bücher, die mir einfallen.

Ich meine zum Beispiel die Szenen bei denen sich direkt ein wohliges Gefühl einstellt. Harry und Freunde im Schlafraum oder Gemeinschaftsraum. Draußen stürmt, schneit order regnet es und drinnen ist der Kamin an und es werden Unterhaltungen geführt oder Pläne geschmiedet.

Die Große Halle zu Weihnachten, Hogsmeade zu irgendwelchen besonderen Anlässen oder die Wiesen um Hogwarts im Sommer?

Ihr wisst was ich meine?

Derartige Szenen gibt es aber in vielen Büchern. Ein Beispiel für eine Autorin, die comfort Bpcher schreibt ist Sabine Schulter.

Habt ihr comfort Bücher?

1 45 46 47 48 49 111