ubuntuusers.de

16. Mai 2021

Wenn ich aktuell unter Arch Linux die OSS-Version des Editor VS Code starten will, startet diese zwar, friert sofort ein, sodass man das Programm nur noch gewaltsam beenden kann. Die Lösung ist aber erfreulicherweise ziemlich einfach.

Öffnet man die Datei /usr/bin/code-oss mit einem Editor (vorzugsweise nicht VS Code ;-) ) sollte der Inhalt wie folgt aussehen.

ELECTRON_RUN_AS_NODE=1 exec electron11 /usr/lib/code/out/cli.js /usr/lib/code/code.js "$@"

Alles, was man machen muss, ist electron11 auf electron zu ändern. Danach sollte VS Code wieder normal starten.

Vermutlich handelt es sich hierbei um einen Bug seitens Arch Linux. VS Code benötigt als Abhängigkeit das Paket electron (aktuell Version 12). Mit diesem wird die Datei /usr/bin/electron installiert. Im Paket code wurde allerdings letzten Monat /usr/bin/electron auf /usr/bin/electron11 geändert (https://github.com/archlinux/svntogit-community/commit/412cf018280fd9b9f612eb84075354b9fe555af8). Vermutlich weil VS Code zu der Zeit noch von Version 11 von electron abhängig war. Und nach dem Update auf Version 12 wurde vermutlich vergessen es entsprechend anzupassen. Aber das ist nur eine Vermutung. Eventuell betrifft das Problem auch andere Distributionen (und ggf. auch die normale Version von VS Code)

15. Mai 2021

Die MZLA Technologies Corporation hat vor kurzem mit Thunderbird 78.10.1 ein Update für seinen Open Source E-Mail-Client veröffentlicht.

Neuerungen von Thunderbird 78.10.1

Mit dem Update auf Thunderbird 78.10.1 hat die MZLA Technologies Corporation ein Update für seinen Open Source E-Mail-Client veröffentlicht. Neben einer Fehlerbehebung schafft das Update auch eine als moderat eingestufte Sicherheitslücke für Nutzer einer Windows-Version älter als Windows 10 Build 1709 aus der Welt.

Der Beitrag Thunderbird 78.10.1 veröffentlicht erschien zuerst auf soeren-hentzschel.at.

14. Mai 2021

Die Veröffentlichung von Firefox 90 war ursprünglich für den 29. Juni 2021 vorgesehen. Nun hat Mozilla den Veröffentlichungstermin von Firefox 90 und allen nachfolgenden Versionen verschoben.

Zwischen neuen Feature-Updates von Firefox liegen normalerweise exakt vier Wochen. Bereits vor etwas mehr als einem Monat wurde entschieden, die Veröffentlichung von Firefox 89 und allen nachfolgenden Versionen um zwei Wochen nach hinten zu schieben. Nun kommt es zu einer weiteren Verschiebung: Auch zwischen Firefox 89 und Firefox 90 werden sechs statt der üblichen vier Wochen liegen. Neuer Veröffentlichungstermin für Firefox 90 ist damit der 13. Juli 2021.

Weiter wurde der Zeitraum zwischen Firefox 94 und Firefox 95 sowie zwischen Firefox 95 und Firefox 96 auf jeweils fünf Wochen angehoben.

Der Release-Kalender dieser Seite ist bereits an die neuen Daten angepasst.

Der Beitrag Mozilla verschiebt Firefox 90 erschien zuerst auf soeren-hentzschel.at.

Ein möglichst offenes und ein möglichst vertrauenswürdiges System widersprechen sich manchmal. Besonders deutlich wird dies beim Thema Verified Boot unter Linux.

Linux kennt mit LUKS/cm-crypt eine gute und sichere Verschlüsselungslösung. Man kann ein solchermaßen verschlüsseltes System sogar zusätzlich mit einem Hardware-Token wie z. B. einem YubiKey absichern. Doch woher weiß man beim Hochfahren eines Systems eigentlich, das man ein unverändertes System startet und nicht eine heimlich manipulierte Variante?

Ein sogenannter Verifizierter oder Vertrauenswürdiger Start (Verified / Trusted Boot) ist bei Mobilgeräten schon länger Standard. Der Ansatz ist – stark vereinfacht dargestellt – eine Vertrauenskette vom Bootloader, über die Boot-Partition bis hin zu den verifizierten System-Partitionen. Während des Systemstarts überprüft jede Stufe die Integrität und Sicherheit der nächsten Stufe, bevor sie übergibt. Erkennt das System eine Manipulation, führt es automatisch einen Rollback zur letzten verifizierten Version durch.

Klassische Desktop- oder Notebooksysteme kennen so etwas nicht. Das meist völlig ungesicherte BIOS erlaubt den Start von jedem beliebigen Medium und sofern man dabei nicht den Bootloader versehentlich zerstört, kann man so ziemlich alles mit dem System machen, was man möchte.

Apple hat das Prinzip des Verified Boot bereits vor längerer Zeit auf den Desktop gebracht mit den sogenannten T1/T2 Sicherheitschips. Der T1 brachte die Secure Enclave vom Mobilgerät auf das MacBook bzw. den iMac, der T2 brachte den sichereren Start.

Bei normaler Desktop-/Notebook-Hardware wäre so etwas theoretisch auch möglich. Microsoft hat vor einigen Jahren mit Secure Boot versucht, einige Schritte in diese Richtung zu unternehmen. Aus der ersten Debatte um diese Funktion hat sich leider in der Linux-Community das Gerücht gehalten, dass man Secure Boot immer deaktivieren sollte. Dabei funktionieren professionelle Linux-Distributionen schon lange mit Secure Boot (und alle anderen verwendet man sowieso nicht, wenn einem Sicherheit wichtig ist).

Alle heute verkauften Geräte haben zudem einen sogenannten TPM-Sicherheitschip (verdankt man den Basis-Anforderungen von Microsoft). Die neueste systemd-Version unterstützt nicht nur die Bindung der LUKS-Verschlüsselung an diesen TPM-Chip, sondern SUSE hat auch eine Implementierung von Trusted Boot für GRUB entwickelt (mehr Informationen dazu), die theoretisch mit dem TPM-Chip zusammen arbeitet.

Meiner Meinung nach sind das sinnvolle Schritte in die richtige Richtung. Wie immer stört das natürlich die Frickler und Bastler in der Community, aber wenn man im Bereich Sicherheit am Ball bleiben möchte, kann man diese Entwicklung nicht ignorieren.

Secure Boot ist unter openSUSE schon lange kein Problem mehr, mit der nächsten systemd-Version werde ich mein LUKS-Systemvolume auch an den TPM-Chip binden. Danach folgt dann TrustedGRUB/Trusted Boot aber hier scheint es noch wenige Erfahrungen und folglich auch wenige Bericht zu geben.

Der Artikel Verified Boot – Leerstelle unter Linux? erschien zuerst auf [Mer]Curius

Fr, 14. Mai 2021, Niklas

Bodhi Linux ist eine minimalistische Distribution, die ihre eigene Desktopumgebung Moksha auf Basis von Enlightenment 17 mitbringt. Die Distribution basierte in der letzten Version, 5.1 auf Ubuntu 18.04 LTS und wurde jetzt auf Ubuntu 20.04 LTS aktualisiert.

Das Highlight dieser neuen Version ist die Umgestaltung der Desktopoberfläche. Diese wirkt jetzt deutlich moderner, orientiert sich am Trend zu flachen Designs, aber ist nach wie vor in einem freundlichen, grünen Farbton gehalten.

Ein neues Design gibt es ausserdem auch beim Bootloader und dem Bootscreen. Auch das Anmeldeformular wurde überarbeitet und bringt einige neue Effekte mit.

Bodhi Linux ist in zwei verschiedenen Varianten verfügbar: Mit dem normalen Long Term Support Kernel in Version 5.4, der nur weitere Sicherheitsupdates, aber keine Funktionsupdates erhält und mit dem Hardware Enabled (HWE) Kernel, der alle 6 Monate grössere Updates bekommt und dabei auch neuere Treiber enthält, in Version 5.8.

Daneben gibt es auch eine AppPack Variante, die deutlich mehr vorinstallierte Software mitbringt und auch den LTS Kernel 5.4 nutzt. AppPack bringt die Office-Suite LibreOffice, die IDE Geany, das Bildbearbeitungsprogramm GIMP, den IRC Client HexChat, den Universalmessenger Pidgin, den FTP Client FileZilla, den Audio Player Audacious, den Media Player VLC, das Screencast-Programm Kazam und das Notizprogramm CherryTree.

In der normalen und der HWE Variante kann man Bodhi Linux als vollständig Bloatware-frei bezeichnen. Es bringt nur das mit, was absolut erforderlich für die alltägliche Arbeit ist. Dazu zählt der Webbrowser Chromium, der Text-Editor Leafpad, der Dateimanager Thunar, die Softwareverwaltung Synaptic und einige Enlightenment Programme wie das Terminal Terminology und der Bildbetrachter Ephoto.

Die Distribution ist für 64Bit x86 Geräte verfügbar und kann kostenlos von der Webseite des Projekts in Form eines ISO Abbilds heruntergeladen werden.

Quellen:

12. Mai 2021

Mi, 12. Mai 2021, Niklas

Heute hat die UBports Foundation die Version 17 von Ubuntu Touch, der Linux Distribution für Smartphones, veröffentlicht. Eine der wichtigsten Neuerungen dabei ist die Unterstützung für NFC auf verschiedenen Geräten, wie etwa dem Pixel 3a oder dem Volla Phone.

Neben den gewöhnlichen NFC Funktionen wird man Entwicklern auch die Möglichkeit geben, in ihren Apps NFC Tags zu lesen und zu schreiben. Ausserdem werde über Möglichkeiten nachgedacht, Informationen von passiven medizinischen Monitoren mittels NFC abzulesen.

Bei UBports wird aktuell noch an einer Umstellung auf das modernere Ubuntu 20.04 LTS als Basis für Ubuntu Touch gearbeitet. Im Zuge dessen hat man weitere Optimierungen des Betriebssystems erreicht, wie etwa eine Verlängerung der Akkulaufzeit und zuverlässigere Benachrichtigungen auf dem Pixel 3a sowie die automatische Anpassung der Bildschirmhelligkeit auf dem Volla Phone.

Auch die Kamera wurde bei der neuesten Aktualisierung erheblich verbessert. Das betrifft das Blitzlicht, den Zoom, die Drehung und die Fokussierung. Diese Optimierungen sind auf einer Vielzahl der unterstützten Geräte verfügbar, unter anderem auf dem OnePlus One und dem Sony Xperia X.

Die Tastatur wurde ebenfalls optimiert. Hier werden jetzt korrekte Wortvervollständigung bei den Tastaturlayouts Französisch (Schweiz) und Englisch (Dvorak) angezeigt. Ausserdem wurde das Umschalten des Tastatur-Editier-Overlays zwischen Auswahl- und Bewegungsmodus bei einem Doppeltipp zuverlässiger.

Die neue Version wird bei bestehenden Ubuntu Touch Installationen automatisch ausgeliefert. Wer Ubuntu Touch jetzt auf dem Handy installieren und ausprobieren will, kann es kostenlos von der Webseite des Projekts herunterladen.

Quellen:

Seit Januar ist mein privates Haupt-Arbeitsgerät ein HP EliteBook G7 440. Die Linux-Kompatibilität ist hervorragend und das Gerät für mich perfekt. Firmware-Updates kann man auch als Linux-Anwender machen.

Die lange Unterstützung mit Firmware-Aktualisierungen ist eine der Stärken von Business-Notebooks. Egal ob sie von Lenovo, Dell oder eben HP stammen. Ein nicht zu unterschätzender Vorteil, da sich auch in der Firmware Sicherheitslücken und Bugs befinden können.

In meinem Bericht zum Gerät bemängelte ich damals die fehlende Unterstützung durch LVFS/fwupd. Prinzipiell ist das zwar eine tolle Infrastruktur, aber bisher habe ich noch kein Gerät gefunden, das dadurch mit Updates versorgt wird. Weder das alte ThinkPad, noch eben das neue EliteBook. Lediglich der Dongle meiner Logitech-Maus hat damit tatsächlich mal ein Update spendiert bekommen.

Allerdings wollte ich das letzte „BIOS“-Update nun wirklich haben, weil es Probleme mit den Tasten zur Helligkeitssteuerung unter Linux beseitigt. Ein bisschen Recherche brachte mich nun dazu, dass es viel einfacher als gedacht sein kann.

Im „BIOS“-Menü gibt es eine Funktion „BIOS-Update“. Sofern das Gerät per Ethernet mit dem Internet verbunden ist, lädt die Funktion alle Firmware-Updates für die verbaute Hardware (UEFI, SSD, Thunderbold, Intel ME) automatisch herunter und installiert sie. Völlig egal was für ein Betriebssystem installiert ist. Damit natürlich auch für Linux-Nutzer. Die Warnung für Nutzer der BitLocker-Verschlüsselung kann man dabei getrost überspringen.

Damit ist das letzte Manko an dem Gerät im Linux-Einsatz für mich beseitigt. Allerdings ist es natürlich eine Erinnerung daran, wie viele Funktionen sich inzwischen in der Firmware eines Notebooks (vom Hersteller oft noch „BIOS“ tituliert) befinden. Ein nicht zu unterschätzender Aspekt, wenn man über Privatsphäre und Datenschutz in Kombination mit Betriebssystemen diskutiert.

Der Artikel HP EliteBook G7 – Firmware Updates unter Linux erschien zuerst auf [Mer]Curius

11. Mai 2021

Föderierte Systeme sind in einigen Kreisen gerade sehr angesagt. Das Konzept ist nicht neu, hat aber mit Matrix (Element), Mastodon und anderen Instanzen des Fediverse inzwischen neue prominente Vertreter. Hinsichtlich Datenschutz und digitaler Privatsphäre haben diese Systeme aber strukturelle Probleme.

Föderiert vs. Zentral

Föderierte Systeme sind das Gegenteil von zentralisierten Systemen, die von ihren Kritikern auch gerne als „Walled Gardens“ bezeichnet werden. Zentralisierte Systeme werden so bezeichnet, da in ihrem Kern eine zentral verwaltete Serverinfrastruktur steht, über welche die beteiligten Clients miteinander kommunizieren. Das System nutzen nahezu alle proprietären Dienste, aber auch freie Systeme wie Signal.

Föderierte Systeme bestehen dagegen aus einem Netz unabhängiger Server, auf denen dieselbe bzw. eine kompatible Software läuft, die miteinander kommunizieren und gewissermaßen ein Netz bilden. Das System kennt eigentlich jeder Anwender, da die E-Mail so funktioniert. Praktisch gesagt: Während man von WhatsApp zu Signal keine Nachricht schreiben kann, geht das von GoogleMail zu Posteo natürlich schon. Im Messenger-Bereich ist es auch nichts wirklich neues, denn XMPP („Jabber“) funktioniert ebenfalls nach diesem System.

Ein föderiertes System ist beim Aspekt der Unabhängigkeit vom zentralen Anbieter unschlagbar. Es wird deshalb vor allem von Befürwortern der digitalen Souveränität gerne hervorgehoben. Bei zentralisierten Systemen wie z. B. Signal hängt alles vom zentralen Betreiber ab. Schaltet Signal seine Server ab, ist das Kommunikationsnetz Signal Geschichte. Die Serversoftware ist zwar quelloffen, aber ein neuer Betreiber könnte nicht automatisch an die Stelle des ehemaligen zentralen Betreibers treten.

Risiken offener Protokolle

Ein grundlegendes Risiko dieser offenen Protokolle zeigt schon ein Blick auf die Geschichte von XMPP. Ist die Entwicklung noch jung, gibt es meist nur einige wenige Clients und eine Serversoftware. Die Zahl der Betreiber und Nutzer ist ebenso noch recht gering. Neue Funktionen und Änderungen am Protokoll werden schnell verteilt und erreichen schnell alle beteiligten Anwender.

Mit der Zeit differenzieren sich die Softwarelösungen aber immer mehr aus. Genau das finden die Befürworter solcher Systeme ja auch gut. Änderungen und sinnvolle Weiterentwicklungen brauchen immer mehr Zeit, um alle Beteiligten zu erreichen. Es wird immer mehr zurückhängende Instanzen geben und Inkompatibilitäten im Netzwerk.

Ein Beispiel dafür ist die Einführung von OMEMO bei XMPP, die bis heute nicht alle Clients erreicht hat. Ein anderes Beispiel ist die klassische E-Mail, wo immer noch nicht alle Server standardmäßig Transportverschlüsselung anbieten. Kunden von Posteo konnten vor einigen Jahren einstellen, dass eine E-Mail nicht verschickt wurde, wenn die Gegenseite keine Transportverschlüsselung gewährleistete. Das waren insbesondere in der Anfangszeit ganz schön viele, ist mit der Zeit aber natürlich weniger geworden.

Systembedingte Probleme

Die Zeit kann aber nicht alle Probleme lösen. Einige Schwierigkeiten sind systemimmanent und können nicht sinnvoll überwunden werden. Sobald man Matrix nutzt, ist man Teil des föderierten Netzwerkes. Die einzelnen Instanzen müssen miteinander Daten austauschen können, da man ansonsten nur mit anderen Anwendern des Servers kommunizieren könnte, auf dem man selbst registriert ist.

Während man bei einem zentralisierten Anbieter wie Signal nur einem Anbieter vertrauen muss, bedarf der Einsatz von Matrix Vertrauen in alle Anbieter von Matrix-Serverinfrastruktur. Das ist umso gefährlicher, weil Metadaten-Vermeidung strukturell bei verteilten Infrastrukturen aufgrund der Einbeziehung vieler Server und Clients schwierig ist.

Ein paar praktische Beispiele: Alle an einer Kommunikation beteiligten Matrix-Server speichern beispielsweise theoretisch unbegrenzt die komplette Kommunikation. Umso bedenklicher, da einige Clients des heterogenen Ökosystems (siehe Nachteile solcher Netzwerke oben) wie KDEs NeoChat nicht mal Verschlüsselung beherrschen. Gleichwohl würde das sowieso nur die Inhalte und nicht die Metadaten schützen. Man kann Nachrichten zwar löschen, aber technisch handelt es sich dabei lediglich um eine Art „Löschwunsch“ an andere Server, ob diese das auch umsetzen, entzieht sich der Kontrolle.

Der Homeserver, auf dem man sein Konto angelegt hat, speichert zudem noch deutlich mehr: Kontaktliste, Mitgliedschaften in Gruppenchats, Nachrichtenverläufe usw. Diesem Betreiber muss man extrem vertrauen. Allerdings hat man hier wenigstens ein wenig Steuerungsmöglichkeit.

Nicht das Ende der Probleme

Dabei handelt es sich noch nicht mal um das Ende der Fahnenstange. Es gab im Gegensatz zu Signal oder Threema keinen Audit der kompletten Infrastruktur, sondern nur 2016 der E2E-Verschlüsselungslösung. Die Implementierung von E2E-Verschlüsselung in den Clients steht noch auf einem ganz anderen Papier. Oft ist ja nicht die Verschlüsselung das Problem, sondern die Umsetzung im Client. Ein Problem das vor allem bei so heterogenen Ökosystemen natürlich zum Problem wird, weil man nicht weiß was die anderen Beteiligten für Software nutzen.

Die Finanz- und Entwicklungsstruktur der zentralen Bausteine sind auch kein Beispiel für Transparenz. Matrix bzw. Element (ehm. Riot) wird primär von der New Vector Ltd. entwickelt. Eine Firma, die nicht gerade die transparenteste Finanzsituation hat. Hier ist man gegenüber Signal oder auch Telegram nicht im Vorteil.

Alles schlecht? Nein, aber die falsche Außendarstellung

Sind föderierte Kommunikationssysteme im Allgemeinen und Matrix im Speziellen deshalb schlecht? Nein! Zumindest wenn man die richtige Perspektive wählt und keine falschen Erwartungen weckt.

Zentrale Systeme haben Nachteile, weil man sich abhängig von einem Betreiber macht. Im Hinblick auf eine digitale Souveränität des Individuums, kleiner Gruppen, Firmen oder gar Staaten können föderale Systeme einen Ausweg bieten. Je nach Anforderungen und Wünschen ist das ein interessantes Angebot.

Das hat aber alles nichts – wirklich gar nichts – mit Datenschutz und digitaler Privatsphäre zu tun! Wer bei dieser langen Liste von Defiziten und Problemen zum aktuellen Zeitpunkt Matrix als Privatsphären- und Datenschutz-freundliche Alternative zu Signal oder Threema bewirbt, hat ganz gewaltige Scheuklappen auf. Ich finde es erschreckend wie viele Kommentatoren sich hier vom Begriff der digitalen Souveränität und dem Open Source-Charakter blenden lassen.

Der Artikel Föderierte Messenger – Konzeptionelle Probleme am Beispiel Matrix erschien zuerst auf [Mer]Curius

Das Ikhayateam von ubuntuusers.de hat mein Blog im Planet aufgenommen. Vielen Dank für die Ehre.
Mein Name ist Andreas und ich nutze Ubuntu GNU/Linux seit 2005 auf meinen Computern. In der Linux-Community bin ich auch als waldstepper bekannt.

Ich schreibe unregelmäßig über Meine Erfahrungen mit Linux in meinem Blog. Ich wünsche euch viel Spaß beim Lesen meiner Artikel.

Di, 11. Mai 2021, Ralf Hersel

Kürzlich habe ich einen meiner beiden Haupt-Rechner von Ubuntu 20.10 auf Manjaro 21.0.3 umgestellt. Dem gingen monatelange Tests in virtuellen Maschinen und auf alter Hardware voraus. Trotz der vielen Tests, ist man nie vor Überraschungen gefeit. Manjaro ist eine sehr gute GNU/Linux-Distribution, die ich jedem, der ein wenig Linux-Erfahrung hat, ans Herzen legen kann. Bei einem Punkt bin ich jedoch an meine Grenzen gestossen; nämlich dem Einbinden von externen Laufwerken über das Netzwerk.

Wer regelmässig GNU/Linux.ch liest, weiss, dass ich eine 2 GB M2-SSD an einem Raspi4 als Fileserver betreibe. Dieser Massenspeicher soll auf allen Rechnern automatisch beim Systemstart gemountet werden.

Ein Eintrag in der /etc/fstab funktionierte bei meiner Manjaro-Installation nicht auf Anhieb. Die Zeile in der /etc/fstab sieht dabei wie folgt aus:

192.168.1.49:/mnt/nas /mnt/nas nfs defaults,auto,_netdev 0 0

Nach einem manuellen mounten mit sudo mount -t nfs 192.168.1.49:/mnt/nas /mnt/nas oder dem Einbinden des zuvor in der /etc/fstab eingetragenen Mountpoints mithilfe von sudo mount /mnt/nas, wurde das NFS-Share gemounted. Nicht jedoch nach einem Neustart des Systems. Denn zusätzlich musste der SystemD-Dienst namens NetworkManager-wait-online.service aktiviert werden, durch den sichergestellt wird, dass die Netzwerkverbindung verfügbar ist, bevor versucht wird das angegebene Share zu mounten:

systemctl enable NetworkManager-wait-online.service

Alternativ besteht die Möglichkeit den Mount in einer SystemD-Unit zu definieren.

Das Verzeichnis, in das die Freigabe gemountet werden soll muss, bei der oben beschrieben Einbindung via /etc/fstab sowie bei der Nutzung eigener SystemD-Mount-Units bereits existieren oder kann mit Root-Rechten angelegt werden, z.B.:

sudo mkdir /mnt/nas

Im Verzeichnis /etc/systemd/system/ legt man eine Datei an, nämlich mnt-nas.mount. Wichtig dabei ist, dass der Dateiname dem Pfad des Mountpoints entspricht. Beispiel: der Mountpoint /mnt/nas erfordert den Dateinamen mnt-nas.mount.

So sieht der Inhalt der Datei (in meinem Fall) aus:

mnt-nas.mount

[Unit]
Description=Raspi4 M2 SSD Mount

[Mount]
What=192.168.1.49:/mnt/nas
Where=/mnt/nas
Type=nfs
ForceUnmount=true

[Install]
WantedBy=multi-user.target

Nachdem diese Datei angelegt wurden, sollte man mögliche gleichlautende Einträge aus der /etc/fstab entfernen, um unliebsame Nebenwirkungen zu vermeiden. Aber Achtung, hier geht es nur um Netzwerklaufwerke, nicht um die eingebauten Platten. Bitte nicht den gesamten Inhalt der /etc/fstab löschen!

Dann gilt es SystemD mitzuteilen, was Sache ist.

sudo systemctl enable mnt-nas.mount 

Durch die obige Konfiguration wird das Share automatisch beim Systemstart eingebunden. Auch hierbei muss wie zuvor beschrieben der NetworkManager-wait-online.service aktiviert werden.

Alternativ kann automount genutzt werden, wobei das Share dann nur eingebunden wird, sobald darauf zugegriffen wird.

Dazu erstellt man zusätzlich zu der SystemD-Mount-Unit eine automount Definition in /etc/systemd/system

Der Dateiname muss ebenfalls dem Mount-Pfad entsprechen, in meinem Fall mnt-nas.automount

[Unit]
Description=Raspi4 M2 SSD Automount

[Automount]
Where=/mnt/nas

[Install]
WantedBy=multi-user.target

Daraufhin muss die möglicherweise zuvor aktivierte mount Definition deaktiviert werden und die obige automount Unit aktiviert werden:

sudo systemctl disable mnt-nas.mount
sudo systemctl enable mnt-nas.automount

Auch auf einem Notebook, welches zur Bootzeit nicht direkt eine WLAN-Verbindung zum Netzwerk aufbauen kann, funktioniert die automount Methode mit den zwei SystemD-Unit-Dateien einwandfrei.

Ein herzlicher Dank geht an Lioh für ihre unschätzbare Hilfe beim Ausprobieren der verschiedenen Möglichkeiten.

Quelle: https://wiki.archlinux.org/title/NFS#As_systemd_unit

10. Mai 2021

Über World of Padman las man lange nichts hier bei Zockertown.

Aus gegebenen Anlaß will ich das hier nachholen.

Wann war eure letzte Lan Party? Sicherlich einige Jahre her, oder?​

Auf meiner lezten Lan Party war auch die eine oder andere WoP Session drin.

Schön zu lesen, dass sich das alte Team wieder aufgerafft hat und wieder an die Arbeit geht!

worldofpadman.net/news/wop-team-back-in-action

Ich liebe diesen Fun Shooter über alle Maßen. Wenn es hier Neues gibt, schreibe ich das hier.

Über World of Padman las man lange nichts hier bei Zockertown.

Aus gegebenen Anlaß will ich das hier nachholen.

Wann war eure letzte Lan Party? Sicherlich einige Jahre her, oder?​

Auf meiner lezten Lan Party war auch die eine oder andere WoP Session drin.

Schön zu lesen, dass sich das alte Team wieder aufgerafft hat und wieder an die Arbeit geht!

worldofpadman.net/news/wop-team-back-in-action

Ich liebe diesen Fun Shooter über alle Maßen. Wenn es hier Neues gibt, schreibe ich das hier.

In diesem Beitrag dokumentiere ich eine Lösung für die Meldung: „554 5.7.1 REJECT policy violation – too many different Display Names – code #242 (in reply to end of DATA command)“

Umgebung

Ich betreibe einen Virtual Private Server (VPS) im Internet, sowie einige Raspberry Pis und weitere Geräte, die man heute wohl am ehesten dem Internet der Dinge zuordnen würde.

Diese Systeme sollen mir Systemmeldungen per E-Mail senden. Dafür habe ich mir ein günstiges E-Mail-Postfach bei Mailbox.org gebucht und auf den betroffenen Systemen Postfix installiert und zum Versand über einen Smarthost konfiguriert. Die Konfiguration erfolgte über die Ansible-Rolle relaymail von Yannik. Diese dient jedoch nur als Werkzeug. Die Konfiguration kann selbstverständlich auch manuell durchgeführt werden.

Problembeschreibung

Bei einer Systemüberprüfung fielen mir einige Fehlermeldungen der folgenden Art ins Auge (einige Werte durch <Platzhalter> ersetzt):

„<Hostname und IP-Adresse> said: 554 5.7.1 id=<ID> – Rejected by next-hop MTA on relaying, from MTA(smtp:[<IP-Adresse>]:10025): 554 5.7.1 REJECT policy violation – too many different Display Names – code #242 (in reply to end of DATA command)“

Weitere Informationen zu dieser Meldung und deren Ursache finden sich im Mailbox.org-Benutzerforum in: „mailbox.org als smtp Relay nutzen“

Während meine Raspberry Pis mit Raspbian GNU/Linux 10 (buster) und Postfix 3.4.14-0+deb10u1 sich wie erwartet verhalten und lediglich meine E-Mail-Adresse in das Header-Feld „From“ eintragen, fügt mein VPS mit Debian GNU/Linux 10 (buster) und Postfix 3.4.14-0+deb10u1 den Namen des jeweiligen Benutzers bzw. Dienstes mit ein, welcher die E-Mail versenden möchte. Diese Informationen nimmt der VPS aus dem Kommentarfeld der /etc/passwd. Während die Kommentarfelder auf meinen Raspberry Pis leer sind, sind diese auf dem VPS entsprechend gefüllt.

Im E-Mail-Header stellt sich das dann wie folgt dar.

Header-Auszug bei E-Mail von Raspberry Pi

Date: Mon, 10 May 2021 04:56:32 +0200 (CEST)
From: no-reply@example.com

Header-Auszüge bei E-Mails vom VPS

From: no-reply@example.com (Cron Daemon)
To: root
Date: Mon, 10 May 2021 04:44:12 +0200 (CEST)
From: Jörg Kastning <no-reply@example.com>
Date: Mon, 10 May 2021 04:44:36 +0200 (CEST)
From: root <no-reply@example.com>

Lösung

Um das Problem aufzulösen, lasse ich nun Postfix das Header-Feld „From“ umschreiben und explizit auf den Wert no-reply@example.com setzen. In der /etc/postfix/main.cf müssen dazu folgende Zeilen vorhanden sein:

sender_canonical_classes = envelope_sender, header_sender
sender_canonical_maps =  regexp:/etc/postfix/sender_canonical_maps
smtp_header_checks = regexp:/etc/postfix/header_check

Inhalt der /etc/postfix/sender_canonical_maps:

/.+/    no-reply@example.com

Dies sorgt dafür, dass Postfix das Feld „Envelope-From“ explizit auf no-reply@example.com setzt.

Inhalt der /etc/postfix/header_check:

/From:.*/ REPLACE From: no-reply@example.com

Hiermit wird der Wert des Header-Felds „From“ explizit auf no-reply@example.com gesetzt. Die Lösung habe ich hier gefunden. Damit läuft der Versand meiner Systembenachrichtigungen wieder.

Weitere Artikel zu Postfix und Smarthosts in diesem Blog

9. Mai 2021

Wir erheben nur Metadaten“ – Wie oft hat man diesen Satz in den letzten Jahren gehört. Dabei sind Metadaten das wahrlich interessante und Metadaten-Vermeidung, die hohe Kunst. Dieser Aspekt ist leider in der Praxis oft immer noch im toten Winkel der Debatte.

Definition: Metadaten oder Metainformationen sind strukturierte Daten, die Informationen über andere Daten enthalten. Das kann ganz unterschiedliche Bereiche umfassen. Im hier behandelten Kontext meint es Informationen wie Wer, wann, wo, mit wem, worüber usw.

Ein lange bekanntes Problem

Bei jeder Novelle der Überwachungsgesetze und bei jedem Skandal um Telemetrie-Datenerhebung durch Firmen kommt zuverlässig das Argument, dass man nur Metadaten sammeln würde und die Inhalte nicht tangiert wären. Die meisten Menschen sind dann beruhigt, weil sie glauben, ihre wahrhaft sensiblen Daten wären weiterhin geschützt. Weit gefehlt!

Für einen Einstieg in die Materie empfiehlt sich immer noch ein Artikel auf netzpolitik.org von 2014: Wie dein unschuldiges Smartphone fast dein ganzes Leben an den Geheimdienst übermittelt. Ergänzend dazu ein Bericht der SZ von 2014 was sich aus Telefonüberwachung ableiten lässt: Die Lüge von den Metadaten. Wohin die Sammlung von Metadaten führen kann, hat die ZEIT 2015 eindrücklich dargelegt: BND speichert 220 Millionen Telefondaten – jeden Tag.

Die Berichte entstammen der Hochphase der Globalen Spionage- und Überwachungsaffäre, aber der Sachverhalt hat sich seitdem kaum geändert. Immer noch sammeln Firmen und Geheimdienste systematisch Metadaten, immer noch beschwichtigen Politiker und immer noch glauben die meisten Menschen, ihre Kommunikationsinhalte wären das wirklich schützenswerte.

Das ist verständlich, weil die Inhalte vermeintlich unsere Vorlieben, Interessen, Ziele, Wünsche und Träume enthalten, aber unsinnig, denn die Kommunikationsinhalte sind bei den meisten Menschen völlig uninteressant und ohne Kontext auch meistens wenig aussagekräftig. Wirklich interessant für Firmen und den westlichen Überwachungsstaat sind die Metadaten. Denn sie geben Auskunft über Bewegungsprofile, Netzwerke und Verbindungen.

Zumindest gegenwärtig lassen sich Metadaten auch immer noch leichter automatisiert auswerten als Video-, Sprach- oder Textinhalte. Wobei angesichts der Fortschritte in der automatischen Spracherkennung und Inhaltserschließung das bald hinfällig sein könnte.

Wir erzeugen mehr und nicht weniger Metadaten

Die oben referenzierten Artikel sind alle 6-7 Jahre alt. Damals wurde nur das Bewegungsprofil, Internet, WhatsApp und E-Mail berücksichtigt. Smart Watches, intelligente Fitness-Armbänder, Smarte Lautsprecher, Smarte Autos – all diese Entwicklungen waren noch nicht so weit wie heute. Das Ausmaß der genutzten Dienste und die Zahl der Sensoren im Smartphone hat seitdem somit definitiv noch zugenommen.

Im Unterschied zu den Inhalten kann man Metadaten nicht vermeiden, indem man selbst ein bisschen verschlüsselt und ein wenig sensibler im Umgang mit seinen Daten ist. Möglicherweise ist das Thema auch deshalb so wenig im Fokus, weil es ein Ohnmachtsgefühl auslöst. Bei den Inhalten kann der Einzelne aktiv werden und zu wirkungsvoller Verschlüsselung greifen. Dabei gibt es erfolgversprechende Verfahren, bei denen wir mit großer Wahrscheinlichkeit davon ausgehen könnten, hinterher unsere Inhalte effektiv geschützt zu haben.

Um Metadaten zu reduzieren, hilft es nur Dienste zu nutzen, die genau diese Daten vermeiden. Mit ein bisschen Verschlüsselung seiner Dateien im kommerziellen Cloud-Dienstleister oder der Inhalte seiner E-Mails beim gleichen Anbieter kommt man da nicht weiter.

Umdenken nicht in Sicht

Eine komplette Änderung alle Gewohnheiten und Dienste kann man von niemandem verlangen. Bei neuen Diensten oder Geräten sollte man diesen Faktor aber endlich berücksichtigen. Die Erkenntnis wie wichtig und gefährlich Metadaten sind, ist schließlich alt genug.

Es gibt gute und verbreitete Dienste, die sich zumindest des Problems angenommen haben. Die Signal-Entwickler beschäftigen sich seit Jahren mit der Reduzierung und Vermeidung von Metadaten. Bei Threema hat man dieses Problem auch immer beachtet. Wer freie Software bevorzugt, hat ebenfalls Alternativen: Die Vermeidung von Metadaten als Konzept gilt auch für den besonders sicheren Messenger Briar.

Viele andere Dienste tun dies nicht. Einerseits weil die Vermeidung von Metadaten kompliziert ist, andererseits weil es bei vielen Entwicklern keine Priorität hat. Das gilt natürlich für viele kommerzielle Dienste, aber auch für die neuen Lieblinge der verschränkten FOSS/Datenschutz-Community.

Die neuen föderierten Messenger (z. B. Delta Chat / Matrix) sind strukturell bedingt genau so ungeeignet für die Vermeidung von Metadaten wie XMPP und E-Mail vor ihnen. Die Vernetzung eines föderierten Systems benötigt einfach systembedingt Metadaten und bringt einen Kontrollverlust mit sich, weil man den Serverbetreibern vertrauen muss.

Vor allem den Hype um die neuen föderierten Protokolle kann ich unter diesem Gesichtspunkt nicht verstehen. Hier werden zu offensiv Konzepte vermischt, die sich nicht immer vertragen: Digitale Souveränität und Datenschutz. Man mag auf die alten Protokolle, wie beispielsweise die E-Mail, nicht verzichten können, aber muss doch nicht sehenden Auges im Bewusstsein der hier beschrieben Problematik neue Protokolle etablieren, die genau die gleichen strukturellen Probleme haben.

Zusammengefasst

Metadaten sind das wirkliche Problem. Sie sind für alle Feinde unserer digitalen Sicherheit und unserer Privatsphäre interessant, wir erzeugen immer mehr davon und das Problem steht zu wenig im Fokus. Verschlüsselung ist nett und so lange sie mit wenig Aufwand zu realisieren ist, auch ratsam – sie geht aber am Kernproblem vorbei. Das gilt auch für die neuen gehypten Dienste.

Der Artikel Metadaten – Immer noch zu wenig beachtet erschien zuerst auf [Mer]Curius

Fail2ban kann genutzt werden um Server gegen unbefugte Logins zu sichern. Dabei durchsucht Fail2ban die entsprechenden Logs und blockiert böswillige Versuche in das System einzubrechen. Damit gehört Fail2ban zu den Intrusion Prevention Systemen.

Manchmal kommt es allerdings vor das eine IP-Adresse gesperrt wird, welche nicht gesperrt werden sollte. Problematisch ist dies z.B., wenn es die eigene IP-Adresse ist. Der Fail2ban-Client bietet hierfür eine Operation an um IP-Adressen wieder zu entsperren:

fail2ban-client unban 192.168.1.2

Damit wird die entsprechende IP-Adresse von der Sperrliste gelöscht und die Firewall-Regel entfernt. Anschließend ist besagte IP-Adresse wieder in der Lage auf den Server zuzugreifen.

8. Mai 2021

Audacity soll nach der Übernahme durch die Muse Group Telemetriefunktionen erhalten. Ein Kommentar über den Sinn und Unsinn solcher Funktionen, Diskussionen und Übernahmen von Open Source-Projekten.

Vor einigen Tagen ging die Meldung durch den Ticker, dass die Audiobearbeitungssoftware Audacity (Link zu audacityteam.org) durch Muse Group gekauft wurde. (LinuxNews und heise.de berichteten). Ich war über diese Meldung etwas überrascht, weil es etwas seltsam ist, ein OSS-Projekt zu „kaufen“. Die Software an sich ist GPLv2-lizenziert und ansonsten lässt sich lediglich eine US-Wortmarke finden. Ich konnte nicht einmal eine deutsche/europäische Marke hierzu ausfindig machen. Es geht bei dem Vorhaben der Muse Group sicherlich eher darum, den Einfluss auf die Entwicklung von Audacity auszubauen, um das eigene Produktportfolio zu erweitern.

Tantacrul hat diesbezüglich ein 15-minütiges Video zu seinen neuen Aufgaben erstellt, das auf YouTube verfügbar ist.

Es ist sehr zu begrüßen, dass ein Unternehmen die Mittel bereitstellt, eine Software wie Audacity weiterzuentwickeln. Ein Vorteil von kommerziell getriebener Entwicklung ist es, dass Leute dafür bezahlt werden, die unschöne, aber nötige Arbeit zu erledigen, um die Qualität beim Gesamtprodukt zu steigern. Auf der anderen Seite tauchen natürlich bei einer solchen „Übernahme“, die sich bei so einem Projekt immer noch ungewohnt anhört, Befürchtungen auf, dass Interessenkonflikte zu einer Strategieänderung bei der Entwicklung führen. Darüber hinaus ändert sich mitunter die Kultur der Entwicklung und die Gemeinschaft wird mit neuen Vorstellungen konfrontiert.

Dass es irgendwann Krach gibt, habe ich nicht ausgeschlossen. Dass es aber so schnell geht, hätte ich auch nicht gedacht. Am Dienstag, dem 04. Mai wurde ein Pull Request eröffnet, der den Namen „Basic telemetry for the Audacity“ trägt. Zum Zeitpunkt, an dem ich diesen Artikel hier schreibe, umfasst der Diskussionsthread schon über 850 Beiträge und wurde als „Draft“ zurückgestuft. Bei diesem offenbar kontrovers diskutierten Thema geht es darum, Audacity Telemetriefunktionen zu verpassen.

Ich könnte jetzt mit euch die konkreten Änderungen Stück für Stück auseinander nehmen, aber die dort verknüpften GitHub-Kommentare (besonders die Emojis) sprechen für sich. Alle, die einen C++-Hintergrund haben und CMake kennen, können sich die Implementierung zu Gemüte führen. Ich werde an geeigneter Stelle vereinzelt darauf eingehen.

Ein Glaubenskrieg

Telemetrie ist immer ein heikles Thema, besonders in der Open-Source-Welt. Hierbei geht es darum, die Nutzungsweise der Software an eine zentrale Stelle, dem Hersteller, zu melden, damit dieser Schlüsse daraus ziehen kann. Geht man noch einen Schritt weiter zurück, geht es darum, die Nutzung der Software messbar zu machen. Dies ist besonders im Management beliebt, da es Außenstehenden die Möglichkeit gibt, die Nutzung der Software zu analysieren und die Entwicklung zu regeln. Fragen wie „Entwickle ich an der richtigen Stelle?“, „Wollen die Nutzer das?“ oder „Haben wir genug Nutzer?“ sollen damit beantwortet werden.

In der vollen Ausbaustufe gleicht die Telemetrie einer Bildschirmaufnahme, bei der jeder Klick, jede Eingabe und jede Ausgabe an den Hersteller versendet werden. Das alles ist bei dem oben genannten Pull Request nicht der Fall, wie das Team nachdrücklich beteuert. Datenschutzrechtliche Aspekte lasse ich in dieser Betrachtung erst einmal außen vor, weil diese Diskussion das eigentliche Problem verschleiert.

Das Problem an diesem gesamten Umstand mit der Telemetrie ist, dass FOSS, also freie, offene Software, vom „mündigen Anwender“ ausgeht. Ich habe dieses Thema schon mal im Blog thematisiert. Dabei wird eine sehr aufgeklärte Weltanschauung vertreten: hat ein Anwender ein Problem, meldet er sich in einem Issue Tracker oder der Mailing Liste. Nur hat dieses Wunschdenken nichts mehr mit der Realität zu tun, vor allem, wenn die Zielgruppe nicht größtenteils aus Softwareentwicklern besteht, die diese Verfahrenswege kennen. Jetzt gibt es zwei Möglichkeiten: entweder auf das Feedback verzichten oder andere Wege finden, die Metriken zu erheben. Die Metriken sind zudem nur dann aussagekräftig, wenn sie eine repräsentative Nutzermenge abbilden - ergo: man müsste sie bei allen erzwingen.

Erschwerend kommt bei Audacity dazu, dass wir es hier mit einer Offline-Anwendung zu tun haben. Ist man es bei Webseiten gewohnt, dass die Inanspruchnahme von solchen zwangsläufig Verkehrsdaten erzeugt (seien es die Browserhistory, Logfiles auf dem Server, Analytics, o. ä.), so erwartet man bei lokaler Software nicht, dass diese „nach Hause telefoniert“. Zumindest früher.

Genau das soll bei Audacity jetzt allerdings passieren. Hierzu wurde extra die cURL-Bibliothek in den Source Tree eingefügt, was nebenbei noch eine komplett neue Abhängigkeit mit sich bringt. Diese Abhängigkeit wurde sogar sehr brachial hinzugefügt, wie aus dem diff hervorgeht, da während des Bauens sich Inhalte aus dem Git-Repository heruntergeladen werden sollen.

Die Telemetriedaten werden an ein zentrales Konto bei Google Analytics und Yandex geschickt.

FOSS-Prinzipein

Hier ergibt sich teilweise ein Bruch mit den üblichen FOSS-Prinzipien. Bei FOSS gibt man seinen Quelltext nicht frei, damit andere in diesem lediglich Lesen können, sondern, damit andere ihn in ihre Systeme integrieren können. Nutze ich z. B. den NetworkManager, der einen Connectivity Check durchführt, um zu erkennen, ob ich in das Internet komme, wird als Endpunkt meist ein von meinem Distributor bereitgestellter Server genutzt. Der Distributor ist es auch, dem ich mein ultimatives Vertrauen schenken muss, da dieser oft vorkompilierte Pakete bereitstellt. Ist ein Build nicht reproduzierbar, kann ich als Anwender nicht zweifelsfrei feststellen, ob lediglich die Inhalte ausgeführt werden, die auch angegeben sind. Unter diesem Aspekt ist der Umstand, dass der Distributor durch oben genannte Connectivity Checks meine IP-Adresse erfahren kann, fast zu vernachlässigen.

Freie Open Source Programme sind somit nur Bausteine, die von einem Intermediär aufbereitet und zur Verfügung gestellt werden. Somit sollte es aus meiner Sicht faktisch keinen Durchgriff von FOSS-Maintainern auf die Endnutzer geben, sofern nicht ein triftiger Grund dafür spricht.

Ein solcher triftiger Grund wären in meinen Augen Crashdumps: stürzt ein Programm ab, bieten einige Programme die Möglichkeit an, hilfreiche Daten zur Crash-Ursache (Tracebacks, Umgebungsvariablen, etc.) an die Hersteller zu melden. Oftmals wird dem Nutzer hier die Wahl gelassen, ob er diese Informationen mit den Entwicklern teilen möchte.

FOSS-Geschäftsmodelle

Freilich ist es schwierig, Geschäftsmodelle bei einer solch schwierigen Beziehung zwischen Softwarehersteller und -anwender zu etablieren. Dabei ist die „letzte Meile“ zwischen Distributor/OEM und Endkunden am attraktivsten, da dort Support verkauft werden kann. Beste Beispiele sind hier Red Hat und SUSE. Red Hat wurde für 34 Milliarden US-Dollar an IBM verkauft und der in Deutschland ansässigen SUSE GmbH steht am 19. Mai ein mit 5,7 Milliarden Euro bewerteter Börsengang bevor. Das bloße Schaffen und (entgeltliche) Zurverfügungstellen von Softwarequelltext und den Binaries wird heutzutage immer unattraktiver.

Fazit

Was Audacity angeht, bin ich optimistisch. Am Ende kann der Anwender nur gewinnen: entweder wird die Software verbessert oder es bildet sich ein Fork (wie schon geschehen), der die Nutzerschaft übernimmt.

Audacity ist eine Software, die ihren Zweck erfüllt. In meinen Augen kein Anwärter für Designauszeichnungen, aber plattformübergreifend und funktional.

Trotzdem muss man schauen, wie sich Audacity nun weiterentwickelt. Meine Prognose ist, dass die nächste Änderung, die ähnliche Kritik hervorruft, ein Auto-Updater wie bei MuseScore sein wird. ;-)

Lesen ist etwas, was ich generell viel zu wenig mache. Auf gedruckten Papier habe ich seit Ewigkeiten nicht mehr gelesen. Schon seit einigen Jahre besitze ich zwar einen Kindle Paperwhite von Amazon, aber die Nutzung variierte stark. Mal mehr, mal gar nicht.

Ein paar Gründe führten zu dem Umstand, dass ich das Kindle weniger genutzt habe:

  • Es ist von Amazon und ich versuche aus verschiedenen Gründen so wenig bei Amazon wie möglich zu kaufen. Vor allem keine Bücher, da dann am wenigstens beim Autor hängen bleibt. (Kauft am besten beim Verlag!)
  • Keine Unterstützung für .epub und somit Zwang auf Tools wie Calibre zu setzen.
  • Keine (gute) Unterstützung für PDF-Dateien.
  • Keine (gute) Möglichkeit Annotationen an Dokumenten zu erstellen.

Die letzten beiden Use-Cases sind speziellere Funktionen die ich nicht so häufig brauche. Als Autor und somit bei der Arbeit an der dritten Auflage meines Git Buches muss ich mehrfach vor der Drucklegung die Fahne Korrekturlesen. Ich weiß, dass beim Verlag sehr viel gedruckt wird, weil es sich einfach besser liest als auf einem Bildschirm und dann mit Stift Anmerkungen gemacht werden. Ich hatte das eine Weile lang auf einem Android Tablet gemacht, das war aber wegen des Displays eher auf der Kategorie „nicht so geil zum Lesen“. Notizen für Korrekturen waren auch eher umständlich und zudem besitze ich gar kein Tablet mehr.

Ich wollte also mehr Lesen und wollte auch die Möglichkeit haben, Notizen machen zu können, idealerweise mit Stift.

Zur Wahl standen letztendlich drei Geräte:

Alle drei Geräte sind E-Book-Reader mit guter Funktionalität um Notizen machen zu können. Das reine Lesen von Büchern ist ja eher der langweilige Part. Alle Geräte besitzen ein 10,3" großes Display. Die Größe war wichtig, damit das Machen von Notizen auf einem nicht ganz so kleinem Gerät erfolgen muss. Ich hatte zwar Angst, dass es zu groß sein könnte, aber das war dann doch passend.

Gekauft habe ich letztendlich das Onyx BOOX Note 3. Und hab mich im Wesentlichen gegen ein reMarkable entschieden, was die eher bekanntere Marke ist. Meine Gründe sind folgende:

  • Das reMarkable ist an die Hersteller-Cloud gebunden (Minus-Punkt)
  • Das Onyx BOOX läuft mit Android und ohne Zwang zur Bindung an Google (Plus-Punkt)
  • Das Onyx BOOX kann ohne Hersteller-Cloud und somit relativ „frei“ betrieben werden
  • Kollege Dirk hatte mal ein reMarkable 1 und kaufte sich später ein Onyx BOOX Max 3, darüber schreibt er auch in seinem Blog, und ist sehr zufrieden (Plus-Punkt)

Der Preis war natürlich nicht ganz so klein, aber man gönnt sich ja sonst nichts.

Grundsätzlich hat sich der Kauf gelohnt, es tut genau das, was es soll und es kommen auch Updates mit weiteren Funktionen. Die Notiz-Funktion habe ich nicht nur für die Korrekturen an meinem Buch genutzt, sondern auch für generelle Notizen, um ablenkungsfrei Nachdenken zu können. Die App dafür hat sehr viele Funktionen, wovon ich für meinen Zweck nicht so viel brauche.

Diejenigen die sich für richtig tiefe Reviews für solche Geräte interessiert, denen kann ich den YouTube-Kanal My Deep Guide empfehlen, wo der Herr die verschiedensten E-Book-Reader miteinander vergleicht. Es gibt einen sehr guten Eindruck was die Geräte können und in welchen Aspekten die Geräte besser als die anderen sind.

Die Anzahl an Android Apps hab ich gering gehalten. Über den F-Droid Store habe ich lediglich einen anderen Browser und den Nextcloud-Client für Datentransfers installiert und das klappt wunderbar.

Ein Use-Case den ich beim Kauf noch nicht im Blick hatte, ist, dass ich über meinen Arbeitgeber Zugang zur O’Reilly Learning Platform bekommen habe. Da gibt es nicht nur Bücher zu lesen, sondern auch Video-Kurse sind dort enthalten. Und das sind nicht nur Bücher von O’Reilly, sondern auch deutsche Verlage wie dpunkt oder mitp sind vertreten, sodass ich da auch mein Buch entdeckt habe. Die Inhalte lassen sich entweder im Browser lesen oder über die eigene App, ansonsten bekommt man die Daten da nicht so einfach raus, da es quasi eher dem Netflix-Modell entspricht. Die App konnte ich mir also auf mein E-Book-Reader geladen und konnte so schon einige Bücher lesen, die ich auf jeden Fall nicht im Browser am Bildschirm gelesen hätte. Vertraut mir, ich habs versucht…

tl;dr: Onyx BOOX Note 3 für relativ viel Geld gekauft. Ich lese jetzt deutlich mehr. Es deckt meine Use-Cases gut ab. Es nervt nicht. Notizen machen per Stift fühlt sich erstaunlich „echt“ an. Gerne wieder.

7. Mai 2021

OpenSUSE und YaST sind in vielen Artikeln und Meinungsäußerungen untrennbar miteinander verbunden. Man braucht aber kein YaST und kann es sogar komplett deinstallieren.

OpenSUSE ist meine präferierte Distribution. Das hat vermutlich viel mit Gewohnheit zu tun, aber auch damit, dass Leap oder Tumbleweed meistens für meine Einsatzzwecke reichen. Momentan bin ich mit Tumbleweed unterwegs, da meine Hardware durch den alten Leap-Kernel nicht unterstützt wird. Eigentlich hatte ich vor, schnellstmöglich wieder auf eine LTS zu wechseln, aber daraus wird wohl nichts werden.

OpenSUSE gilt bei seinen Kritikern immer als fett und behäbig. Diese Ausdrücke sprechen für ein Gefühl, denn im Grunde genommen unterscheiden sich die Speicherplatzbedarfe der meisten Linux-Distributionen kaum und vieles hängt von der installierten Software ab. Zypper ist auf der Kommandozeile zudem viel schneller als beispielsweise die behäbigen Routinen von APT.

Nur YaST ist wirklich langsam. Das ist auch der Grund, weshalb ich so gut wie nie mit YaST arbeite. Man muss auch schon sehr lange nicht mehr zwingend irgendetwas in YaST konfigurieren, weil alle Einstellungen in den üblichen Konfigurationsdateien geschrieben werden.

Puristen stören sich zudem oft an den vielen doppelten Funktionen. Drucker kann man z. B. in den Einstellungen von KDE/GNOME konfigurieren und in YaST.

Das Schöne ist: Bei openSUSE hat man aber nicht nur die Freiheit YaST nicht zu nutzen, man kann es auch komplett deinstallieren. Man setzt bei openSUSE nämlich keine unnötigen harten Abhängigkeiten (man kann bei der GNOME-Variante z. B. auch Nautilus oder das GNOME Terminal entfernen ohne die Kern-Metapakete zu brechen) und ermöglicht so wirklich schlanke System. Voraussetzung für den schlanken Betrieb ist bei openSUSE natürlich, dass man die automatische Installation empfohlener Abhängigkeiten deaktiviert hat.

Kleiner Exkurs: Hier darf man sich als Anwender nicht täuschen lassen von vermeintlich kleinteiliger Paketierung oder einem wie auch immer gearteten Ruf in der Community. Das ist ein Irrtum, dem schon viele aufgesessen sind. Debian ist ein Beispiel für ein pseudo-schlankes System, das durch die Unterteilung in viele Subpakete und eine systematische Benennung selbiger schlanke Strukturen vorgaukelt. Das Gleiche mit dem vermeintlichen Ruf als schlankes System. Hier hat aus irgendeinem Grund Arch Linux einen guten Ruf. Dabei sind dort Abhängigkeiten oft viel zu großzügig gesetzt. Ein gutes Negativbeispiel ist bei Arch Linux Digikam.

Mit einem beherzigten Befehl auf der Kommandozeile kann man alle YaST Module entfernen. Die Liste sollte man vorab prüfen. Der Befehl entfernt die Module und die Pattern-Metapakete.

# zypper rm yast*
# zypper rm libyui*

Danach hat man ein YaST-freies System und kann entweder mit der Kommandozeile arbeiten oder die grafischen Einstellungsmöglichkeiten der jeweiligen Desktopumgebung nutzen.

Der Artikel openSUSE geht auch ohne YaST erschien zuerst auf [Mer]Curius

6. Mai 2021

Heute bin ich auf eine interessante Webseite gestoßen: https://mysteries.wizardzines.com/. Hier sind momentan vier „Fälle“ verfügbar, die sich allesamt mit typischen oder weniger bekannten Netzwerkproblemen beschäftigen. Das wären:

  • The Case of the Slow Websites
  • The Case of the Connection Timeout
  • The Case of the DNS Update that Didn't Work
  • The Case of the 50ms Request

Ich habe mir die Puzzles heute angeschaut und bin begeistert, weil es Netzwerkthemen auf eine Art und Weise abseits von Lehrbüchern und Q&A-Seiten einem näher bringt.

Man wird vor ein Problem gestellt, das es zu lösen gilt. Dabei stehen einem verschiedene Mittel zur Verfügung, die interaktiv aufgerufen werden können. Das ganze Spiel ist geführt gestaltet, sodass man nicht alleine gelassen wird und man gleichzeitig verschiedene Werkzeuge kennenlernt, die zur Problemlösung herangezogen werden können. An einigen Stellen wird man selber nach Problemlösungen, Kommandozeilenprogrammaufrufen (strace, tcpdump, ...) gefragt, die allerdings in vielen Fällen nur informativ sind und keinen großen Einfluss auf das Spiel haben.

Wie so oft führen viele Wege nach Rom, so auch bei den hier angesprochenen Fällen. An vielen Stellen ist Zusatzwissen zu finden, das über den Hintergrund aufklärt. Am Abschluss eines jeden Falls wird die Ursache erläutert.

Ich werde nicht weiter die konkreten Fälle spoilern, sie sind auf jeden Fall ganz nett. Besonders in der Netzwerkwelt ist es schwierig, zu debuggen, weil es keine klassische statische Analyse wie aus der Softwareentwicklung gibt. Gerade erst habe ich wieder einen Fall gehabt, bei dem ein Port an einem VLAN-fähigen Switch konfiguriert werden sollte. Access Port konfigurieren reichte scheinbar nicht aus, denn seltsamerweise kam nur ein Teil der Pakete durch. Die Lösung war, dass noch die PVID für den Port konfiguriert werden muss. Das Debugging wird dahingehend erschwert, dass Dinge gerne mal einfach „nicht funktionieren“ und keine Fehler werfen. Um Probleme zu lösen ist es wichtig, Muster zu erkennen und diese zu bewerten. Und genau darauf zielen die Mysteries ab.

Aus diesem Grund ist es wichtig, immer in der Übung zu bleiben, und da kann ich mir solche Spiele gut als Lernwerkzeug vorstellen, auch, wenn sie nicht aktiv auf einem System arbeiten.

Der Source für das Projekt ist auf GitHub verfügbar.

Open Source wird vor allem von Freiwilligen entwickelt. Die vorhandene Software und das Linux-Ökosystem sind somit eine gemeinschaftliche Leistung der Community und können deshalb nicht mit proprietärer Software verglichen werden. Aber ist dem so?

Ich setze mich in diesem Blog häufig kritisch mit Open Source auseinander. Nicht weil ich es nicht gerne nutze oder mit meinem Linux-System im Großen und Ganzen unzufrieden wäre, sondern weil ich die Wohlfühlblase, in die sich Teile der Open Source Community abgesetzt haben (inklusive mancher alternativer Wahrheiten) für gefährlich halte und meine Reichweite gerne für Denkanstöße nutze.

Mit ziemlich hoher Wahrscheinlichkeit kommt bei Vergleichen immer das Argument „Das machen Freiwillige, denen kann man nichts vorschreiben und das kann man nicht vergleichen“. Doch ist dem so oder handelt es sich hierbei nicht um einen schönen Mythos, hinter dem sich Teile der Community argumentativ verschanzen.

Schaut man auf den Kernel, ist schon seit Längerem bekannt, dass hier große Firmen mit ihren Mitarbeitern den Löwenanteil der Arbeit machen. Das löste immer mal wieder Kontroversen aus. Die letzte Aufschlüsselung stammt vom Entwicklungsyzklus der Version 5.10.

GNOME hat ebenfalls vor einiger Zeit transparent gemacht, wer hier die meiste Entwicklungsarbeit leistet. Überraschung: Red Hat. Gefolgt von einigen anderen Organisationen. KDE hat die Affiliation seiner Entwickler leider nicht offen gelegt, aber durch bekannte Förderungen z. B. durch blue systems kann man vermuten, dass hier auch nicht alle ehrenamtlich unterwegs sind.

LibreOffice hat im Zuge der Auseinandersetzung um die Betitelung „Community Edition“ ebenfalls Einblicke in die Verhältnisse gewährt. 73% der Beiträge zu LibreOffice stammen von den Partnern der TDF. Bekannt dürften hier besonders Collabora, Red Hat und CIB sein.

Bei Projekten wie Oracle VirtualBox oder Mozilla Firefox steht der Finanzier ja sogar schon im Namen. Für zahllose weitere Projekte könnte man das sicherlich auch problemlos durch deklinieren.

Bei den Distributionen gilt das sowieso. Red Hats Beteiligung an Fedora ist bekannt, Ubuntu Main wird natürlich von Canonical entwickelt. Als openSUSE-Nutzer kann man im Changelog die Bedeutung der Beiträge von SUSE-Mitarbeitern sehen. Manjaro ist inzwischen eine GmbH und auch bei Debian arbeiten viele bezahlt mit.

Natürlich gibt es auch ganz viel ehrenamtliche Arbeit und die Community leistet Großartiges. Je nach Projekt macht diese Arbeit auch einen großen Anteil aus. Viele kleinere Softwareprojekte werden auch ausschließlich in der Freizeit entwickelt. Das alles soll hier nicht in Abrede gestellt werden! Das gibt es nur bei Windows oder macOS auch. Die vielen Open Source/Freeware-Programme und die Supportforen und Support-Communitys werden dort auch nicht von hauptamtlichen Mitarbeitern gemacht.

Die Freiwilligkeit vieler Einzelentwickler als Argument für mangende Qualität oder komische Entwicklungsprozesse ist somit eine eher romantische Vorstellung von Open Source-Entwicklung und sollte nicht zu exzessiv als Argument vorgeschoben werden. Es wird auch nicht besser, wenn man die Größe der Entwicklerteams proprietärer Software in der Argumentation immer maßlos überschätzt.

Der Artikel Open Source-Entwicklung – Freiwillige oder Firmen? erschien zuerst auf [Mer]Curius

5. Mai 2021

Mozilla hat Firefox 88.0.1 veröffentlicht und behebt damit mehrere Probleme der Vorgängerversion.

Download Mozilla Firefox 88.0.1

Mit dem Update auf Firefox 88.0.1 behebt Mozilla ein durch ein Update von Google Widevine verursachtes Problem, welches dafür sorgte, dass diverse Streaming-Plattformen wie Amazon Prime Video nicht länger hochauflösende Inhalte bereitstellten.

Bei der Wiedergabe von Videos auf Twitter oder auch in WebRTC-Videotelefonaten konnte es zu Darstellungsproblemen für Nutzer mancher Grafikchips von Intel der sechsten Generation kommen. Dieses Problem gehört der Vergangenheit an, ebenso wie nicht sichtbare Elemente in den Firefox-Einstellungen bei Nutzung des Hochkontrastmodus.

Außerdem wurde mit Firefox 88.0.1 eine Sicherheitslücke in Zusammenhang mit WebRender behoben.

Der Beitrag Mozilla veröffentlicht Firefox 88.0.1 erschien zuerst auf soeren-hentzschel.at.

4. Mai 2021

Linux-Anwender rühmen sich ja immer der Vielfalt, die sich auf dem Desktop bietet. Aber ist es wirklich Vielfalt oder ist es die Unfähigkeit zum Kompromiss?

Michael Kofler hat vor einigen Tagen einen Blogartikel „Fluch und Segen von Gnome“ geschrieben. In diesem zieht er die Schlussfolgerung, dass die geringen Modifikationsmöglichkeiten von GNOME letztlich zur sinnlosen Auffächerung des Ökosystems beitragen:

Natürlich kann niemand kann den Gnome-Entwicklern vorschreiben, in welche Richtung sie ihr Projekt weiterentwickeln. Aber die oft überraschenden, eigenwilligen Design-Entscheidungen irritieren nicht mich alleine. Sie führen dazu, dass Ubuntu das Gnome-40-Update vorerst nicht mitmacht, dass jetzt auch Pop!OS den Desktop neu erfinden will, dass es mit Elementary, Cinnamon, Mate sowieso schon ein Dutzend Varianten gibt, die in Wirklichkeit (fast) keiner haben will. Deren Daseinsberechtigung sich durch einige Details ergibt, die sich außerhalb des Gnome-Universums offenbar einfacher realisieren lassen als innerhalb. Die in einem sinnlosen Ausmaß Entwickler-Ressourcen binden. Die nicht fertig werden. Zu denen es schon bald keine Updates mehr geben wird.

kofler.info – Fluch und Segen von Gnome

Mich hat dieser Artikel erinnert an einen Blogartikel, den ich vor einigen Jahren über die ausufernden Auswahl an Desktopumgebungen geschrieben hatte.

Seitdem hat sich mal wieder was getan. Mit Deepin und COSCMIC sind nun zwei weitere Kandidaten dazu gekommen. Kein einziges Projekt wurde eingestellt.

DesktopumgebungVeröffentlichtEinstellung
Xfce1997 
KDE Plasma1998 
GNOME1999 
LXDE2006 
Trinity2009 
RazorQt20102013
MATE2011 
Cinnamon2011 
Unity20112017
Pantheon2012 
Budgie2014 
LXQt2014 
Deepin2015 
COSMIC2021 

Seit der Pandemie lieben wir ja alle Diagramme. Um also die offensichtliche Entwicklung noch etwas dramatischer darzustellen:

Linux hat bei ungefähr gleichen Nutzungszahlen und ungefähr gleichen Entwicklerzahlen (GNOME und KDE haben das jeweils transparent gemacht) also eine tendenziell wachsende Anzahl an Desktopumgebungen. Die mobilen Umgebungen wurden hier dezidiert nicht berücksichtigt.

Die von Michael Kofler thematisierte „Schuld“ von GNOME ist offensichtlich. Die meisten Desktopumgebungen sind Derivate oder Forks von GNOME und zeitlich vor allem nach der Veröffentlichung von GNOME 3 entstanden.

Man mag nun denken, dass sei eben Linux, aber eigentlich stimmt das nicht. Linux bietet bei vielen wichtigen Sachen entweder keine oder lediglich ein paar Alternativen. Beginnend beim Kernel über so wichtige Sachen wie die Verschlüsselung (LUKS) oder sogar das Initsystem (so viele Alternativen neben systemd gibt es auch nicht). Das sieht bei den Desktopprogrammen nicht groß anders aus. Es gibt 4-5 Mailclients (Evolution, Kontact, Thunderbird, Clawsmail, mutt), zwei Browser (Firefox, Chromium), eigentlich nur eine Office-Suite usw. usf.

Das Problem der ausufernden Alternativen konzentriert sich also tatsächlich vor allem auf die Desktopumgebungen. Ursächlich scheint hier wirklich der Dogmatismus zu sein, der bei Desktopumgebungen Einzug gehalten hat. Es gibt keinerlei Bereitschaft, alternative Ansätze zu integrieren, sondern Abweichler werden quasi ins Exil gedrängt.

Das ist umso absurder, als es im Grunde genommen trotzdem immer das gleiche Konzept ist. Auch GNOME hat hier das Rad nicht neu erfunden, sondern im Kern ein klassisches Fensterkonzept mit (ausgeblendetem) Symboldock vorgelegt. So wie alle anderen Umgebungen eben auch. Bei vielen anderen Umgebungen ist sogar gänzlich unklar, warum es beide geben muss (z. B. MATE und Xfce).

Viele stehen hier auf dem Standpunkt, dass so etwas kein Problem ist, weil Linux durch seine Alternativen profitiert. Bei gleichbleibender Entwicklerzahl ist es aber eine massive Ressourcenverschwendung, wenn das Rad 12 Mal erfunden wird. Es gibt bei jedem Phänomen einen Kipppunkt, bei dem sich die Vorteile in Nachteile umkehren. Bei den Desktopumgebungen ist dieser sicher erreicht. Der Punkt, an dem die Anwender durch die Anzahl an Alternativen noch profitierten ist schon lange überschritten.

Die Befürworter der Alternativen haben dabei meist ein negatives Menschenbild. Sie glauben, die Entwickler der Alternativen würden sonst gar nichts beitragen. Meiner Meinung nach ist das ein Irrtum, vor allem bezüglich des großen Kreises der Entwickler, die „nur“ zum Projekt beitragen und keine Hauptentwickler sind. Diese würden sich bei weniger Auswahl einfach für eines der anderen Projekte entscheiden.

Das Feld wird sich hier hoffentlich demnächst lichten. Die Schwierigkeiten der großen Entwickerteams von GNOME und KDE bei der Migration zu Wayland lassen erahnen, dass die meisten anderen Projekte daran scheitern könnten.

Der Artikel Linux-Desktop – Vielfalt oder Kompromissunfähigkeit? erschien zuerst auf [Mer]Curius

3. Mai 2021

Die Linux-Gemeinschaft lässt sich grob in drei Lager unterteilen. Dabei nimmt ein Lager den Extremwert „stabil wie ein Fels“ mit z.B. Debian oldstable ein, während der andere Extremwert „bleeding edge“ durch Anhänger z. B. von Arch Linux besetzt wird. Das dritte Lager besetzt die Mitte, in der sich unzählige weitere Distributionen tummeln, die mehr zu dem einen oder dem anderen Extremwert hin tendieren.

Warum das so ist und welche Distribution einen, wie ich finde, ganz interessanten Mittelweg eingeschlagen hat, möchte ich in diesem Artikel beleuchten. Bierernst bin ich dabei allerdings nicht. Die ein oder andere Ausführung ist durchaus mit einem Augenzwinkern zu verstehen. ;-)

Stabil wie ein Fels

So soll eine Linux-Distribution aus Sicht vieler Systemadministratoren sein. Gut getestet, alle Komponenten perfekt aufeinander abgestimmt und über ihren Lebenszyklus nur wenigen — am besten gar keinen — Änderungen unterworfen. Einzig Sicherheitsaktualisierungen dürfen und sollen zeitnah geliefert werden.

Distributionen, die sich diesem Paradigma unterwerfen, versprechen geringe Wartungsaufwände und sind des Sysadmins Freund. In meinen Augen dürfen Debian, RHEL, SLES, etc. dieser Kategorie zugeordnet werden.

Doch bergen diese Distributionen paradigmenbedingt auch einige Nachteile. Da Kernel und Bibliotheken meist schon etwas älter sind — manche sagen dazu steinalt, andere gut abgehangen — wird neue Hardware evtl. nicht in vollem Umfang unterstützt. Oder die mitgelieferten Bibliotheken und Laufzeitumgebungen sind schlicht zu alt, um mit aktuellen Versionen verfügbarer Software noch kompatibel zu sein.

Um den Nachteilen zu begegnen, bleibt Sysadmins häufig nichts anderes übrig, als das wohlige Heim der Distribution zu verlassen und Laufzeitumgebungen aus Upstream- oder Drittanbieter-Repos zu installieren, Software selbst zu übersetzen oder sich Container in die heilige Halle zu stellen. Die Distributionen versuchen dem zu begegnen, in dem sie unter Umständen zu Minor-Releases neuere Software-Versionen als sogenannte Rebases oder Backports nachliefern. Das dies passiert ist jedoch keineswegs garantiert und stellt im Zweifel ein Risiko für die Stabilität dar.

Wenn die Distribution dann aber doch eine neue Softwareversion ausliefert, hat der Sysadmin meist keine Wahl. Entweder er bleibt auf der alten Version und erhält voraussichtlich keinerlei Sicherheitsupdates mehr für diese oder installiert die aktuelle Version und lernt die Neuerungen lieben bzw. damit zu leben.

Bleeding Edge

Mit diesem Beinamen werden häufig Distributionen bezeichnet, welche dem Rolling-Release-Modell folgen und Software mitliefern, die sehr nah am aktuellen Stand der Upstream-Entwicklung ist (the latest and greatest). In dieser Ecke findet man z. B. Distributionen wie Arch Linux, Manjaro, Fedora Rawhide, etc. wobei diese Liste keinen Anspruch auf Vollständigkeit erhebt.

Der Betrieb dieser Distributionen ist geprägt von häufigen Updates. Die stetige Weiterentwicklung birgt das Risiko, dass auch mal etwas kaputt geht und plötzlich nicht mehr funktioniert. Doch versprechen die Distributionen meist, dass gerade durch den schnellen Entwicklungszyklus gefundene Fehler auch schnell behoben werden. Wohingegen die Nutzer stabiler Version häufig Monate, wenn nicht Jahre oder gar vergebens auf einen Bugfix warten müssen.

Blöd wird es, wenn man Software betreiben muss, die nur für eine bestimmte Version einer Laufzeitumgebung, oder bestimmter Bibliotheken freigegeben ist und unterstützt wird. Wer solche Software betreibt, sollte sich jedoch von vornherein fragen, ob er bei rollenden Releases richtig aufgehoben ist.

Dann sind da auch noch jene unter uns, die für den Betrieb auf gewisse Zertifizierungen ihrer Betriebssysteme angewiesen sind. Hier sind die Zertifizierungsverfahren häufig länger, als die Lebensspanne eines Bleeding-Edge-Release.

Das Mittelfeld

Dieses Feld ist weitgespannt. Hier tummeln sich Distributionen wie Fedora, Ubuntu sowie viele weitere. Ihnen allen unterstelle ich, dass sie den besten Kompromiss suchen, um so stabil wie möglich und so aktuell wie nötig zu sein.

So habe auch ich in der Vergangenheit auf Ubuntu LTS gesetzt, da ich es für den besten Kompromiss hielt. Leider waren unsere Entwickler mit den mitgelieferten Software-Versionen nicht lange zufrieden und ließen sich nicht bis zum nächsten Release hinhalten. Also wurden auch hier wieder {Dritanbieter,Upstream}-Repos eingebunden und die Software von dort installiert. Eine Erfahrung die ich bisher unter jeder Distribution machen durfte.

Genauso gut kenne ich den umgekehrten Fall, wo Paket XY auf gar keinen Fall aktualisiert werden darf, da sonst ein Dienst unrettbar kaputt geht. Lasst euch gesagt sein, man hat es schon nicht leicht in der Systemadministration. ;-)

Appstreams und Module

Mit RHEL 8 hat Red Hat eine interessante Neuerung eingeführt, die sog. Module im Appstream-Repository. Nun ein Listing sagt vermutlich mehr, als viele Sätze:

$ sudo dnf module list nginx php postgresql
Updating Subscription Management repositories.
Last metadata expiration check: 0:27:21 ago on Mi 21 Apr 2021 05:41:58 CEST.
Extra Packages for Enterprise Linux Modular 8 - x86_64
Name            Stream        Profiles                        Summary                                 
nginx           mainline      common                          nginx webserver                         

Red Hat Enterprise Linux 8 for x86_64 - AppStream (RPMs)
Name            Stream        Profiles                        Summary                                 
nginx           1.14 [d]      common [d]                      nginx webserver                         
nginx           1.16          common [d]                      nginx webserver                         
nginx           1.18          common [d]                      nginx webserver                         
php             7.2 [d]       common [d], devel, minimal      PHP scripting language                  
php             7.3           common [d], devel, minimal      PHP scripting language                  
php             7.4           common [d], devel, minimal      PHP scripting language                  
postgresql      9.6           client, server [d]              PostgreSQL server and client module     
postgresql      10 [d]        client, server [d]              PostgreSQL server and client module     
postgresql      12            client, server [d]              PostgreSQL server and client module     

Hint: [d]efault, [e]nabled, [x]disabled, [i]nstalled

Wie ihr sehen könnt, hat man damit die Auswahl aus mehreren Versionen ein und der selben Anwendung. Das kannte ich so bisher noch nicht, ohne zusätzliche Repos einbinden zu müssen, oder mich gar mit den berüchtigten Red Hat Software Collections beschäftigen zu müssen.

Als Sysadmin habe ich damit etwas Flexibilität dazugewonnen. Ich kann z. B. eine Altlast mit NGINX 1.14, PHP 7.2 und PostgreSQL 9.6 auf einem Host und eine aktuelle Anwendung mit NGINX 1.18, PHP 7.4 und PostgreSQL 12 auf einem anderen Host betreiben, dabei aber das gleiche stabile Release RHEL 8 nutzen.

Allerdings kann man nicht zwei verschiedene Versionen von z. B. PHP oder PostgreSQL parallel auf dem gleichen Host betreiben. Wer dies wünscht, kann die entsprechenden Anwendungen lokal in Podman-Containern ausführen. Auch hier stehen Images für die verschiedenen Versionen bereit.

Red Hat verspricht, neue Versionen von Anwendungen, Sprachen und Werkzeugen auf diesem Weg verfügbar zu machen. So sind in der Beta des kommenden RHEL 8.4 zum Beispiel PostgreSQL 13, Python 3.9 und Podman 3.0.1 enthalten. Zu beachten ist jedoch, dass die jeweiligen Streams ihre eigenen Life-Cycles besitzen, die es im Auge zu behalten gilt. Hier hilft ein Blick in die offizielle Dokumentation weiter:

Fazit

Ob diese Neuerung und die damit einhergehenden Vorteile in der Praxis von Relevanz sein werden, kann ich heute noch nicht sagen. Dafür fehlt mir noch etwas Erfahrung mit diesem neuen Konzept.

Ich persönlich glaube, dass sich Application Streams und das Konzept zur Verwendung von Containern nicht gegenseitig ausschließen, sondern sinnvoll ergänzen können. In meinen Augen gelingt es Red Hat mit Appstreams, seine stabile Distribution etwas in Richtung Aktualität zu schieben, ohne dabei Stabilität aufgeben zu müssen.

2. Mai 2021

Der Kauf proprietärer Software nur für eine Lizenz ist meist ein schlechtes Geschäft. Lange Jahre der Gewöhnung an schlechten Service bei Microsoft & Co haben fast vergessen lassen, dass es zusätzlich zum Recht, ein Programm zu nutzen, auch noch guten Support geben kann.

Ich verwende SoftMaker Office meistens mit freien ODT-Formaten. Die hauseigenen SoftMaker-Formate entfallen für mich, weil ich Vendor-Lock-in so gut es geht vermeide und für den Hausgebrauch nehme ich dann lieber ODT als DOCX. Die ODT-Unterstützung bei SoftMaker ist noch relativ jung und so bin ich vor einigen Wochen in einen Fehler rein gelaufen. Bei einer Konvertierung nach DOCX trat der Fehler nicht auf, aber ich hatte keine Lust auf einen Workaround und wollte ODT nutzen.

Der Fehler war ziemlich einfach und ziemlich nervig: In einem sehr langen Textdokument (~350 Seiten) konnte ich an einer Stelle eine kursive Formatierung im Fließtext einfach nicht speichern. Nach jedem Schließen und wieder Öffnen des Dokuments sprang es zurück auf die Standardschrift und -größe.

Also schrieb ich an den Support. Nach einigen Tagen kam die Bitte um ein Beispieldokument, was ich zusandte. Der Support bestätigte mir die Reproduzierbarkeit des Problems und die interne Weiterleitung an den technischen Support. Üblicherweise enden ja solche Dialoge genau an diesem Punkt. Nicht aber bei SoftMaker. Nur 6 Tage später erhielt ich einen Hotfix per Mail und die Information, dass die Fehlerbehebung Teil des nächsten Service Packs sein würde.

Ein solch guter Support als Inklusivleistung für eine Lizenz, die mich gerade mal 99,95€ gekostet hat und in der die sehr gute Software ja auch schon enthalten war, ist einfach phänomenal.

Da kann freie Software einfach nicht mithalten. Spenden für LibreOffice bringen mir ja keine Supportvorteile und die Bezahlvarianten von Collabora richten sich an Unternehmen. Die Pseudo-Angebote für macOS im App Store sind ebenso nur versteckte Spenden. Ob ich damit also die Arbeit an der Qualität der Software, das nächste coole Feature, das die Welt nicht braucht oder eine Entwicklerkonferenz finanziere, darauf habe ich keinen Einfluss.

Solche Sachen zeigen mir immer wieder, dass es eine gute Entscheidung war, die Bughölle LibreOffice hinter sich zu lassen. Ich kann jedem, der halbwegs ernsthaft mit Office-Produkten arbeiten muss, den Wechsel auf SoftMaker nur empfehlen. Für mich war das ein Quantensprung was die Alltagstauglichkeit von Linux angeht.

Ich glaube inzwischen eher an eine Zukunft von OnlyOffice auf dem Linux-Desktop als daran, dass LibreOffice nochmal aus der Sackgasse findet, in die TDF und Collabora mit ihren widerstreitenden Interessen die Software gefahren haben.

Der Artikel SoftMaker – Ein Beispiel für guten Support erschien zuerst auf [Mer]Curius

Kürzlich habe ich einen günstigen und kompakten WLAN-USB-Stick benötigt. Spontan habe ich mir den WU1300S der Firma Cudy gekauft.

Laut den technischen Daten erreicht der Stick bis zu 400 Mbit in einem 2,4 GHz WLAN und 867 Mbit in einem 5 Ghz WLAN. Die Abmessungen betragen 37,5 x 17 x 8,5 Millimeter. Verbaut ist der rtl88x2bu Chipsatz von Realtek. Neben Windows und MacOS wird offiziell auch Linux unterstützt.

Nach dem Einstecken des Sticks in einen USB-Port wurde der Stick allerdings unter Arch Linux nicht gefunden. Es ist somit kein WLAN-USB-Stick der “out of the box” funktioniert.

Um ihn nutzen zu können, muss man den Treiber, der hier angeboten wird, installieren. Wer Arch Linux nutzt, findet im AUR ein entsprechendes Rezept, das DKMS nutzt.

Damit funktioniert der Stick zufriedenstellend. Zumindest auf den ersten Blick. Denn nachdem der betreffende Rechner in den Energiesparmodus (suspend) versetzt und dann wieder aufgeweckt wird, wird die Netzwerkverbindung nicht mehr neu aufgebaut. Die Lösung ist allerdings recht einfach. In die Datei /etc/wpa_supplicant/wpa_supplicant.conf trägt man einfach ap_scan=1 ein. Die Dokumentation hierfür lautet wie folgt.

wpa_supplicant initiates scanning and AP selection; if no APs matching to the currently enabled networks are found, a new network (IBSS or AP mode operation) may be initialized (if configured) (default)

Von nun an funktioniert die WLAN-Verbindung problemlos. Positiv anzumerken ist auch, dass der Stick überhaupt nicht warm wird. Dafür das ich bis vor einigen Tagen die Firma Cudy, die übrigens aus China kommt, nicht kannte, kann ich den Stick unterm Strich empfehlen. Vor allem, weil er beispielsweise mit aktuell 12,90 Euro nur einen Bruchteil des von mir bereits vorgestellten WLAN-USB-Sticks AC 860 von AVM kostet.