ubuntuusers.de

10. März 2023

Fr, 10. März 2023, Lioh Möller

Bei Conky handelt es sich um einen vielseitigen Systemmonitor zur Nutzung unter Xorg. An einer Wayland Unterstützung wird aktuell gearbeitet.

Die Anwendung eignet sich zur Darstellung von Systeminformationen wie CPU-, Speicher- und Netzwerk-Auslastung und ist darüber hinaus in der Lage aktuell abgespielte Musiktitel darzustellen oder Benachrichtigungen bei einem E-Mail Eingang zu generieren. Über Scripte kann der Funktionsumfang erweitert werden.

Die Installation ist dabei auf einem Debian GNU/Linux System denkbar einfach:

sudo apt-get install conky-all

Die Konfiguration hingegen gilt aus aufwendig und komplex und lässt sich über Lua-scripts steuern.

Einfacher geht es mit dem Hilfsprogramm Conky Manager 2. Für Ubuntu basierte Systeme steht ein PPA zur Verfügung:

sudo add-apt-repository ppa:teejee2008/foss
sudo apt update
sudo apt install conky-manager2

Die Installation kann alternativ direkt aus den Quellen erfolgen:

apt install build-essential git valac libgee-0.8-dev libgtk-3-dev libjson-glib-dev gettext libgettextpo-dev p7zip-full imagemagick
git clone https://github.com/zcot/conky-manager2.git
cd conky-manager2
make
sudo make install

Nach der Installation kann die Anwendung über den Desktop gestartet werden. Es werden bereits eine Vielzahl an Widgets und Themes mitgeliefert, weiter können bei Bedarf importiert werden.

Über die Einstellungen kann ausserdem festgelegt werden, ob Conky mit den ausgewählten Einstellungen automatisch nach dem Anmelden an der grafischen Benutzeroberfläche gestartet werden soll.

Quellen:
https://github.com/zcot/conky-manager2
https://github.com/zcot/conky-manager2/blob/add-1.10-support/HOWTOBUILD.md


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

Fr, 10. März 2023, Lioh Möller

Die Aktualisierung erfolgt unter Einsatz von Leapp, welches wie folgt installiert werden kann:

dnf install 'leapp-command(preupgrade)'

Voraussetzung ist das Vorhandensein der entsprechenden Metadaten:

wget https://access.redhat.com/node/3664871/5121/0/23213288
tar -xzf leapp-data-21.tar.gz -C /etc/leapp/files && rm leapp-data-21.tar.gz

Leapp erwartet zur Analyse, dass vdo installiert ist und der Dienst gestartet wurde:

dnf install vdo
systemctl start vdo

Ferner muss in der FirewallD Konfiguration die Option ZoneDrifting deaktiviert werden.

sed -i "s/^AllowZoneDrifting=.*/AllowZoneDrifting=no/" /etc/firewalld/firewalld.conf

Vor der eigentlichen Aktualisierung kann ein sogenannter Preupgrade Check auf dem Server durchgeführt werden. Dabei werden keine Änderungen durchgeführt:

leapp preupgrade --target 9.0

Das Ergebnis der Prüfung wird auf dem Zielsystem unter /var/log/leapp/leapp-report.txt protokolliert.

Nun muss geprüft werden, ob ausreichend freier Speicherplatz vorhanden ist. Sollte dies nicht der Fall sein, muss das entsprechende Volume zunächst vergrössert werden.

Insbesondere für den DNF Paketzwischenspeicher (cachedir) muss ausreichend Speicherplatz eingeplant werden. Bei Bedarf kann dieses in der DNF Konfiguration auf ein anderes lokales Laufwerk gelegt werden.

Beispiel: Auf /opt ist ausreichend freier Speicherplatz vorhanden, daher soll für die Aktualisierung das cachedir auf /opt/dnfcache ausgelagert werden:

mkdir /opt/dnfcache

vi /etc/dnf/dnf.conf

...
cachedir=/opt/dnfcache
...

Es wird empfohlen, vor dem Upgrade einen Snapshot zu erstellen, sofern es sich um eine VM handelt.

Jetzt kann die eigentliche Aktualisierung erfolgen, welcher in einer Screen-Sitzung ausgeführt werden sollte. Sollte screen nicht installiert sein, kann dies mit folgendem Befehl nachgeholt werden:

dnf install screen

Mit der Eingabe von screen wird eine neue Sitzung gestartet. Diese kann mit Ctrl+a+d detatched werden. Eine Wiederaufnahme ist auch nach einem Systemneustart mithilfe von screen -r möglich.

Das Upgrade von RHEL 8 auf RHEL 9 wird wie folgt ausgeführt:

leapp upgrade --target 9.0

Nach einer Aktualisierung sollten die im Report generierten Hinweise überprüft werden. So müssen beispielsweise bei einer vorhandenen MariaDB Installation weitere Schritte durchgeführt werden.

Sofern das DNF cachedir temporär angepasst wurde, kann der Konfigurationseintrag wieder aus der Datei /etc/dnf/dnf.conf entfernt werden.


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

Fr, 10. März 2023, Lioh Möller

Um Standardeinstellungen eines systemd Services zu überschreiben, können sogenannte Overrides genutzt werden. So ist eine einfache Anpassung an die persönlichen Bedürfnisse möglich.


Im folgenden Beispiel soll der php-fmp Dienst um eine Einstellung zum Setzen der Standard-umask erweitert werden.

Dazu kann einerseits die integrierte Funktion systemd edit genutzt werden oder es wird manuell eine entsprechende Konfiguration erstellt.

Zur Vorbereitung wird das folgende Verzeichnis erstellt:

mkdir /etc/systemd/system/php-fpm.service.d

Override Konfigurationen müssen mit der Dateiendung .conf erstellt werden.

vi /etc/systemd/system/php-fpm.service.d/override.conf

[Service]
UMask=0002

Es werden nur die Parameter angegeben, die überschrieben oder erweitert werden sollen.

Mit dieser Methode können auch Overrides für systemd mount und timer Definitionen erstellt werden.


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

9. März 2023

Mammoth ist eine neue Mastodon-App für Apple iOS, iPadOS und macOS. Diese konnte Mozilla als Hauptinvestor gewinnen.

Mozilla wird Hauptinvestor von Mammoth

Mozilla steht nicht nur vor dem Start seiner eigenen Mastodon-Instanz, nun hat Mozilla auch in die neue Open Source Mastodon-App Mammoth für Apple iOS, iPadOS und macOS investiert. Genauer gesagt handelt es sich bei Mozilla sogar um den Hauptinvestor der kürzlich abgeschlossenen Finanzierungsrunde.

Mastodon ist der wohl bekanntese Vertreter des sogenannten Fediverse. Für diejenigen, welche mit dem Begriff nichts anfangen können, hat Wikipedia eine Beschreibung parat:

Die Idee des „Fediverse“ ist, dass es möglich sein soll, ein Benutzerkonto auf einer beliebigen Plattform im Fediverse anzulegen und sich darüber mit Nutzern auf allen anderen Plattformen austauschen zu können, ohne dort ein weiteres Konto anlegen zu müssen. Ermöglicht wird das dadurch, dass die einzelnen Plattformen mittels bestimmter Kommunikationsprotokolle miteinander verbunden sind und so die föderierte Identität und Inhalte jeweils auf andere verbundene Plattformen und Instanzen verteilt werden. Diese Praxis steht im Gegensatz zu geschlossenen sozialen Netzwerken wie Twitter oder Facebook, bei denen Benutzer ein eigenes Benutzerkonto in jedem der Netzwerke benötigen, wenn sie mit anderen Nutzern des jeweiligen Netzwerks interagieren möchten.

Mozilla trifft hier auch auf alte Gesichter: Gegründet wurde Mammoth von Bart Decrem, der in der Vergangenheit für Mozilla als Head of Marketing, Business Affairs und später als Gründer des Mozilla Builders Incubators tätig war. Ebenfalls taucht Mark Mayo in beratender Tätigkeit auf der Teamliste von Mammoth auf, der in der Vergangenheit in verschiedenen Rollen für Mozilla aktiv war, unter anderem als Senior Vice President von Firefox und Mozillas Chief Product Officer.

Dank der Unterstützung von Mozilla ist die Finanzierung von Mammoth bereits für mindestens ein Jahr gesichert. Zu den weiteren Investoren gehören Long Journey Ventures sowie Mark Benioff von Salesforce.

Während die App für immer kostenfrei bleiben soll, möchte Mammoth im Laufe der kommenden Monate auch ein Abo-Modell für 3-5 USD pro Monat einführen, mit dessen Einnahmen mindestens zur Hälfte Mastodon-Server bezahlt werden, nicht nur die eigenen. Wie genau die Details aussehen werden, ist zu diesem Zeitpunkt noch nicht bekannt.

Der Beitrag Mozilla wird Hauptinvestor der Mastodon-App Mammoth erschien zuerst auf soeren-hentzschel.at.

Do, 09. März 2023, Jürg Rechsteiner

Hinweis: bei diesem Artikel handelt es sich um einen Meinungsartikel

Eine Distro ohne Abstürze und eine mit einem riesigen Repository ergänzen sich perfekt. Der Vorteil ist, man hat, wenn mal eines kaputtgehen würde, ein zweites System zur Verfügung. Ein kleiner Nachteil ist, dass man immer nur ein System auf einmal starten kann, ausser man verwendet eine Virtuelle Maschine unter Fedora, in der man Manjaro installiert. Virtuelle Systeme sind aber nicht immer stabil genug.

Als eine der besten Distros hat sich, durch meine umfangreichen Tests, Fedora Kinoite 37 erwiesen.

Das herausragende Merkmal ist:

Die Stabilität und Sicherheit durch das immutable Filesystem. Durch das unveränderliche Dateisystem ist der Bootmanager und die Rootpartition vor zumindest unbeabsichtigten Veränderung bestens geschützt. Die Absturzwahrscheinlichkeit liegt praktisch bei null.

Die einzige Schwäche:
Es gibt ein paar wenige Programme, die man weder im umfangreichen Fedora Repository noch im Flatpak Repository findet.

Die Distribution mit dem umfangreichsten Repository ist und bleibt Archlinux, beziehungsweise alle Archlinux basierten Systeme. Das natürlich auch nur, wenn man das AUR (Arch User Repository) einbezieht. Zudem lassen sich auch andere Repository einbinden, wie das Chaotic-AUR.

Da Archlinux ein aus meiner Sicht zu kompliziertes Installationsprogramm verwenden, kann ich alle Distros mit Calamares Installer empfehlen, die auf Archlinux basieren.

Als die beste Archlinux Distro hat sich für mich Manjaro erwiesen.

Stichhaltige Gründe für Manjaro sind:

  1. Manjaro hat sehr wenig Ausfälle im laufenden Betrieb und wenn doch, dann lassen sie sich meistens gut beheben.
  2. Der Bootmanager ist optisch gut gelungen und erkennt andere installierte Betriebssysteme immer, sofern man nicht mehr als 4 Betriebssysteme installiert. Voraussetzung fürs Erkennen anderer Systeme ist, dass ein neuer Kernel installiert wird, denn bei dieser Routine wird das Bootmenü aktualisiert. Das kann man natürlich auch mit einem Kommandozeilen-Befehl bewerkstelligen, geht aber einfacher mit der grafischen Oberfläche der Manjaro-Einstellungen(mhwd-kernel). EndeavourOS kann das nicht. Oft werden die anderen Betriebssysteme nicht angezeigt, zumindest nicht, ohne dass man mit Kommandozeilen Befehlen experimentiert. EndeavourOS hatte in letzter Zeit massive Probleme mit dem Bootmanager.
  3. Der Bootmanager von Manjaro funktioniert ausgezeichnet.
  4. Manjaro gibt es mit vielen verschiedenen Desktop Managern. Wenn man allerdings Wert legt auf effizientes Arbeiten verbunden mit schönen grafischen Elementen, ist KDE Plasma der Platzhirsch.

Distributionen wie Manjaro sind zwar sehr leistungsfähig und funktionieren sehr gut, aber es gibt einfach immer wieder einmal Abstürze oder Systemausfälle durch fehlerhafte Updates und durch gewollt oder ungewollte Veränderungen an Dateien im Root System. Ein falscher Eintrag in einer Konfigurationsdatei und nichts geht mehr. Das ist dann eben die Stärke von Fedora Kinoite.
Ja, es gibt auch andere immutable Systeme, aber keines funktioniert so ausgezeichnet wie Kinoite.

Der perfekte Aufbau eines solchen Systems mit 2 Distributionen ist, wenn man für jedes System eine eigene Festplatte verwendet und zur Installation einer Distro jeweils die andere Festplatte entfernt. So hat man die Gewähr, dass bei einer falschen Manipulation bei der Installation nicht das andere System zerstört wird. Der Manjaro Bootmanager erkennt dann später das 2 System und integriert es ins Bootmenü.

Im Computer Setup kann man nun Manjaro als Startmedium auswählen und profitiert so immer von diesem Bootmenü, ohne dass man das Bootmenü des Computers jedes Mal mit der richtigen Tastenkombination beim Computerstart im richtigen Moment aktivieren muss.

Quellen:
Text: Jürg Rechsteiner


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

Do, 9. März 2023, Fabian Schaar

"So long, and thanks for all the fish": Am 8. März hat Norbert Preining seine KDE-Paketquellen für Debian eingestellt. Der ehemalige Debian-Entwickler hatte viele Jahre aktuellere KDE-Plasma-Versionen für die drei Debian-Zweige "Stable", "Testing" und "Unstable" zur Verfügung gestellt. Diese sind nun Geschichte.



Mitte Januar letzten Jahres hatte Preining wegen interner Streitigkeiten dem Debian-Projekt den Rücken gekehrt. Daher wurde es für ihn zunehmend schwieriger, die Funktionalität seiner Pakete zu testen. Preining selbst nutzt seit einiger Zeit keine der Debian-Distributionen mehr.

In einem Blogeintrag gab der Entwickler bekannt, keine Zeit mehr in die Paketquellen investieren zu wollen. Jetzt blickt er zurück auf die Jahre, in denen er stets aktuelle KDE-Pakete gebaut hat.

Es mache ihn zwar traurig, das Projekt hinter sich zu lassen. Für Preining sei das aber auch eine Entlastung, neben der eigentlichen Arbeit habe er immer wieder mit Beleidigungen "von der Debian-Seite" umgehen müssen.

Preining weiß um die Nutzer seiner Repositorien und lädt Interessierte dazu ein, die Paketquellen fortzuführen. In seinem Blog soll dahin gehend eine Anleitung zu seiner bisherigen Arbeit erscheinen. Preining möchte erklären, wie er in der Vergangenheit an und mit der großen Zahl an Paketen gearbeitet hat.

Quelle: https://www.preining.info/blog/2023/03/end-of-support-and-updates-to-the-kde-plasma-debian-builds/

Bildquelle: Matthieu James, GPL, via Wikimedia Commons


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

8. März 2023

Ja, ich hatte neugierigerweise Stadia gebucht und mal kurz ausprobiert. Damals gab es den Stadia Contoller als Bundle, das hatte ich mir geschnappt.

Nun ist Stadia beendet worden, den Controller kann man behalten, das Geld gab es zurück.

Spielen geht ja bei den Steam Spielen einwandfrei.

Nachteilig ist (besser: war) nur, dass man den Controller per USB verbinden musste.

Dann gab es Mitte Januar die Meldung, dass man den Controller zu einem bluetoothfähigen Controller zu machen.

Leider nur mit einem Windows Rechner.

Heute habe ich nochmal geschaut, jetzt wird auch Linux unterstützt. Und der Support bis Ende des Jahres 2023 verlängert.

Hat prima funktioniert, deshalb kurz die Notizen:

Udev Regel anlegen

Beim Debian bookworm ging das einwandfrei, sudo natürlich weg gelassen, da ich das nicht installiert habe.

Dann Anleitung befolgt.

Fertig, klappt super. Danke Google!

Hier noch die Funktionen und Belegung des Controllers.

Lange war ich auf der Suche, wie man den Akku Füllstand des Controllers anzeigen kann.

Die Lösung: Das ist bereits vorhanden, nur mit den Vorgabeeinstellungen nicht so leicht zu erkennen. 

Wie links dargestellt, habe ich nun für die shell das Transparent Theme ausgewählt, nun ist nicht nur der Akku Ladezustand deutlich besser lesbar!

7. März 2023

Di, 7. März 2023, Lioh Möller

Eigentlich haben mich sogenannte Smartwatches nie besonders interessiert, doch über den Chat der OpenStore Community bin ich über eine App namens RockWork gestolpert. Dabei handelt es sich um eine Anwendung zur Integration von Pebble Smartwatches in Ubuntu Touch.

Der Hersteller galt einst als Pionier in diesem Bereich und die Uhren erfreuten sich lange Zeit einer grossen Beliebtheit. Ein Grund dafür mag die Verwendung von E-Paper-Displays sein, was dazu führt, dass Pebble Smartwatches im Vergleich zu anderen Herstellern, eine sehr lange Akkulaufzeit von bis zu einer Woche hatten.

Eric Migicovsky hatte das Projekt im Jahre 2008 während seiner Studienzeit gegründet und während dem Bestehen des Unternehmens wurden mehrere Uhrenmodelle veröffentlicht. Letztendlich meldete Pebble Technology Corporation 2016 Insolvenz an und verkaufte das geistige Eigentum an die Firma Fitbit. Diese hat sich kurz darauf entschlossen, die Produktlinie nicht weiterzuführen und die für die Nutzung von Pebble Smartwatches benötigte Infrastruktur wurde abgeschaltet.

Der Gründer Migicovsky ist mittlerweile für den Multi-Messenger Beeper verantwortlich, der auf dem Matrix-Protokoll basiert. 

Da es mich immer reizt, alte und nicht mehr unterstützte Hardware wieder zu beleben, habe ich mich kurzerhand entschieden, eine Uhr des Typs Pebble Time bei einer Onlineauktionsplattform zu ersteigern. Mit CHF 20 schien mir die Investition vertretbar, auch wenn sich herausstellen würde, dass mir dies nicht gelingen sollte.

Einige Zeit später erhielt ich bereits das Paket. Die Uhr ist in einem altersentsprechenden Zustand, funktioniert allerdings noch tadellos. Nach dem Start habe ich mich dazu entschlossen, das Gerät auf die Werkseinstellungen zurückzusetzen, ein Vorgehen, welches ich bei allen gebrauchten elektronischen Endgeräten (aka Computern) empfehle.

In diesem Falle schien der Entschluss jedoch fatale Folgen zu haben, denn das Gerät startete nach dem Reset zwar neu, erwartete allerdings eine Firmware von den Pebble-Servern. Da die Pebble-App sowie die Server, welche die Firmware-Dateien bereitgestellt haben, nicht mehr zur Verfügung standen, musste ich auf Alternativen ausweichen. Ich konnte bereits herausfinden, dass Pebble Uhren weiterhin von der Freien Applikation Gadgetbride unterstützt werden.

Da ich kein Android Telefon besitze, musste ich mir ein Gerät für die Firmware Installation ausleihen. Im Vorfeld konnte ich bereits recherchieren, dass die benötigten Firmware-Dateien ebenfalls im Git-Repository von Gadgetbridge vorhanden sind. Anhand der dort aufgeführten Tabelle konnte ich die passende Firmware für das Pebble Time Modell identifizieren und bereits herunterladen.

Daraufhin musste ich die Uhr mit dem Android-Telefon über die Bluetooth-Einstellungen des Betriebssystems verbinden. Meine Pebble Time meldet sich in zwei Varianten via Bluetooth. Zur Einrichtung muss allerdings zwingend eine Verbindung mit dem nicht-LE Kanal aufgebaut werden. Die Kopplung muss sowohl auf der Uhr, als auch auf dem Smartphone bestätigt werden.

In Gadgetbridge kann daraufhin das Gerät über das + Symbol hinzugefügt werden. Zuvor sollte allerdings in den Sucheinstellungen die Option "ignore bonded devices" deaktiviert werden, da die Smartwatch ja bereits über Android verbunden wurde.

Die Firmware für Pebble Uhren wird in der Regel in Form von .pbz Dateien angeboten. Das Flashen der Firmware erfolgt dabei nicht direkt aus Gadgetbridge, sondern über ein Hilfsprogramm. Nach dem Herunterladen der Firmware-Datei auf das Smartphone kann diese im Android Dateimanager angewählt werden. Über die Option Teilen wählt man den Punkt App/FW Installer. Nach einer Bestätigung erfolgt die Installation der Firmware auf der Smartwatch. Dieser Vorgang kann einige Zeit in Anspruch nehmen, und es sollte zuvor sichergestellt werden, dass die Uhr über eine ausreichende Batterieladung verfügt.

Für Android-Nutzer wäre die Reise an dieser Stelle bereits zu Ende. Gadgetbridge unterstützt die wichtigsten Funktionen der Uhr und auch ein Wechsel auf das energiesparende Bluetooth LE wäre grundsätzlich möglich. Im Gegensatz zur regulären Bluetooth-Verbindung erfolgt das Koppeln dabei nicht aus den Android-Einstellungen, sondern direkt aus GedgetBride heraus.

Nun, da die Uhr wieder mit einer funktionierenden Firmware ausgestattet wurde, kann die Einrichtung unter Ubuntu Touch beginnen. Dazu wird zunächst die bisher bestehende Bluetooth-Verbindung mit dem Android-Gerät entfernt. In den Pebble Einstellungen wählt man dazu den Punkt Bluetooth und dort das bisher gekoppelte Gerät aus der Liste aus. Daraufhin kann die Verbindung entfernt werden. Dies sollte auch in Gadgetbride und in den Android-Systemeinstellungen erfolgen.

Die Kopplung des Ubuntu Touch Gerätes ähnelt der Vorgehensweise unter Android. Es wird das nicht-LE Gerät in den Einstellungen ausgewählt und bei den Verbindungsoptionen der Punkt Automatisch verbinden angewählt. Die Pairinganfrage muss einmalig auf der Uhr und auf dem Mobiltelefon bestätigt werden. In meinem Falle war dies auch nach mehreren Versuchen leider nicht erfolgreich. Trotz Bestätigen der Pairinganfrage auf dem Handy und der Uhr, wurde diese von der Smartwatch abgelehnt. Letztendlich konnte ich es lösen, indem ich während des Pairings eine Shell geöffnet habe und die MAC-Adresse Uhr mittels bluetoothctl als trusted markiert habe. Weitere Informationen zu dieser Vorgehensweise finden sich im ubports-Forum.

Bis auf wenige Unterbrüche funktioniert die Uhr seitdem und die Bluetooth-Verbindung wird auch nach einem Abbruch automatisch neu aufgebaut.

In der App RockWork wird die Pebble Time angezeigt und ich kann diverse Einstellungen vornehmen, beispielsweise welche Benachrichtigungen ich erhalten möchte. Auch das sogenannte Watchface, also das virtuelle Ziffernblatt kann ausgetauscht werden, wobei nicht alle angebotenen Ziffernblätter auf meiner Uhr dargestellt werden.

Über die Uhr selbst habe ich die Möglichkeit, die Musikwiedergabe zu steuern, was sich im Alltag als praktisch erweist. Die Benachrichtigungen werden zeitnah dargestellt und falls es einmal zu viel wird, lässt sich die sogenannte Quiet Time einstellen.

Wer nach diesem Artikel auf den Geschmack gekommen ist, einer Pebble Smartwatch ein neues Leben einzuhauchen, findet ein solches Gerät auf dem Gebrauchtmarkt. In der Schweiz sind die Modelle Pebble Time und Pebble Time Steeel in unterschiedlichen Ausführungen auch weiterhin in den gängigen Online-Shops erhältlich.

Ob eine Smartwatch letztendlich eine Bereicherung darstellt oder nicht, muss jeder für sich selbst entscheiden. Das Gefühl sein Ubuntu Touch Handy mit einer eigentlich obsoleten Pebble zu steuern, ist allerdings gar nicht schlecht.


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

Di, 07. März 2023, Jürg Rechsteiner

Die logische Reihenfolge der Prioritäten zur Auswahl einer Distribution:

  • Stabilität der Distribution und der Programme
  • Sicherheit
  • Hardware Kompatibilität
  • Programm Auswahl
  • Effizienz
  • Grafische Oberfläche, Outfit

1. Stabilität
Die Zufriedenheit mit einer Distribution ist am grössten, wenn keine Probleme auftauchen. Der Fokus müsste deshalb auf der Stabilität der Distribution und der Programme liegen. Am meisten Abstürze gibt es durch Software Abhängigkeiten. Hier müsste der Schwerpunkt auf einem App-Store wie Flatpak oder Appimage liegen. Viele Abstürze gibt es auch durch Veränderungen von Dateien in der Root-Partition. Ein System mit einer immutablen Root Partition bringt hier enorme Vorteile.

2. Sicherheit
Die Sicherheit rückt in letzter Zeit viel stärker in den Mittelpunkt, wegen den vielen Meldungen über Hackerangriffe. Um grösstmögliche Sicherheit zu gewährleisten, sollte der Kernel so aktuell wie möglich sein. Auch für die Sicherheit ist eine immutable Root Partition eigentlich ein Muss. Ein System mit bereits aktivierter Firewall sollte Standard sein. Auch mit Linux sollte man den Virenschutz nicht mehr ausser Acht lassen.


3. Hardware Kompatibilität
Systeme, die auf irgendeine Art mit dem Internet verbunden werden, sollten aus Gründen der Sicherheit eine möglichst aktuelle Distribution einsetzen. Aktuelle Treiber bringen dem System Sicherheit und Stabilität. Es ist wesentlich einfacher, mit einem neuen Kernel zu arbeiten, bei dem die aktuellen Treiber schon integriert sind, als passende Treiber zu finden und zu installieren. Die Hardwarekompatibilität muss unter Linux immer abgeklärt werden. Auch wer ältere Hardware benutzt, sollte versuchen, eine möglichst aktuelle Distribution einzusetzen.

4. Programm Auswahl
Die Programmauswahl ist ein wichtiger Faktor. Es kommt immer relativ schnell der Moment, wo man eine spezielle Software braucht oder zumindest gerne hätte, weil man damit eine spezielle Aufgabe leichter erledigen kann. Wenn man von Anfang an darauf schaut, dass man ein grosses Repository hat, ist das ein riesiger Vorteil. Wenn man aus irgendeiner Quelle ein Programm installiert, ist das zum einen ein Sicherheitsrisiko und zum andern kann das die Stabilität der Distribution stark beeinflussen.

5. Effizienz
Wie effizient man mit der Software arbeiten kann, sollte ein wesentlicher Punkt sein für die Auswahl der Distribution und wichtiger als das Aussehen der grafischen Oberfläche. Wie viele Klicks braucht man, um ein Programm zu öffnen. Wie schnell findet man das Programm und wie lange dauert es. Wie viele Male muss man ein Programm öffnen, in einer Stunde, in einem Tag? Was lässt sich mit Tastaturkürzel bewerkstelligen, um noch schneller eine Arbeit auszuführen? Nicht jede Oberfläche, nicht jede Software ist hier effizient. Effizienz bedeutet Zeit sparen, Zeit effektiv nutzen und eine Arbeit schneller erledigen können. Das sollte auch bei der Computerarbeit ein wichtiges Thema sein.

6. Grafische Oberfläche
Der Brennpunkt liegt bei den meisten zuerst auf der grafischen Oberfläche oder dem coolen Outfit. Es wäre jedoch ratsam, wenn man diesen Punkt den anderen Faktoren unterordnen würde. Viele Distributionen bieten Ihre Systeme mit verschiedenen Desktops an. Das Aussehen kann bei den meisten Desktops sehr gut angepasst werden, sodass man leicht ein gefälliges Outfit einrichten kann. Es lassen sich leicht andere Taskleisten installieren, die zum Beispiel einen MacOS ähnlichen Look bieten.

Die übliche Art der Entscheidung für eine Distribution:

  • Heft am Kiosk gekauft, dann wird vermutlich Linux Mint gewählt.
  • Von Bekannten empfohlen, die Vorlieben des Bekannten entscheiden die Wahl.
  • Rangliste bei Distrowatch, diese Liste zeigt nicht die wirklichen Installation an.

Leider gibt es keine Liste mit den am häufigsten auftretenden Problemen, wenn man jedoch die Foren besucht, kann man schon Trends ausmachen.

Das andere sind Erfahrungswerte. Ich habe schon sehr viele Installationen von Distributionen gemacht. Bei einigen Distributionen gibt es immer wieder Abstürze entweder bei der Installation der Distribution, bei der Installation von Programmen oder bei Updates oder auch erst nach einiger Zeit des Gebrauchs. Man bekommt ein Gefühl wie stabil, wie rund eine Distribution läuft. Diese Werte kann man nicht klassifizieren, aber man empfiehlt solche nicht weiter. Nicht alle machen hier die gleichen Erfahrungen, denn je nach Hardware verhält sich die Software anders.

Es gibt aber auch Distributionen, wo es praktisch immer rund läuft. Es wird aber immer irgendwo einen Bereich geben, wo es mal ein Problem gibt, das merkt man vielleicht besser, wenn man an die Grenzen dessen geht, was ein normaler User macht.

Einige Distributionen zeichnen sich aus durch wenig Probleme und das auch wiederholt bei neuen Ausgaben. Das zeigt sich auch sehr gut nach Updates.

Ein Beispiel möchte ich hier einfügen. Ich bin ein Fan von EndeavourOS und von Manjaro Linux. So hatte ich Manjaro installiert und parallel dazu EndeavourOS. Nun hat das Bootmenü von Manjaro sofort erkannt (Voraussetzung dafür ist ein Kernelupdate), dass ein anderes Betriebssystem installiert wurde und hat es ins Bootmenü integriert. Umgekehrt hat das nicht geklappt und das nicht nur einmal. Das sind dann so kleine Ungereimtheiten, die einem nachdenklich machen.

Die verschiedenen Distributionen mit der Immutable Root-Partition sind besonders interessant. Wirklich ausgezeichnet funktionieren nur wenige. Ganz vorn dabei sind Fedora Kinoite, Fedora Silverblue und Opensuse MicroOS. Der grosse Vorteil von Fedora: bisher habe ich kein Programm gefunden, das ich nicht installieren konnte, zudem habe ich das System bis jetzt nicht zum Absturz bringen können.

Quelle: Text von Jürg Rechsteiner


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

5. März 2023

Kürzlich bin ich beim Klonen von virtuellen Maschinen mit AlmaLinux 9 unter KVM/libvirt als Virtualisierungs-Host auf Netzwerk-Probleme gestoßen: Obwohl ich sämtlichen VMs per Script Netzwerkadapter mit eigenen MACs, IPv4- und IPv6-Adressen zugewiesen haben, traten IPv6-Netzwerkkonflikte auf — und zwar nicht für die reguläre Adressen, sondern für die Link-Local-Unicast-Adressen (fe80-xxx).

Eine kurze Google-Suche führt zur Ursache des Problems: Der NetworkManager wertet offenbar /etc/machine-id aus, um »eindeutige« fe80-Adressen zu generieren. Bei den geklonten VMs war /etc/machine-id aber immer identisch. Die resultierenden IPv6-fe80-Adressen waren daher ebenfalls identisch und führten zu Adresskonflikten (IPv6 Duplicate Address Detected) und letztlich zur Deaktivierung des betreffenden Netzwerkadapters.

Abhilfe ist zum Glück einfach: /etc/machine-id muss gelöscht und neu erzeugt werden:

rm /etc/machine-id
systemd-machine-id-setup

In meinen Setup gibt es ein Script, das beim ersten Start in jeder VM ausgeführt wird. Es führt zuerst die statische Konfiguration der Netzwerkschnittstellen durch, dann die beiden obigen Kommandos und zuletzt einen reboot. Damit gelingt der Parallelbetrieb diverser geklonter VMs wieder problemlos.

Quelle

https://raj-anju.medium.com/virsh-cloning-vms-dad-ipv6-duplicate-address-detected-dadfailed-errors-centos-rhel8-210fca0af724

Seit Jahren waren “Regular Expressions” (Reguläre Ausdrücke) ein Buch mit sieben Siegeln für mich. Selbst nachdem ich mehrere Anleitungen gelesen haben, wurde es nicht viel besser.

Kürzlich bin ich auf das Buch “Mastering Regular Expressions: Understand Your Data and Be More Productiv” des Autors Jeffrey E. F. Friedl aufmerksam geworden.

Der Autor schafft es meiner Meinung nach reguläre Ausdrücke so zu erklären, dass ich selbst nach wenigen Seiten schon mehr gelernt habe als mir andere Anleitungen vermitteln konnten. Wer sich daher mit dem Thema beschäftigen will oder muss, sollte sich das Buch einmal ansehen. Veröffentlicht wurde das Buch über den O’Reilly Verlag.

Die dritte und somit aktuellste Edition wurde zwar bereits 2006 veröffentlicht aber da sich seit dem wenig bis gar nichts geändert haben sollte, ist das Buch aus meiner Sicht immer noch aktuell.

3. März 2023

Bereits seit einigen Jahren bietet Canonical »Ubuntu Pro« an. Anfänglich war Ubuntu Pro auf AWS-Kunden beschränkt, denen Ubuntu Pro Updates über einen Zeitraum von 10 Jahren garantiert (statt der üblichen fünf Jahre für Ubuntu LTS). Später wurde Ubuntu Pro auf andere Clound-Anbieter ausgedehnt, und seit ein paar Wochen ist Ubuntu Pro als kostenpflichtiges Update-Service auch für »gewöhnliche« Installationen verfügbar. Privat- bzw. Kleinanwender dürfen Ubuntu Pro für fünf Installationen kostenlos nutzen.

Canonical bewirbt Ubuntu Pro beim Login sowie bei der Ausführung des apt-Kommandos. Das hat zu Unmut bei manchen Benutzern gestört. Ich kann das nicht ganz nachvollziehen. Es wird ja niemand gezwungen, Ubuntu Pro zu verwenden. Für manche Anwender bzw. Server-Administratoren ist die 10-jährige Update-Garantie durchaus ein attraktives Angebot. In diesem Beitrag versuche ich das Angebot im Kontext anderer Distributionen (Red Hat Enterprise, kostenlose Klone) einzuordnen.

Update 19.4.2023: Canonical erlaubt im Rahmen von Ubuntu Pro zwar die kostenlose Verwendung der Kernel-Livepatches, allerdings erhalten Sie dann Patches früher als zahlende Kunden. Sie sind quasi ein Beta-Tester für die Kernel-Patches. Wenn keine Probleme auftreten, werden die gleichen Patches mit einer gewissen Verzögerung auch an zahlende Kunden ausgeliefert.

Varianten

Ubuntu Pro gibt es aktuell in vier Ausprägungen:

  • Cloud: Die Cloud-Anbieter AWS, Azure und Google bieten virtuelle Maschinen (Cloud-Instanzen) mit Ubuntu Pro an. Die monatliche Gebühr ist höher als bei Ubuntu-LTS-Instanzen, dafür beträgt der Update-Zeitraum zehn statt fünf Jahre. Über diese Form des Ubuntu-Pro-Angebots habe ich schon vor Jahren in meinem Blog geschrieben.
  • Physische Desktop/Workstation-Installation: 25 $ / Jahr, 10 Jahre Updates für die Paketquellen main und universe

  • Physische Server-Installation, »Infra-only«: 225 $ / Jahr, 10 Jahre Updates nur für die main-Paketquelle. Das Angebot richtet sich insbesondere an Server, die als Virtualisierungs-Host verwendet werden.

  • Physische Server-Installation: 500 $ / Jahr, 10 Jahre Updates für die Paketquellen main und universe

Alle vier Angebote umfassen auch Live Kernel Patches, die bisher als eigenes Produkt verkauft wurden. Zu diesen Grundangeboten gibt es diverse Support-Erweiterungen, die die Sache natürlich teurer machen:

https://ubuntu.com/pricing/pro

Technische Details

Die technische Voraussetzung für Ubuntu Pro ist das Kommando pro, das sich im Paket ubuntu-advantage-tools befindet. Es sollte standardmäßig installiert sein. pro security-status gibt einen Überblick über die installierten Pakete (hier auf einem Server mit Ubuntu 20.04 OHNE Ubuntu Pro).

$ pro security-status

1090 packages installed:
     854 packages from Ubuntu Main/Restricted repository
     228 packages from Ubuntu Universe/Multiverse repository
     3 packages from third parties
     5 packages no longer available for download

To get more information about the packages, run
    pro security-status --help
for a list of available options.

This machine is receiving security patching for Ubuntu Main/Restricted
repository until 2025.
This machine is NOT attached to an Ubuntu Pro subscription.

Ubuntu Pro with 'esm-infra' enabled provides security updates for
Main/Restricted packages until 2030.

Ubuntu Pro with 'esm-apps' enabled provides security updates for
Universe/Multiverse packages until 2030 and has 19 pending security updates.

Die Ausgabe macht auch gleich Werbung für den Abschluss eines Ubuntu-Pro-Upgrades und verspricht Updates für 19 Universe-Pakete, zu denen es ohne Ubuntu Pro eben keinen Schutz gibt. Welche Pakete das sind, können Sie mit pro security-status --esm-apps herausfinden (siehe den folgenden Screenshot).

Ubuntu Pro verspricht Sicherheits-Updates für die fett hervorgehobenen universe-Pakete

Wenn Sie dieser Wink mit dem Zaunpfahl überzeugt, entschließen Sie sich dazu, Ubuntu Pro auszuprobieren. Dazu brauchen Sie ein Konto bei Ubuntu One. Damit können Sie sich beim Ubuntu Pro Dashboard anmelden. Dort erhalten Sie fünf kostenlose Tokens für Ubuntu Pro. Wenn Sie mehr brauchen, müssen Sie dafür bezahlen.

Das Ubuntu-Pro-Dashboard

Die Aktivierung von Ubuntu Pro für eine Ubuntu-Installation ist denkbar einfach. Sie führen pro attach <token> aus, fertig!

$ sudo pro attach <token>

Enabling default service esm-apps
Updating package lists
Ubuntu Pro: ESM Apps enabled
Enabling default service esm-infra
Updating package lists
Ubuntu Pro: ESM Infra enabled
Enabling default service livepatch
Installing snapd
Updating package lists
Installing canonical-livepatch snap
Canonical livepatch enabled.
Unable to determine current instance-id
This machine is now attached to 'Ubuntu Pro - free personal subscription'

SERVICE          ENTITLED  STATUS    DESCRIPTION
esm-apps         yes       enabled   Expanded Security Maintenance for Applications
esm-infra        yes       enabled   Expanded Security Maintenance for Infrastructure
fips             yes       disabled  NIST-certified core packages
fips-updates     yes       disabled  NIST-certified core packages with priority security updates
livepatch        yes       enabled   Canonical Livepatch service
usg              yes       disabled  Security compliance and audit tools

NOTICES
Operation in progress: pro attach

Enable services with: pro enable <service>

     Account: <account-name>
Subscription: Ubuntu Pro - free personal subscription

Anschließend können Sie mit apt full-upgrade alle Pakete aktualisieren. Dabei kommen nun die Ubuntu-Pro-Paketquellen zum Einsatz:

$ sudo apt full-upgrade

Paketlisten werden gelesen... Fertig
Abhängigkeitsbaum wird aufgebaut.       
Statusinformationen werden eingelesen.... Fertig
Paketaktualisierung (Upgrade) wird berechnet... Fertig
Die folgenden NEUEN Pakete werden installiert:
  python3-defusedxml
Die folgenden Pakete werden aktualisiert (Upgrade):
  ant ant-optional composer fail2ban glances libjs-jquery-ui libopenexr24 libpython2.7
  libpython2.7-minimal libpython2.7-stdlib lynx lynx-common ntpdate php-symfony-console
  php-symfony-filesystem php-symfony-finder php-symfony-process python2.7 python2.7-minimal
19 aktualisiert, 1 neu installiert, 0 zu entfernen und 0 nicht aktualisiert.
19 esm-apps security updates
Möchten Sie fortfahren? [J/n] y
...

Hinter den Kulissen hat pro attach zwei neue Paketquellen eingerichtet:

$ ls /etc/apt/sources.list.d/ubuntu-esm*

/etc/apt/sources.list.d/ubuntu-esm-apps.list  
/etc/apt/sources.list.d/ubuntu-esm-infra.list

Außerdem hat pro attach die Kernel-Live-Patch-Funktion aktiviert. Beachten Sie, dass dafür ein Snap-Paket verantwortlich ist. Snap ist also eine zwingende Voraussetzung für diese Funktion. Den Status können Sie so überprüfen:

$ sudo canonical-livepatch status

last check: 6 minutes ago
kernel: 5.4.0-139.156-generic
server check-in: succeeded
patch state: ✓ no livepatches needed for this kernel yet
tier: updates (Free usage; This machine beta tests new patches.)
machine id: <id>

Im Prinzip war’s das. Ubuntu Pro läuft jetzt selbstständig, Sie müssen sich nur noch darum kümmern, regelmäßig Updates zu installieren. pro security-status verspricht jetzt Updates bis 2030 :-)

$ pro security-status

1093 packages installed:
     857 packages from Ubuntu Main/Restricted repository
     228 packages from Ubuntu Universe/Multiverse repository
     3 packages from third parties
     5 packages no longer available for download

To get more information about the packages, run
    pro security-status --help
for a list of available options.

This machine is attached to an Ubuntu Pro subscription.

Main/Restricted packages are receiving security updates from
Ubuntu Pro with 'esm-infra' enabled until 2030.

Universe/Multiverse packages are receiving security updates from
Ubuntu Pro with 'esm-apps' enabled until 2030. You have received 19 security
updates.

Ich habe das kostenlose Angebot von Ubuntu Pro aktuell auf zwei Server laufen, bisher ohne irgendwelche Probleme. Langzeiterfahrungen kann ich allerdings noch keine bieten, dafür ist das Angebot zu jung.

Kernel-Patches: »Free usage; This machine beta tests new patches.«

Ein Leser dieses Beitrags hat mich auf eine Ergebniszeile von sudo canonical-livepatch status hingewiesen:

tier: updates (Free usage; This machine beta tests new patches.)

Es ist offensichtlich so, dass für zahlende Kunden tier: stable gilt, während an nicht zahlende Kunden Kernel-Updates aus tier: updates verteilt werden. Mit anderen Worten: Wenn Sie Kernel-Patches aktivieren, ohne dafür zu zahlen, sind Sie quasi ein Beta-Tester für die zahlenden Kunden. Wenn keine Probleme auftreten, erhalten zahlende Kunden etwas später die gleichen Updates. (Ein ähnliches Schema gilt übrigens für CentOS Stream, dort für alle Update-Pakete.)

An sich ist diese Vorgehensweise nachvollziehbar. Sie hat bei mir bisher auch keine Probleme verursacht. ABER: Die Informationspolitik von Canonical ist diesbezüglich extrem intransparent. Obwohl ich eine Weile danach gesucht habe, bin ich auf kein offizielles Dokument gestoßen, dass auf diesen Umstand deutlich hinweist oder die Hintergründe erklärt. Ein paar Lese-Tipps:

Bewertung

Das Ubuntu-Pro-Versprechen ist zweiteilig:

  • Einerseits garantiert Ubuntu Pro Sicherheits-Updates für zehn Jahre statt für fünf. Der Nutzen ist leicht zu begründen. Aus der Sicht von Canonical ist das Problem aber, dass viele Admins Ihrer Server ohnedies nicht so lange laufen lassen — oder nur wenig länger. Also macht es wirtschaftlich Sinn, die ersten fünf Jahre die kostenlosen LTS-Updates zu genießen und erst für die Folgejahre Ubuntu Pro zu zahlen. Aus Anwendersicht kosteneffizient, aber für Canonical ein schlechtes Geschäftsmodell.
  • Andererseits verspricht Ubuntu Pro recht vollmundig auch Updates für die ca. 23.000 Universe-Pakete. Mit diesem Argument versucht Canonical seine Kunden davon zu überzeugen, Ubuntu Pro auch in den ersten Jahre zu bezahlen. Ubuntu Pro hat also einen Zusatznutzen, weil Canonical den Support für die universe-Paketquelle übernimmt; bisher kümmerte sich nur die etwas diffuse »Community« darum.

Ich bin allerdings sehr skeptisch, wie weit das universe-Update-Versprechen reicht. Auf https://ubuntu.com/pricing/pro steht wörtlich: »Support for over 23,000 packages in the Ubuntu Universe repository«. Aber was heißt das? Ich habe nirgendwo das Kleingedruckte gefunden, das eine Abgrenzung vornimmt, für welche Pakete das Versprechen gilt, wie groß das Sicherheitsproblem ist, damit sich Canonical um die Behebung kümmert etc.

Ein Punkt ist klar: Selbst wenn Canonical hoch motiviert ist und ein riesiges Budget für ein großes Security- und Maintenance-Team aufbringt — 23.000 Pakete parallel für fünf LTS-Releases zu warten ist schlicht unmöglich. (Aktuell gibt es nur universe-Updates für die Versionen 18.04, 20.04 und 22.04, weil die universe-Wartungszusage für ältere Releases nicht gilt; aber in drei Jahren müssten die universe-Quellen für Ubuntu 18.04, 20.04, 22.04, 24.04 und 26.04 gleichzeitig gewartet werden! Das sind dann über 100.000 Pakete von Programmen und Bibliotheken in unterschiedlichen Versionen. Man könnte jetzt weiter rechnen, wie viele Zeilen Code das sind, mit wie vielen Maintainer Kontakt gepflegt wird etc.)

Red Hat (IBM) verspricht RHEL-Updates für ein viel kleineres Paketangebot und für weniger Releases zugleich (weil RHEL-Major-Versionen in der Regel drei bis vier Jahre auseinander liegen) — aus gutem Grund! Die restlichen Pakete befinden sich in der EPEL-Paketquelle oder anderen externen Paketquellen, dafür übernimmt Red Hat keine Verantwortung.

Es fällt schwer zu glauben, dass Canonical ein Kunststück gelingt, das Red Hat (mit sicher mehr Einnahmen) nicht einmal anstrebt.

Wartungszeitraum verschiedener Server-Distributionen

Bei aller Kritik: Ubuntu Pro ist ein attraktives Angebot. Es erlaubt den Einsatz von Ubuntu gerade im Server-Bereich für längere Zeiträume als bisher, zu vertretbaren Kosten (und für fünf Server sogar kostenlos, extrem fair!). Ein kurzer Vergleich zu anderern Distributionen:

  • Red Hat Enterprise Linux: 10 Jahre (mit Einschränkungen sogar 13 Jahre), kostenpflichtig
  • RHEL-Klone (Rocky, AlmaLinux etc.): 10 Jahre, kostenlos, aber ohne Garantien
  • SUSE Linux Enterprise: 10 Jahre (mit Einschränkungen sogar 13 Jahre), kostenpflichtig
  • Ubuntu LTS: 5 Jahre kostenlos
  • Ubuntu Pro: 10 Jahre kostenpflichtig (wobei es möglich ist, Ubuntu LTS die ersten fünf Jahre kostenfrei zu nutzen und erst dann auf Ubuntu Pro umzusteigen)

Ich bin gespannt, in welchem Ausmaß Canonical liefern kann, was es aktuell verspricht. Und wie viele zahlende Ubuntu-Pro-Kunden Canonical finden kann. Für das Linux-Universum wäre es auf jeden Fall gut, wenn Canonical erfolgreich ist. Je mehr Firmen es gibt, die mit Linux Geld verdienen, desto besser ist das für alle Linux-Anwender, zahlende wie nicht zahlende!

Links/Quellen

Ältere Blog-Artikel auf kofler.info zu diesem Thema:

Kernel Live Patches: updates=beta tier versus stable tier:

2. März 2023

Do, 2. März 2023, Lioh Möller

Manchmal kann es notwendig sein, das Zertifikat einer Zertifizierungsstelle zu einem Enterprise Linux System hinzuzufügen. Dies ist immer dann der Fall, wenn die Zertifizierungsstelle dem System bisher nicht bekannt ist, sei es da eine eigene CA genutzt wird, oder falls es sich um eine eher unübliche Zertifizierungsstelle handelt.

Zur Einrichtung lädt man zunächst das neu hinzuzufügende CA-Zertifikat herunter und speichert es im entsprechenden Verzeichnis ab:

sudo wget https://pfad/zu/meinem/meinCA.crt -O /etc/pki/ca-trust/source/anchors/meinCA.crt

Der Name der Zertifikatsdatei muss dabei an die eigenen Bedürfnisse angepasst werden.

Daraufhin kann die Zertifikatszusammenstellung aktualisiert werden:

sudo update-ca-trust

Damit ist das Zertifikat der Zertifizierungsstelle bereits systemweit verfügbar.


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

Do, 2. März 2023, Fabian Schaar

Das Mageia-Projekt hat am 28. Februar eine erste Beta der momentanen Mageia-Entwicklungsversion 9 freigegeben. Nachdem bereits im November 2022 eine Alpha herausgegeben wurde, stabilisiert sich Mageia 9 immer weiter.

Mageia setzt als stabile Distribution mit relativ langen Veröffentlichungszyklen auf das RPM-Paketformat. Die Distribution wird seit 2010 von einer unabhängigen Entwicklergemeinschaft gepflegt. Die Wurzeln des Projekts liegen in den einstigen Desktop-Schwergewichten Mandrake und Mandriva GNU/Linux.

Die neue Beta aktualisiert den Paketbestand der Distro. Nennenswert sind die enthaltene Kernelversion 6.1.11, LibreOffice 7.5 sowie die Browser Firefox ESR 102.8 und Chromium 110.

Bei den Arbeitsumgebungen versuchen die Entwickler die neuesten Softwarestände auszuliefern, Gnome liegt in Version 43 vor, Xfce in Version 4.18. Außerdem ist die KDE Plasma-Beta 5.26.90 enthalten, vermutlich wird diese vor der Veröffentlichung noch durch die stabile LTS-Version 5.27 ersetzt. Auch die leichtgewichtige LXQt-Arbeitsumgebung kann in der aktuellen Version 1.2.1 installiert werden.

Ferner wurden auch Softwarebibliotheken und Entwicklungswerkzeuge aufgefrischt. So liefert man GCC 12.2.1, Glib 2.36, RPM 4.18.0 und Mesa 23.0 aus. Eine vollständige Liste der Softwareversionen, die mit den neuen Installationsabbildern ausgeliefert werden, kann über die zugehörigen .idx-Dateien eingesehen werden.

Mageia zeichnet sich auch durch eine Vielzahl Einsteiger-freundlicher Werkzeuge zur Administration und Nutzung der Distribution aus. Zu den bisherigen Tools ist nun ein Programm zum Entfernen alter Kernel-Versionen hinzugekommen.

Mutige Nutzer können die neue Beta-Version von der Projektseite herunterladen. Mageia 9 kann über klassische Installationsmedien oder über Live-ISOs mit den Oberflächen KDE, Gnome oder Xfce installiert werden. Die klassische Installations-ISO und die Live-Ausgabe stehen sowohl für 64-bit- als auch für 32-bit-Computer zur Verfügung. Die Live-Abbilder mit KDE und Gnome werden nur für 64-bit-Rechner gebaut.

Mageia 9 befindet sich momentan in der Beta-Phase und wurde noch nicht als stabile Version veröffentlicht. Daher weisen die Entwicklerinnen darauf hin, dass bis zum finalen Release noch Aktualisierungen für die enthaltenen Pakete anstehen werden.

Weitere Informationen zu Mageia sind auf der Projektseite zu finden. Einen guten Überblick über die bewegte Geschichte der Distribution vermittelt auch der Wikipedia-Eintrag des Projekts.

Quelle: https://blog.mageia.org/en/2023/02/28/mageia-9-beta1-is-already-here/

Bild: Mageia Atelier Team, CC BY-SA 3.0, via Wikimedia Commons


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

Um PDF-Dateien elektronisch zu signieren nutze ich Okular und meinen Thunderbird-Zertifikatemanager. Verwendet wird hierbei ein PKI-Schlüssel, den ich (in anderer Form) von meiner Hochschule erhalten haben.

Schlüssel ins PKI-Format bringen

Meine Methode nutzt den Thunderbird-Zertifiaktemanager, und dieser nimmt nur PKCS12-Zertifikate an.

Von meiner Hochschule habe ich ein Zertifikat im PEM-Format erhalten (cert.pem und key.pem), mit dem Thunderbird nichts anfangen kann. Daher wandle ich mir mein PEM-Zertifikat in ein PKCS12-Zertifikat um:

openssl pkcs12 -export -out keyStore.p12 -inkey key.pem -in cert.pem

Das umgewandelte Zertifikat liegt nun in Datei keyStore.p12 vor.

PKCS12 in Thunderbird importieren

In Thunderbird wähle ich Bearbeiten -> Einstellungen -> Datenschutz & Sicherheit -> Zertifikate -> Zertifikate verwalten.

Es öffnet sich ein kleines Fenster, wählen Sie hier den Reiter “Ihre Zertifikate” und klicken Sie auf Importieren....


Wählen Sie die eben erstellte Datei (keyStore.p12) aus. Das importierte Zertifikat wird nun im Zertifikatemanager angezeigt.


Zertifikate in Okular einbinden

Öffnen Sie Okular und wählen im Menü “Einstellungen -> Anezigemodule einreichten...


Wählen Sie links den Reiter “PDF”.


Wechseln Sie zum Punkt “Benutzerdefiniert”, tragen dort den Pfad zu Ihrem Thunderbirdprofil (endet auf foobar.default) ein, und klicken anschließen auf “Anwenden”.


Okular muss nun neu gestartet werden.

Anschließend ist das Zertifikat “bereit” und wird in der Liste angezeigt.


PDF signieren

Öffnen Sie eine PDF-Datei in Okular.

Über den Menüpunkt “Extras -> Digital signieren...” kann das Dokument nun signiert werden.


Sie werden aufgefordert, ein Rechteck zu ziehen, in welchem die Signatur sichtbar eingefügt werden soll.


Nachdem Sie das Rechteck gezogen haben, öffnet sich ein kleines Fenster. Klicken Sie hier auf OK.


Sie werden nun aufgefordert, das neu signierte PDF-Dokument zu speichern, und hierfür einen Dateinamen anzugeben. Nach dem Speichern öffnet Okular automatisch das neu erstellte Dokument.

Die Signatur ist sichtbar eingefügt, und Okular weist darauf hin, dass das Dokument digital signiert ist. Klicken Sie auf “Signaturbereich anzeigen”.


Im Signaturbereich links sehen Sie nun die digtitale Signatur mit dem Hinweis, dass diese kryptografisch gültig ist.


Bie mir funktioniert das wunderbar!

:-)

Ohne Thunderbird

Es geht auch ohne Thunderbird. Hierfür greifen wir auf das interne NSS-System zurück. Sofern nicht vorhanden muss der Ordner ~/.pki/nssdb erstellt werden.

mkdir -p ~/.pki/nssdb

Nun kann das oben erstellte Zertifikat hinzugefügt werden,

pk12util -d ~/.pki/nssdb -i keyStore.p12

wobei keyStore.p12 das oben erstellte Zertifikat ist.

In Okular muss unter Einstellungen -> Anezigemodule einreichten... im Bereich PDF unter “Benutzerdefiniert” das Verzeichnis ~/.pki/nssdb angegeben werden.

Nach einem Neustart von Okular ist das Zertifikat verfügbar und kann verwendet werden.

Weblinks


Diskussion per Matrix unter https://matrix.to/#/#produnis-blog:tchncs.de

 

Um PDF-Dateien elektronisch zu signieren nutze ich Okular und meinen Thunderbird-Zertifikatemanager. Verwendet wird hierbei ein PKI-Schlüssel, den ich (in anderer Form) von meiner Hochschule erhalten haben.

Schlüssel ins PKI-Format bringen

Meine Methode nutzt den Thunderbird-Zertifiaktemanager, und dieser nimmt nur PKCS12-Zertifikate an.

Von meiner Hochschule habe ich ein Zertifikat im PEM-Format erhalten (cert.pem und key.pem), mit dem Thunderbird nichts anfangen kann. Daher wandle ich mir mein PEM-Zertifikat in ein PKCS12-Zertifikat um:

openssl pkcs12 -export -out keyStore.p12 -inkey key.pem -in cert.pem

Das umgewandelte Zertifikat liegt nun in Datei keyStore.p12 vor.

PKCS12 in Thunderbird importieren

In Thunderbird wähle ich Bearbeiten -> Einstellungen -> Datenschutz & Sicherheit -> Zertifikate -> Zertifikate verwalten.

Es öffnet sich ein kleines Fenster, wählen Sie hier den Reiter “Ihre Zertifikate” und klicken Sie auf Importieren....


Wählen Sie die eben erstellte Datei (keyStore.p12) aus. Das importierte Zertifikat wird nun im Zertifikatemanager angezeigt.


Zertifikate in Okular einbinden

Öffnen Sie Okular und wählen im Menü “Einstellungen -> Anezigemodule einreichten...


Wählen Sie links den Reiter “PDF”.


Wechseln Sie zum Punkt “Benutzerdefiniert”, tragen dort den Pfad zu Ihrem Thunderbirdprofil (endet auf foobar.default) ein, und klicken anschließen auf “Anwenden”.


Okular muss nun neu gestartet werden.

Anschließend ist das Zertifikat “bereit” und wird in der Liste angezeigt.


PDF signieren

Öffnen Sie eine PDF-Datei in Okular.

Über den Menüpunkt “Extras -> Digital signieren...” kann das Dokument nun signiert werden.


Sie werden aufgefordert, ein Rechteck zu ziehen, in welchem die Signatur sichtbar eingefügt werden soll.


Nachdem Sie das Rechteck gezogen haben, öffnet sich ein kleines Fenster. Klicken Sie hier auf OK.


Sie werden nun aufgefordert, das neu signierte PDF-Dokument zu speichern, und hierfür einen Dateinamen anzugeben. Nach dem Speichern öffnet Okular automatisch das neu erstellte Dokument.

Die Signatur ist sichtbar eingefügt, und Okular weist darauf hin, dass das Dokument digital signiert ist. Klicken Sie auf “Signaturbereich anzeigen”.


Im Signaturbereich links sehen Sie nun die digtitale Signatur mit dem Hinweis, dass diese kryptografisch gültig ist.


Bie mir funktioniert das wunderbar!

:-)

Weblinks

1. März 2023

Mi, 1. März 2023, Fabian Schaar

Am 27. Februar hat das Emmabuntüs-Kollektiv eine die neue Unterversion 1.03 der Distribution Emmabuntüs Debian Edition 4 freigegeben. Im Vordergrund der Entwicklung steht seit jeher die Unterstützung älterer Hardware. Daher wird die Distro von einigen sozialen Organisationen, allen voran der Emmaus-Gemeinschaft auf gespendeter Hardware eingesetzt.

Mit der neuen Version wurde in erster Linie weitere Software integriert. Emmabuntüs ist auch auf den Einsatz ohne eine dauerhafte Internetverbindung ausgelegt: Wer die Distribution installiert, erhält ein stabiles Betriebssystem, basierend auf Debian 11.6.

Anwender sollen mit unzähligen vorinstallierten Anwendungen dazu angeregt werden, sich tiefer mit freier Software auseinanderzusetzen. Als Arbeitsumgebungen werden Xfce und LXQt angeboten.

Wichtig ist den Entwicklerinnen und Entwicklern auch, dass die Distribution möglichst barrierefrei genutzt werden kann. Emmabuntüs liefert das Cairo-Dock aus, welches über vordefinierte Profile an die Vorkenntnisse der Nutzer angepasst werden kann. Ziel ist es, Emmabuntüs auch für Anfänger und Schüler zugänglich zu machen.

Passend dazu wurde in der Neuen Version 4/1.03 das Werkzeug „CTparental“ in den Software-Bestand der Distro aufgenommen. Das Tool erlaubt Eltern, das Browsing-Verhalten ihrer Kinder im Internet zu begrenzen. Um die Ersteinrichtung zu vereinfachen, liefert Emmabuntüs ein Skript zur Verfügung. Außerdem erklären die Entwickler die Funktionalität des Programms in einem ausführlichen englischsprachigen Tutorial auf der Projektwebseite.

Desweiteren installiert Emmabuntüs nun auch „deb-get“ und das passende grafische Front-End „deborah“ vor. Damit können Debian-Pakete, die von Drittanbietern zur Verfügung gestellt werden, mit einer apt-get-ähnlichen Terminal-Syntax und einer Flutter-basierten GUI verwaltet werden.

Neben den eigentlichen Neuerungen wurden auch die Pakete für Firefox ESR, Thunderbird, Ventoy, Multisystem und Warpinator aktualisiert. Für Anfänger ist nun die Version 11.4 des Debian-Einsteigerhandbuchs enthalten.

Genauere Informationen zu Emmabuntüs und der neuen Veröffentlichung sind auf der Projektseite und in den entsprechenden Release-Notes zu finden. Interessierte können die Distribution unter emmabuntus.org/download herunterladen.

Bild: Patrick d'Emmabuntus, CC BY-SA 4.0, via Wikimedia Commons

PS: Guten Morgen an alle, die diesen Text schon um 6 Uhr lesen. :)


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

28. Februar 2023

Mozilla hat mit Firefox 110.0.1 ein Update außer der Reihe für seinen Desktop-Browser veröffentlicht und behebt damit mehrere Probleme der Vorgängerversion.

Download Mozilla Firefox 110.0.1

Mit dem Update auf Firefox 110.0.1 behebt Mozilla das Problem, dass ein Löschen der Cookies eines Zeitraums (zum Beispiel der letzten Stunde) in Firefox 110 alle Cookies löschte.

Der „Lesezeichen verwalten…“-Link in einer leeren Lesezeichen-Symbolleiste war auf Windows-Systemen nicht klickbar.

Unter Linux wurde ein WebGL-Absturz behoben, wenn Firefox innerhalb einer virtuellen VMWare-Maschine ausgeführt worden ist. Eine weitere behobene Absturzursache betrifft die Barrierefreiheits-Schnittstellen unter Windows.

Behoben wurde außerdem ein schon länger existierender Fehler, der unter macOS verursachen konnte, dass Kontextmenüs unter anderen Menüs statt darüber angezeigt werden konnten.

Ein Problem wurde behoben, auf Grund dessen sich Nutzer nicht mittels MitID bei dänischen Regierungsdiensten anmelden konnten.

Ein weiterer behobener Fehler betrifft den Dialog zum Speichern von Dateien, welcher einen falschen Dateinamen anzeigte, wenn der Dateiname mit einer Zahl begonnen hat.

Eine Korrektur gab es auch in der WebRTC-Implementierung, welche für Videokonferenz-Anwendungen unter bestimmten Voraussetzungen theoretisch ein Webkompatibilitätsproblem verursachen konnte (aber praktisch keine großen Auswirkungen gehabt haben sollte). Schon mehr Nutzer dürften von Performance-Problemen auf der Streaming-Website Twitch betroffen gewesen sein, sofern eine GPU von AMD verwendet wird. Auch dies wurde behoben.

Schließlich wurde noch ein Problem behoben, welches verursachen konnte, dass die Synchronisation einer größeren Anzahl an Tabs fehlgeschlagen ist.

Der Beitrag Mozilla veröffentlicht Firefox 110.0.1 erschien zuerst auf soeren-hentzschel.at.

Das Team hinter dem bekannten Multimedia-Programm FFmpeg hat am 27.02.2023 die Version 6.0 freigegeben. Bei diesem Majorrelease gibt es Änderungen an der API, die trotzdem teils inkompatibel zu älteren Versionen sind und somit diesen Majorrelease nötig machen.

Da oftmals Informationen über die einzelnen Releases nicht direkt aufbereitet bereitgestellt werden, kann ich den Talk zu FFmpeg und VLS.js von Jean-Baptiste Kempf auf der FOSDEM 2023 am 4. Februar 2023 in Brüssel empfehlen. Die wichtigsten Änderungen gliedern sich laut ihm in CLI-Verbesserungen für Multithreading, RISC-V-Optimierungen, die Einbindung der AV1-Hardwareunterstützung bei Intel, Nvidia und AMD, optimiertem FFT-Code für SIMD bei x86 und ARM sowie einigen Änderungen an der API.

Das Projekt hat sich vorgenommen, eine Majorversion und bis zu zwei Minorversionen pro Jahr zu veröffentlichen. Dabei soll alle zwei Jahre die x.1-Version Long Term Support (LTS) von zwei Jahren erhalten, für alle anderen Versionen ist ein Support von einem Jahr angesetzt.

FFmpeg erschien 2000 und wurde von Fabrice Bellard initiiert, der auch für sein QEMU-Projekt bekannt ist, welches eine wichtige Rolle in der Virtualisierung auf Linux einnimmt. Das offizielle und stichwortorientierte Changelog ist im Git-Repository von FFmpeg verfügbar.

Di, 28. Februar 2023, Lioh Möller

Die Abkürzung LAMP steht für Linux, Apache, MySQL und PHP. Dabei handelt es sich um einen standardisierten Webserver. Im Folgenden wird die Installation und Konfiguration unter einem Enterprise Linux Derivat wie Rocky Linux im Detail beschrieben.

Zunächst wird Apache wie folgt installiert:

dnf install httpd

Der Zugriff auf den Webservice muss in der Firewall erlaubt werden:

firewall-cmd --permanent --zone=public --add-service=http
firewall-cmd --permanent --zone=public --add-service=https
firewall-cmd --reload

Daraufhin kann MySQL, in Form von MariaDB installiert werden:

dnf install mariadb-server

Nun kann der Dienst initial gestartet werden:

systemctl start mariadb.service

Beide Dienste müssen für den automatischen Start beim Systemstart aktiviert werden:

systemctl enable httpd
systemctl enable mariadb

Zur Absicherung der Standardinstallation wird mysql_secure_installation aufgerufen.

Bei der Passwortabfrage kann Enter eingegeben werden, da bisher noch kein Passwort definiert wurde.

Da Unix Sockets nicht zur Authentifizierung verwendet werden sollen, wird diese Frage mit n beantwortet.

Das Root Passwort zum Zugriff auf den MariaDB Server sollte geändert werden.

Alle weiteren Fragen können jeweils mit y oder ENTER beantwortet werden. Aufgrund dessen werden anonyme Benutzer und die mitgelieferte Testdatenbank entfernt und Remote-Root-Logins werden deaktiviert. Abschliessend werden die neuen Regeln geladen, damit die Änderungen von MySQL angewendet werden.



Die Anmeldung an der MySQL-Konsole kann wie folgt geprüft werden. Dabei wird das zuvor vergebene Passwort abgefragt.

mysql -u root -p

Durch die Eingabe von exit oder quit wird die Konsole verlassen.

Nun kann PHP mit einigen grundlegenden Modulen installiert werden:

dnf install php-{common,gmp,fpm,curl,intl,pdo,mbstring,gd,xml,cli,zip,mysqli}

Mithilfe von php -v kann die installierte Version überprüft werden.



Für jede Webseite wird ein entsprechendes Verzeichnis unter /var/www erstellt. Im folgenden Beispiel gehen wir von hostname.domain.tld aus, welches an die persönlichen Bedürfnisse angepasst werden muss.

mkdir /var/www/hostname.domain.tld

Daraufhin wird im Verzeichnis /etc/httpd/conf.d eine VirtualHost Konfigurationsdatei erstellt

/etc/httpd/conf.d/hostname.domain.tld.conf

<VirtualHost *:80>
    ServerName hostname.domain.tld
    ServerAlias www.hostname.domain.tld
    ServerAdmin webmaster@hostname.domain.tld
    DocumentRoot /var/www/hostname.domain.tld
    ErrorLog "logs/error_log"
    CustomLog "logs/access_log" combined
</VirtualHost>

Mit dem Befehl apache2ctl configtest kann die Konfiguration auf Gültigkeit hin überprüft werden. Nach den Anpassungen muss der Webserver-Dienst neu geladen werden:

systemctl reload httpd


Nun kann eine einfache HTML-Datei im Verzeichnis des Virtual Hosts erstellt werden, um die Funktion der Webseite zu prüfen:

/var/www/hostname.domain.tld/index.html

<h1>It works!</h1>
<p>This is the landing page.</p>

Zugriff via Filezilla

Zur Installation der Webanwendung kann FileZilla verwendet werden. Dazu muss zunächst der SSH-Key hinterlegt werden. Dies erfolgt unter Einstellungen / Verbindung / FTP / SFTP. Dort wählt man den Punkt Schlüsseldatei hinzufügen... und gibt den Pfad zu dem zu verwendenden SSH-Private-Key an.



Als Ziel gibt man in den Verbindungsparametern beim Punkt Server das Zielsystem in der Form sftp://hostname.domain.tld an. Als Benutzername wird der gewünschte Account eingetragen. Die restlichen Felder (inklusive Passwort) können leer gelassen werden, da der Verbindungsaufbau mithilfe des SSH-Schlüssels erfolgt. Standardmässig öffnet sich die Verbindung im Home-Verzeichnis des Nutzers.

Im Verzeichnisbaum wechselt man in das Webroot (in diesem Beispiel: /var/www/hostname.domain.tld) und lädt dort die Webapplikation hoch.

Let's Encrypt Zertifikate

Zur Einrichtung eines SSL-Zertifikats wird Certbot verwendet, welches zunächst aus dem EPEL Repository installiert werden muss:

dnf install certbot python3-certbot-apache


Nach der Installation muss der Webserver-Dienst neu gestartet werden:

systemctl restart httpd


Das Zertifikat kann nun wie folgt beantragt werden:

certbot --apache -d hostname.domain.tld

Bei Bedarf können mit dem Parameter -d weitere Aliase angegeben werden, wie beispielsweise www.hostname.domain.tld. Diese müssen in der VirtualHost Konfigurationsdatei ebenfalls angegeben werden.

Beim ersten Aufruf wird nach einer E-Mail-Adresse gefragt. Hier kann die Adresse des Webmaster angegeben werden. Die Nutzungsbedingungen können durch die Eingabe von A akzeptiert werden. Die Aufforderung zum Teilen der E-Mail-Adresse wird verneint.

Nach einer erfolgreichen Erstellung werden die Zertifikatspfade ausgegeben. Darüber hinaus wird durch das Apache Plugin automatisch eine entsprechende SSL VirtualHost Konfiguration /etc/httpd/conf.d/hostname.domain.tld-le-ssl.conf erstellt und Anfragen auf HTTP automatisch auf HTTPS umgeleitet.

Die Erneuerung der Zertifikate kann automatisch über einen systemd-Timer erfolgen. Dieser muss dazu aktiviert und gestartet werden:

systemctl enable certbot-renew.timer
systemctl start certbot-renew.timer

Alle aktiven Timer lassen sich mit folgendem Befehl ausgeben:

systemctl list-timers

.htaccess

Viele Webanwendungen setzen Parameter über Konfigurationen in sogenannten .htaccess Dateien. Damit diese interpretiert werden können, muss dies in der Apache Konfiguration über den Parameter AllowOverride AuthConfig erlaubt werden:

/etc/httpd/conf.d/hostname.domain.tld-le-ssl.conf

<IfModule mod_ssl.c>
<VirtualHost *:443>
...
    <Directory /var/www/hostname.domainname.tld>
        AllowOverride All
    </Directory>
...
</VirtualHost>
</IfModule>

Dabei muss lediglich innerhalb der VirtualHost Konfiguration die Directory Detektive ergänzt werden, alle weiteren Einträge können beibehalten werden.

phpMyAdmin

Zur grafischen Verwaltung der Datenbank eignet sich phpMyAdmin. Die Installation erfolgt ebenfalls aus dem EPEL-Repository mit folgendem Befehl:

dnf install phpmyadmin

Das Paket enthält eine Beispielkonfiguration für den Webserver, welche wie folgt bearbeitet werden sollte, um die Anwendung zusätzlich mit einer Passwortabfrage zu schützen:

/etc/httpd/conf.d/phpMyAdmin.conf

...
<Directory /usr/share/phpMyAdmin/>
   AddDefaultCharset UTF-8

   Require local
   AllowOverride All
</Directory>
...

Es muss lediglich die Zeile AllowOverride All zum entsprechenden Abschnitt hinzugefügt werden. Alle weiteren Einträge können belassen werden.

Daraufhin kann eine .htaccess Datei mit folgendem Inhalt erstellt werden:

/usr/share/phpMyAdmin/.htaccess

AuthType Basic
AuthName "Restricted Access"
AuthUserFile /etc/phpMyAdmin/.htpasswd
<RequireAny>
  Require valid-user
</RequireAny>

Das Passwort für den Zugriff kann mit dem Befehl htpasswd aus dem Paket httpd-tools erstellt werden:

dnf install httpd-tools
htpasswd -c /etc/phpMyAdmin/.htpasswd webmaster

In obigem Beispiel wird als Benutzername webmaster verwendet.

Abschliessend sollte die Webserver-Konfiguration neu eingelesen werden:

systemctl restart httpd

Der Zugriff auf phpMyAdmin erfolgt über https://hostname.domain.tld/phpMyAdmin

Datenbank Zugriff

Webapplikationen mit Datenbankzugriff sollten nicht den MySQL Root Benutzer verwenden. Es kann wahlweise über die MySQL Konsole (mysql -u root -p) oder phpMyAdmin eine Datenbank und ein Benutzer erstellt werden:

create database mydatabase;

SELECT PASSWORD('mypassword');

CREATE USER 'mydbuser'@'localhost' IDENTIFIED VIA mysql_native_password USING '41-digit hexadecimal number';
GRANT SELECT, INSERT, UPDATE, DELETE ON mydatabase.* TO 'mydbuser'@'localhost';
FLUSH PRIVILEGES;

Anstelle der 41-digit hexadecimal number wird die Ausgabe von SELECT PASSWORD eingefügt.

SELinux

Standardmässig ist auf einem Enterprise Linux System das Sicherheits-Framework SELinux aktiv. Sollte eine Webapplikation beispielsweise in der Lage sein, Daten in ein /uploads Verzeichnis schreiben zu können, dann muss dazu neben den Dateisystemberechtigungen der SELinux-Kontext auf das Verzeichnis oder die Datei gesetzt werden.

semanage fcontext -a -t httpd_sys_rw_content_t "/var/www/hostname.domain.tld/uploads(/.*)?"
restorecon -Rv /var/www/hostname.domain.tld/

SELinux: https://www.serverlab.ca/tutorials/linux/web-servers-linux/configuring-selinux-policies-for-apache-web-servers/


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

27. Februar 2023

Ich habe meinen Junk Ordner aufgeräumt und die Aufbewahrungszeit auf 60 Tage beschränkt.

Warum schreibe ich das?

Um es mir zu merken und darauf hinzuweisen, das auf dem rootserver ein Script läuft, welches die Spam/Junk Ordner scannt und mittels spamassisin den Bayes Filter füttert.

Leider war das Script seit einiger Zeit inaktiv, als mir das heute affiel habe ich das Script etwas angepasst und fiel über die Größe meines Junk Ordners, der war bei >1100 Messages. Den Mist braucht man ja nun wiklich nicht zu lange aufheben...

Mo, 27. Februar 2023, Lioh Möller

Eine App zum Zugriff auf die befreundete Webseite LinuxNews gibt es bereits seit einiger Zeit im OpenStore. Als Autor wird AJ genannt, doch das verlinkte Quelltext Repository liefert leider zum heutigen Tag einen Fehler 404.

Bedauerlicherweise fehlte bisher eine Applikation zum Zugriff auf unser News-Portal. Natürlich kann dazu der Webbrowser Morph oder Sapot genutzt werden. Dennoch haben wir uns entschieden, eine App bereitzustellen, denn diese bietet einige Vorteile. Die Bildschirmgrösse wird besser ausgenutzt und so können mehr Inhalte dargestellt werden. Auch Navigationselemente wurden integriert. Über Menü am oberen linken Bildschirmrand können alle wichtigen Funktionen der Webseite schnell aufgerufen werden. Die Applikation skaliert dabei nahtlos und kann sowohl auf einem Mobiltelefon als auch auf einem Tablet genutzt werden.

Dank des Untermenüs für unsere Artikelkategorien, lassen sich entsprechende Inhalte nach Interessen gruppiert auffinden. Die App ist ab sofort im OpenStore verfügbar und das dazugehörige Git Repository ist öffentlich. Wir freuen uns sehr über Code-Beiträge und natürlich auch über eine positive Bewertung im AppStore.

OpenStore: https://open-store.io/app/gnulinuxch.liohmoeller
Git-Repository: https://github.com/LiohMoeller/gnulinuxch


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

26. Februar 2023

Mozilla hat Firefox Translations 1.3 veröffentlicht. Dabei handelt es sich um eine Übersetzungsfunktion für Websites, welche im Gegensatz zu Übersetzern wie Google Translate vollständig ohne Online-Komponente auskommt. Highlights der neuen Version sind die Text-Auswahl-Übersetzung sowie Unterstützung von Firefox für Android.

Was ist Firefox Translations?

Im Rahmen des von der Europäischen Union geförderten Bergamot-Projekts hatte Mozilla gemeinsam mit der University of Edinburgh (Schottland), der University of Tartu (Estland), der University of Sheffield (England) sowie der Charles University (Tschechien) zusammengearbeitet, um eine vollständig clientseitige Funktion zur maschinellen Übersetzung von Websites für den Browser zu entwickeln. Das bedeutet, dass die Übersetzung vollständig im Browser geschieht und keine zu übersetzenden Inhalte an einen Datenriesen wie Google oder Microsoft übermittelt werden müssen.

Download Firefox Translations

Die Neuerungen von Firefox Translations 1.3

Nach dem großen Update auf Firefox Translations 1.2.0 im November 2022 hat Mozilla nun Firefox Translations 1.3 veröffentlicht. Die exakte Versionsnummer lautet Firefox Translations 1.3.2.

Text markieren und übersetzen

Nachdem die Kernkompetenz von Firefox Translations die Übersetzung vollständiger Websites ist und es seit Version 1.2 außerdem ein freies Textfeld zur Übersetzung von beliebigem Text gibt, bringt Firefox Translations 1.3 zusätzlich die Möglichkeit, eine Textstelle auf einer Website zu markieren und diese per Kontextmenü-Eintrag übersetzen zu lassen. Die Übersetzung erscheint anschließend im Übersetzungs-Popup.

 Firefox Translations 1.3

Verbesserungen des Übersetzungs-Popups

Eben jenes Übersetzungs-Popup, welches auch für die freie Textübersetzung genutzt wird, hat mehrere Verbesserungen erhalten.

So wird das Eingabefeld nach Klick auf das Erweiterungs-Symbol direkt fokussiert, so dass man sofort mit der Eingabe starten kann.

Die Sprache des eingegebenen Textes kann Firefox Translations jetzt automatisch erkennen.

Außerdem merkt sich die Erweiterung den eingegebenen Text nach dem Schließen des Übersetzungs-Popups für 60 Sekunden. Bislang wurde das Eingabefeld mit dem Schließen direkt geleert, was besonders ärgerlich war, wenn man dieses versehentlich geschlossen hat.

Insgesamt kommt das Übersetzungs-Popup nun etwas Platz sparender daher und bei Verwendung eines dunklen Firefox-Themes ist dieses jetzt auch Schwarz und nicht länger Weiß.

Firefox Translations für Android

Firefox Translations 1.3 ist die erste Version, welche auch Firefox für Android unterstützt. Da Firefox für Android noch keine generelle Erweiterungs-Unterstützung besitzt (eine solche ist für dieses Jahr geplant) muss derzeit Firefox Nightly oder Firefox Beta mit einer benutzerdefinierteren Erweiterungs-Sammlung genutzt werden, um Firefox Translations auf Android nutzen zu können. Firefox Translations für Android unterstützt sowohl die Übersetzung vollständiger Websites als auch von freiem Text.

Firefox Translations 1.3 für Android

Ausblick: Firefox Translations wird natives Firefox-Feature

Wie bereits vergangenen Monat berichtet, wird Firefox Translations ein natives Firefox-Feature werden und langfristig nicht länger die Installation einer Erweiterung erfordern. Bis es soweit ist, wird es aber noch eine Weile dauern. Wer eine Nightly-Funktion von Firefox nutzt und über about:config den Schalter browser.translations.enable per Doppelklick auf true setzt, sieht sogar bereits erste Spuren der bereits begonnenen Arbeit, wenn about:translations in die Adressleiste eingegeben wird. Dabei handelt es sich aber weder funktional noch optisch auch nur annähernd um ein fertiges Produkt, auch wenn zumindest die freie Textübersetzung auf diese Weise bereits genutzt werden kann.

Erste Integration von Firefox Translations in Firefox Nightly (about:translations)

Neben einer nativen Integration in Firefox ist mit einer neuen Oberfläche, der Unterstützung für ältere Hardware sowie für weitere Sprachen zu rechnen.

Der Beitrag Firefox Translations 1.3 bringt Text-Auswahl-Übersetzung und Android-Unterstützung erschien zuerst auf soeren-hentzschel.at.

24. Februar 2023

Fr, 24. Februar 2023, Lioh Möller

Vermutlich hat es jeder von uns bereits einmal gehört:

Aus betrieblicher Sicht ist es sinnvoll, nur noch ...

Es folgt dann meist etwas wie: Windows einzusetzen, über Teams zu telefonieren oder ähnliches. Grundsätzlich handelt es sich dabei in den meisten Fällen, um einen Weg patriarchische Strukturen zu erhalten und den Willen einzelner, ohne den Einbezug aller Beteiligten durchzusetzen. Leider entspricht diese Annahme in den seltensten Fällen der Realität, denn unsere Welt ist vielfältig und die Bedürfnisse sind unterschiedlich.

Freie Software hingegen wird in der Regel im Konsens entwickelt. Das heisst zunächst werden alle Bedürfnisse abgeholt und dann gemeinsam eine demokratische Entscheidung gefällt, bei der jeder Teilnehmer ein gleichwertiges Stimmrecht hat. So zumindest in einer idealen Welt. Tatsächlich herrscht in vielen Projekten eine Meritokratie, bei der Menschen, die mehr leisten, ein höheres Votum erhalten. Auch hier besteht die Gefahr, dass Minderheiten übergangen werden und sich eine sogenannte Oligarchie bildet.

Beispiele aus der jüngsten Vergangenheit wäre die Entscheidung von Canonical, in Zukunft die als Flavors bezeichneten Derivate der Distribution, standardmässig ohne Flatpak auszuliefern. Der Prozess, welcher dazu geführt hat, ist nicht transparent einsehbar und die Entscheidung wurde hinter verschlossenen Türen ohne Einbezug der Community getroffen. Ein Vorgehen, das Canonical selbst bei anderen immer wieder kritisiert hat und welches beispielsweise Mark Shuttleworth im Zusammenhang mit der Mir Entwicklung verleitet hat, von einer Open Source Tea Party zu sprechen. (Einen Ausrutscher, für den er sich später entschuldigt hat)


Die Entscheidung, Flatpak standardmässig nicht mehr auszuliefern, führt zwangsläufig dazu, dass Betroffene selbst Lösungen entwickeln. In diesem konkreten Beispiel würde ein Anwender bei Bedarf Flatpak manuell über den Paketmanager installieren und das Flathub Repository selbstständig aktivieren. Nun kann man sagen, dass dies ja unproblematisch sei. Ein nachhaltigerer Ansatz wäre jedoch, Flatpak standardmässig zu installieren, das Flathub Repository vorzukonfigurieren, aber zu deaktivieren. Nutzer hätten dann die Möglichkeit, über einen einfachen Schalter in der Softwareverwaltung das Repository bei Bedarf zu aktivieren (Opt-in). Technisch wäre dies bereits heute mit der aktuellen GNOME Softwareverwaltung möglich.

Vorbildlich hingegen lösen Projekte wie Debian GNU/Linux solche Entscheidungsfindungsprozesse. Sofern nicht ohne weiteres ein Konsens gefunden werden kann, besteht die Möglichkeit einen als General Resolution bezeichneten Prozess zu starten. Dabei können zunächst von der Community verschiedene Vorschläge zur Lösung eingebracht werden, über die daraufhin abgestimmt werden kann. Deutlich wurde dies beispielsweise bei der Frage, ob unfreie Firmware mit der Distribution ausgeliefert werden soll.

Argumente, dass sich dieses Vorgehen nicht auf das Geschäftsumfeld adaptieren liesse, sind letztlich Ausreden und führen dazu, dass einige wenige, meist ältere weisse Männer, Entscheidungen treffen, die für eine bunte Kundschaft oder Belegschaft gültig sein sollen. Auch Behauptungen, dass demokratische Prozesse die Innovation unterbinden würden, verkehren sich unter genauerer Betrachtung schnell ins Gegenteil. Ein Beispiel für einen positiven Einbezug der Community im Geschäftsumfeld wäre Nextcloud, eine Software, die so vielfältig ist wie ihre Anwender.

Bildquelle: https://www.flickr.com/photos/foobarbaz/141522112/ - Mark Shuttleworth am Linuxtag 2006 in Wiesbaden.


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

Fr, 24. Februar 2023, Ralf Hersel

So manch einer fragt sich, ob ein getaktetes, ein LTS (long term support) oder ein Rolling-Release Modell die beste Wahl für die eigenen Bedürfnisse ist. Was ich damit meine, zeige ich am Beispiel dieser Distributionen:

  • Fedora fährt ein getaktetes Release-Modell: alle 6 Monate gibt es eine neue Version.
  • Ubuntu ist auch getaktet: jeden Frühling und Herbst erscheint eine neue Version.
  • Ubuntu publiziert ausserdem allen 2 Jahre eine LTS-Version.
  • Arch-Linux ist ein Rolling-Release: die aktuellen Pakete treffen kontinuierlich ein.
  • Manjaro verfolgt den Semi- oder kuratierten Rolling-Release Ansatz: Pakete werden in kontinuierlichen Stufen ausgerollt.

Bei den getakteten oder LTS-Varianten bedeutet das für die Anwenderin eine Neuinstallation nach einer bestimmten Zeit; bei getakteten nach ca. 6 bis 18 Monaten, bei LTS-Releases nach ca. 2 Jahren. Verwendet man eine Rolling-Release-Distribution, muss man theoretisch niemals neu installieren. Um das "theoretische" geht es in diesem Artikel.

Wer eine Rolling-Distro installiert hat, fragt sich vielleicht, wie lange das Ding schon läuft. Um das herauszufinden, gibt es drölfzig verschiedene Kommandos. Das Einfachste ist dieses:

stat -c %w /
2022-05-04 04:14:44.000000000 +0200

Mein Notebook läuft demnach nicht einmal ein Jahr lang rollend. Auf diesem System habe ich keine Probleme. Manjaro/GNOME läuft darauf bestens. Etwas anders sieht es auf meinem HP-Desktop aus:

stat -c %w /
2021-05-08 15:08:45.000000000 +0200

Der läuft ziemlich genau 1 Jahr länger auf Manjaro, also seit 2 Jahren. Zwei Jahre sollten für ein Rolling-Release kein Problem sein. Im Grossen und Ganzen ist es das auch nicht. Erst seit dem GNOME 43.3 Update kann sich die Desktop-Umgebung auf meinem HP nicht mehr daran erinnern, dass ich das dunkle Erscheinungsbild eingestellt habe. Nach jedem Log-in wird das standardmässige helle Theme angezeigt. Trotz Recherche in diversen Foren und Befragung unserer HELP-Gruppe habe ich noch keine Lösung gefunden. Doch bin ich zuversichtlich; bisher hat die Kraft der Community noch jedes Problem gelöst. In der Zwischenzeit behebe ich das Beibehalten des Dark-Modus mit einem Autostart-Shell-Skript:

gsettings set org.gnome.desktop.interface color-scheme prefer-dark

Spannend wird es, wenn man länger als die üblichen Zweijahres-Zyklen der LTS-Releases unterwegs ist. Da ich diese Laufzeit-Erfahrung noch nicht habe, kann ich nur spekulieren, bzw. die Zeichen, die ich sehe, extrapolieren. Wer an einer Rolling-Distro nicht herumschraubt, wird vermutliche viele Jahre ohne Probleme damit arbeiten können. Doch das Schrauben liegt den meisten Linuxern im Blut. Bei mir ist es sozusagen "berufsbedingt". Für die Artikel bei GNU/Linux.ch muss ich oft Anwendungen installieren, um sie testen und darüber schreiben zu können. Nicht immer mache ich das in einer virtuellen Maschine. Ausserdem optimiere ich gerne meinen GNOME-Desktop mit Erweiterungen, auf dem Weg zur perfekten Umgebung.

Beim GNOME-Desktop kann man sich mit Vanille zufriedengeben, oder den Kampf gegen die Minimalisierung aufnehmen. Ich schätze, dass viele den zweiten Weg wählen. Und dieser Weg hat einen Namen: Extensions. Dummerweise ist die Welt der Erweiterungen ein Minenfeld. Sehr ähnliche Erweiterungen drehen an sehr ähnlichen Parametern in den GNOME-Settings. Da ist es kein Wunder, wenn die Erweiterungen die Desktop-Umgebung zur Konfusion bringen.

Meine Vermutung ist, dass man jede Rolling-Distribution nach einer gewissen Zeit "kaputtgefrickelt" hat. Dann ist eine Neuinstallation fällig. Die Formel dafür hat zwei Variablen: Zeit und Frickel-Energie. Je länger, desto kaputt. Je mehr Gefrickel, desto kaputt.

Mich würde die Erfahrung der Langzeit-Roller zu diesem Thema interessieren. Wie lange konntet ihre eure Rolling-Distro am Leben erhalten? Wie sah euer Frickel-Faktor aus? Schreibt es gerne in die Kommentare.


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.