ubuntuusers.de

24. Mai 2023

Mi, 24. Mai 2023, Ralf Hersel

Rhino Linux ist eine Distribution, die auf Ubuntu basiert und als einziger Abkömmling dieser Familie den Rolling Release Ansatz verfolgt. Der selbst entwickelte Paketmanager rhino-pkg ermöglicht das Suchen, Installieren, Entfernen und Aktualisieren von Paketen aus verschiedenen Quellen, wie native DEB-Repos, Pacstall, Flathub, AppImages und Snap Store. Am 17. Mai haben die Entwickler die fünfte Beta der kommenden stabilen Version von Rhino bereitgestellt. Als Besonderheit ist darin der Unicorn-Desktop enthalten.

Rhino Linux 2023.1-beta5 behebt kleinere Probleme aus den vorherigen Versionen und ist die erste Beta mit dem neuen Unicorn Desktop. Dieser wurde entwickelt, um den Benutzern eine optisch ansprechende und leichtgewichtige Oberfläche zu bieten. Er basiert auf der neuesten Xfce 4.18-Umgebung und wurde mit Blick auf die Benutzererfahrung entwickelt. Eines der Hauptmerkmale des Unicorn-Desktops ist der integrierte Ulauncher, ein leichtgewichtiger und hochgradig anpassbarer Anwendungsstarter für Linux, der in Python geschrieben wurde.

Überdies wurde das App Grid von Rhino, Lightpad genannt, der Xfce-Desktop-Umgebung hinzugefügt. Damit werden sich GNOME-Benutzer wie zu Hause fühlen. Es ist ein einfacher, aber leistungsstarker Wayland-kompatibler Anwendungsstarter, der visuell ansprechend in den Unicorn-Desktop integriert ist. Zusätzlich gibt es den Xfdashboard-basierten Desktop Switcher, der eine Übersicht der geöffneten Anwendungen und Zugang zu den Arbeitsflächen schafft. Die drei Steuerelemente sind zuoberst im Plank-basierten Dock auf der linken Seite angebracht und im lila Systemthema gestaltet.

Rhino eignet sich für Anwender:innen, die einen schnellen und leichtgewichtigen Desktop (Xfce) schätzen, aber dennoch ein modernes GNOME-Feeling mit gutem Theming haben möchten. Ein weiterer Vorteil der Distribution ist die Unterstützung der vielen Paketquellen. Zwar gibt es keinen grafischen Paketmanager, aber rhino-pkg macht im Terminal einen guten Eindruck und ist so einfach wie apt zu bedienen. Insbesondere wegen des Rolling Release Modells, halte ich Rhino Linux für eine Distribution, die eine Lücke gut ausfüllt.

Weitere Details über den Unicorn-Desktop finden sich auf der Website des Projekts:

Quelle: https://rhinolinux.org/index.html


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

23. Mai 2023

Kürzlich habe ich in einem Artikel kritisiert, dass seit November 2020 keine neue offizielle Version des Displaymanagers SDDM veröffentlicht wurde, obwohl dieser aktiv weiterentwickelt wird und zudem zwischenzeitlich einige nervige Bugs behoben wurden. Mit etwas Glück könnte sich das in absehbarer Zeit ändern.

Nate Graham hat den Vorschlag gemacht, aus SDDM ein offizielles KDE-Projekt zu machen. Zumal ein Großteil aller Entwickler von SDDM auch KDE-Entwickler sind. SDDM würde sich dann ggf. auch am Release-Zyklus von Plasma orientieren, sodass regelmäßig neue Versionen veröffentlicht würden. Wenn alle klappt wie vorgeschlagen, dann könnte SDDM bereits Teil von Plasma 6 sein.

Di, 23. Mai 2023, Lioh Möller

Wer sich gerne mit Retro-Computer beschäftigt, wird wahrscheinlich schon über unsere Serie zum Thema RISC OS gestolpert sein. In einer kurzen Geschichtsstunde beschreibe ich die Entwicklung der ARM-Architektur sowie des Betriebssystems RISC OS (Achtung: entgegen dem Namen hat es nichts mit der RISC-V lautenden Prozessorarchitektur zu tun!).

Mit einem Emulator lässt sich RISC OS auch auf einem Linux-Computer nutzen und in einem Tutorial beschreibe ich die ersten Schritte zum Umgang mit dem Betriebssystem.

Ich empfehle einen Blick darauf zu werfen, denn es unterscheidet sich sehr von dem, was ihr sonst so kennt.

Neben den aussergewöhnlichen Bedienkonzepten, gibt es für RISC OS eine grosse Anzahl von Softwareperlen zu entdecken. Die meisten Anwendungen sind liebevoll gestaltet und machen viel Spass. Dazu zählt auch Archimedes Pyrotechnic, ein Feuerwerksemulator.

Der Entwickler Rocketeer hat in seiner Diskettenkiste gekramt und die aus den 90er Jahren stammende Applikation neu zur Verfügung gestellt. Es handelt sich um einen realistischen Simulator mit schier unbegrenzten Möglichkeiten. Die erstellten Feuerwerke werden mit realistischen Klängen untermalt.


Natürlich entspricht die Grafikausgabe dem Stand der damaligen Technik, beeindruckend ist sie aber dennoch.


Wer ein Feuerwerk-Nerd ist (oder werden möchte), sollte unbedingt den Emulator anfeuern und Archimedes Pyrotechnic ausprobieren. Im stardot.org.uk Forum ist ein ausführliches README verlinkt, dass die Funktionsweise im Detail beschreibt.

Quelle: https://stardot.org.uk/forums/viewtopic.php?f=70&t=26903


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

Di, 23. Mai 2023, Lioh Möller

Im ersten und zweiten Teil dieser Serie habe ich bereits beschrieben, dass ich auf der Suche nach einer möglichst vollwertigen Linux Distribution für meinen Eee PC war. Im Verlauf der Zeit konnte ich verschiedene Lösungen ausprobieren, für mich war allerdings klar, dass ein annähernd vollwertiger Desktop zum Einsatz kommen sollte. Ich habe bereits viel Erfahrungen mit Windowmanagern gemacht und selbst lange IceWM genutzt. Die von mir erstellten Themes sind immer noch ganz oben in der Topliste auf Box-Look.org

Allerdings habe ich auch den Komfort von Desktopumgebungen kennengelernt. Zum Beispiel geniesse ich es sehr, nicht für jede kleine Änderung eine Konfigurationsdatei anpassen zu müssen.

Meine Suche nach der passenden Distro und dem für mich gut funktionierenden Desktop, hat mich letztendlich zu Debian GNU/Linux mit LXDE geführt. Da ich trotz der altertümlich anmutenden Desktop-Paradigmen gerne neue Software verwende, entschied ich mich für den unstable Zweig Sid.

Das System läuft auf dem Netbook erstaunlich gut und es steht eine Vielzahl an Software zur Verfügung. Ich konnte bereits einige schlanke Anwendungen ausmachen, wie beispielsweise den Falkon Browser oder Balsa als Mailprogramm.

Da ich Office Anwendungen nur dann nutze, wenn ich es wirklich muss, entschied ich mich für Abiword und Gnumeric, wobei letzteres wohl neben dem initialen Start zum Funktionstest eher ein Schattendasein fristen wird. Ich habe grössten Respekt vor Menschen, die quasi alles in einer Tabellenkalkulation machen. Mir ist diese Fähigkeit leider nicht gegeben.

Als Matrix Client kommt Quaternion zum Einsatz und Telegram habe ich ebenfalls installiert (ja ich weiss, ich kann es nicht lassen; die Sticker, es sind die Sticker).


Wenn ich das Netbook mit in die Ferien nehme, spiele ich gerne auch mal ein wenig, und so habe ich mir eine schöne Sammlung zusammengestellt. VLC habe ich zwar installiert, aber man merkt, dass bei grösseren Dateien die Ausgabe ruckelig wird. mpv hingegen spielt anstandslos.

Auch einiges an Lernsoftware konnte ich entdecken, wie beispielsweise GNU Solfege, einer Hörtrainings-Anwendung. Piano Booster macht auch unheimlich Spass, wahrscheinlich sogar noch mehr, wenn man ein USB-MIDI-Keyboard anschliesst.

Meine geliebten Zeichen- und Malprogramme Gimp und Inkscape dürfen natürlich auch nicht fehlen und sie funktionieren auch auf der älteren Hardware noch erstaunlich gut.

Ich bin immer noch auf der Suche nach weiteren guten und schlanken Apps. Was könnt ihr empfehlen?

Gerne möchte ich das fertige System auch anderen Menschen anbieten (a.k.a. meiner Mutter) und habe mich daher in die Erstellung einer angepassten Distribution eingelesen. Mit Live-Build stehen unter Debian tolle Werkzeuge dazu bereit. Allerdings wollte ich gerne ein installierbares Live-Medium bauen, da man es auch vorher ausprobieren können soll. Zu Zeiten von easys GNU/Linux gab es das noch nicht wirklich. Kurz nach dem letzten Release der Distribution kam Canonical dann mit den ersten installierbaren Live-CDs um die Ecke.

Standesgemäss habe ich mich dabei für Calamares entschieden, das von der Funktionalität alles bietet, was man braucht.

Das Ergebnis werde ich euch noch im Laufe dieser Woche vorstellen. Aufmerksame Leser und Hörerinnen unseres Podcasts wissen bereits mehr.


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

Wenn es um proprietäre und freie Software (im öffentlichen Dienst) geht, wird gerne ein Schwarz-Weiß-Bild gezeichnet. Dort der böse proprietäre Monopolist, der immer die Preise erhöht, hier die bessere und günstigere freie Software. Die Realität ist aber nicht schwarz-weiß, sondern grau.

Denn wenn Regierungen die Förderung von Open Source oder gar ein striktes Open Source-Mandat in ihr Programm schreiben und durchzusetzen versuchen, stoßen sie auf komplexere Realitäten, als es die einseitige Verengung auf Microsoft vs. Linux vermuten lässt. Ein Beispiel:

Eine Behörde setzt seit vielen Jahren auf eine proprietäre Software. Diese funktioniert anerkanntermaßen recht gut und wird von einem kleinen Softwarehaus in Deutschland ständig weiterentwickelt. Die Software ist eine eierlegende Wollmilchsau. Das Lizenzmodell ist die früher durchaus übliche Kombination aus Lizenzerwerb und Servicevertrag. Durchaus keine billige Kombination, die Marge der Firma ist nicht bekannt. Die Software läuft auf Servern in den Behörden. Beim lokalen Betrieb sind einige Varianten möglich, aber man kann die Leitplanken der Firma nicht durchbrechen. Bei Problemen steht der Service der Firma zur Verfügung. Die Software unterstützt die einschlägigen Standards und offenen Schnittstellen, ist aber ansonsten natürlich nicht offen. Sollte die Firma eines Tages nicht mehr existieren, stünde die Behörde ziemlich im Regen, aber dank offener Schnittstellen könnten die Daten jederzeit exportiert werden. Natürlich mit den üblichen Reibungsverlusten einer Migration.

Für den gleichen Zweck gibt es eine Freie-Software-Suite. Diese ist historisch gewachsen und die Qualität auch entsprechend. Es gibt bessere und schlechtere Module und viele Behörden nutzen nur einige Module und verwenden für den Rest andere Software, die sich anbinden lässt. Aber das weiß man natürlich nur, weil man in den Code schauen kann. Die Entwicklung findet über einen Verein statt, in dem die Mitgliedschaft quasi Pflicht ist. Damit verbunden sind Mitgliedsbeiträge und eine verpflichtende finanzielle Beteiligung an der Weiterentwicklung. Das ist natürlich keine rechtliche Verpflichtung, aber ohne diese ist man in gewisser Weise von der Community und den Dienstleistern abgeschnitten. Da es sich um freie Software handelt, sind den Anpassungen kaum Grenzen gesetzt. Je mehr Anpassungen, desto höher natürlich der Wartungsaufwand. Aber auch der Basisbetrieb ist nicht trivial. Dies führt in vielen Verwaltungen, die diese Software einsetzen, zu einem massiven Einsatz von Dienstleistern für die Ersteinrichtung und größere Updates. Aus diesem Grund haben sich einige Dienstleistungsunternehmen auf Serviceangebote für diese Software spezialisiert. Teilweise haben diese noch Beratungsleistungen im Portfolio und helfen bei der Evaluierung und Ausschreibung der Dienstleistung auf die sie sich dann selbst bewerben. Ohne diese Dienstleister wären die Behörden nicht in der Lage, die Software langfristig zu betreiben.

Die Kosten für beide Systeme sind in etwa gleich. Im Einzelfall kann die eine oder andere Lösung günstiger sein. Bei der einen Software sind es Lizenzen und Wartungsvertrag, bei der anderen Dienstleister, Mitgliedsbeiträge und Weiterentwicklung. Hinzu kommen der Betrieb der Server in den Verwaltungen und deren Wartung durch Systemadministratoren. Eine Migration ist natürlich immer mit spezifischen Migrationskosten verbunden.

Eine Migration zwischen beiden Systemen ist in beide Richtungen möglich, aber extrem aufwändig und beeinträchtigt die tägliche Arbeit und die Gestaltungsmöglichkeiten der Behörde während der Migrationsphase.

Dies ist ein reales Beispiel. Ich behaupte, dass die meisten proprietären Lösungen in Behörden in diese Kategorie fallen und keine Microsoft-Apple-Google-Produkte sind. Solche Beispiele habe ich im Kopf, wenn ich über proprietäre Lösungen und Open-Source-Software im öffentlichen Dienst schreibe.

Ist es hier sinnvoll, von einem System auf das andere umzusteigen, nur weil eine Koalition sich freie Software in den Koalitionsvertrag geschrieben hat? Was hat der Kunde, der Bürger davon?

Die Realität ist eben grau.

Ungefähr einmal im Jahr sind die Lizenzkosten von Microsoft in gewissen Kreisen ein Thema. Über 200 Millionen zahlt der Bund mittlerweile für seine IT. Wow! Klickzahlen-Garant! Leider auch immer wieder ein Ereignis, bei dem die Community tief blicken lässt.

Es gab eine Zeit, da wollte man überzeugen. Man wollte gleichwertige Produkte präsentieren, Alternativen aufzeigen, bessere Wege gehen. Davon ist man längst abgekommen. Denn das würde eine argumentative Anerkennung der Realität bedeuten, zu der sich viele in der Linux-Gemeinde offenbar nicht mehr durchringen können. Stattdessen bringt man andauernd das Geld-Argument. Mal populistisch, mal in Form von „Public Money, public Code“.

Das ist in gewisser Weise logisch. Denn ohne eine gemeinsame Faktenbasis ist eine Diskussion nur schwer möglich. Liebevoll gepflegte und durch ständige Wiederholung tief verankerte Narrative in der Open-Source-Community haben längst einen Fundus an alternativen Wahrheiten entstehen lassen. Gespickt mit den üblichen Methoden des Populismus und Verschwörungsglaubens, die auch sonst in vielen gesellschaftlichen Bereichen anschlussfähig sind. Manche werden das jetzt wieder übertrieben finden, aber ich glaube, es sind die gleichen Muster.

In bester AfD-Manier wird davon geschwafelt, dass die Regierung den Willen des Vokes missachtet – wir sind das Volk, natürlich bei auch bei ~5% Marktanteil für Linux. Es hätte doch alles anders kommen können, wenn LiMux nicht durch fiese Sabotage zerstört worden wäre. Es gibt gar keine objektiven Gründe, die für Microsoft-Produkte sprechen könnten, Open Source ist bereits perfekt und deshalb können nur dunkle Mächte den Siegeszug verhindern. Diese dummen Bürokraten schieben doch sowieso nur Word-Fenster durch die Gegend. Billiger wäre Open-Source in jedem Fall auch. Ist ja alles kostenlos. Natürlich kann die Bundes-IT mit Schwäbisch Hall vergleichen werden. Und Schleswig-Holstein erst. Dataport! Der Einsatz von Microsoft ist übrigens illegal. Schon gewusst. Sagt sogar… wer eigentlich?

Es ist schon beeindruckend, wie manche Journalisten und Kommentatoren Jahr für Jahr die gleichen Inhalte schreiben. Frei nach dem Motto: Verschone mich mit Fakten, ich habe mir meine Meinung schon gebildet.

Die Untiefen des Vergaberechts, Besoldungstabellen, Anforderungen, föderale Zuständigkeiten, Bundes- und Landesbehörden, Dienstleistungsverträge und Zertifizierungen – um nur einige Schlagworte zu nennen – sind scheinbar zu viel Inhalt. Da schreibt man lieber jedes Jahr den gleichen Text.

Die Meldung über 209 Millionen Lizenzkosten für Microsoft-Produkte ist kein Offenbarungseid für den Bund, die Meldungen und Kommentare darunter sind ein Offenbarungseid für die diskursive Anschlussfähigkeit von Teilen der Open-Source-Community.

Im Grunde genommen hat sich nichts geändert. Wer sich für das Thema interessiert, dem seien die drei folgenden Artikel empfohlen, in denen ich mich damit etwas ausführlicher beschäftigt habe:

Es gibt bei einem Projekt die Überlegung, ob man von Etherpad Lite auf HedgeDoc umsteigt. Bei der Umstellung sollen ggf. alle Inhalte übernommen werden. Und die bisherigen Links auf die jeweiligen Pads sollen entsprechend auf HedgeDoc weiterleiten.

Also habe ich mir überlegt, wie man vorgehen könnte. Die Links der Pads würde ich aus der Datenbank von Etherpad Lite exportieren. Was sich allerdings als keine allzu gute Idee herausgestellt hat. Denn es wird eine MariaDB-Datenbank verwendet, die sozusagen als Key-Value-Store genutzt wird. Was zur Folge hat, dass es nur eine Tabelle mit zwei Spalten gibt. Und in dieser Tabelle findet man beispielsweise folgende Einträge.

pad:faq
{"atext":{"text":"Welcome to Etherpad!\n\nThis pad text is synchronized as you type, so that everyone viewing this page sees the same text. This allows you to collaborate seamlessly on documents!\n\nGet involved with Etherpad at https://etherpad.org\n\n","attribs":"|6+6d"},"pool":{"numToAttrib":{},"nextNum":0},"head":0,"chatHead":-1,"publicStatus":false,"passwordHash":null,"savedRevisions":[]}

Um die Namen der vorhandenen Pads aus der Datenbank auszulesen, kann man folgende Abfrage nutzen.

SELECT 
	DISTINCT SUBSTRING(store.key, 5, LOCATE(":", store.key, 5)-5) AS pads
FROM
	store
WHERE
	store.key LIKE "pad:%"

Diese Abfrage zeigt aber tatsächlich nur den Namen der Pads an. Zum Beispiel faq. Aber bessere wäre es, wenn der gesamte Link ausgegeben wird. Also um bei dem Beispiel zu bleiben https://ep.domain.de/p/faq. Da aber die Domain nicht in der Datenbank gespeichert ist, muss man etwas kreativ werden. Was aber in diesem Fall keine große Herausforderung ist.

SELECT 
	DISTINCT CONCAT("https://ep.domain.de/p/", SUBSTRING(store.key, 5, LOCATE(":", store.key, 5)-5)) AS pad
FROM
	store
WHERE
	store.key LIKE "pad:%"

Mittels CONCAT wird im Grunde nur https://ep.domain.de/p/ vor dem jeweiligen Namen der Pads eingefügt, sodass schlussendlich richtige Links angezeigt werden, die man weiterverarbeiten kann.

22. Mai 2023

Sie wollen WordPress auf einem Server mit RHEL 9 oder einem Klon installieren? Diese Anleitung fasst alle erforderlichen Schritte zusammen. Dabei gehe ich davon aus, dass Sie über eine minimale Installation auf einem Root-Server oder in einer virtuellen Maschine verfügen. Ich habe meine Tests mit AlmaLinux 9 in einer Hetzner-Cloud-Instanz durchgeführt.

DNS-Einträge

Nachdem Sie Ihren Server in Betrieb genommen und sich mit SSH eingeloggt haben, ermitteln Sie die IP-Adressen, unter denen der Server nach außen hin erreichbar ist. Beachten Sie, dass das an sich nützliche Kommando hostname -I nicht in jedem Fall zielführend ist. Wenn Ihre virtuelle Maschine als EC2-Instanz in der Amazon Cloud (AWS) läuft, liefert das Kommando eine Adresse in einem privaten Netzwerk. Diese Adresse gilt aber nur AWS-intern! Sie müssen in der AWS-Konsole ergründen, welche IP-Adresse nach außen gilt.

Ich gehe hier davon aus, dass Ihre WordPress-Installation unter den Adressen example.com und www.example.com zugänglich sein soll und dass Sie IPv4 und IPv6 unterstützen. Dann müssen Sie für Ihre Domain example.com vier DNS-Einträge definieren. Naturgemäß müssen Sie die Beispiel-IP-Adressen durch Ihre echten IP-Adressen ersetzen. Normalerweise dauert es eine Weile (fünf Minuten bis hin zu mehreren Stunden), bis diese DNS-Änderungen wirksam werden.

Typ    Name      Zieladresse
-----  -------   -------------------
A       @        1.2.3.4
A       www      1.2.3.4
AAAA    @        2345:1234:1234::1
AAAA    www      2345:1234:1234::1

Software-Installation

Auf Ihrem Server müssen Sie nun einen Webserver, einen Datenbank-Server sowie PHP installieren. Ich gehe hier davon aus, dass Sie Apache und MySQL verwenden. Statt Apache wäre natürlich auch NGINX denkbar, statt MySQL auch MariaDB. (Beachten Sie aber, dass die mit RHEL 9 uralte MariaDB-Versionen ausgeliefert werden. Wenn Sie MariaDB einsetzen möchten, sollten Sie den Datenbank-Server aus dem Repository von MariaDB installieren, siehe https://mariadb.org/download/?t=repo-config.)

dnf install epel-release httpd mod_ssl mysql-server
dnf module install php:8.1
dnf install php-mysqlnd

Mit systemctl starten Sie den Web- und Datenbank-Server:

systemctl enable --now httpd   
systemctl enable --now mysqld

Firewall

Falls Sie auf einem Root-Server arbeiten, müssen Sie die Firewall für die Protokolle HTTP und HTTPS (also Port 80 und 443) freischalten:

firewall-cmd --permanent --zone=public --add-service=http
firewall-cmd --permanent --zone=public --add-service=https
firewall-cmd --reload

Bei Cloud-Instanzen entfällt dieser Schritt normalerweise: Die meisten Cloud-Anbieter haben in ihren Instanzen die RHEL-interne Firewall deaktiviert und verwenden stattdessen Firewalls auf Cloud-Ebene, die über die Web-Oberfläche des Cloud-Systems konfiguriert werden muss.

Apache ausprobieren

Um zu testen, dass Ihre Website im Internet zugänglich ist, schreiben Sie »Hello World« in eine Datei im Webverzeichnis /var/www/html:

echo "Hello World" > /var/www/html/index.html

Nun öffnen Sie im Webbrowser auf Ihrem Notebook die Adresse www.example.com oder example.com. Statt »Hello World« wird der Webbrowser eine Sicherheitswarnung anzeigen, weil Ihr Server noch über kein richtiges Zertifikat verfügt. Das ist ein gutes Zeichen: Der Web-Server an sich funktioniert. Ihr Webbrowser erkennt, dass Ihr Server HTTPS unterstützt und will dieses verwenden.

Let’s-Encrypt-Zertifikat für HTTPS einrichten

Es gibt verschiedene Tools, um Zertifikate von Let’s Encrypt zu installieren. Meiner Ansicht nach funktioniert acme.sh am besten. Zur Installation führen Sie die folgenden Kommandos aus:

dnf install tar socat
curl https://get.acme.sh -o acme-setup
less acme-setup                             (kurze Kontrolle)
sh acme-setup email=admin@example.com

An die E-Mail-Adresse werden Warnungen verschickt, sollte in Zukunft die automatische Erneuerung von Zertifikaten nicht funktionieren. Damit Sie das frisch installierte Script verwenden können, müssen Sie sich aus- und neu einloggen. Jetzt fordern Sie das gewünschte Zertifikat an, wobei Sie natürlich example.com wieder durch Ihren tatsächlichen Hostnamen ersetzen:

acme.sh --issue -d --server letsencrypt example.com -d www.example.com -w /var/www/html

  Your cert is in
    /root/.acme.sh/example.com/example.com.cer 
  ...

acme.sh speichert das Zertifikat also vorerst in Ihrem Heimatverzeichnis. Sie könnten die Zertifikatsdateien einfach in das /etc-Verzeichnis kopieren, aber das wäre keine gute Idee: Das Zertifikat muss regelmäßig erneuert werden, und acme.sh muss wissen, wohin die neuen Zertifikate dann kopiert werden müssen. Daher weisen Sie acme.sh an, die Zertifikate in das Verzeichnis /etc/mycert zu kopieren:

mkdir /etc/mycert

acme.sh --install-cert -d example.com \
  --cert-file      /etc/mycert/example.com.cert \
  --key-file       /etc/mycert/example.com.key \
  --fullchain-file /etc/mycert/example.com.fullchain

acme.sh merkt sich den Installationsort und berücksichtigt ihn in Zukunft automatisch bei Updates der Zertifikate. Für diese Updates ist das Kommando acme.sh --cron zuständig, das automatisch einmal täglich durch /var/spool/cron/root ausgeführt wird.

Die Zertifikatsdateien sind nun im /etc-Verzeichnis, aber Apache weiß noch nichts davon. Sie müssen also in der Webserver-Konfiguration angeben, wo sich die Verzeichnisse befinden. Dazu verändern Sie zwei Zeilen in ssl.conf:

# in /etc/httpd./conf.d/ssl.conf zwei Zeilen ändern
SSLCertificateFile    /etc/mycert/example.com.fullchain
SSLCertificateKeyFile /etc/mycert/example.com.key

Jetzt starten Sie Apache neu:

systemctl restart httpd

Danach versuchen Sie nochmals, die Seite example.com im Webbrowser zu öffnen. Jetzt sollte alles klappen, d.h. »Hello World« wird verschlüsselt vom Webserver zum Webbrowser übertragen und der Webbrowser ist mit dem Zertifikat zufrieden.

MySQL absichern

Unbegreiflicherweise ist die MySQL-Installation von RHEL 9 und all seinen Klonen offen wie ein Scheunentor. Jeder Benutzer, der sich auf dem Linux-System anmelden kann, erhält mit mysql -u root ohne Passwort Root-Rechte für MySQL. Abhilfe schafft das Kommando mysql_secure_installation. Die folgenden Zeilen fassen stark gekürzt die wichtigsten Eingaben zusammen:

mysql_secure_installation 

Would you like to setup VALIDATE PASSWORD  component?      n

New password:          xxxxxx
Re-enter new password: xxxxxx

Remove anonymous users?                 y
Disallow root login remotely?           y
Remove test database and access to it?  y
Reload privilege tables now?            y

MySQL-Datenbank einrichten

WordPress braucht eine Datenbank, in der Ihre Einstellungen, den HTML-Code Ihrer Blog-Beiträge, die Kommentare anderer Benutzer usw. speichern kann. Diese Datenbank sowie ein Datenbank-Nutzer, der darauf zugreifen darf, wird jetzt eingerichtet. Ich habe für die Datenbank und den Benutzer jeweils den Namen wp verwendet, aber natürlich sind Sie bei der Namenswahl frei.

mysql -u root -p
Password: xxxxxxx   (gleiches Passwort wie bei mysql_secure_installation)

mysql> CREATE DATABASE wp;
mysql> CREATE USER wp@localhost IDENTIFIED BY 'strengGeheim';
mysql> GRANT ALL ON wp.* TO wp@localhost; 
mysql> exit

WordPress-Dateien installieren

WordPress steht nicht als Paket zur Verfügung, sondern muss manuell installiert werden. Dazu laden Sie die Dateien herunter, packen Sie aus und weisen Ihnen die richtigen Zugriffsrechte samt SELinux-Kontext zu.

cd /var/www/html
rm index.html
wget https://de.wordpress.org/latest-de_DE.tar.gz
tar xzf latest-de_DE.tar.gz
chown -R apache wordpress
chcon -R system_u:object_r:httpd_sys_content_rw_t:s0 wordpress
rm latest-de_DE.tar.gz

Mit der Installation der WordPress-Dateien in /var/www/html/wordpress soll dieses Verzeichnis der Startpunkt für die Dateien in Apache sein. Daher mussdie Variable DocumentRoot von /var/www/html auf /var/www/html/wordpress umgestellt werden. Bei der Gelegenheit können Sie auch gleich den Server-Namen einstellen:

# in /etc/httpd/conf/httpd.conf zwei Zeilen ändern
DocumentRoot "/var/www/html/wordpress"
ServerName example.com

Damit die Einstellungen wirksam werden, ist das folgende Kommando notwendig:

systemctl reload httpd

WordPress konfigurieren

Damit ist es endlich soweit. Sie können nun mit der WordPress-Konfiguration beginnen. Dazu öffnen Sie die Seite example.com/wp-admin/setup-config.php. Im ersten Schritt müssen Sie den Namen der Datenbank, den Datenbank-User sowie dessen Passwort angeben.

Konfiguration des Datenbankzugriffs für WordPress

Im nächsten Schritt legen Sie den Namen Ihrer Website sowie einen Benutzernamen und ein Passwort für die WordPress-Administration fest. Mit diesen Daten können Sie sich danach bei Ihrer neuen Seite anmelden und die mit Inhalten füllen.

Fine Tuning

Wenn alles funktioniert, sollten Sie sich noch um die folgenden Details kümmern:

  • SSH absichern (z.B. mit Fail2Ban)
  • Paket-Updates automatisieren (Paket dnf-automatic)
  • automatische Umleitung HTTP -> HTTPS sowie Optimierung der HTTPS-Optionen (siehe https://ssl-config.mozilla.org)
  • Backup-System einrichten

Mo, 22. Mai 2023, Lioh Möller

Vor kurzem kam ich in die Verlegenheit, Windows auf einem Laptop zu installieren. Grund dafür war, dass der Trackpoint auf einem Lenovo Thinkpad T470s nicht funktionierte. Wer die Laptops von Lenovo kennt, wird die Vorzüge eines Trackpoints im Vergleich zu einem Touchpad möglicherweise auch schätzen. Es handelt sich dabei um einen kleinen roten Knubbel in der Mitte der Tastatur und zwei (im besten Falle) Hardwaretasten darunter. Damit lässt sich der Mauszeiger sehr präzise steuern. Ältere Modelle wie das X60 verfügten sogar nur über einen Trackpoint und kein Touchpad.

Seit einiger Zeit machen diese Trackpoints bei unterschiedlichen Thinkpad-Modellen unter Linux jedoch immer wieder Schwierigkeiten, so auch der in dem meinem Modell verbaute.

Mithilfe von modprobe psmouse proto=bare konnte ich die dazu zu bewegen zu reagieren, der Trackpoint jedoch machte weiterhin keinen Mucks.

Um sicherzugehen, dass es sich nicht um einen Hardwaredefekt handelt, sollte also Windows mit den offiziellen Treibern auf das Gerät gespielt werden. Leider ist die Erstellung eines bootfähigen USB-Sticks unter Linux nicht trivial. Glücklicherweise bin ich auf des Projekt WoeUSB gestossen.

Unter Ubuntu steht ein PPA zur einfachen Installation bereit, welches sich wie folgt aktivieren lässt

sudo add-apt-repository ppa:tomtomtom/woeusb
sudo apt update

Die Software inklusive eines kleinen grafischen Frontends lässt sich daraufhin mit dem Paketmanager einspielen:

sudo apt install woeusb woeusb-frontend-wxgtk

Nach dem Start präsentiert sich die Oberfläche aufgeräumt und man kann lediglich das ISO Abbild oder DVD-Laufwerk, das Dateisystem und das Zielgerät auswählen.

Nach einigen Minuten war das Image bereits übertragen und ich konnte Windows auf dem Gerät installieren.

Quelle: https://github.com/WoeUSB/WoeUSB

Spoiler Alert: auch unter Windows funktionierte der Trackpoint nicht.


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

21. Mai 2023

Es geistern mehrere Lösungen rum, die netdata mit basic auth und nginx abzusichern.

Es geht aber auch mit einer reinen Apache Lösung, die auch in der Doku von netdata beschrieben ist.

Hier meine Gedächtnisstütze.

ich verwende ISPconfig, entsprechend sind hier die notwendigen Einträge bei der Website in der Config.

Apache Direktiven:

  RewriteEngine on
  RewriteRule ^/\.well-known/carddav /nextcloud/remote.php/dav [R=301,L]
  RewriteRule ^/\.well-known/caldav /nextcloud/remote.php/dav [R=301,L]
  RewriteRule ^/\.well-known/webfinger /nextcloud/index.php/.well-known/webfinger [R=301,L]
  RewriteRule ^/\.well-known/nodeinfo /nextcloud/index.php/.well-known/nodeinfo [R=301,L]

    
      Header always set Strict-Transport-Security "max-age=15552000; includeSubDomains"
    

    
        Require all granted
    

    # Local Netdata server accessed with '/netdata/', at localhost:19999
    ProxyPass "/netdata/" "http://localhost:19999/" connectiontimeout=5 timeout=30 keepalive=on
    #ProxyPass "/netdata/" "unix:/var/run/netdata/netdata.sock|http://localhost:19999/" connectiontimeout=5 timeout=30 keepalive=on


If
    ProxyPassReverse "/" "http://localhost:19999/"
    # if the user did not give the trailing /, add it
    # for HTTP (if the virtualhost is HTTP, use this)
    RewriteRule ^/netdata$ http://%{HTTP_HOST}/netdata/ [L,R=301]
    # for HTTPS (if the virtualhost is HTTPS, use this)
    #RewriteRule ^/netdata$ https://%{HTTP_HOST}/netdata/ [L,R=301]
    # add a  section
    
        AuthType Basic
        AuthName "Protected site"
        AuthUserFile /etc/apache2/.htpasswd
        Require valid-user
        Order deny,allow
        Allow from all
    


Damit ist Let's Encrypt frei Haus, da die Hauptdomain bereits ssl enabled ist.

Jetzt nicht vergessen, mit

htpasswd -c /etc/apache2/.htpasswd monitoruser

einen user für die "basic auth" anzulegen.

und dann kann in   /etc/netdata/netdata.conf bind auf localhost gestellt werden.

 

20. Mai 2023

Ich bin ein leidenschaftlicher Fan der mittlerweile schon recht alten Apple-Aluminium-Tastatur. Ich habe vier Geräte mit USB-Kabel gehortet und verwende diese auf fast allen meinen Rechnern: diverse Linux-Notebooks und -PCs, Windows-PC, Mac Mini, Raspberry Pi etc. Schwer zu sagen, wie viele tausend Buchseiten ich mit diesen Tastaturen schon verfasst habe! Die Tastaturen scheinen unverwüstlich zu sein.

Schon 2011 habe ich auf dieser Website über die Verwendung dieser Tastatur unter Ubuntu Linux einen Blog-Artikel geschrieben. Mittlerweile hat sich die Konfiguration ein wenig geändert. Zeit also für ein Update!

Alt und dreckig, aber von unvergleichlicher Qualität. Und platzsparend!

Grundsätzlich funktioniert die Tastatur natürlich wie jede andere Tastatur auf Anhieb. Unter Gnome gibt es sogar einen eigenen Eintrag für das Apple-spezifische Layout.

Auf meinem Notebook habe ich zwei Tastatur-Layouts eingerichtet: Eines für die Apple-Tastatur für den stationären Betrieb zuhause und eines für die »gewöhnliche« Notebook-Tastatur für unterwegs.

Allerdings gibt es zwei Probleme:

  • Standardmäßig werden die Funktionstasten für Steuerungsfunktionen verwendet (Lautstärke lauter/leiser usw.). Ich will die Funktionstasten aber wirklich als Funktionstasten verwenden. Ich habe diese im Emacs mit diversen Aktionen verbunden, die ich häufig ausführe.
  • Linux hat bei einigen internationalen Modellen der Apple-Tastatur Probleme damit, die Tasten ^/° und </> richtig zuzuordnen. Die Wirkung der Tasten ist vertauscht.

Ad-hoc führen diese zwei Kommandos zum Ziel:

sudo bash -c 'echo "2" > /sys/module/hid_apple/parameters/fnmode'
sudo bash -c 'echo "1" > /sys/module/hid_apple/parameters/iso_layout'

Damit diese Einstellungen dauerhaft aktiv sind, erzeugen Sie eine neue Modulkonfigurationsdatei:

# Datei  /etc/modprobe.d/hid-apple.conf
options hid_apple fnmode=2
options hid_apple iso_layout=1

Damit der Kernel diese Optionen auch berücksichtigt, müssen Sie die Initrd-Datei neu erzeugen:

dracut --regenerate-all --force           (Fedora, RHEL)
update-initramfs -k all                   (Debian, Ubuntu)
mkinitcpio -p linux                       (Arch Linux)

Quellen/Linux

https://wiki.archlinux.org/title/Apple_Keyboard

Postskriptum

Sie haben nicht zufällig eine solche Tastatur im Keller liegen? Deutsches Modell, klein (also ohne Ziffernblock), mit USB-Kabel. Ein, zwei Tastaturen hätte ich gerne noch, sozusagen für Notfälle :-) Melden Sie sich bei mir!

Es gibt ja viele verschiedene Tools, mit denen man Diagramme erstellen kann. Zuletzt setzte ich vor allem auf draw.io.

Praktisch an drawio finde ich, dass das grafische Tool recht einfach zu bedienen ist und damit beziehe ich mich vor allem darauf, wie gut die gleichen Abstände zwischen den Elementen eines Diagramms abbildbar sind.

Viel lieber hätte ich allerdings ein Tool, womit ich die Diagramme als Code definieren kann. Hierzu bin ich neulich auf mermaid.js gestoßen.

Mermaid.js hat diverse Diagrammtypen, die verwendet werden können. Darunter Flowcharts, Gantt Charts oder Pie Chart. Persönlich finde ich Git Graph nützlich, Mindmaps, sowie Timeline. Die ganze Liste findet sich in der Dokumentation.

Besonders praktisch ist es vor allem, wenn man sich die Integrationen anschaut und genau dabei bin ich auch auf Mermaid gestoßen: Durch die Ablage der Dateien in GitLab oder auch GitHub, wird es direkt im Browser angezeigt. Das beinhaltet auch die Nutzung und Darstellung in Issues.

Beispiel-Code für die Darstellung von GitLab Flow:

%%{init: { 'logLevel': 'debug', 'theme': 'base', 'gitGraph': {'showBranches': true, 'showCommitLabel':true,'mainBranchName': 'production'}} }%%
gitGraph
    commit
    commit
    branch main
    commit
    commit
    branch feature/foobar
    commit
    commit
    checkout main
    merge feature/foobar
    checkout production
    merge main

Der Output:

GitLab-Flow

Damit man aber nicht mühselig die Dokumentation lesen muss, existiert auch noch ein Editor im Browser unter mermaid.live. Dort kann man dann auch viel einfacher die Diagramme erstellen und dort hin rüberkopieren, wo man diese braucht.

Vielleicht hilft es ja der ein oder anderen Person!

19. Mai 2023

Mozilla hat weitere Investitionen in junge Unternehmen über seinen Risikokapitalfonds Mozilla Ventures bekannt gegeben.

Das ist Mozilla Ventures

Mozilla Ventures ist ein anfänglich mit 35 Millionen USD ausgestatteter Risikokapitalfonds, über welchen Mozilla in Startups investiert, welche das Internet und die Tech-Industrie in eine bessere Richtung bringen. Neben heylogin, einem Passwort-Manager aus Deutschland, waren bereits zwei weitere Investitionen bekannt. Secure AI Labs entwickelt Sicherheits- und KI-Technologie zum Schutz von Patientendaten. Block Party entwickelt eine App, welche es Menschen ermöglicht, die regelmäßig belästigt werden, sich sicher an öffentlichen Konversationen in sozialen Medien zu beteiligen.

Mozilla Ventures investiert in Rodeo

Nun hat Mozilla die Investition in weitere Unternehmen via Mozilla Ventures bekannt gegeben. Der Schwerpunkt der Ankündigung dreht sich um die Investition in Rodeo. Dabei handelt es sich um eine App aus Großbritannien, welche das sogenannte Gigwork-Ökosystem für die Beschäftigten transparenter machen soll. Unter Gigwork versteht man das Arbeitskonzept, bei dem man kleine, zeitlich befristete Aufträge, sogenannte „Gigs“, erhält, welche über eine Onlineplattform vermittelt werden. Ein bekanntes Beispiel dafür sind Lieferdienste. So soll Rodeo beispielsweise bereits von über 10.000 Lieferfahrern von Deliveroo, Uber Eats und Just Eat genutzt werden. Der Sektor wächst rasant, weltweit soll es über eine Milliarde „Gigworker“ geben.

Rodeo hilft den Beschäftigten, auf ihre Daten zuzugreifen und sie zu kontrollieren, und bietet wichtige Einblicke, wie z. B. den Verdienst im Laufe der Zeit und die Lohnsätze auf verschiedenen Gig-Plattformen. Die App ermöglicht es außerdem, mit anderen Gigworkern zu chatten und wertvolle Erfahrungen und Tipps auszutauschen.

Weitere Investitionen in KI-Unternehmen

Neben den bereits oben erwähnten Startups erwähnt Mozilla am Ende der Ankündigung noch zwei weitere Unternehmen, in welche Mozilla Ventures investiert hat, von denen dies bislang noch nicht bekannt war: Lelapa AI sowie Themis AI.

Lelapa AI beschreibt sich selbst als ein auf Afrika ausgerichtetes Forschungs- und Produktlabor für Künstliche Intelligenz, das sich auf die Weisheit ressourceneffizienter Technologie stützt. Themis AI ermöglicht nach eigenen Angaben vertrauenswürdige KI in Hochrisikoszenarien, bei seltenen Ereignissen und überall dort, wo Ungleichgewichte und Verzerrungen in den Trainingsdaten gefunden werden können, durch eine Technologie, die von hochrangigen MIT-Alumni und Professoren entwickelt wurde.

Dabei handelt es sich um die nächsten Investitionen in den Bereich Künstlicher Intelligenz (KI), nachdem im März mit Mozilla.ai die Gründung eines weiteren neuen Tochterunternehmens von Mozilla bekannt gegeben worden war, welches mit einem Anfangs-Budget von 30 Millionen USD ausgestattet wurde und worüber ein vertrauenswürdiges, unabhängiges sowie quelloffenes KI-Ökosystem aufgebaut werden soll. Anfang dieses Monats wurde dann die Übernahme von Fakespot angekündigt, einem KI-Unternehmen, welches vor gefälschten Bewertungen beim Online-Shopping schützen möchte.

Noch mehr Investitionen von Mozilla

Von Mozilla bisher selbst noch nirgends kommuniziert ist die bereits im Februar über Mozilla Ventures erfolgte Investition in Webacy, einer Krypto-Wallet-Sicherheitsschicht, sowie eine Investition im April in Lockr, den Entwickler eines E-Mail-Verwaltungssystems für die Organisation und den Schutz elektronischer Post.

Mozilla investiert derzeit aber nicht nur über Mozilla Ventures und mozilla.ai. Unabhängig von diesen neuen Organisationen hat Mozilla im März bekannt gegeben, Hauptinvestor der Mastodon-App Mammoth zu sein. Bereits im Dezember wurde bekannt, dass Mozilla sowohl Active Replica, welche maßgeschneiderte Lösungen für virtuelle Räume und Ereignisse für Mozilla Hubs anbieten, vollständig übernommen hat, als auch Pulse, ein Unternehmen für maschinelles Lernen.

Der Beitrag Mozilla Ventures gibt weitere Investitionen bekannt erschien zuerst auf soeren-hentzschel.at.

Fr, 19. Mai 2023, Lioh Möller

Heute geht es weiter mit dem 2. Teil zum Thema Distrobau. In Teil 1 habe ich bereits die Ausgangslage erklärt. Es ging darum, eine gut funktionierende Distribution für mein altes Netbook zu finden. Das Gerät verfügt über einen 64-Bit Atom Prozessor und 2 GB RAM.

Die Displayauflösung beträgt 1024x600. Zunächst habe ich versucht, Distributionen zu finden, die darauf lauffähig sind. Meine Wahl fiel als Erstes auf ein BusyBox-basierendes System. In die engere Wahl kam 4MLinux. Dabei handelt es sich eine leichtgewichtige Distribution mit guter Software-Vorauswahl. Als Windowmanager kommt JWM zum Einsatz. Die Lösung läuft flüssig und zuverlässig. Mich hat lediglich gestört, dass man dauerhaft mit Root-Rechten arbeitet und dass es keinen Paketmanager gibt. Aktualisierungen sind zwar möglich, dabei wird aber das gesamte Grundsystem ausgetauscht und einige persönliche Anpassungen gehen verloren.

Da mir BusyBox sehr gut gefiel, habe ich mir Alpine Linux näher angeschaut. Tatsächlich lief die Distribution weniger schnell als erhofft und eine Installation gestaltet sich insbesondere dann als sehr aufwendig, wenn man nicht auf ein vorgefertigtes Desktop-Profil zurückgreift. Aktuell stehen Setups für GNOME, Plasma und Xfce zur Verfügung. Bei der Nutzung von Alpine ist mir sehr schnell aufgefallen, dass der Browser Firefox eher ungeeignet ist für diese Geräteklasse, also mussten auch hier Alternativen her. Dabei bin ich auf Falkon gestossen, den ich schon unter dem Namen QupZilla kannte. Mit kleineren Anpassungen lässt sich der Browser sehr gut nutzen und stellt alle von mir besuchten Webseiten sauber dar.

Ich hatte ja, wie im ersten Teil beschrieben, die Broadcom WLAN-Karte durch ein Modell mit Atheros Chipsatz getauscht und so konnte ich mir Trisquel GNU/Linux ebenfalls ansehen. Ich habe mich für die Trisquel Mini mit LXDE Desktop entschieden, und dieser gefiel mir grundsätzlich sehr gut. An Trisquel gefiel mir allerdings die vergleichsweise alte Softwareauswahl nicht. In diesem Zusammenhang habe ich mich an Kanotix erinnert und siehe da, das Projekt ist zwar nicht mehr wirklich aktiv, es stellt aber eine Variante für Eee PCs bereit. Auch diese kommt mit dem LXDE Desktop daher, wird allerdings nur als 32-Bit Version angeboten.

Die Vorkonfiguration ist sehr ausgewogen und bis auf ein paar Kleinigkeiten, wie der nicht vollständig konfigurierte Keyring Support lief es sehr gut. Die Softwareauswahl ist standardmässig eher klein und so musste ich einiges nachinstallieren.

Alternativ ist mir Q4OS bekannt, diese Distribution haben wir lange Zeit bei Faircomputer eingesetzt, einem Projekt, bei dem wir alte Laptops aufbereitet haben und an Schüler:innen verschenkt haben.

Zusammenfassend kann man sagen: Ich mochte die Softwareauswahl von 4MLinux und den LXDE Desktop. Ich benötige dennoch ein möglichst aktuelles System und da ich Debian GNU/Linux mag, kam für mich der Entwicklerzweig Sid infrage. Ich wünsche mir ein System, dass eine gute Auswahl an Software mitbringt und zum Entdecken einlädt. Diese sollte auch auf Hardware wie meinem Netbook lauffähig sein. Doch dazu im nächsten Teil mehr.

Bildquelle: https://michaelminn.com/linux/eeepc/

PS: Wer unseren Podcast von dieser Woche gehört hat, weiss möglicherweise schon mehr ;)


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

18. Mai 2023

Diese Nachricht ist insbesondere für alle Testing-Nutzer von Bedeutung: Arch Linux wird die Repositories umstellen, die für den Bezug der Testing-Pakete erforderlich sind.

Hintergrund ist die Migration von SVN auf Git in der Infrastruktur von Arch Linux. Dazu werden von Freitag, dem 19. Mai 2023 bis Sonntag, dem 21. Mai 2023 die Repositories eingefroren - das Arch Linux Packaging Team wird in der Zeit keine neuen Pakete bereitstellen können. Durch die Umstellung werden der SVN-Zugriff sowie der svn2git-Mirror obsolet.

Nach der Umstellung werden die Testing- und Staging-Repositories aufgespaltet und das Community-Repository aufgelöst:

  • [testing] wird aufgeteilt in [core-testing] und [extra-testing]
  • [staging] wird aufgeteilt in [core-staging] und [extra-staging]
  • [community] wird in [extra] überführt

Nutzer von Arch Linux müssen auf die Änderungen folgendermaßen ab Montag, dem 22. Mai 2023 reagieren:

  • (Optional) für alle Nutzer: in der /etc/pacman.conf kann der [community]-Abschnitt entfernt werden.
  • Für Testing-Nutzer: in der /etc/pacman.conf müssen der Abschnitt für [testing] entfernt und zwei neue für [core-testing] und [extra-testing] hinzugefügt werden. Das gleiche muss, wenn eingesetzt, für das Staging-Repository unternommen werden.

Wer als Nutzer von Arch Linux keine Testing-Repositories einsetzt, muss kurzfristig auch nichts unternehmen, da das Extra-Repository nun auch alle Pakete des Community-Repositories führt. In einer Übergangsphase werden die drei nun aufgelösten Repositories (community, testing, staging) leer ausgeliefert. Mittelfristig sollten diese Repositories aber aus der /etc/pacman.conf entfernt werden, um Fehler zu vermeiden, wenn die Bereitstellung endet.

Weitere Inforamtionen zur Umstellung sind in der Mitteilung von Arch Linux vom 15. Mai 2023 zu finden.

16. Mai 2023

Mozilla hat seine Entwickler-Dokumentation MDN Web Docs um eine sogenannte Baseline-Bewertung für Webkompatibilität ergänzt.

Für sehr viele Webentwickler stellen die MDN Web Docs eine wichtige Anlaufstelle dar, wenn es um die Dokumentation von Webtechnologie geht.

Die Webplattform entwickelt sich in einem rasanten Tempo weiter. Dies macht es für Entwickler mitunter schwer, mit all den Entwicklungen Schritt zu halten. Auch fehlt es an einer gemeinsamen Sprache, um über Funktionen zu sprechen, welche für die allgemeine Nutzung im Web verfügbar sind. Aus diesem Grund wurde Baseline eingeführt.

Statt sich durch Kompatibilitätstabellen zu lesen, welche es in den MDN Web Docs auch weiterhin geben wird, erscheint direkt am Anfang der Dokumentation eines Web-Features nun eine Baseline-Bewertung, welche entweder grün oder gelb ist. Grün bedeutet, dass diese Funktion in den zwei letzten Major-Releases von Firefox, Chrome, Edge und Safari unterstützt wird. Gelb bedeutet, dass das Feature noch nicht in der Baseline ist, hier also Vorsicht bei der Verwendung geboten ist. Die Baseline-Bewertung ist bereits auf einigen Seiten der Dokumentation zu finden. Im Laufe der kommenden Monate sollen alle Web-Features eine Baseline-Bewertung erhalten.

MDN Baseline
Bild: Baseline-Bewertung in den MDN Web Docs

Google, welche Baseline ebenfalls als Teil von web.dev nutzen werden, hat darüber hinaus angekündigt, dass es neben dieser sich ständig bewegenden Baseline-Bewertung auch hilfreich sein kann, über ein bestimmtes Featureset zu einem bestimmten Zeitpunkt sprechen zu können, weswegen auch ein jährliches Baseline-Set veröffentlicht werden wird. So soll im Laufe des Jahres die Baseline 2024 angekündigt werden, damit Entwickler dies für die Umsetzung ihrer Projekte als Ziel anvisieren können.

web.dev Baseline
Bild: Baseline-Bewertung auf web.dev von Google

Der Beitrag MDN führt Baseline-Bewertung für Webkompatibilität ein erschien zuerst auf soeren-hentzschel.at.

Di, 16. Mai 2023, Lioh Möller

Eigentlich wollte ich gar keine Distro bauen. Meine letzten Erfahrungen in diesem Bereich liegen doch schon eine Weile zurück. Die älteren Semester unter euch erinnern sich vielleicht noch an easys GNU/Linux. Die letzte Veröffentlichung der Slackware basierten Distribution mit dem eigens dafür entwickelten grafischen Installer auf Qt-Basis liegt schon eine Weile zurück (29.09.2008). Herunterladen können Retro-Fans die ISOs danke des ArchiveOS Projektes immer noch und kürzlich habe ich getestet, ob diese noch in VirtualBox laufen würden: siehe da, es läuft immer noch.


Meine Erfahrungen aus dieser Zeit rieten mir, solch ein Projekt nicht nochmals zu starten. Wir hatten zwar ein kleines Team von 4 Entwicklern, dennoch bedeutet solch ein Projekt viel Arbeit, insbesondere wenn man selbst Software beisteuert. Neben dem Installationsprogramm gehörte unter anderem ein Partitionierungswerkzeug ähnlich wie GParted und eine grafische Paketverwaltung, beide ebenfalls auf Qt-Basis, zum Umfang.

Auch die Community zu pflegen, bedeutet Zeitaufwand. Da wir sehr treue Nutzer hatten, wollten wir diese natürlich nicht enttäuschen.

Als Resultat daraus ist letztendlich der LinuxKurs entstanden, in dem wir interessierten das Original Slackware von Grunde auf näher bringen. Dafür halt keine eigene Distro mehr.

Nun kam es aber doch anders. Der Grund dafür ist, dass ich ein altes Asus Eee PC Netbook (Typ 1015PW) wieder zum Fliegen bekommen wollte. Ich liebe alte Hardware, insbesondere dann, wenn sich sonst nicht mehr viele Menschen dafür interessieren.



Der verbaute Intel Atom N570 Prozessor ist bereits 64Bit-fähig, denn 32Bit Hardware tue selbst ich mir nicht mehr an ;)

Das Gerät ist mit einem 2 GB Riegel RAM befüttert. Ein weiterer Slot existiert nicht. Grössere Riegel werden ebenfalls nicht unterstützt.

Die verbaute Broadcom WLAN Karte ist ausserdem dafür bekannt, unter Linux nur schlecht und ausserdem nur mit unfreien Treibern zu laufen. Dafür stehen mit der 320 GB HDD genug Blöcke für Daten zur Verfügung.

Da es mir darauf nicht so sehr ankommt wie auf Geschwindigkeit, musste die HDD einer kleineren SSD weichen, die es heute bereits für CHF 14 für 128 GB zu kaufen gibt. Ergänzt habe ich die Investition mit einem Atheros Mini-PCI WLAN-Adapter, der ohne Binary Blobs auskommt.

Die Aufrüstung der Hardware stellt bei den Plastebombern eine besondere Herausforderung dar. Wer besseres gewöhnt ist, wie beispielsweise von Thinkpads, dem stellen sich dabei die Nackenhaare auf. Alles Plastikclips, die vorsichtig gelöst werden müssen, damit sie nicht abbrechen.

Mir ist es mit viel Geduld dann doch gelungen und das Gerät startete wieder.

Netbooks wie dieses haben oftmals ein gering auflösendes Display, wie auch dieses mit 1024 x 600 Pixeln. Da darf die Desktopumgebung nicht allzu viel Platz einnehmen, um noch einigermassen sinnvoll etwas damit anfangen zu können.

Da ich gerne Linux auf dem Netbook nutzen möchte, ging es als nächste zur Distrowahl. Doch dazu mehr im nächsten Teil.


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

15. Mai 2023

Mo, 15. Mai 2023, Lioh Möller

Im Mai Update hat der Hard- und Softwarehersteller System76 eine Vielzahl an Neuerungen bekannt gegeben. Diese betreffen einerseits den hauseigenen Scheduler, der Hardwareressourcen vorrangig Anwendungen, welche im Vordergrund laufen, zur Verfügung stellt. Dies macht sich beispielsweise bei Spielen bemerkbar, welche andernfalls bei im Hintergrund laufenden Applikationen weniger performant spielbar wären.


Die vorliegende Version 2.0 des Schedulers ermöglicht eine detaillierte Parametrisierung. Die Pipewire Integration sorgt dafür, dass eine Audio-Ausgabe als realtime Prozess möglich ist. Dies sorgt dafür, dass weniger Wiedergabeunterbrüche entstehen, sofern die Applikation, welche Audio ausgibt, im Hintergrund läuft.

Auch der Scheduler Prozess selbst wurde optimiert und verbraucht nun 75 % weniger Ressourcen unter anderem durch die Vermeidung von UTF-8-String-Prüfungen, sofern dies nicht erforderlich ist.

Die neu entwickelte Rust-basierte Desktopoberfläche, welche in kommenden Versionen der pop!_os Distribution zum Einsatz kommen soll, wurde weiter entwickelt. So unterstützt das Panel jetzt Applets über die sich die Funktionalität erweitern lässt. Dazu gehören Applets wie ein Arbeitsflächen-Wechsler, ein Batteriestands-Monitor, eine WLAN- Bluetooth-Verwaltung, oder eine Mediensteuerung. In Zukunft soll die Anzahl der Applets deutlich wachsen und beispielsweise ein Clipboard-Manager, Klebezettel, ein Wetter-Applet und vieles mehr hinzukommen.

Panels selbst können an die eigenen Vorstellungen angepasst werden und so kann man beispielsweise die Positionierung festlegen, die Grösse ändern oder die Deckkraft einstellen. Auch sogenannte Floating Panels, wie sie beispielsweise bei aktuellen KDE Plasma Versionen bereits möglich sind, lassen sich konfigurieren.

Die neue entwickelte Systemeinstellungsverwaltung erfuhr bereits grössere Änderungen. Für den kommenden Monat ist die Entwicklung der Eingabeeinstellungen sowie einer Möglichkeit Hintergrundbilder zu definieren geplant.



Wie auch die Applets sind die Systemeinstellungen modular aufgebaut und lassen sich über eine API ansteuern.

Die 10-bit Farbunterstützung, welche zum cosmic-comp, dem COSMIC compositor hinzugefügt wurde, ermöglicht eine bessere Farbwiedergabe und ist eine wesentliche Voraussetzung für eine geplante HDR-Unterstützung.

Weitere Informationen finden sich im Blog-Post des Monats Mai.


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

Mo, 15. Mai 2023, Lioh Möller

Bei Multipass handelt es sich um eine von Canonical entwickelte Lösung zum leichtgewichtigen Betrieb virtueller Maschienen, vornehmlich mit Ubuntu.

Dabei setzt die Lösung im Hintergrund unter Linux auf KVM. Multipass ist allerdings auch für Microsoft Windows und macOS verfügbar und setzt dabei auf Hyper-V respektive HyperKit. Unter Windows und macOS kann alternativ auch VirtualBox als Backend genutzt werden.



Im Folgenden wird die Einrichtung unter Ubuntu beschrieben.

Zunächst muss das multipass Snap Paket installiert werden:

sudo snap install multipass

Mithilfe von multipass find lassen sich verfügbare VM Images anzeigen:


Herunterladen und starten lässt sich ein Image wie folgt:

multipass launch 22.04

Hinweis: sofern auf dem gleichen System bereits eine VirtualBox VM läuft, muss diese möglicherweise zuvor beendet werden.

Mithilfe von multipass list können alle laufenden Instanzen angezeigt werden.

multipass info gefolgt vom Namen der Instanz, welcher zufällig vergeben wird, können weitere Informationen eingeblendet werden:


Um eine Shell in einer laufenden Instanz zu öffnen, kann multipass shell gefolgt vom Instanznamen genutzt werden.

Innerhalb der VM stehen alle vom Betriebssystem her bekannten Befehle zur Verfügung.

Mittels multipass stop oder multipass start kann eine Instanz beendet oder gestartet werden. multipass delete löscht diese wieder, dabei gehen alle darin enthaltenen Informationen verloren.

Anhand von Parametern lässt sich der Ausbau einer VM beeinflussen:

multipass launch 22.04 --name ubuntu-test --memory 2G --disk 10G --cpus 2

multipass -h gibt Hilfe zu den nutzbaren Parametern.

Damit stellt die Lösung eine einfach und schnelle Möglichkeit zur Erstellung von virtuellen Maschinen, insbesondere unter Ubuntu dar. Diese lassen sich beispielsweise zur Entwicklung von Software oder für Systemtests nutzen. Multipass bezeichnet sich selbst explizit als Software für den Arbeitsplatz-Computer.

Quelle: https://multipass.run/


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

Mo, 15. Mai 2023, Lioh Möller

Wer im Fedora Projekt aktiv ist, hat früher oder später sicher einmal Kontakt mit Ben Cotton gehabt. Der charismatische Entwickler hatte seit 2018 die Rolle des Fedora Program Manager inne. Am 24. April 2023 hat der Hauptsponsor und Arbeitgeber von Ben eine Kürzung aller globalen Stellen um 4% angekündigt.


Überraschenderweise ist auch Ben Cotton Opfer dieser Entwicklung geworden und verlässt nun seinen langjährigen Arbeitgeber. Laut eigenen Aussagen wurde er erstmalig gekündigt und hofft, dass dieses schmerzhafte Erlebnis in Zukunft nicht nochmals eintritt. Seine Reaktion auf die Nachricht hat viele Emotionen in ihm ausgelöst, unter anderem Verärgerung, Traurigkeit, aber in seiner humorvollen Art versucht er diese Entwicklung dennoch positiv zu sehen.

Da er bereits vor seiner Anstellung bei Red Hat im Fedora Projekt aktiv war, plant er dies auch weiterhin zu sein. Seine Hoffnung ist, dass seine Arbeit auch nach seinem Weggang weitergeführt wird.

Warum Red Hat ausgerechnet Stellen im Upstream Projekt gestrichen hat, ist weiterhin unklar. Die Community wünscht sich auch in Zukunft ein klares Commitment für das Projekt.

Wir wünschen Ben alles Gute für seine Zukunft und wünschen ihm viel Erfolg auf seinen zukünftigen Wegen.

Quelle: https://funnelfiasco.com/blog/2023/05/12/inaction-bcotton/


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

Mo, 15. Mai 2023, anlhumsmfvdt

Gestartet wurde die Installation von einem USB-Stick mit dem Bookworm RC1 Installer. Ich habe eine manuelle Partitionierung gewählt, mit btrfs auf der root-Partition.

Das Partitionslayout entspricht dabei dem der Vorgängerversion Debian 11.

nvme0n1         259:2    0 931,5G  0 disk
├─nvme0n1p1     259:3    0   100M  0 part /boot/efi
├─nvme0n1p2     259:4    0   512M  0 part /boot
└─nvme0n1p3     259:5    0 930,9G  0 part
  ├─debian-root 254:0    0    15G  0 lvm  /
  ├─debian-swap 254:1    0     1G  0 lvm  [SWAP]
  ├─debian-opt  254:2    0     2G  0 lvm  /opt
  └─debian-home 254:3    0   912G  0 lvm  /home

Zum Abschluss habe ich in tasksel KDE Plasma und ssh-server ausgewählt.

Auf der root-Partition ist nach der Installation entsprechend ein @rootfs subvolume vorhanden.

Während der Installaiton kann man zwar weitere Mount-Optionen wählen, aber leider lässt sich darüber nicht die Kompression für btrfs aktivieren.

Daher habe ich die Optionen nachträglich in der Datei /etc/fstab hinzugefügt:

/dev/mapper/debian-root / btrfs defaults,noatime,compress-force=zstd:6,subvol=@rootfs 0 0

Meine ersten Erfahrungen sind ausdrücklich positiv, nur vlc braucht manchmal lange (mehrere Sekunden) um den Datei-Öffnen-Dialog anzuzeigen.

Nun der Kern meines Berichts: Die weitere Installation übernimmt mein Bash-Script installPackages.sh.

  1. ./installPackages.sh
    installiert Pakete für einen (einfachen) Desktop mit Firefox und Thunderbird
  2. ./installPackages.sh --vm
    installiert Pakete für eine virtuelle Maschine mit Softwareentwicklung, aber ohne Libreoffice.
  3. ./installPackages.sh --laptop
    installiert Pakete für einen Laptop
  4. ./installPackages.sh --workstation
    installiert Pakete für eine Arbeitsstation

Die Installation erfolgte auf der SSD, auf der bereits Debian 11 installiert war. Mittlerweile habe ich eine bessere SSD eingebaut und Debian mithilfe von Relax-and-Recover umgezogen. "rear recover" hat bestens funktioniert.

So sieht meine /etc/rear/local.conf aus:

OUTPUT=ISO
USB_UEFI_PART_SIZE="500"

### create a backup using the internal NETFS method, using 'rsync'
BACKUP=NETFS
BACKUP_PROG=rsync
BACKUP_PROG_EXCLUDE=( "${BACKUP_PROG_EXCLUDE[@]}" '/home/*' '/var/cache/apt/*.bin' '/var/cache/apt/archives/*' '/var/cache/app-info/cache/*' '/var/lib/apt/lists/*' )
BACKUP_RSYNC_OPTIONS=( "${BACKUP_RSYNC_OPTIONS[@]}" '--xattrs' )

### write both rescue image and backup to the device labeled REAR-000
BACKUP_URL=usb:///dev/disk/by-label/REAR-000

Mein /home habe ich anschliessend aus einem Backup wiederhergestellt.

Anders war es auf meinem Laptop. Dort habe ich ein Upgrade vorgenommen und daraufhin das System bereinigt.

Die SSD ist hier vergleichbar partitioniert, aber /dev/nvme0n1p3 ist verschlüsselt.

"rear recover" hat dort leider nicht funktioniert. Die Partitionierung und das Mounten (diskrestore.sh) lieferte immer einen Fehler. Endlich fand ich heraus, dass die root-Partition nicht gemountet werden konnte.

So ungefähr sah die Zeile aus (funktionierte nicht, sah aber richtig aus):

mount -t btrfs -o rw,...

So funktionierte es:

mount -o compress-force=zstd:6 /dev/mapper/debian-root /


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

13. Mai 2023

VPNs werden oft mit Anonymität assoziiert. Das ist Unsinn. Trotzdem haben VPNs ihre Berechtigung. Mullvad speichert nach neuesten Erkenntnissen wirklich keine Daten und bringt jetzt sogar einen Browser mit.

Wann sich ein VPN lohnt und warum Mullvad für mich einer der ganz wenigen Anbieter ist, denen ich vertraue, habe ich hier schon einmal beschrieben. Daran hat sich nichts geändert.

Die jüngsten Ereignisse haben diese Zuversicht jedoch noch verstärkt. Mullvad erhielt kürzlich Besuch von der schwedischen Polizei. Anlass waren wohl Ermittlungen in Deutschland, wie der Betreiber des Dienstes im Nachhinein erfuhr. Allerdings musste die Polizei wieder abziehen, ohne etwas Handfestes gefunden zu haben. Mullvad verspricht also nicht nur, keine Daten zu speichern. Er speichert wirklich keine Daten.

Zudem hat Mullvad eine technische Neuerung verkündet. Der Mullvad-Browser. Dabei handelt es sich um Kooperationsprojekt mit Tor. Die Vorgehensweise ist ähnlich. Auf Basis von Firefox wird ein Browser erstellt, der durch seine Konfiguration Fingerprinting erschwert. Der einzelne Nutzer geht dadurch in der Masse unter. Von dem Projekt profitieren beide Seiten, da sich durch den Mullvad-Browser die Anwenderzahlen weiter erhöhen und die Masse somit größer wird. Anstelle des Tor-Netzwerks verwendet der Mullvad-Browser natürlich das Mullvad-VPN. Dieses ist aber nicht in den Browser integriert, sondern muss weiter auf Systemebene, entweder durch Wireguard oder durch die Mullvad-Anwendung, eingerichtet werden. Mike Kuketz bescheinigt dem Browser ein exzellentes Datensendeverhalten.

Der Mullvad-Browser steht für alle verbreiteten Desktop-Betriebssysteme zum Download bereit. Linux-Anwender können zudem auf Flathub zurückgreifen und den Browser komfortabel als Flatpak installieren.

Vor einigen Wochen machte die Vermutung die Runde, LUKS sei gebrochen. Auslöser waren Berichte über ein erfolgreiches Knacken einer verschlüsselten Festplatte durch die französische Polizei. Der bekannte Entwickler Matthew Garrett vermutete als Ursache die veraltete Schlüsselableitungsfunktion PBKDF2.

Was ist das Problem?

Wir wissen bis heute nicht, ob das wirklich die Ursache war und die französische Polizei LUKS wirklich knacken konnte oder ob nicht ein zu schwaches Passwort oder ähnliches die Schwachstelle war. LUKS oder bestimmte Konfigurationen von LUKS pauschal für unsicher zu erklären, wäre daher eine Panikmache.

Der Vorfall sollte uns aber daran erinnern nicht nachlässig zu werden. Ich bemängele ja häufiger eine gewisse bräsige Selbstzufriedenheit in der Linux-Gemeinschaft. Die Gewissheit, durch Open Source und eine streckenweise überlegene Architektur ein sicheres System zu nutzen, hat sich tief in das kollektive Bewusstsein eingenistet. Selbstzufriedenheit kann zu falscher Untätigkeit führen.

Konkret geht es um LUKS und die Schlüsselabteilungsfunktion. LUKS wird stetig verbessert. Vor einigen Jahren gab es beispielsweise den Wechsel von LUKS1 auf LUKS2 mit allgemeinen Verbesserungen. Hinzu kommen Entwicklungen bei den Schlüsselabteilungsfunktionen.

Die Schlüsselabteilung generiert in mehreren Iterationen aus dem Passwort den eigentlichen LUKS-Key. Um das nicht unnötig in die Länge zu ziehen, berücksichtigt LUKS die verfügbare Hardware. PBKDF2 hat bekannte Schwächen, deshalb wurde bereits vor einiger Zeit argon2id als Ersatz entwickelt. Dieses Verfahren ist ab 2020 auch die Empfehlung des BSI.

Das denkbar schlechteste Szenario ist daher ein Container, der vor vielen Jahren mit aus heutiger Sicht völlig veralteter Hardware aufgesetzt wurde und mit einer mittelmäßigen Passphrase geschützt wurde. Ein solcher Container könnte aus heutiger Sicht wahrscheinlich geknackt werden. Dies ist kein abwegiges Szenario. Viele Linux-Benutzer – ob mit Rolling-Releases oder stabilen Systemen – sind stolz auf die langen Laufzeiten ihrer Installationen. Externe Festplatten werden wahrscheinlich sogar nur einmal – direkt nach dem Kauf – neu verschlüsselt.

Das Problem liegt hier in meinen Augen durchaus auch bei den Distributionen. Viele Leser werden dieses Lamento vermutlich nicht mehr hören können. Keine Distribution aktualisiert verschlüsselte Partitionen bei Upgrades und kein Kommandozeilentool oder grafisches Programm weist auf veraltete Einstellungen hin. Den meisten Anwendern fehlte oder fehlt vermutlich bis heute jegliches Problembewusstsein.

LUKS aktualisieren

Eine Aktualisierung ist relativ einfach durchzuführen. Es gibt jedoch Einschränkungen. Wer eine verschlüsselte Boot-Partition verwendet und daher auf die GRUB-Implementierung angewiesen ist, muss bei PBKDF2 bleiben. Ein weiterer Grund, warum ich verschlüsselte Bootpartitionen und Passworteingabe in GRUB für überbewertet halte. Für solche Dinge sind Integritätsprüfungen via TPM wesentlich sinnvoller, aber das führt hier zu weit.

Die aktuellen Standardeinstellungen seines Systems kann man wie folgt abfragen:

$ cryptsetup --help

Die Ausgabe bei einem aktuellen Fedora Kinoite ist wie folgt:

Vorgegebenes festeingebautes Metadatenformat ist LUKS2 (für luksFormat-Aktion).

Die Unterstützung des externen Token-Plugins LUKS2 ist integriert.
Pfad des Plugins für externe LUKS2-Token: /usr/lib64/cryptsetup.

Werkseinstellungen für Schlüssel und Passphrasen:
        Maximale Größe der Schlüsseldatei: 8192 kB, Maximale Länge der interaktiven Passphrase: 512 Zeichen
Vorgabe-PBKDF für LUKS1: pbkdf2, Durchlaufzeit: 2000 Millisekunden
Vorgabe-PBKDF für LUKS2: argon2id
        Iterationszeit: 2000, benötigter Speicher: 1048576 kB, parallele Threads: 4

Standard-Verschlüsselungsparameter:
        Loop-AES: aes, Schlüssel 256 Bits
        plain: aes-cbc-essiv:sha256, Schlüssel: 256 Bits, Passphrase-Hashen: ripemd160
        LUKS: aes-xts-plain64, Schlüssel: 256 Bits, LUKS-Header-Hashen: sha256, Zufallszahlengenerator: /dev/urandom
        LUKS: Standard-Schlüsselgröße mit XTS-Modus (zwei interne Schlüssel) wird verdoppelt.

Wie man alte Container aktualisiert habe ich hier schon beschrieben: Verschüsselte Volumes von LUKS1 auf LUKS2 konvertieren

$ sudo cryptsetup convert /dev/<number> --type luks2 

Hiernach die Abfrage bestätigen und das war es auch schon. Bei einer erneuten Abfrage sollte Version 2 in der entsprechenden Zeile stehen.

Zusätzlich muss auch explizit PBKDF auf Argon2 umgestellt werden.

$ sudo cryptsetup luksChangeKey /dev/<number> --pbkdf argon2id

Zur Bestätigung muss das alte und neue Kennwort eingeben werden. Bei Bedarf kann man auch das alte Kennwort als neues Kennwort nutzen.

Zusammengefasst

Es ist nicht klar, ob LUKS wirklich gebrochen wurde, aber LUKS wird glücklicherweise ständig weiterentwickelt und veraltete und potentiell unsichere Elemente werden ersetzt. Der Vorfall sollte zum Anlass genommen werden, einen Blick auf die eigenen LUKS-Container zu werfen, da die Distributionen die Wartung für ihre Anwender nicht übernehmen.

12. Mai 2023

Die MZLA Technologies Corporation hat mit Thunderbird 102.11 ein planmäßiges Update für seinen Open Source E-Mail-Client veröffentlicht.

Neuerungen von Thunderbird 102.11

Mit dem Update auf Thunderbird 102.11 hat die MZLA Technologies Corporation ein planmäßiges Update für seinen Open Source E-Mail-Client veröffentlicht. Das Update bringt diverse Fehlerbehebungen und Verbesserungen, welche sich in den Release Notes (engl.) nachlesen lassen. Auch wurden diverse Sicherheitslücken geschlossen.

Der Beitrag Thunderbird 102.11 veröffentlicht erschien zuerst auf soeren-hentzschel.at.

11. Mai 2023

Noch ist Google in den meisten Ländern die Standard-Suchmaschine in Firefox. Doch das könnte sich bald ändern. Der aktuelle Vertrag mit Google läuft in diesem Jahr aus. Und es bahnt sich an, dass ein namhafter und hoch motivierter Konkurrent um diese Position mitbieten wird.

Abgesehen von drei Jahren mit Yahoo! als wichtigstem Suchmaschinen-Partner von Mozilla war Google immer die Standard-Suchmaschine von Firefox in den meisten Ländern. Dabei liefen die Verträge zwischen Google und Mozilla in den letzten 15 Jahren immer für jeweils drei Jahre. So ist es auch jetzt, womit der aktuelle Vertrag mit Google Ende dieses Jahres auslaufen und diese Position neu verhandelt wird.

Die Wahrscheinlichkeit, dass Google daran interessiert ist, auch in Zukunft die Standard-Suchmaschine in Firefox zu sein, dürfte sehr hoch sein. Die Frage ist natürlich immer, welche Konditionen der neue Vertrag hat. Insbesondere wenn die Marktanteile von Firefox sinken und Google der einzige ernsthafte und finanziell potente Interessent ist.

Doch könnte es dieses Mal zu einem Wettbieten kommen: Wie Windows Central unter Berufung auf The Information (Paywall) berichtet, soll Microsoft ein großes Interesse daran haben, Bing als Standard-Suchmaschine in Firefox zu platzieren. Dabei beruft man sich auf zwei Personen, welche direkte Kenntnis von entsprechenden Diskussionen haben sollen.

Microsoft erlebt gerade einen regelrechten Hype rund um die Integration von ChatGPT in seine Suchmaschine Bing. Dieses Momentum möchte Microsoft offensichtlich nutzen, was Sinn ergibt: Für Microsoft bietet sich die einmalige Gelegenheit, einen technologischen Vorsprung gegenüber Google zu nutzen, und damit die wohl realistischeste Chance seit langem und auch auf absehbare Zeit, größere Anteile am von Google so sehr dominierten Suchmaschinenmarkt zu gewinnen. Daher investiert Microsoft aktuell sehr aggressiv in Bing und ChatGPT. Und eine solche Partnerschaft mit Mozilla würde perfekt in diese Strategie passen.

Zwar hat Firefox keinen sehr hohen Marktanteil am Browsermarkt, womit nur daraus auch keine sehr großen Sprünge für Bing zu erwarten wären. Aber wie Microsofts CFO Phil Ockenden im Februar in einem Investoren-Call erklärte, steckt in jedem Prozentpunkt mehr Anteil am Suchmaschinen-Werbemarkt das Potential von zwei Milliarden USD Umsatz. Dementsprechend wäre dies ein Geschäft, von dem sowohl Mozilla als auch Microsoft selbst profitieren könnten. Und die 15 Milliarden USD, die Google alleine im Jahr 2021 an Apple gezahlt haben soll, um Standard-Suchmaschine in Safari zu sein, dürften in Anbetracht dieser gigantischen Wette auf die Zukunft und den anderen Milliarden-Investitionen auch für Microsoft eine Nummer zu groß sein. Zum Vergleich: Mozilla hat im gleichen Jahr 528 Millionen USD von Google dafür erhalten, die Standard-Suchmaschine in Firefox zu sein.

Ein ernsthaftes Interesse Microsofts angenommen: Natürlich bleibt da immer noch Google, die mit Sicherheit auch wenigstens ein Angebot abgeben und Microsoft diesen Platz nicht einfach so überlassen werden.

Ob Bing im kommenden Jahr die Standard-Suchmaschine von Firefox sein wird, lässt sich nicht abschätzen. Am Ende bleibt vielleicht auch Google die Standard-Suchmaschine in Firefox. Sicher ist: Dieses gesteigerte Interesse ist nicht zu Mozillas Nachteil. Es verbessert in jedem Fall die Verhandlungsposition von Mozilla und sorgt vielleicht ja für den nächsten Rekordumsatz – egal ob nun mit Google oder Microsoft als Standard-Suchmaschine.

Der Beitrag Kommt es zum Wettbieten um die Standard-Suchmaschine in Firefox? erschien zuerst auf soeren-hentzschel.at.