ubuntuusers.de

3. Januar 2025

Firefox besitzt eine Übersetzungsfunktion für Websites, welche im Gegensatz zu Cloud-Übersetzern wie Google Translate lokal arbeitet, die eingegebenen Texte also nicht an einen fremden Server sendet. Mit der Unterstützung von Chinesisch, Japanisch und Koreanisch wurde jetzt der nächste wichtige Meilenstein erreicht.

Firefox wird seit Version 118 standardmäßig mit einer lokalen Funktion zur maschinellen Übersetzung von Websites für den Browser ausgeliefert. Das bedeutet, dass die Übersetzung vollständig im Browser geschieht und keine zu übersetzenden Inhalte an einen Datenriesen wie Google oder Microsoft übermittelt werden müssen.

Mit der Unterstützung der sogenannten CJK-Sprachen wurde nun ein weiterer Meilenstein erreicht. Die Nightly-Version von Firefox kann jetzt Inhalte aus dem Chinesischen, Japanischen sowie Koreanischen übersetzen.

Der Beitrag Übersetzungsfunktion von Firefox Nightly lernt Chinesisch, Japanisch und Koreanisch erschien zuerst auf soeren-hentzschel.at.

31. Dezember 2024

Der Fakespot Deep Fake Detector ist eine neue Firefox-Erweiterung von Mozilla, welche es dem Nutzer ermöglichen soll, mutmaßliche KI-Inhalte von Inhalten zu unterscheiden, die von echten Menschen geschaffen wurden.

Download Fakespot Deep Fake Detector

Künstliche Intelligenz (KI) erlebt in den letzten Jahren einen extremen Aufschwung – sowohl qualitativ als auch, was die Nutzung betrifft – und das längst auch im Mainstream-Bereich. Heute fällt es teilweise schwer, überhaupt noch zu erkennen, welche Inhalte von einer KI erzeugt worden sind und was das Werk echter Menschen ist.

Mozilla möchte dieses Problem angehen – und zwar mit Hilfe Künstlicher Intelligenz. Der Fakespot Deep Fake Detector ist eine neue Browser-Erweiterung für Firefox, welche es erlaubt, markierten Text dahingehend zu analysieren. Alternativ kann Text auch ohne Browser-Erweiterung auf der dazugehörigen Website eingegeben werden.

Zu diesem Zeitpunkt werden ausschließlich englischsprachige Texte unterstützt. Bei Text soll es dabei nicht bleiben: In Zukunft soll der Fakespot Deep Fake Detector auch Videos und Bilder analysieren können.

Für eine bessere Zuverlässigkeit verlässt sich Mozilla nicht auf ein einzelnes Modell. Mit ApolloDFT, Binocular, UAR sowie ZipPy kommen derzeit gleich vier Modelle mit unterschiedlichen Stärken und Schwächen zum Einsatz, die auch beschrieben werden. Wenn es Unstimmigkeiten in der Bewertung gibt, erfährt der Nutzer, welches Modell zu welchem Ergebnis kam. Bei allen diesen Modellen handelt es sich um Open Source-Modelle, wobei ApolloDFT ein eigenes Modell von Fakespot ist.

Fakespot war ursprünglich ein eigenständiges KI-Unternehmen, welches sich auf die Erkennung sogenannter „Fake-Inhalte“ spezialisiert hat und im Mai 2023 von Mozilla übernommen worden ist. Am besten bekannt ist Fakespot für die Erkennung falscher Produktbewertungen beim Online-Shopping. Mittlerweile ist diese Funktionalität für Amazon, BestBuy und Walmart nativ in Firefox integriert.

Fakespot Deep Fake Detector Fakespot Deep Fake Detector

Der Beitrag Fakespot Deep Fake Detector: Neue Erweiterung von Mozilla erkennt Inhalte von KI vs. echten Menschen erschien zuerst auf soeren-hentzschel.at.

In der letzten Episode des Risikozone-Podcasts habe ich ganz kurz das Thema der verkürzten Hashwerte und auftretenden Kollisionen angesprochen. Jetzt gibt es ein Proof of Concept zu der Thematik.

Worum es geht

Ein kurzer Refresher, worum es in der Thematik überhaupt geht: Als Git entwickelt wurde, musste ein Weg gefunden werden, wie man die Referenzen auf Commits, die Dateien und die Dateibäume realisiert. In vielen Systemen wie z. B. Issue-Trackern werden aufsteigende Indizes verwendet. In einem verteilten System wie Git ist das aus verschiedenen Gründen der Synchronisation nicht so einfach möglich, da sonst Kollisionen, also gleiche IDs für unterschiedliche Objekte entstehen könnten. Eine Alternative wäre UUIDs, da die IDs einen randomisierten Anteil haben und die Wahrscheinlichkeit für Kollisionen gesenkt wird.

Noch besser als UUIDs ist allerdings Content-adressable Storage, bei dem Inhalte einzig durch ihren Inhalt adressiert werden. Das ist so, als würde man den gesamten Inhalt der Datei nochmal in den Dateinamen schreiben. Der Clou dabei ist jedoch, dass der gesamten Dateiinhalt gar nicht in den Dateinamen geschrieben werden muss, um die Datei durch ihren Inhalt identifizierbar zu machen.

Mit kryptographischen Hashfunktionen wie SHA-1 oder SHA-256 existiert ein Mittel, um einen beliebig langen Dateiinhalt zu einem immer gleich langen Wert, dem Hash, umzuwandeln. Dabei sind kryptographische Hashfunktionen so konstruiert, dass die Wahrscheinlichkeit für Kollisionen durch verschiedene Mechanismen stark minimiert wird. Ein SHA-1-Hash für den Dateiinhalt "Hallo Welt" wäre z. B. 28cbbc72d6a52617a7abbfff6756d04bbad0106a. Ein netter Nebeneffekt ist, dass Dateien mit gleichem Inhalt im Content-adressable Storage auch nur einmal abgespeichert werden, wodurch sogar Deduplikation ermöglicht wird.

Git nutzt dieses Verfahren, um die eingechekten Dateien abzuspeichern. Diese Dateien werden dann in Trees zusammengebunden und in Commits mit den jeweiligen Vorgänger-Commits (parents) in einem sog. Merkle-Tree verheiratet.

Commits werden somit auch durch einen SHA-1-Hash identifiziert, der im hexadezimalen Format 40 Zeichen lang ist.

Das Problem

Das Problem bei dem Verfahren liegt jetzt darin, dass dieser Hash üblicherweise noch weiter abgekürzt wird, um ihn benutzerfreundlicher in Oberflächen oder E-Mails darzustellen. Damit wird natürlich die Wahrscheinlichkeit für Kollisionen erhöht.

Habe ich einen Hash 28cbbc72d6a52617a7abbfff6756d04bbad0106a und nutze nur 28cbbc zur Referenz, reicht das in den meisten kleinen Repositories aus, um einen Commit eindeutig zu referenzieren. In großen Repositories mit vielen Dateien und Commits kann es auf einmal passieren, dass ein weiterer Commit 28cbbcc00aa8ef4e80596c16ecfdb4bc92656cd3 auftaucht, sodass 28cbbc nicht mehr eindeutig einen Commit beschreibt.

Um das Risiko zu verringern, sollte die Mindestanzahl der Zeichen für einen abgekürzten Commit erhöht werden.

Das Kernel-Repository

Genau darum geht es in der aktuellen Diskussion. Aktuell nutzen die Linux-Entwickler zur Referenz von Commits in ihren E-Mails 12 Zeichen lange Hashes. Die Diskussion dreht sich um die Frage, ob die Zahl weiter erhöht werden sollte. Linus Torvalds ist bisher dagegen, weil er das Risiko für Kollisionen gering sieht und er die Position vertritt, dass ein Commit immer mit dem Commit Message Title angegeben werden sollte, was ungewollte Kollisionen ausreichend verhindere.

Gestern veröffentlichte Kees Cook einen Blogpost, indem er eine Commit-Kollision mit dem Werkzeug lucky-commit bewusst herbeiführte, um darauf aufmerksam zu machen, dass die Git- und Kernel-Entwicklungstools mit solchen Situationen klarkommen sollten. Es ist unwahrscheinlich, dass solche Kollisionen bei 12 Zeichen versehentlich entstehen, aber ein Angreifer könnte dies ausnutzen.

Dies sollte ein Apell an alle Entwickler sein, deren Tooling auf abgekürzte Commit-Hashes setzt. Schauen wir mal, wie sich das weiterentwickelt.

Ein Kommentar zu SHA-1

Abschließend ein Kommentar noch zu SHA-1. Wie viele von euch wissen, ist SHA-1 selbst nicht mehr vertretbar kollisionssicher. Das bedeutet, es kann passieren, dass auf einmal zwei Dateiinhalte sich doch den gleichen Hash teilen könnten, wenn ein Angreifer es drauf anlegt.

Da dies natürlich Git massiv stören könnte, gibt es schon Bestrebungen, das Verfahren auf SHA-2 zu aktualisieren, wodurch sich die Hashlänge auch vergrößert. Das ist aber gar nicht so einfach, da SHA-1 an vielen Stellen in die Struktur eines Git-Repos hartkodiert wurde.

Hier geht es aber nicht um das unsichere SHA-1. Durch die Abkürzung des Hashes von 40 auf 12 Zeichen wird die Kollisionssicherheit bewusst und massiv zugunsten der Benutzerfreundlichkeit geschwächt. Und das erfordert immer eine regelmäßige Evaluation, welches Niveau noch vertretbar ist.

30. Dezember 2024

Orbit by Mozilla ist eine Firefox-Erweiterung von Mozilla, welche den Browser um einen KI-Assistenten erweitert, der Texte und Videos zusammenfassen kann und dabei die Privatsphäre der Nutzer respektiert.

Download Orbit by Mozilla für Firefox

Die Firefox-Erweiterung Orbit by Mozilla, derzeit noch „Beta“ gekennzeichnet, legt standardmäßig ein graphisches Element über alle Websites, welches aber auch an eine beliebige andere Stelle gezogen werden kann. Fährt man mit der Maus über das Element, hat man die Optionen, sich den Inhalt der aktuellen Seite zusammenfassen zu lassen, einen Chatbot zum Inhalt zu befragen, die Einstellungen der Erweiterung zu öffnen oder das Element auszublenden.

In den Einstellungen der Erweiterung lässt sich eine wesentlich minimalistischere Darstellung auswählen, ob Zusammenfassungen automatisch erfolgen sollen und ob man die Zusammenfassungen in Stichpunkten, kurzen Sätzen oder ganzen Absätzen erhalten möchte.

Orbit by Mozilla funktioniert nicht nur für Textdokumente, sondern über die Transkriptionen auch für Videoportale wie YouTube, liefert aktuell aber ausschließlich Ergebnisse in englischer Sprache.

Orbit by Mozilla Orbit by Mozilla Orbit by Mozilla

Für die Verwendung von Orbit by Mozilla wird kein Benutzerkonto benötigt. Als Sprachmodell kommt derzeit Mistral 7B zum Einsatz, welches auf einem Mozilla-Server gehostet wird. Es werden keine Daten mit Dritten geteilt und Orbit by Mozilla vergisst die übermittelten Informationen umgehend, sobald man auf eine andere Seite navigiert. Da keine Daten mit Mistral geteilt werden, findet durch die Nutzung der Erweiterung auch kein Training des Sprachmodells statt und die Informationen bleiben wirklich privat.

Der Beitrag Orbit by Mozilla: KI-Assistent als Firefox-Erweiterung erschien zuerst auf soeren-hentzschel.at.

Zum Jahresende möchte ich kurz zurückblicken und reflektieren, wie dieses Jahr für meinen kleinen Blog verlaufen ist.

Anzahl veröffentlichter Artikel

Behandelte Themen

Thematisch haben sich fast alle Artikel mit Freier Software und Open Source beschäftigt oder waren daran angelehnt. Wie auch in den vorangegangenen Jahren habe ich keine bewussten Themenschwerpunkte gesetzt, sonder über die Themen geschrieben, dich mich in der jeweiligen Zeit interessierten und mich beschäftigt haben.

Zu Beginn des Jahres hatte es mir das Thema IPv6 angetan, wozu vier Beiträge erschienen sind:

Das Thema begleitet mich auch weiterhin, jedoch gibt es bisher keine spannenden Neuigkeiten, die ich für berichtenswert halte. Ich fürchte, IPv6 wird sobald nicht die Weltherrschaft an sich reißen.

Ein Thema, welches mir sehr wichtig war und ist, ist die Dokumentation für den Notfall bzw. das digitale Erbe. Wie die Kommentare zu diesem Artikel bezeugen, bin ich nicht der Einzige, der sich darum Gedanken macht. Leider bin ich 2024 kaum damit vorangekommen und schiebe es weiter vor mir her. Dies ärgert mich etwas, da ich mir wünsche, mich für ein so wichtiges Thema besser aufraffen zu können.

In 2024 wurden wir auf allen Kanälen mit Künstlicher Intelligenz, Maschinellem Lernen und großen Sprachmodellen überflutet. Es fällt schon fast schwer noch irgendeine Anwendung oder ein Produkt ohne AI kaufen zu können. Abseits des Hypes habe ich mich ebenfalls mit dem Thema beschäftigt und zwei Beiträge ( [1] und [2]) dazu geschrieben. Ich bin überzeugt, dass die verschiedenen Spielarten der künstlichen Intelligenz unser Leben und unsere Art zu Arbeiten stark beeinflussen und verändern werden. Daher werde auch ich hier am Ball zu bleiben, um nicht von der laufenden Entwicklung abgehängt zu werden.

Fazit

Damit sind 2024 insgesamt 26 Artikel erschinen. Das sind 19 weniger als in 2023. Mein selbst gestecktes Ziel, jeden Monat mindestens zwei Artikel zu veröffentlichen habe ich ebenfalls nicht erreicht. Da dies mein Hobby ist und mir primär Freude bereiten soll, setze ich mich durch diese Zielverfehlung nicht unter Druck.

Das Jahr 2025 lasse ich ohne große Ziele und Bestrebungen auf diesen Blog zukommen. Nur eines ist sicher, ich werde meine Texte weiterhin selbst und ohne KI-Unterstützung schreiben. Denn damit würde ich mir nur selbst die Freude am Bloggen nehmen.

Ich freue mich, wenn ich auch 2025 wieder interessantes Wissen in meinen Texten mit euch teilen kann. Ich wünsche euch einen guten Rutsch ins Jahr 2025!

28. Dezember 2024

Mit den Tabgruppen arbeitet Mozilla an einem neuen Feature zur Organisation von Tabs. In der Nightly-Version von Firefox 135 sind Tabgruppen jetzt standardmäßig aktiviert.

Tabgruppen sind das meistgewünschte Feature der Firefox-Nutzer laut der Community-Plattform Mozilla Connect. Für Nutzer einer Nightly-Version von Firefox sind Tabgruppen jetzt standardmäßig verfügbar.

Ein bestehender Tab kann entweder über das Kontextmenü oder durch Ziehen auf einen anderen Tab zu einer Gruppe hinzugefügt werden. Für jede Gruppe kann eine von neun vordefinierten Farben ausgewählt und ein beliebiger Name vergeben werden. Die Tabgruppen werden dann innerhalb der Tableiste mit eben jener Farbe gekennzeichnet, der Name der Gruppe wird vorangestellt. Per Klick lassen sich Gruppen ein- und ausklappen. Im eingeklappten Zustand ist nur noch der Name der Tabgruppe sichtbar.

Tabgruppen in Firefox 135 Nightly

Auch bei Verwendung der vertikalen Tabs, einem anderen neuen Feature, an welchem Mozilla arbeitet, können die Tabgruppen bereits genutzt werden.

Tabgruppen in Firefox 135 Nightly

Zu beachten ist, dass die Umsetzung noch unvollständig ist und Fehler beinhaltet. Vor allem beim Verschieben von Tabs funktioniert zu diesem Zeitpunkt noch nicht alles reibungslos, während ein Verschieben von Tabgruppen noch gar nicht möglich ist.

Die standardmäßige Aktivierung ist derzeit noch auf Nightly-Versionen limitiert. Es wird sich dabei also nicht um ein offizielles Feature von Firefox 135 handeln. Eine Aktivierung wird dennoch möglich sein, indem über about:config der Schalter browser.tabs.groups.enabled per Doppelklick auf true gesetzt wird.

Der Beitrag Tabgruppen in Firefox 135 Nightly standardmäßig aktiviert erschien zuerst auf soeren-hentzschel.at.

27. Dezember 2024

Vergangenen Monat hat Mozilla wieder ein sogenanntes „Ask me Anything“-Event (AMA) veranstaltet, bei dem hochrangige Mozilla-Mitarbeiter die Fragen von Firefox-Nutzern beantwortet haben. Dieser Artikel fasst die spannendsten Informationen zur Zukunft von Firefox zusammen.

Nach einem „Ask me Anything“ (AMA) auf Reddit im Juni, hat Mozilla im November erneut ein AMA abgehalten, dieses Mal auf Mozillas eigener Plattform Mozilla Connect.

In Bezug auf die Übersetzungsfunktion von Firefox wurde in Aussicht gestellt, dass zu den bereits 28 unterstützten Sprachen Anfang 2025 die nächsten sechs Sprachen dazu kommen werden.

Für die Standard-Startseite sowohl vom Desktop als auch für Mobile (Android und iOS) sind Überarbeitungen geplant, einschließlich mehr Personalisierung und weiterer Hintergrundbilder. Auch die Möglichkeit, eigene Bilder zu verwenden, möchte Mozilla ergänzen.

Das Erweiterungs-Team konzentriert sich auf iterative Verbesserungen der Auflistungen und Suchergebnisseiten, um Nutzer dabei zu unterstützen, die relevantesten Erweiterungen zu finden und zu installieren.

Ein automatischer Dark Mode für Websites, welche einen solchen nicht von sich aus anbieten, ähnlich wie es die Erweiterung Dark Reader macht, wird zwar als spannende Funktion anerkannt, kann durch die Manipulation der Website aber zu Kompatibilitäts- und Performanceproblemen führen. Deswegen bedürfe es eines signifikanten Aufwands, um eine solche Funktion korrekt umzusetzen, und steht auf Mozillas Prioritätenleiste weit unten.

Angesprochen wurde natürlich auch das Thema Künstliche Intelligenz (KI) in Firefox. Künstliche Intelligenz entwickelt sich schnell weiter und man geht davon aus, dass einige KI-gestützte Funktionen irgendwann so wichtig werden könnten wie heute die Rechtschreibprüfung oder die automatische Vervollständigung. Man wisse noch nicht genau, welche Funktionen das sein werden, aber würde Mozilla warten, bis das klar ist, könnten sie die Chance verpassen, bereit zu sein, wenn die Nutzer es erwarten. Daher wird Mozilla weiterhin mit KI-Features experimentieren und neue Ideen ausprobieren. Aber KI-Features in Firefox sind immer optional, sodass Nutzer, welche damit nichts zu tun haben wollen, diese Funktionen auch nicht nutzen müssen.

Firefox für Android und iOS zu verbessern, wird ein großer Fokus im kommenden Jahr sein. Bald schon wird Firefox auf beiden Plattformen mit neu gestalteten Toolbars und Menüs ausgeliefert werden. Mozilla wird weiterhin in Geschwindigkeit, Zuverlässigkeit und essentielle Features wie die Verwaltung von Tabs, Privatsphäre-Features und Autovervollständigung investieren. Dazu kommt eine neue Startseite mit neuen Anpassungsmöglichkeiten. Außerdem möchte Mozilla die geräteübergreifende Nutzungserfahrung verbessern und damit die Synchronisation und das Mozilla-Konto noch nützlicher machen. Konkret auf Tab-Gruppen angesprochen, wurde bestätigt, dass dies auch etwas ist, was man für Mobile bauen möchte. Ein Zeitplan konnte hierfür aber keiner genannt werden. Zunächst wird dieses Feature schon bald im Desktop-Firefox ausgerollt werden.

Was Privatsphäre-Features betrifft, ist eine engere Interation des Mozilla VPNs in Firefox geplant. In diesem Zusammenhang wird zunächst eine VPN-Erweiterung für Firefox veröffentlicht werden. Die Nutzung von E-Mail-Masken für Firefox Relay soll besser in Firefox integriert werden, sodass hierfür in Zukunft keine Erweiterung mehr benötigt wird. Auch eine Expansion von Firefox Relay Premium in weitere Länder ist geplant.

Auf die Entwicklung der Nutzerzahlen angesprochen, wurde gesagt, dass sich die Dinge in die richtige Richtung entwickeln. So würde man sehen, dass sich immer mehr Menschen für Firefox auf dem Smartphone entscheiden, und auch für Firefox auf dem Desktop sehe man ermutigende Nutzungstrends.

Man gibt auch zu, dass es sich manchmal so anfühle, als würde Firefox vor allem auf die Konkurrenz aufschließen statt voranzugehen, aber man arbeite daran, dies zu ändern. Insbesondere im mobilen Bereich, wo die Browsernutzung eine andere ist und man ein paar neue Dinge probieren könne. Nicht alles wird im ersten Anlauf funktionieren, aber aus diesem Grund arbeite man im Öffentlichen und erhalte Feedback. Mozilla möchte in Zukunft auch noch mehr von dem, woran sie arbeiten, vorab auf Mozilla Connect zeigen, um frühes Nutzerfeedback zu erhalten.

Der Beitrag Highlights des Mozilla AMA November 2024 erschien zuerst auf soeren-hentzschel.at.

26. Dezember 2024

Eine Installationsanleitung für die Linuxdistribution Arch Linux mit Rollback Funktion und den wichtigsten Post-Installations Konfigurationsschritten.

Arch Linux ist eine beliebte Linux-Distribution mit einer Do-It-Yourself Philosophie. In diesem Tutorial wird die Installation des Systems auf einem verschlüsselten BTRFS Dateisystem beschrieben.

Nutzer dieses Tutorials sollten mit einem CLI Texteditor umgehen können (z. B. nano oder vim) sowie grundlegende Verzeichnisnavigation beherrschen. Das Archwiki aufsuchen, falls auf Probleme gestossen werden sollte.

Grundlegender Ablauf

Dieses Tutorial ist für ein modernes System mit UEFI BIOS und einer SSD mit GPT-Partitionstabelle geschrieben. Es nutzt Verschlüsselung und das BTRFS Dateisystem.

  1. Festplatten partitionieren, verschlüsseln und formatieren.
  2. Arch Linux mit pacstrap bootstrappen und ins System chrooten.
  3. Initial RAM-Filesystem erstellen.
  4. Boot loader installieren und konfigurieren.
  5. Desktopumgebung einrichten.
  6. Snapshotfunktion einrichten.
  7. Post Install Konfiguration.

Informationen für Dualboot Systeme mit Windows:

Dieses Tutorial geht davon aus, dass Windows auf einer separaten Festplatte installiert ist. Falls das nicht möglich ist, dann sollte Windows zuerst installiert werden. Für die Linux-Installation sollte eine separate ESP Partition erstellt werden, damit in Zukunft Windows Updates nicht unerwünscht den Linux-Eintrag aus der ESP löschen.

Vorbereitung

Die ISO-Datei von der Arch Webseite herunterladen (Arch unterstützt nur die x86_64 Architektur), die Signatur verifizieren und einen bootable USB-Stick erstellen.

Signatur verifizieren

Wir nutzen GnuPG: PGP Signatur von der Webseite herunterladen und im gleichen Ordner wie die ISO Datei speichern. Den Signing Key vom WKD (Web Key Directory) herunterladen.

gpg --auto-key-locate clear,wkd -v --locate-external-key pierre@archlinux.org

Signatur verifizieren:

gpg --keyserver-options auto-key-retrieve --verify archlinux-2024.12.01-x86_64.iso.sig archlinux-2024.12.01-x86_64.iso

Bootable USB-Stick erstellen

Dann die Installationsdatei auf einen USB-Stick laden. Es gibt verschiedene Arten, einen bootable USB-Stick zu erstellen. Hier mache ich es mit dem dd Befehl:

dd bs=4M if=path/to/archlinux-version-x86_64.iso of=/dev/disk/by-id/usb-My_flash_drive conv=fsync oflag=direct status=progress

Danach ins Live Environment booten und die eigentliche Installation beginnen.

Temporär Console Keyboard Layout setzen

Vorhandene Key maps anzeigen:

ls /usr/share/kbd/keymaps/**/*.map.gz

Key map laden:

loadkeys de_CH-latin1

Boot Modus verifizieren

UEFI bitness überprüfen:

cat /sys/firmware/efi/fw_platform_size

Falls 64 ausgegeben wird, dann ist das System im UEFI Modus gebootet und hat ein 64-bit x64 UEFI. Falls es 32 ausgibt, dann ist das System im UEFI Modus gebootet und hat ein 32-bit IA32 UEFI; obwohl das auch unterstützt wird, wird es die Boot loader Wahl auf Systemd-boot reduzieren. Wenn die Datei nicht existiert, könnte das System im BIOS (oder CSM) Modus gebootet sein. Wenn das System nicht im richtigen Modus gebootet hat, sollte die Anleitung des Motherboards aufgesucht werden.

Internet verbinden

Überprüfen, ob das Netzwerk Interface gelistet und aktiviert ist. Dieser Befehl initialisiert auch mit Ethernet-Kabel verbundenes Internet.

ip link
  • Bei Ethernet-Verbindung einfach Kabel einstecken
  • Bei Wireless mit iwctl verbinden. Zuerst noch mit rfkill sicherstellen, dass der Wireless Adapter nicht blockiert ist.

iwctl verwenden, um Internet zu verbinden

Aktiven Prompt erhalten:

iwctl

Alle WiFi Devices auflisten:

[iwd] device list

Falls das Gerät oder der entsprechende Adapter ausgeschaltet ist, einschalten:

[iwd] device DEVICE set-property Powered on
[iwd] adapter ADAPTER set-property Powered on

Scan Initiieren:

[iwd] station DEVICE scan

Netzwerke auflisten:

[iwd] station DEVICE get-networks

Netzwerk verbinden:

[iwd] station DEVICE connect SSID

Falls ein Passwort benötigt wird, wird danach gefragt.

Systemuhr aktualisieren

In der Live-Umgebung ist systemd-timesyncd standardmäßig eingeschaltet und die Zeit wird automatisch synchronisiert, sobald das Internet verbunden ist.

Zeit überprüfen:

timedatectl

Festplatte(n) konfigurieren

Wahl zwischen BTRFS oder EXT4. Allgemein: BTRFS für SSD, EXT4 für HDDs. XFS und ZFS sind auch beliebte Dateisysteme, werden hier allerdings nicht beachtet. Für mehr Informationen, Archwiki aufsuchen. LVM für Datenträgerverwaltung. Hier wird davon ausgegangen, dass das System auf einer SSD mit BTRFS Dateisystem installiert wird, mit zwei HDD-Festplatten im EXT4 Format als mass media storage in einer LVM.

Festplatteninhalt komplett löschen

Wir möchten unsere Festplatten verschlüsseln. Zunächst wird der ganze Inhalt der Platten mit Nullen überschrieben. Dazu nutzen wir den Befehl cryptsetup. Festplatten auflisten:

fdisk -l 

Festplatte in einem temporär verschlüsselten Container mit dem Namen "to_be_wiped" öffnen:

cryptsetup open --type plain -d /dev/urandom /dev/FESTPLATTE to_be_wiped

Festplatte mit Nullen füllen:

dd bs=1M if=/dev/zero of=/dev/mapper/to_be_wiped status=progress

Container schließen:

cryptsetup close to_be_wiped

Partitionen erstellen

Festplatten auflisten:

fdisk -l

Festplatte auswählen:

fdisk /dev/DEVICE
  • Alte Partitionen mit d löschen
  • Mit g eine neue GPT Partitionstabelle erstellen.
  • Allfällige alte Signaturen ruhig löschen.

Einfach dem Programm folgen, es ist ziemlich selbsterklärend.

EFI Partition (EFI System Partition, ESP)

  • Mit n eine neue Partition erstellen. Default Nummer. Default erste Position. "+500M" Größe.
    • Typ mit t definieren, Partition auswählen, und 1 (oder EFI System) eintippen.

Root Partition

  • Mit n eine neue Partition erstellen. Default Nummer. Default erste Position. Mit Enter einfach den Default Wert für Größe nehmen (= den ganzen Rest).
    • Typ mit t definieren, Partition auswählen, und Linux Filesystem eintippen (ist der Standardwert).

Encryption Setup

Die Partitionen werden mithilfe des cryptsetup-Tools verschlüsselt. ROOTPART steht für die zu verschlüsselnde Partition.

cryptsetup -y -v luksFormat --label ARCH_LUKS /dev/ROOTPART

Passwort eingeben. Danach die Partition entschlüsseln, um mit ihr arbeiten zu können:

cryptsetup open --type luks /dev/ROOTPART cryptroot

Wir haben somit die verschlüsselte Partition /dev/ROOTPART entschlüsselt und auf /dev/mapper/cryptroot gemappt.

Partitionen formatieren

Wir erstellen nun Dateisysteme auf den Partitionen. ESP-Partition in FAT32, ROOTPART in BTRFS formatieren und überprüfen:

mkfs.fat -F32 -n ESP /dev/PART1
mkfs.btrfs -L ARCH /dev/mapper/cryptroot
lsblk -f

BTRFS Subvolumes erstellen

Dafür muss die Root-Partition zuerst gemounted werden:

mount /dev/mapper/cryptroot /mnt

Ins /mnt Verzeichnis wechseln und Subvolumes erstellen. Vorgeschlagenes Layout wird vom Archwiki übernommen, außer dass ich keine Subvolume für /var/log verwende. Eine Subvolume für root(@), eine für home, eine für swap und eine für snapshots. Am Schluss /mnt unmounten, damit wir die eigentlichen mount Verzeichnisse im nächsten Schritt definieren können.

cd /mnt
btrfs subvolume create @
btrfs subvolume create @home
btrfs subvolume create @snapshots
btrfs subvolume create @swap
cd ..
umount /mnt

Subvolumes und ESP mounten

Als BTRFS Optionen werden noatime (schaltet file writing access times ab für bessere performance), zstd:1 (Dateikompression auf Stufe 1) und space_cache=v2 (neue Implementation eines free space tree für BTRFS cache) genutzt.

mount --mkdir -o noatime,compress=zstd:1,space_cache=v2,subvol=@ /dev/mapper/cryptroot /mnt
mount --mkdir -o noatime,compress=zstd:1,space_cache=v2,subvol=@home /dev/mapper/cryptroot /mnt/home
mount --mkdir -o noatime,compress=zstd:1,space_cache=v2,subvol=@snapshots /dev/mapper/cryptroot /mnt/.snapshots
mount --mkdir -o noatime,subvol=@swap /dev/mapper/cryptroot /mnt/swap
mount --mkdir /dev/ESPPART /mnt/boot

Swap einrichten

Snapshot-Funktion für Swap Partition ausschalten, und ein Swap File erstellen (optional: mindestens so gross wie RAM, damit Hibernation gewährleistet wird. Im dd Befehl die count Option (in MB) anpassen):

cd /mnt/swap

# Snapshotfunktion deaktivieren
chattr +C /mnt/swap

# Swapspace definieren
dd if=/dev/zero of=./swapfile bs=1M count=4096 status=progress
chmod 0600 ./swapfile
mkswap -U clear ./swapfile
swapon ./swapfile

Optional: Mass Media Storage mit LVM Setup

Ich habe 2 HDD-Festplatten, die ich als Mass Media Storage verwende. Diese möchte ich zu einer großen Partition zusammenfassen – dazu nutze ich LVM. Logical Volumes können auch verschlüsselt werden. Dazu entweder die eigentlichen Festplatten verschlüsseln und LVM obendrauf bauen, oder die Logical Volume als Ganzes im Nachhinein verschlüsseln. Für Vor- bzw. Nachteile Archwiki aufsuchen. Ich habe mich für LUKS on LVM entschieden. Anmerkung: Der Wiki-Eintrag geht davon aus, dass es als System-Partition verwendet wird, was hier nicht der Fall ist.

Festplatten vorbereiten

Zunächst müssen beide Festplatten vorbereitet werden. Gleich wie bei der Root Disk zuvor überschreiben wir den Inhalt mit Nullen und erstellen auf beiden Festplatten eine Partition über die komplette Größe vom Typ Linux Filesystem. Physical Volumes können auch direkt auf einer Disk ohne Partition definiert werden, wird aber nicht empfohlen.

LVM definieren

Mit dem pvcreate Befehl die frisch angelegten Partitionen als Physical Volumes definieren:

# sdb1 und sdc1 mit deinen eigenen Partitionen tauschen
pvcreate /dev/sdb1
pvcreate /dev/sdc1

Mit dem Befehl pvdisplay können diese überprüft werden.

Nun wird mit dem vgcreate Befehl eine Volume Group (eine Art Container) erstellt, ich gebe ihr den Namen "vghome". Diese beinhaltet die beiden vorher erstellten Physical Volumes.

vgcreate vghome /dev/sdb1 /dev/sdc1

Mit dem Befehl vgdisplay lässt sich die Volume Group überprüfen.

Aus dieser Volume Group können nun mit lvcreate Logical Volumes erstellt werden. Diese verhalten sich auf der Systemebene dann wie eine normale Partition einer Festplatte. Meine Logical Volume erstelle ich über die gesamte Grösse dieser LV.

lvcreate -l 100%FREE vghome -n lvcrypthome

Mit lvdisplay lässt sich diese überprüfen.

Dieses Logical Volume muss nun noch verschlüsselt werden und ein Dateisystem erhalten.

Verschlüsselung & Formatierung

Ähnliches Vorgehen wie auf der Root-Partition. Logical Volume verschlüsseln:

cryptsetup -y -v luksFormat --label HOME_LUKS /dev/vghome/lvcrypthome

Passwort eingeben, ich verwende dasselbe wie bei der Root-Partition. Wieder entschlüsseln und mappen damit wir sie formatieren können.

cryptsetup open --type luks /dev/vghome/lvcrypthome crypthome

Formatieren. Meine Festplatten sind HDDs, deswegen in EXT4.

mkfs.ext4 -L home /dev/mapper/crypthome

Festplatten sind vorbereitet, jetzt kann die Installation beginnen. Anzumerken ist, dass der [[Arch Linux Post Installation#Weitere verschlüsselte Festplatten bei Boot entschlüsseln und mounten|Mountpoint erst am Schluss definiert wird]]. Außerdem darf das lvm2 Paket nicht fehlen (wird im nächsten Schritt installiert).

Arch Installation

Mit pacstrap eine neue Arch-Installation beginnen und Basispakete installieren. Eigentlich ist nur das base Paket notwendig. Es beinhaltet eine minimale Sammlung an Paketen, die eine Arch Installation definieren.

pacstrap -i /mnt base

Aber so fehlt es an vielen wichtigen Funktionen. Weitere Pakete werden einfach mit einem Abstand getrennt aufgeschrieben. Hier ist eine Liste von empfohlenen Softwarepaketen:

  • Basic Stuff:
    • base
    • base-devel (diverse Build-tools)
    • linux (Kernel)
    • linux-lts (LTS kernel)
    • linux-headers (Kernel headers)
    • linux-lts-headers (LTS kernel headers)
    • linux-firmware
    • vim (Text-Editor)
    • vi
    • openssh (SSH)
    • intel-ucode (amd-ucode für AMD-Prozessoren)
    • sudo
  • Filesystem Utilities:
    • ntfsprogs
    • ntfs-3g
    • btrfs-progs
    • lvm2
    • exfat-utils
    • fuse-exfat
    • e2fsprogs
  • Bootprozess:
    • dosfstools
    • grub
    • efibootmgr
    • os-prober
    • mtools
  • Netzwerk:
    • networkmanager
    • dialog (Wifi connect wie CL)

Milde interessant: Wenn das "Linux" Paket (Linux Kernel) nicht installiert wird, ist theoretisch keine Linux-Installation vorhanden, lediglich eine Sammlung von Softwarepaketen. Daher der Name Linux-Distribution - der Linux Kernel wird distribuiert.

Konfiguration

Wir schreiben die zuvor definierten Mountpoints mithilfe des genfstab Befehls in die fstab (Filesystem table) Datei:

genfstab -U /mnt >> /mnt/etc/fstab
# Kontrolle
cat /mnt/etc/fstab

Wichtig für Restoren von Snapshots: Sicherstellen, dass beim mounten der einzelnen Subvolumes die Option "subvolid" nicht verwendet wird – die Option "subvol" reicht aus. Ausserdem sollte die top-level subvolume (immer ID=5) auf mnt/btrfs-root gemounted werden. Folgende Zeile einfügen:

UUID=UUID-der/installationspartition  /mnt/btrfs-root             btrfs         rw,noatime,compress=zstd:1,ssd,space_cache=v2,subvolid=5    0 0

Wir nehmen Zugriff auf die Arch Installation – die Konsoleneingabe wird auf die Work-in-Progress Installation angebunden:

arch-chroot /mnt

Wir befinden uns nun in der Arch Installation auf der eigentlichen Festplatte in einer chroot (change root) Umgebung. Noch müssen wir ein paar Dinge konfigurieren, damit das System ohne den USB-Stick bootet. Ab jetzt kann auch der Paketmanager pacman verwendet werden, um Pakete zu installieren.

Zeitzone und Sprache

In /usr/share/zoneinfo die Region und Stadt finden und einen Symlink in /etc/localtime erstellen. Im Anschluss die Hardwareuhr synchronisieren:

ln -sf /usr/share/zoneinfo/Europe/Zurich /etc/localtime
hwclock --systohc

Sprachen in /etc/locale.gen auskommentieren (en_US.UTF-8 und de_CH.UTF-8), und locale generieren:

locale-gen

Sprache setzen: /etc/locale.conf erstellen und für Englisch die Linie LANG=en_US.UTF-8 einfügen.

Keyboard-Layout definieren, indem /etc/vconsole.conf mit KEYMAP=de_CH-latin1 als Inhalt erstellt wird.

Netzwerk

Die Datei /etc/hostname editieren und in der ersten Linie den gewünschten Namen der Maschine eingeben.

Die Datei /etc/hosts editieren und folgende Linien eingeben:

127.0.0.1    localhost
127.0.1.1    hostname  #der in /etc/hostname definierte hostname

Root Passwort setzen und standard Benutzer hinzufügen

Wir sind als Root eingeloggt. Passwort ändern mit:

passwd

Standard Benutzer erstellen, zur wheel Gruppe hinzufügen und Passwort setzen:

useradd -m -G wheel
passwd

Sudoers File Anpassen und wheel Gruppe Privilege erhöhen:

visudo

Die Linie %wheel ALL=(ALL) ALL: auskommentieren.

Systemd Services autostart

Mit dem Befehl systemctl einige nützliche Dienste automatisch starten.

systemctl enable sshd NetworkManager fstrim.timer systemd-timesyncd paccache.timer

Initial Ram Disc Environment generieren

Das Initial Ram Disc Environment (seit kernel Version 2.6 Initial Ram Filesystem) hilft dem Linux Kernel im Bootprozess, Treiber und das eigentliche Root Filesystem zu laden. Es muss zuerst generiert werden. Früher nutzte man dazu den Befehl initrd, heute wird initramfs genutzt. In Arch heißt heisst das äquivalente Programm mkinitpcio. Die alte und neue Methode unterscheiden sich in den Details, aber bewerkstelligen allgemein das Gleiche.

Wir editieren /etc/mkinitcpio.conf und fügen in der HOOKS=(... Variable zwischen block und filesystems das Keyword encrypt hinzu. Außerdem werden die Hooks keyboard und keymap benötigt. Falls z.B. von einer LVM gebootet wird, braucht es den lvm Hook.

Sicherstellen, dass die Linie wie folgt aussieht, falls nicht vom Tutorial abgewichen wurde:

HOOKS=(base udev autodetect modconf kms keyboard keymap consolefont block encrypt filesystems fsck grub)

Mit dem Befehl mkinitcpio das Initial RAM Dateisystem regenerieren. Mit der -P Option wird es für alle installierten Kernels automatisch gemacht, sonst müsste man den Kernel als Option angeben (z. B. Linux-LTS) und den Prozess wiederholen.

mkinitcpio -P

Boot loader installieren

Ich nutze den Bootloader GRUB. Auf dem Archwiki sind alle gängigen Bootloader und deren Vor- bzw. Nachteile aufgelistet.

Die UUID der Partition, die verschlüsselt wurde (nicht die geöffnet- und dann gemappte /dev/mapper/cryptroot) mit blkid holen (z.B. die UUID von /dev/nvme0n1p2) und aufschreiben.

/etc/default/grub/ bearbeiten, und auskommentieren:

GRUB_ENABLE_CRYPTODISK=y

Für Dual boot Systeme folgende Linie auskommentieren:

GRUB_DISABLE_OS_PROBER=false

Um Grub bei Boot zu verstecken, folgende Linien bearbeiten (mit Drücken der ESC Taste im Bootprozess lässt es sich wieder anzeigen):

GRUB_TIMEOUT=0
GRUB_TIMEOUT_STYLE=hidden

Sowie die Option GRUB_CMDLINE_LINUX_DEFAULT anpassen und folgende Linie nach quiet mit einem Abstand dazwischen einfügen (UUID mit der zuvor aufgeschriebenen ersetzen). Falls es eine SSD ist, mit :allow-discards TRIM support bei Boot aktivieren.

$ root=/dev/mapper/cryptroot cryptdevice=UUID=5f5b0b02-318c-4980-bcb5-793d44fe4387:cryptroot:allow-discards

Installieren (für 64-Bit Systeme):

grub-install --target=x86_64-efi --efi-directory=/boot --bootloader-id=GRUB --recheck

Grub Sprache auf Englisch stellen:

cp /usr/share/locale/en\@quot/LC_MESSAGES/grub.mo /boot/grub/locale/en.mo

Grub-Konfigurationsdatei generieren:

grub-mkconfig -o /boot/grub/grub.cfg

Das System kann nun ohne den USB-Stick booten. Mit exitaus der chroot Umgebung aussteigen und mit reboot neu starten. Falls eine Windows-Installation auf einer Separaten Festplatte existiert, im BIOS sicherstellen, dass von der Linux Partition gebootet wird. Nach Neustart mit dem Networkmanager Befehl nmcli erneut mit dem WiFi Internet verbinden.

nmcli device wifi list
nmcli device wifi connect  password

Desktopumgebung einrichten

Es kann eine beliebige Desktopumgebung installiert werden - ich habe mich für KDE Plasma entschieden. Ausserdem wird der Display Server Xorg benötigt.

pacman -S xorg-server xorg xorg-xinit plasma

Treiber für Intel & AMD Grafikkarten. Sollte auch installiert werden, damit die Grafikausgabe der CPU funktioniert.

pacman -S mesa

Treiber für Nvidia Grafikkarten. Muss gleich sein mit dem Kernel, also LTS auch installieren:

pacman -S nvidia nvidia-lts nvidia-settings

Plasma empfiehlt den sddm Display Manager (wird mit dem plasma Paket mitgeliefert). Ein Display Manager zeigt nach dem Bootprozess eine grafische Log-in-Oberfläche an.

systemctl enable sddm

X11 Tastatur Keymap einstellen:

localectl set-keymap de_CH-latin1
localectl set-x11-keymap ch

Neustart, reboot. Das System sollte danach in eine Grafische Umgebung starten. Falls das Tastaturlayout immer noch falsch sein sollte, den letzten Schritt wiederholen - samt Neustart.

Automatische Snapshots mit Snapper

Automatische Snapshots des Systems bei Updates einrichten. Außerdem wird das GRUB Menu auch automatisch aktualisiert und ermöglicht das direkte Booten in den ausgewählten Snapshot (read-only). Snapshots sind nützlich, wenn bei einem Update (oder durch Nutzerfehler) das System unbrauchbar gemacht wird - es kann ruckzuck auf einen noch funktionierenden Systemstand gewechselt werden. Wichtig: Snapshots sind keine Backups.

Vom /home Verzeichnis erstelle ich keine Snapshots, da ich von diesen Daten bereits auf einer separaten Festplatte ein richtiges Backup halte. Falls gewünscht, können die Schritte für /home wiederholt werden.

Snapper installieren:

sudo pacman -S snapper

Bevor wir snapper konfigurieren, müssen wir unsere @snapshots Subvolume unmounten und den Mountpoint Ordner löschen, denn Snapper erstellt selbst einen gleichnamigen Ordner und Subvolume.

sudo umount /.snapshots
sudo rm -r /.snapshots

Snapper config erstellen mit dem Namen root

sudo snapper -c root create-config /

Die von Snapper erstellte Subvolume und den Ordner löschen (zuerst sicherstellen, dass die neue Subvolume erstellt worden ist).

sudo btrfs subvolume list /
sudo btrfs subvolume delete /.snapshots
sudo rm -r /.snapshots

Nun erstellen wir erneut einen Ordner, und mounten unsere bei der Installation erstellte Subvolume erneut.

sudo mkdir /.snapshots
sudo mount -a

Wir benötigen noch Lese-, Schreib- und Ausfuhrerlaubnis für unsere Snapshots, damit wir auf sie zugreifen können.

sudo chmod 750 /.snapshots

Die Snapper Konfigurationsdatei bei /etc/snapper/configs/root mit Sudo-Rechten anpassen. Den Namen des Standardusers bei ALLOW_USERS=username hinzufügen und die Aufbewahrungsfrist für timeline snapshots (automatische Snapshots) bearbeiten:

# limits for timeline cleanup

TIMELINE_MIN_AGE="1800"
TIMELINE_LIMIT_HOURLY="5"
TIMELINE_LIMIT_DAILY="7"
TIMELINE_LIMIT_WEEKLY="2"
TIMELINE_LIMIT_MONTHLY="1"
TIMELINE_LIMIT_YEARLY="0"

Snapper timeline Services aktivieren:

sudo systemctl enable --now snapper-timeline.timer
sudo systemctl enable --now snapper-cleanup.timer

Wir brauchen Pakete, die nicht in den Offiziellen Repositories vorhanden sind. Diese finden wir auf dem Arch User Repository. Wir installieren einen AUR helper namens yay (der Befehl yay ohne Optionen updated zugleich das ganze System):

git clone https://aur.archlinux.org/yay
cd yay
makepkg -si PKGBUILD

snap-pac-grub und rsync installieren. snap-pac-grub (genauer gesagt, die Dependency snap-pac) nimmt bei jeder Änderung des Systems einen Snapshot auf (Update, Paket löschen/installieren) und stellt die Snapshots im GRUB Menu zur Verfügung (grub-btrfs Dependency), um von ihnen booten zu können.

yay -S snap-pac-grub rsync

/etc/mkinitcpio.conf editieren und grub-btrfs-overlayfs ans Ende der HOOKS variable hinzufügen und initramfs regenerieren. Dieser Schritt aktualisiert das Grub Menu mit dem neuen Snapshot.

sudo mkinitcpio -P

Da /boot auf einer separaten Partition existiert, wird der Ordner bis jetzt bislang nicht beachtet. Das Backup von /boot erstellen wir separat mit rsync. Dies erlaubt einen Fallback auf den alten Kernel, falls bei einem Update auf eine neue Kernel Version Instabilität eingeführt wird.

/etc/pacman.d/hooks erstellen und darin eine Hook definieren, die vor jedem Systemupdate ausgeführt wird.

sudo mkdir /etc/pacman.d/hooks
sudo vim /etc/pacman.d/hooks/0-bootbackup-preupdate.hook

Folgenden Inhalt einfügen:

[Trigger]

Operation = Upgrade
Operation = Install
Operation = Remove

Type = Path
Target = usr/lib/modules/*/vmlinuz

[Action]

Depends = rsync
Description = Backing up /boot before updating...

When = PreTransaction

Exec = /usr/bin/rsync -a --delete /boot /.bootbackup/preupdate

Diesen Hook als 95-bootbackup-postupdate.hook kopieren, und für den Postupdate Konfigurieren:

sudo cp /etc/pacman.d/hooks/0-bootbackup-preupdate.hook /etc/pacman.d/hooks/95-bootbackup-postupdate.hook

Editieren mit folgendem Inhalt (Pre wird zu Post):

[Trigger]

Operation = Upgrade
Operation = Install
Operation = Remove

Type = Path
Target = usr/lib/modules/*/vmlinuz

[Action]

Depends = rsync
Description = Backing up /boot after updating...

When = PostTransaction

Exec = /usr/bin/rsync -a --delete /boot /.bootbackup/postupdate

Als Test einen Snapshot erstellen, der auch gleichzeitig als "Clean Fallback" dient:

sudo snapper -c root create --description “Saubere BTRFS Installation mit Snapper”

Fertig!, reboot

Installation fertig, Post Installation

An dieser Stelle lohnt es sich, in den General recommendations auf der Archwiki Webseite zu stöbern. Nvidia Nutzer sollten sich mit den Archwiki-Seiten Nvidia tips and tricks und Nvidia troubleshooting bekannt machen. Um hibernation zu aktivieren, folgende Wikiseite aufsuchen: Power management.

Hier sind einige wichtige Punkte aufgelistet:

Weitere verschlüsselte Partitionen bei Boot mounten

Mit jedem jetzigen Init System ist es nicht möglich, mit Eingabe eines Passwortes mehrere verschlüsselte Partitionen zu entschlüsseln. Deswegen wechsle ich auf das Systemd init System.

Zu Systemd init System wechseln

Dazu die Datei /etc/mkinitcpio.conf bearbeiten. Die Hooks base, udev (-> systemd), keymap, consolefont (-> sd-vconsole) und encyrypt (-> sd-encrypt) müssen ersetzt werden. Ausserdem kann die resume Hook entfernt werden.

sudo vim /etc/mkinitcpio.conf
# Im Moment sieht die Zeile noch etwa so aus:
# HOOKS=(base udev autodetect modconf keyboard kms keymap consolefont block encrypt filesystems fsck resume grub-btrfs-overlayfs)
# Neuer Inhalt
HOOKS=(systemd autodetect modconf kms keyboard sd-vconsole block sd-encrypt filesystems fsck grub-btrfs-overlayfs)

Datei schliessen und initramfs neu bauen (mkinitcpio -P). Danach müssen die Kernel Parameter zur Entschlüsselung der Partition bei boot bearbeitet werden:

sudo vim /etc/default/grub
# Den Parameter bearbeiten:
# cryptdevice=UUID=b525e45e-874e-4b98-bafa-ae7f1daa75e0:cryptroot:allow-discards
# Neu:
rd.luks.name=b525e45e-874e-4b98-bafa-ae7f1daa75e0=cryptroot rd.luks.options=discard,password-echo=no

Grub Konfiguration neu generieren

sudo grub-mkconfig -o /boot/grub/grub.cfg

Der Computer läuft nun auf einem Systemd Init System.

Weitere Partitionen entschlüsseln

Die /etc/crypttab Datei anpassen, um bei der Entschlüsselung im Bootprozess das Passwort im Cache zu nutzen.

sudo vim /etc/crypttab
# Folgenden Inhalt einfügen
# "home" ist der name der entschlüsselten Partition, /dev/home/crypthome die eigentliche verschlüsselte Partition, none für kein Keyfile (nutzt Passsword im Cache)
home /dev/home/crypthome none

Danach die /etc/fstab Datei bearbeiten und die entschlüsselte Partition an der gewünschten Stelle mounten. Bei mir sieht es so aus: (etwas unkonventionell, ich erstelle bind mounts auf die Verzeichnisse in /home).

# /dev/mapper/home LABEL=home
/dev/mapper/home /run/media/hddhome/ ext4 defaults 0 0

/run/media/hddhome/Pictures /home/seid/Pictures none defaults,bind 0 0
/run/media/hddhome/Videos /home/seid/Videos none defaults,bind 0 0
/run/media/hddhome/Documents /home/seid/Documents none defaults,bind 0 0
/run/media/hddhome/Downloads /home/seid/Downloads none defaults,bind 0 0
/run/media/hddhome/Games /home/seid/Games none defaults,bind 0 0
/run/media/hddhome/Music /home/seid/Music none defaults,bind 0 0
/run/media/hddhome/Software /home/seid/Software none defaults,bind 0 0
/run/media/hddhome/Templates /home/seid/Templates none defaults,bind 0 0
/run/media/hddhome/Public /home/seid/Templates none defaults,bind 0 0
/run/media/hddhome/Phone /home/seid/Phone none defaults,bind 0 0

Package Management

Pacman Konfigurieren

/etc/pacman.conf anpassen, folgende Linien unter "Misc Options" auskommentieren bzw. bearbeiten:

Color
ParallelDownloads = 5 # AUF 10 STELLEN
ILoveCandy # Hinzufügen am Ende

Mirrorlist optimieren

Reflector Paket installieren:

$ sudo pacman -S reflector

Sicherungskopie der alten Mirrorlist erstellen:

$ sudo cp /etc/pacman.d/mirrorlist /etc/pacman.d/mirrorlist.bak

Mirrorlist optimieren:

$ sudo reflector --verbose --latest 10 --protocol https --sort rate --save /etc/pacman.d/mirrorlist

Lokale Paketdatenbank updaten:

$ sudo pacman -Sy

Wir automatisieren diesen Schritt, damit Reflector uns in Zukunft Arbeit abnimmt. /etc/xdg/reflector/reflector.conf editieren und folgende Linien anpassen:

--save /etc/pacman.d/mirrorlist
--protocol https
--country Switzerland
--latest 10
--sort rate

Systemd Service aktivieren und voilà.

$ sudo systemctl enable reflector.timer

Firewall einrichten

ufw Paket installieren:

sudo pacman -S ufw

Simple Konfiguration:

# Alle Verbindungen ablehnen
ufw default deny
# Verbindungen aus dem lokalen Netzwerk erlauben
ufw allow from 192.168.0.0/24

# Beispiel: kdeconnect Rules
sudo ufw allow 1714:1764/udp
sudo ufw allow 1714:1764/tcp

# ssh rate limiten, schützt vor brute-force Attacken
ufw limit ssh

sudo ufw reload

UFW selbst und den systemd service einschalten:

sudo ufw enable
sudo systemctl enable ufw

Reboot und prüfen

sudo systemctl ufw status
ufw status

Bluetooth & Audio einrichten

sudo pacman -S bluez bluez-utils pipewire pipewire-pulse pipewire-jack pipewire-alsa wireplumber pavucontrol
sudo modprobe btusb
sudo systemctl enable bluetooth
sudo systemctl start bluetooth

Pipewire bei Systemstart für den Benutzer aktivieren:

systemctl --user enable pipewire.service pipewire-pulse.service

Bluetooth pairing

Um in einem Dual boot System Bluetoothgeräte mit beiden Betriebssystemen verbinden zu können, müssen die Pairing Keys auf der Linux Installation mit den von Windows übereingestimmt werden. Da ich Windows nur noch sehr selten nutze, habe ich mir nicht die Mühe gemacht dies zu implementieren. Details sind im Archwiki verzeichnet.

Schöner Boot Splashscreen

Nicht notwendig, aber schön. Das Softwarepaket Plymouth erstellt schöne Boot Splashscreens.

Kernel Parameter bearbeiten, quiet und splash Parameter einbauen. Ausserdem einige GRUB Optionen setzen, sodass es nicht sichtbar ist. Durch Drücken der ESC Taste im Bootprozess kommt man ins GRUB Menu, so kann auch Plymouth ein- oder ausgeschaltet werden.

sudo vim /etc/default/grub

# GRUB Einstellungen
GRUB_TIMEOUT=0
GRUB_HIDDEN_TIMEOUT=0
GRUB_TIMEOUT_STYLE=hidden

# Kernel Parameter, ganz am Anfang rein. "loglevel=3" löschen
GRUB_CMDLINE_LINUX_DEFAULT="quiet splash"

Initramfs bearbeiten, plymouth hook nach systemd einbauen.

sudo vim /etc/mkinitcpio.conf
# Inhalt:
HOOKS(systemd plymouth ...)

Plymouth HiDPI Scaling in der Konfigurationsdatei aktivieren:

sudo vim /etc/plymouth/plymouthd.conf
# unter [Deamon]
DeviceScale=an-integer-scaling-factor

Ein Plymouth Theme auswählen und setzen. Kann mit der Shell gemacht werden. Ich nutze einfach die Einstellung "Boot Splash Screen" in KDE. Es können Screens im KDE Store heruntergeladen werden, ich nutze einen der Defaults - bgrt. In der vorherigen Konfigurationsdatei nachschauen, ob es wirklich gesetzt wurde. Ein Preview kann wie folgt angeschaut werden:

# als root
plymouthd; plymouth --show-splash; sleep 5; plymouth --quit

Initramfs neu erbauen, grub cfg neu bauen. Nach dem Setzen eines neuen Splashscreens muss das Initramfs immer neu gebaut werden.

sudo mkinitcpio -P
sudo grub-mkconfig -o /boot/grub/grub.cfg

Snapshots restoren

Die Pakete snapper-rollback (CLI) oder btrfs-assistant (GUI) aus dem AUR installieren. Hier erkläre ich, wie snapper-rollback funktioniert.

Die Datei /etc/snapper-rollback.conf bearbeiten, und bei der Option mountpoint den Mountpoint der BTRFS Toplevel Subvolume angeben (BTRFS root). Falls dem Installationstutorial gefolgt wurde, ist das in /mnt/btrfs-root. Speichern und schliessen. Danach wie folgt vorgehen:

# Alle Subvolumes und Snapshots listen (nicht nötig, aber nice to know)
sudo btrfs subvolume list -t /
# Besser: Snapper Snapshots auflisten und die gewünschte ID aussuchen
snapper list
# Oder: Snapper Snapshots einer bestimmten Konfiguration anzeigen
snapper -c configname list
# Snapshot restoren mit snapper-rollback und neustarten
sudo snapper-rollback ID
sudo reboot -h now
# Nach neustart pacman db lock datei löschen
sudo rm /var/lib/pacman/db.lck

snapper-rollback hat automatisch ein Backup des zuletzt gebrauchten Subvolume erstellt. Diese kann gelöscht werden bei Bedarf, kann einfach mit btrfs-assistant gemacht werden.

Falls das System komplett unbrauchbar ist, zuerst im GRUB Menü in den funktionierenden Snapshot booten. Dabei ist es wichtig, sich die ID jetzt zu merken (ist im Pfad ersichtlich z. B. @snapshots/5408/snapshot). Dann im eingeloggten Systemsnapper-rollback IDNUMMER ausführen und neu starten.

Quellen:
https://wiki.archlinux.org/title/installation_guide
https://wiki.archlinux.org/title/Dual_boot_with_Windows
https://wiki.archlinux.org/title/Dm-crypt/Encrypting_an_entire_system
https://wiki.archlinux.org/title/Dm-crypt/Drive_preparation
https://wiki.archlinux.org/title/Arch_boot_process
https://wiki.archlinux.org/title/NVIDIA/Tips_and_tricks
https://wiki.archlinux.org/title/NVIDIA/Troubleshooting
https://wiki.archlinux.org/title/Power_management/Suspend_and_hibernate
https://wiki.archlinux.org/title/General_recommendations
https://www.codyhou.com/arch-encrypt-swap/
https://dev.to/tassavarat/installing-arch-linux-with-btrfs-and-encryption-48na


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

Dieser Artikel fasst die Veröffentlichungstermine für Firefox und Firefox ESR im Jahr 2025 übersichtlich zusammen.

Neue Major-Releases von Firefox erscheinen in der Regel alle vier Wochen. Auf diese Weise erreichen Neuerungen schneller den Endnutzer und man muss nicht viele Monate auf bereits implementierte Funktionen warten. Mittlerweile sind auch Veröffentlichungstermine von Firefox für das Jahr 2025 bekannt.

Das sind die Firefox Release-Termine 2025

Firefox 134, Firefox ESR 128.6, Firefox ESR 115.19
7. Januar 2025 (6 Wochen nach Firefox 133)

Firefox 135, Firefox ESR 128.7, Firefox ESR 115.20
4. Februar 2025 (4 Wochen nach Firefox 134)

Firefox 136, Firefox ESR 128.8, Firefox ESR 115.21
4. März 2025 (4 Wochen nach Firefox 135)

Firefox 137, Firefox ESR 128.9
1. April 2025 (4 Wochen nach Firefox 136)

Firefox 138, Firefox ESR 128.10
29. April 2025 (4 Wochen nach Firefox 137)

Firefox 139, Firefox ESR 128.11
27. Mai 2025 (4 Wochen nach Firefox 138)

Firefox 140, Firefox ESR 140.0, Firefox ESR 128.12
24. Juni 2025 (4 Wochen nach Firefox 139)

Firefox 141, Firefox ESR 140.1, Firefox ESR 128.13
22. Juli 2025 (4 Wochen nach Firefox 140)

Firefox 142, Firefox ESR 140.2, Firefox ESR 128.14
19. August 2025 (4 Wochen nach Firefox 141)

Firefox 143, Firefox ESR 140.3
16. September 2025 (4 Wochen nach Firefox 142)

Firefox 144, Firefox ESR 140.4
14. Oktober 2025 (4 Wochen nach Firefox 143)

Firefox 145, Firefox ESR 140.5
11. November 2025 (4 Wochen nach Firefox 144)

Firefox 146, Firefox ESR 140.6
9. Dezember 2025 (4 Wochen nach Firefox 145)

Firefox 147, Firefox ESR 140.7
13. Januar 2026 (5 Wochen nach Firefox 146)

Der Beitrag Firefox: Release-Termine 2025 erschien zuerst auf soeren-hentzschel.at.

Ich gehöre zu den Menschen, die sehr selten eine Präsentation halten müssen. Worüber ich nicht traurig bin. Aber ab und zu erwischt es mich doch. So werde ich Anfang 2025 vermutlich mal wieder vor Publikum auftreten müssen. Bisher habe ich hierfür Hovercraft verwendet.

Hovercraft funktioniert zwar technisch gesehen weiterhin aber die Entwicklung wurde, Stand heute, eingestellt. Daher und weil Hovercraft reStructuredText für die Erstellung der Präsentation verwendet, habe ich mir mal Alternativen angesehen.

Wie so oft gibt es unterschiedliche Lösungen, die unterschiedliche Nutzer bevorzugen. Ich habe mich in diesem Fall für Marp entschieden. Vor allem, weil man die Präsentationen mit Markdown erstellt. Aber auch, weil Marp durchaus einige nützliche Funktionen bietet.

So könnte eine mit Marp erstellte Präsentation im Rohzustand wie folgt aussehen.

 1---
 2paginate: true
 3---
 4
 5# Mein Präsentation
 6
 7---
 8
 9## Seite 1
10
11- Punkt 1
12- Punkt 2
13- Punkt 3
14
15---
16
17## Seite 2
18
19![Image](https://picsum.photos/800/600)
20
21---
22
23## Seite 3
24
25> Das ist ein Zitat.
26
27---
28
29## Seite 4
30
31| Früchte | Anzahl |
32| -------- | -------- |
33| Äpfel   | 10   |
34| Birnen   | 20   |
35| Kirschen   | 45   |

Davon ausgehend, dass wir diesen Inhalt als präs1.md gespeichert haben, kann man mit dem Befehl marp präs1.md einen Export in Form einer HTML-Datei erstellen, sodass man für die Anzeige nur einen Browser benötigt. Wer ein anderes Dateiformat als Endergebnis bevorzugt, kann beispielsweise marp --pdf präs1.md oder marp --pptx präs1.md nutzen. Man kann aber auch beispielsweise mittels marp --images png präs1.md die Präsentation in Form von einzelnen Bildern exportieren. Und so weiter. Marp ist hier ziemlich flexibel, sodass jeder Nutzer ein Format findet, dass ihm zusagt.

Auch lassen sich unter anderem Notizen für den Redner, die man in die einzelnen Seiten hinterlegt hat, exportieren (https://marpit.marp.app/usage?id=presenter-notes).

Wer seine Präsentation etwas aufhübschen will, kann auch diverse Effekte nutzen, die man auch noch manuell anpassen kann.

Und so weiter.

Da ich Markdown schon seit Jahren nutze, konnte ich daher mit Marp innerhalb weniger Minuten eine Präsentation erstellen. Marp mag nicht das objektiv beste Tool seiner Art sein. Aber ich denke es sollte durchaus erwähnt werden.

Wer VS Code nutzt, findet unter https://marketplace.visualstudio.com/items?itemName=marp-team.marp-vscode eine Erweiterung für Marp.

Debian Linux auf älterer Mac Hardware - Ein Experiment.

Einleitung

Für diejenigen Leser, denen der Weihnachtsmann - schon wieder - keinen Kleinstrechner beschert hat, bzw. für Leute mit lieben Verwandten, die vom Hersteller mit nicht weiter "verarzteter" Hardware zurückgelassen wurden, soll es hier darum gehen, sich mit nur wenigen Handgriffen - oder wahlweise auch ein paar mehr - eine Art "Apple GUI" zu erzeugen.

In unserem Fall handelt es sich bei der Hardware um ein "Macbook Pro" von 2011 sowie - zum Vergleich - ein gleich altes sogenanntes "Netbook", welches ebenfalls in 2011 hergestellt wurde. Beide besitzen Intel CPUs, die 64-bit können. Die Anwenderin, unser "Versuchsobjekt", nähert sich im März 2025 der Vollendung ihres 80sten Lebensjahres, womit sie noch einmal deutlich älter ist.

$ lscpu Architecture: x86_64 CPU op-mode(s): 32-bit, 64-bit

Eine 500 GB SATA SSD haben wir besorgt, welche die bislang verwendete Festplatte ersetzen soll.

Leider wäre es erforderlich gewesen, vorab den umfangreichen Datenbestand der letzten 15 Jahre zu sortieren und geregelt einem Backup zuzuführen, womit das "Experiment" vermutlich im März fortgeführt werden muß, und wir uns hier zunächst auf "Vorgeplänkel" beschränken.

Hauptteil

Gute Linux Distributionen gibt es bekanntlich eine ganze Menge, und neben auf Arch basierten gibt es auch welche, die auf Debian basieren, oder gar Debian selbst. In unserer Betrachtung beschränken wir uns auf Debian "netinstall", und hier - für das Macbook - auf die Images für Apple Hardware, die seit einiger Zeit keine "Klimmzüge" für Firmware mehr erfordern.

Die "netinstall" Images bieten wahlweise eine Installation ganz ohne Desktop Environment, lassen die Auswahl ausgewählter Fenstermanager zu, oder - halt doch - die Auswahl kompletter Desktop Environments ("DE"s).

https://cdimage.debian.org/debian-cd/current/amd64/iso-cd/

Hier interessiert uns natürlich insbesondere das folgende Image (Es handelt sich um "Netzinstallationen", die - während der Installation - aktualisierte Pakete herunterladen, bzw. explizit ausgewählte ergänzen, aber für Apple geeignete Firmware bereits mitbringen, aktuell ist die Debian Version "12.8"):

https://cdimage.debian.org/debian-cd/current/amd64/iso-cd/debian-mac-12.8.0-amd64-netinst.iso

Für das Netbook nehmen wir das hier (anstatt "debian-mac" nur "debian"):

https://cdimage.debian.org/debian-cd/current/amd64/iso-cd/debian-12.8.0-amd64-netinst.iso

Die Installation selbst verläuft dann quasi wie jede andere, nur das man u. a. Gelegenheit hat, seine WLAN Kennung zu übermitteln. Ein wichtiger Punkt sind die zu installierenden Pakete. Eine etwas ältere Beschreibung - mit Screenshots - zur "netinstall" Installation wäre diese:

https://www.securitronlinux.com/bejiitaswrath/installing-debian-from-the-netinstall-iso-image-is-very-easy/

In unserem Fall nehmen wir im Punkt "Software selection" zunächst ALLE(!) gesetzten Häkchen raus, und es soll auch z. B. kein "Server" werden. Den Punkt "Debian desktop environment" lassen wir leer, wobei wir jedoch einen Haken setzen bei "standard system utilities" sowie einen bei "LXDE".

Eine Anmerkung: Im März werden wir möglicherweise auf LXQt zurückgreifen (anstatt LXDE), und wer will, darf natürlich auch beide Environments installieren. Die "Dickschiffe" unter den DE's wären für halbwegs aktuelle Hardware immerhin eine Option.

Am nunmehr frisch aufgesetzten Rechner öffnen wir ein Terminal, um die Software zu aktualisieren (hier über sudo), wobei es hier kaum mehr etwas geben dürfte, weil ja "netinstall" verwendet wurde. Wir haben aber auch Gelegenheit, erforderliche Pakete zu ergänzen. Fertige Konfigurationen können natürlich ins Homeverzeichnis - an geeignete Stelle - kopiert werden:

$ sudo apt update $ sudo apt dist-upgrade

LXDE bringt noch X11 mit, und wir installieren uns die 'Plank' Leiste sowie 'xcompmgr' (für Transparenz und Schatten) und -willkürlich- 'synaptic' (zur grafischen Paketverwaltung) und wahlweise einige - hier wirklich rein optionale - Tools. 'Scite' z.B. ist ein grafischer Editor:

$ sudo apt install plank xcompmgr synaptic scite units when wcalc

Mac Icons sind u.a. hier verfügbar, oben quasi der "Vollausbau" mit Xfce, unten - unter 'Files' - die Icons:

https://www.pling.com/s/XFCE/p/1408712 https://www.pling.com/p/1400021/

Wir hingegen beschränken uns auf LXDE und die Icons. Zunächst entpacken wir die Dinge und verschieben den Unterordner 'Mkos-Big-Sur' nach ~/.local/share/icons/

Unter 'Default applications for LXSession', dort unter 'Autostart' setzen wir plank und xcompmgr, vgl. Screenshot '

Wer keinen Neustart durchführen will, kann den Fenstermanager 'openbox' neu starten mit:

$ openbox --reconfigure

Die LXDE Leiste verlegen wir nach oben, und die Plank Leiste nach unten. Unter 'Erscheinungsbild anpassen' können wir unter dem Reiter "Symbolthema" anstatt des - ebenfalls sehr guten 'Gnome-Brave' - nunmehr 'Mkos-Big-Sur' auswählen.

Ehe wir uns wieder dem Weihnachtsessen zuwenden, hier noch einige Anmerkungen und Hinweise zur Plank Leiste. Leider funktioniert sie bislang nicht unter Wayland. Einstellungen können vorgenommen werden, indem man in der Leiste - bei gedrückter Steuerungstaste - in den Leerraum "rechtsklickt".

Im März werde ich hier wieder vor Ort sein können, um dann zu berichten, wie das Experiment konkret Form annimmt, und welche Probleme und Hürden im praktischen Einsatz dabei "umschifft" wurden oder noch werden. Auf Firefox ESR und Libreoffice wurde bereits erfolgreich umgestellt.

Allerseits ein Frohes Fest und eine Guten Rutsch!

Quellen:
Verwendet wurden URLs aus dem Internet und von mir selbst angefertigte Screenshots. Ursprünglich waren es das Hauptbild und vier weitere, wobei ich einsehe, dass dies etwas über das Ziel hinausschießt. Letztlich bleibt es beim Hauptbild, sowie Bild1 (Autostarts unter LXDE) und Bild3 (zum Plank Erscheinungsbild).


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

Multimedia Codecs unter openSUSE 15.6 nachinstallieren.

Weihnachtszeit ist für viele von uns Familien-Admin-Zeit. Und so ergeht es auch mir regelmäßig. In diesem Jahr darf ich einen neuen Acer Aspire 3 Laptop für meine Mutter installieren, da das alte Gerät irreparabel defekt ist. Die Distribution der Wahl ist für solche Fälle openSUSE mit Xfce.

Standardmäßig unterstützt openSUSE allerdings aus rechtlichen Gründen (US-Softwarepatente und Digital Millennium Copyright Act (DMCA)) nur freie, offene und nicht mit Patenten belastete Formate wie Ogg Theora, Ogg Vorbis und Flac.

Wer dennoch, wie meine Mutter, darauf angewiesen ist, unfreie Formate abzuspielen, kann die benötigten Codecs einfach nachinstallieren.

Dazu lässt sich zunächst mit Root-Rechten das Packman-Repositories über das Terminal anbinden:

sudo zypper addrepo -f http://ftp.gwdg.de/pub/linux/misc/packman/suse/openSUSE_Leap_15.6/ packman

Daraufhin können die benötigten Pakete mit zypper installiert werden:

sudo zypper install --allow-vendor-change ffmpeg-4 gstreamer-plugins-bad gstreamer-plugins-libav gstreamer-plugins-ugly lame libavdevice58_13 vlc-codecs

Zunächst muss der GPG-Signing-Key des Packman-Repositories akzeptiert werden. Der ausgegebene Fingerprint kann dazu mit den Angaben auf der Webseite des Projektes verglichen werden. Bei einer Übereinstimmung kann der Key durch Eingabe von i (immer), dauerhaft übernommen werden.

Falls außerdem eine Meldung bezüglich Abhängigkeitskonflikten angezeigt wird, sollte die Option zum Anbieterwechsel auf das Packman-Repository ausgewählt werden. Zu beachten ist, dass unter openSUSE in der Xfce Variante der VLC-Player nicht mehr standardmäßig mitinstalliert wird. Die obige Paketliste sollte in diesem Falle durch vlc ergänzt werden, falls der Multimedia-Player beötigt wird.

Abschließend muss sichergestellt werden, dass alle bereits installierten Multimedia-Pakete in Zukunft aus dem Packman-Repository bezogen werden. Dazu öffnet man YaST Software Management / View / Repositories und wählt das Packman Repository. Oberhalb der Paketliste wählt man daraufhin Switch system packages und bestätigt dies mit Accept.

Alternativ kann folgender Befehl im Terminal ausgeführt werden:

sudo zypper dup --allow-vendor-change --from http://ftp.gwdg.de/pub/linux/misc/packman/suse/openSUSE_Leap_15.6/

Bildquelle: so sieht es bei meiner Mutter zu Weihnachten aus. Auf dem Bild ist der neue Acer zu sehen, auf dem die Installation von openSUSE 15.6 läuft.


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

24. Dezember 2024

Bald ist wieder Nerdnachten, nämlich am 27.–30. 12. mit dem 38. Chaos Communication Congress in Hamburg. Bzw im Netz.

-> Aktualisiert: 07.01.2025

Wichtige Links. Manche davon, werden erst noch aktiv.

Links, URLs und Mediatheken

  1. Startseite https://events.ccc.de/congress/2024/infos/startpage.html
  2. The Fahrplan – Liste der Vorträge https://fahrplan.events.ccc.de/congress/2024/fahrplan/talk/
  3. Livestreams https://streaming.media.ccc.de/38c3/
  4. Recordings (final) Mediathek https://media.ccc.de/c/38c3

Vorwort

Ich habe lange hin und her überlegt, das hier hin zu schreiben, aber es lässt mich nicht los, weil es mich so dermaßen geärgert hat! Die Eröffnungs “Ceremony” war eine Frechheit! So viel Weltuntergangsstimmung und Hoffnungslosigkeit zu verbreiten in Zeiten, die sowieso schon schwierig sind ist einfach nur destruktiv. Und dann auch noch einen Satz an die Wand zu projizieren, der die Fasch!sten zu Standing Ovations ausbrechen lässt und deren Übermachtfantasien nährt, lässt mich persönlich komplett sprachlos und verärgert zurück. Das war die schlechteste Werbeveranstaltung aller Zeiten für eine bessere Zukunft. Vielleicht das nächste Mal mit etwas mehr Leuten reden, welche Wirkung so ein desaströser Vortrag haben kann.

Ähnliche Stimmung dann auch im Jahresbericht. Auch wenn es jetzt verlockend ist, bitte ich euch diese beiden Veranstaltungen NICHT zu schauen. Ihr gewinnt dadurch NICHTS. Ihr verliert nur Lebenszeit. Daher auch keine Links dahin.

Vorträge

Geschaut und eine Empfehlung

  1. Wir wissen wo dein Auto steht – Volksdaten von Volkswagen – Michael Kreil and Flüpke
    (27.12.2024) Ein sehr guter Vortrag wie VW Bewegungs-/Metadaten unnötigerweise sammelte, mit denen alle nur denkbaren Rückschlüsse gezogen werden können. Zum Beispiel wer beim BND arbeitet, wie das Kind eines Mitarbeiters heißt und wo es zur Kita geht oder wer in den Puff geht.
    https://media.ccc.de/v/38c3-decentralize-your-internet-with-self-hosting
  2. Fnord-Nachrichtenrückblick 2024 – Fefe und Atoth
    (28.12.2024) Was ist im Jahr 2024 passiert. Ereignisse rund um IT, Gesellschaft, Politik und Wirtschaft, die einfach schief gegangen sind und bei sehr vielen mit großer Ansage.
    https://media.ccc.de/v/38c3-fnord-nachrichtenrckblick-2024 /
  3. BioTerrorism Will Save Your Life with the 4 Thieves Vinegar Collective – Dr. Mixæl Swan Laufer
    (27.12.2024)
    https://media.ccc.de/v/38c3-bioterrorism-will-save-your-life-with-the-4-thieves-vinegar-collective
  4. Hacker Jeopardy – Sec and Ray (30.12.2024)
    https://media.ccc.de/v/38c3-hacker-jeopardy
  5. Decentralize Your Internet with Self-Hosting
    Ein interessanter Vortrag, der aber mehr als Übersicht verstanden werden sollte, als eine richtige Anleitung. Die ausführlichen Anleitungen liegen frei verfügbar auf github https://github.com/hackerbande-nbg/decentralize-your-internet
    https://media.ccc.de/v/38c3-decentralize-your-internet-with-self-hosting
  6. BlinkenCity: Radio-Controlling Street Lamps and Power Plants
    Ein erheblicher Teil der erneuerbaren Energieerzeugung in Europa kann über Langwellenfunk ferngesteuert werden. Dieses System soll das Netz stabilisieren, kann aber auch missbraucht werden, um es zu destabilisieren, indem Energielasten und Kraftwerke aus der Ferne umgeschaltet werden.
    https://media.ccc.de/v/38c3-blinkencity-radio-controlling-street-lamps-and-power-plants
  7. Der Milliarden-Steuerraub Cum/Ex – wie schädlich ist Wirtschaftskriminalität für unsere Gesellschaft?
    Von Anne Brorhilker. Nachdem kurz erklärt wird, was Cum/Ex eigentlich ist, widmet sich der Vortrag zunächst der Frage, wie die Aufklärung in diesem international organisierten Fall schwerer Steuerhinterziehung überhaupt gelingen konnte und was noch zu tun ist. Wer sind die Akteure auf Seiten der Finanzbranche und wie ticken die Täter? Anschließend wird der generelle Umgang des Staates mit Wirtschaftskriminalität dargestellt und Lösungsansätze entwickelt. Dabei geht es auch um die Frage, was jeder Einzelne tun kann und warum die NGO Finanzwende ein wichtiger Ort sein kann, um politische Veränderungen bei finanzpolitischen Themen zu bewirken.
    https://media.ccc.de/v/38c3-der-milliarden-steuerraub-cum-ex-wie-schdlich-ist-wirtschaftskriminalitt-fr-unsere-gesellschaft
  8. Geschredderte Gutachten: Wie nicht nur der Staat bei digitaler Barrierefreiheit versagt
    Von Casey Kreer. Ein riesiger Teil der digitalen Leistungen der Bundesrepublik sind nicht inklusiv und für alle zugänglich. Eklatante Rechtsbrüche werden ignoriert. Die digitale Barrierefreiheit ist kaputt. In den letzten Monaten habe ich viele digitale Angebote des Staates auf deren Barrierefreiheit überprüft und die kritischsten Barrieren an die verantwortlichen Stellen gemeldet.
    https://media.ccc.de/v/38c3-geschredderte-gutachten-wie-nicht-nur-der-staat-bei-digitaler-barrierefreiheit-versagt
  9. Clay PCB – Leiterplatten aus Ton
    Beschreibung: Wir haben einen ethischen Hardware-Bausatz mit einem PCB-Mikrocontroller aus wildem Lehm gebaut, der in Österreich aus dem Wald geholt und auf einem Lagerfeuer gebrannt wurde. Für unsere Leiterbahnen verwenden wir Silber aus dem städtischen Bergbau und alle Komponenten werden aus alten elektronischen Geräten wiederverwendet. Der Mikrocontroller kann verschiedene Eingänge und Ausgänge berechnen und ist vollständig quelloffen. Unser künstlerisches Ergebnis ist ein Ethical Hardware Kit mit einem PCB-Mikrocontroller als Herzstück.
    https://media.ccc.de/v/38c3-clay-pcb
  10. Das IFG ist tot – Best of Informationsfreiheit, Gefangenenbefreiung & Machtübernahmen
    Die Versprechungen waren groß: Blühende Transparenz-Landschaften, Mitbestimmung, Korruptionsprävention, De-mo-kra-tie! Das Informationsfreiheitsgesetz sollte den deutschen Staat besser machen. Nach Jahren schlechter Verwaltungspraxis, schlechter Gerichtsurteile und schlechter Politik ist es in wichtigen Teilen aber nutzlos geworden. Das zeigt sich vor allem, wenn man sich Szenarien einer antidemokratischen Regierungsübernahme vorstellt – die Transparenz wäre als erstes hinüber, der Boden dafür ist schon bereit. Was tun?
    https://media.ccc.de/v/38c3-das-ifg-ist-tot-best-of-informationsfreiheit-gefangenenbefreiung-machtbernahmen
    https://jens-spahn-fordert.de/

Views: 91

20. Dezember 2024

Heute Vormittag hat mich ein Bekannter gebeten, ob ich nicht kurzfristig vorbeikommen könnte, weil seine FRITZ!Box “abgeraucht” ist. Erst habe ich gedacht, dass der Begriff “abgeraucht” nicht wörtlich gemeint war. Vor Ort, als ich meine Nase an das Gehäuse gehalten habe, musste ich feststellen, dass diese tatsächlich “abgeraucht” ist, da man deutlich verschmortes Plastik riechen konnte.

Die gute Nachricht, ich konnte kurzfristig noch einen Ersatz für die FRITZ!Box auftreiben. Die schlechte Nachricht war allerdings, dass es keine Sicherung der Einstellungen und Telefonbücher gab. Gut, die FRITZ!Box habe ich wieder entsprechend eingestellt. Die Telefonbücher sind allerdings das Problem meines Bekannten. Hierfür fehlt mir die Zeit und vor allem die Lust.

Da ich selbst eine FRITZ!Box nutze habe ich mir überlegt, wann ich selbst das letzte Mal ein Backup der Konfiguration und der Telefonbücher gemacht habe. Sagen wir es mal so. Ich habe Backups was die FRITZ!Box betrifft aber die sind schon etwas älter. Und manuell erstellt.

Solche Dinge muss man aber doch irgendwie automatisieren können. Ja, man kann. Es gibt das Programm Fritz!Box Tools von Michael Engelke. Damit kann man einiges anstellen, ohne die grafische Oberfläche einer FRITZ!Box direkt zu nutzen. Wie zum Beispiel das Auslesen der Zugangsdaten für WLAN, DynDNS oder des DSL-Zugangs. Oder eben auch das Erstellen von einem Backup der Einstellungen und Telefonbücher. Hierfür muss man aber die Zugangsdaten der FRITZ!Box kennen. Die Fritz!Box Tools nutzen also keine vorhandene Sicherheitslücke oder ähnliches.

Um beispielsweise die Konfiguration an sich zu sichern, kann man folgenden Befehl nutzen.

1fb_tools.php <passwort>@<ip-nummer-der-fritzbox> konfig export backup-$(date +%Y-%m-%d)

Hiermit würde eine Sicherung der Konfiguration in Form einer Datei wie backup-2024-12-20 erstellt.

Bezüglich der Telefonbücher wäre folgender Befehl anwendbar.

1fb_tools.php <passwort>@<ip-nummer-der-fritzbox> telefonbuch export backup-$(date +%Y-%m-%d)

Sollte man mehrere Telefonbücher nutzen, weil man beispielsweise PhoneBlock nutzt, um sich ungewünschte Anrufer vom Hals zu halten, würde dieser Befehl ein Verzeichnis in Form von backup-2024-12-20 erstellen und dort dann die Telefonbücher abspeichern und keine einzelne Datei.

Auf der verlinkten Internetseite von Fritz!Box Tools gibt es eine ziemlich umfangreiche Anleitung was noch alles möglich ist und was nicht. Daher gehe ich jetzt nicht weiter darauf ein. Aber mit den genannten Befehlen kann man sich relativ einfach ein Script erstellen, dass mittels eines Timers / Cronjobs die gewünschten Daten exportiert, welche man dann in seinem normalen Backup mit einbezieht.

19. Dezember 2024

Mozilla hat seine Partnerschaft mit Ecosia erweitert und liefert deren Suchmaschine nun von Haus aus in mehreren Ländern aus.

Wenige Tage nach Veröffentlichung des Finanzberichts für das Jahr 2023, aus welchem hervorging, dass der Gesamtumsatz zwar gesteigert werden konnte, aber die Einnahmen durch Suchmaschinen um ca. 15 Millionen auf 495 Millionen USD gesunken sind, hat Mozilla eine Erweiterung seiner Suchmaschinen-Partnerschaft mit Ecosia angekündigt.

Bislang stand Ecosia ausschließlich von Haus aus in Firefox zur Verfügung, wenn Firefox in deutscher Sprache genutzt worden ist. Ab sofort steht Ecosia unabhängig von der verwendeten Browsersprache für Nutzer in den folgenden Ländern zur Verfügung: Deutschland, Österreich, Schweiz, Belgien, Italien, Niederlande, Schweden und Spanien.

Ecosia ist eine Suchmaschine aus Deutschland, welche unter der Haube von Google und Bing beliefert wird. Erst im November wurde angekündigt, gemeinsam mit der Suchmaschine Qwant einen europäischen Suchindex aufzubauen, der ergänzend zum Einsatz kommen soll. Die Besonderheit von Ecosia ist das Versprechen, 100 Prozent des Gewinnes für den Klima- und Umweltschutz zu nutzen. Unter anderem pflanzt Ecosia im Gegenzug für durchgeführte Suchanfragen Bäume. Jeden Monat veröffentlicht Ecosia außerdem einen Bericht, in welchem sie offenlegen, wie viel Geld sie eingenommen und wie viel Geld sie ausgegeben haben.

Der Beitrag Mozilla erweitert Suchmaschinen-Partnerschaft mit Ecosia erschien zuerst auf soeren-hentzschel.at.

18. Dezember 2024

Wer über Mozilla auf dem Laufenden bleiben und keinen Artikel verpassen möchte, kann diesem Blog auch auf Mastodon folgen. Auch die Kanäle auf X (ehemals Twitter), Facebook und Threads sind weiterhin verfügbar. Der Mastodon-Kanal ist nun jedoch umgezogen.

Was ist Mastodon?

Mastodon ist der wohl bekannteste Vertreter des sogenannten Fediverse und erlebt aktuell einen regelrechten Hype. Für diejenigen, welche mit dem Begriff Fediverse nichts anfangen können, hat Wikipedia eine Beschreibung parat:

Die Idee des „Fediverse“ ist, dass es möglich sein soll, ein Benutzerkonto auf einer beliebigen Plattform im Fediverse anzulegen und sich darüber mit Nutzern auf allen anderen Plattformen austauschen zu können, ohne dort ein weiteres Konto anlegen zu müssen. Ermöglicht wird das dadurch, dass die einzelnen Plattformen mittels bestimmter Kommunikationsprotokolle miteinander verbunden sind und so die föderierte Identität und Inhalte jeweils auf andere verbundene Plattformen und Instanzen verteilt werden. Diese Praxis steht im Gegensatz zu geschlossenen sozialen Netzwerken wie Twitter oder Facebook, bei denen Benutzer ein eigenes Benutzerkonto in jedem der Netzwerke benötigen, wenn sie mit anderen Nutzern des jeweiligen Netzwerks interagieren möchten.

Mastodon-Kanal

Nach der Einstellung von Mozilla Social musste ich mit meinem Mastodon-Kanal umziehen. Dieser befindet sich ab sofort auf einer selbst gehosteten Instanz, was für mich den Vorteil hat, bei Antworten auf Fragen oder in Diskussionen nicht mehr in der Zeichenanzahl limitiert zu sein. Außerdem konnte ich dadurch vermeiden, erneut (es handelt sich nicht um meinen ersten Mastodon-Umzug) mit einem komplett leeren Konto beginnen zu müssen, wie es sonst leider üblich ist. Durch den Import meines X-Archives startet der Kanal statt mit 0 Beiträgen mit über 6.800 Beiträgen seit dem Jahr 2010. Die meisten Follower, die mir auf Mastodon bereits folgten, wurden automatisch übernommen. Dennoch empfehle ich eine Kontrolle, um sicherzugehen, dass nichts verpasst wird.

@s_hentzschel auf Mastodon folgen

Natürlich werde ich auch weiterhin auf X (ehemals Twitter), Facebook und Threads vertreten sein.

@s_hentzschel auf X (Twitter) folgen
@soerenhentzschelAT auf Facebook folgen
@soeren.hentzschel auf Threads folgen

Der Beitrag In eigener Sache: Neue Mastodon-Instanz erschien zuerst auf soeren-hentzschel.at.

17. Dezember 2024

Die MZLA Technologies Corporation mit Thunderbird 8.2 ein Update für die Android-Version seines E-Mail-Clients veröffentlicht.

MZLA hat Thunderbird 8.2 veröffentlicht. Neben dem Download im Google Play Store stehen auch F-Droid sowie GitHub als weitere Distributionskanäle zur Verfügung.

Download Thunderbird für Android

Mit der neuen Version hat sich das Team einem der größten Kritikpunkte angenommen: Die Initialen im Account-Wechsler ergeben sich nun aus dem Anzeigenamen statt der E-Mail-Adresse, woraus sich zumindest eine grundlegende Anpassbarkeit ergibt. Vorher konnte es schwierig sein, das korrekte Mail-Konto schnell zu erkennen. Mit einem zukünftigen Update sollen an dieser Stelle weitere Anpassungsmöglichkeiten wie benutzerdefinierte Symbole folgen, um die Erkennbarkeit weiter zu verbessern. Außerdem verändert sich bei mehreren Mailkonten nicht mehr von alleine die Position, wenn ein Konto ausgewählt worden ist.

Dazu kommen weitere Detail-Verbesserungen unter der Haube sowie Fehlerkorrekturen, welche sich in den offiziellen Release Notes nachlesen lassen.

Der Beitrag Thunderbird 8.2 für Android veröffentlicht erschien zuerst auf soeren-hentzschel.at.

Ein kleines Plädoyer pro Pinguin – obwohl Linux von allen Systemen den schlimmsten Lock-in-Effekt hat.

Gerade mit Erschrecken festgestellt, dass hier schon eine gefühlte Ewigkeit nichts mehr geschrieben wurde. Das erinnert frappierend an manche Kollegin oder manchen Kollegen im Linuxanwenderuniversum, die einst zu den bekannteren Linux-Bloggern gehörten, auf ihren eigenen Webseiten aber dann erst immer sparsamer in Erscheinung traten und letzten Endes irgendwann bekanntgaben, dass sie irgendwie die Nase voll gehabt hätten und wieder bei Windows gelandet seien. Oder dass sie auf MacOS gewechselt und dort nun glücklich wären. Vor allem nach den ersten großen Ubuntu-Jahren war das an vielen Stellen zu beobachten. Einstige Linux-Enthusiasten sagen dem Pinguin adieu und schienen im Proprietären auch glücklich zu werden.

Um es gleich klarzustellen: Nein, hier läuft immer noch rundherum das Pinguinbetriebssystem auf Desktops und Notebooks. Und es ist auch weiterhin nicht absehbar, dass sich das alsbald irgendwie ändern könnte. Auch nach inzwischen mehr als 20 Jahren mit Linux als Desktop-Hauptsystem sind hier keine Ermüdungserscheinungen festzustellen. Der Grund für die abnehmende Frequenz auf diesen Seiten: Es läuft bei Linux längst problemlos. Die Distributionen sind zuverlässig, die Oberflächen ausgereift, und bei den Desktopumgebungen tritt sogar ein Konsolidierungseffekt ein. Allenfalls die Umstellung von X.org zu Wayland sorgt für ein bisschen Spannung im Linuxalltag. Und wenn es doch irgendwann mal zu langweilig wird, probiert man eine neue Distribution oder andere Desktopoberflächen aus.

Linux hat sich bewährt

Auch ein Blick auf Windows und Mac wird immer mal wieder geworfen … und manchmal sogar damit gearbeitet. Aber letztlich führt es nur dazu, dass die persönliche Entscheidung, Linux den Vorzug zu geben, bestätigt wird. Es wäre gelogen, abzustreiten, dass in all den Jahren die Verlockung nicht auch bestanden hätte, in die vermeintliche Einfachheit der großen Konkurrenten einzutauchen, mal nicht der Außenseiter zu sein, sondern ganz banal mit dem Strom zu schwimmen. Aber es schwimmt sich eben unterm Strich leider nirgends so prima wie mit Linux. Vielleicht liegt’s am Pinguinlogo.

Ja, rückblickend war und ist der Aufwand wohl höher gewesen, sich in Linux zurechtzufinden, vor allem, wenn man mit anderen Konzepten und Systemen „sozialisiert“ wurde und von PCs keine Ahnung hatte. Aber das liegt lange zurück. Heute wäre es wahrscheinlich simpler, direkt mit Linux zu starten. Auch nervt mal hier und mal da was. Aber wenn man sich erstmal „seine“ Umgebung mit Linux zurechtgebaut und schätzen gelernt hat, die zahlreichen Möglichkeiten nutzt und sich dazu auch noch bewusst macht, wie viele Freiwillige daran mitarbeiten und welche Grundidee dahintersteckt, dann kommt man kaum noch davon los.

Strenges Lock-in

Man könnte es eine Art positiven Lock-in-Effekt nennen: Man kommt einfach nicht davon weg. Aber nicht, weil es zu schwer oder aufwändig wäre, woandershin zu wechseln. Sondern weil man dank der kennengelernten Freiheit, Flexibilität und Zuverlässigkeit gar nicht mehr wechseln möchte. Das mag nicht für alle Nutzer und alle Anwendungsszenarien gelten, das versteht sich von selbst. Aber manchmal passt es wohl einfach, so dass hier leider weiterhin gilt: Windows, Mac … ja, ganz nett. Aber nein.

16. Dezember 2024

Mozilla hat seinen Finanzbericht für das Jahr 2023 veröffentlicht. Trotz gesunkener Einnahmen durch Suchmaschinen und Abo-Dienste konnte Mozilla einen Rekordumsatz erzielen. Signifikante Investitionen in die Zukunft haben das Barvermögen von Mozilla auf die Hälfte schrumpfen lassen. Dennoch steht am Ende eine weitere Steigerung von Mozillas Vermögenswert um fast 140 Millionen USD auf mittlerweile mehr als 1,3 Milliarden USD.

Wie jedes Jahr am Jahresende hat Mozilla auch in diesem Jahr seinen Finanzbericht für das Vorjahr veröffentlicht, welcher offenlegt, in welcher Höhe Mozilla Einnahmen und Ausgaben hatte.

Mozilla macht über 650 Millionen Dollar Umsatz

Im Jahr 2022 machte Mozilla noch knapp 594 Millionen USD Umsatz und damit nur knapp weniger als die etwas über 600 Millionen USD im Vorjahr, welche den bisherigen Rekord darstellten, wenn man das Jahr 2019 außen vorlässt, welches in Folge eines Rechtsstreits mit Yahoo eine Vergleichszahlung von annähernd 340 Millionen USD beinhaltete. Im Jahr 2023 machte Mozilla einen Umsatz in Höhe von 653 Millionen USD.

Diese Zahl überrascht auf den ersten Blick, denn die Einnahmen durch Suchmaschinen sind um ca. 15 Millionen auf 495 Millionen USD gesunken. Auch die Abo- und Werbeeinnahmen sind nach Jahren des Wachstums von 76 auf 65 Millionen USD gesunken, obwohl sowohl das Mozilla VPN als auch Firefox Relay Premium sowie das Managed-Angebot von Mozilla Hubs in weitere Länder expandiert sind.

Auffällig sind besonders zwei Zahlen: Zins- und Dividendenerträge sind von 9 auf 47 Millionen USD gestiegen und bei den Kapitalanlagen, bei denen im Vorjahr ein Minus 19 Millionen USD stand, steht dieses Mal ein Gewinn von 24 Millionen USD. Dies hängt mit einer Abkehr von Mozillas bisher sehr defensiven Strategie der Verwaltung finanzieller Reserven zusammen, welche Ende 2022 in die Wege geleitet wurde.

Ausgaben auf knapp 500 Millionen USD gestiegen

Deutlich gestiegen sind hingegen die Ausgaben. Dies liegt vor allem an verstärkten Investitionen in Firefox. So sind beispielsweise die Ausgaben für die Software-Entwicklung von 221 Millionen auf 261 Millionen USD gestiegen. Aber auch in anderen Bereichen wie Marketing sind die Ausgaben gestiegen. Insgesamt lagen die Ausgaben bei 497 Millionen USD im Vergleich zu 425 Millionen USD im Vorjahr.

Mozillas Vermögenswert wächst auf 1,3 Milliarden USD

Auffällig bei Betrachtung von Mozillas Vermögenswerten ist eine Veränderung des Barvermögens von 514 Millionen auf 263 Millionen USD, was quasi einer Halbierung entspricht. Dem gegenüber steht ein Invesitionswert von knapp über einer Milliarde USD gegenüber 631 Millionen USD im Vorjahr.

Am Ende steht eine Steigerung von Mozillas Netto-Vermögen von 1,2 Milliarden auf 1,34 Milliarden USD.

Entwicklung von 2005 bis heute

Wie gehabt gibt es auf soeren-hentzschel.at eine Spezial-Seite, welche die Einnahmen, die Ausgaben sowie das Vermögen von Mozilla seit dem Jahr 2005 bis heute visualisiert und die Entwicklung anschaulich gestaltet. Die Seite steht auch in englischer Sprache zur Verfügung.

Mozilla Finanzen 2023
Bildquelle: soeren-hentzschel.at/mozilla-umsatz

Ausblick: Firefox, KI, Werbung, Diversifizierung der Einnahmen

Der Finanzbericht für das Jahr 2024 wird voraussichtlich Mitte November bis Mitte Dezember 2025 veröffentlicht werden.

Nachdem Mozilla im Jahr 2023 bereits sehr viele Investitionen unternommen hat, war auch 2024 ein Jahr großer Investitionen als Teil der langfristigen Strategie von Mozilla. Auf der Einnahmenseite hingegen sollen sich auch 2024 die Anlageergebnisse wieder ähnlich positiv wie 2023 auf das Finanzergebnis auswirken.

Auf Produktseite fand 2024 nochmal eine deutliche Expansion des Mozilla VPNs statt, wobei sich diese auf Grund des späten Zeitpunkts wohl eher im Finanzbericht des Jahres 2025 bemerkbar machen wird. Auch Firefox Relay Premium soll im Jahr 2025 weiter expandieren. Bereits Anfang 2024 ist Mozilla Monitor Premium gestartet, allerdings nur in den USA. Das Managed-Angebot der Mozilla Hubs wurde im Rahmen einer Umstrukturierung eingestellt, ebenso wie Mozilla Social.

Mozilla wird in Zukunft neben einem (vor allem mobil) nochmal verstärkten Fokus auf Firefox auch einen großen Schwerpunkt auf Künstliche Intelligenz sowie den Werbemarkt legen, den Mozilla deutlich Privatsphäre-freundlicher gestalten möchte, als es heute häufig der Fall ist. Mit diesen drei Säulen möchte Mozilla einerseits relevant bleiben, andererseits aber auch bei den Einnahmen deutlich unabhängiger von Firefox werden. Dies ist vor allem in Hinblick auf bereits sinkende Suchmaschinen-Einnahmen in Firefox sowie möglichen Folgen der aktuellen Kartell-Untersuchung gegen Google notwendig, die es unklar macht, ob diese für Firefox bislang so wichtige Form der Einnahmen-Generierung langfristig überhaupt noch funktioniert.

Der Beitrag Mozilla macht Rekordumsatz im Jahr 2023 erschien zuerst auf soeren-hentzschel.at.

Dies ist ein Update des Artikels aus dem letzten Jahr. Eine aktuelle Hardwareübersicht gibt es hier.

Smartphone

Als privates Mobiltelefon benutze ich seit 2022 ein Samsung Galaxy S22 mit einem Congstar-Tarif, welcher mich im Monat 10,- EUR kostet. Ich bin mit dem Gerät weiterhin zufrieden und plane, es in 2025 ebenfalls zu nutzen.

Im Folgenden führe ich einige von mir genutzte Apps auf, mit einer kurzen Erklärung, wofür ich diese verwende. Wo möglich verlinke ich in den F-Droid Store. Wo dies nicht möglich ist, führen diese in den Google Play Store.

Hier die am häufigsten verwendeten Apps zählen in alphabetischer Reihenfolge:

Zu den eher sporadisch genutzten Apps zählen in alphabetischer Reihenfolge:

Evtl. ist euch aufgefallen, dass eine prominente App in obiger Aufzählung fehlt. Tatsächlich widerstehe ich weiterhin dem sozialen Druck und verweigere mich der Nutzung von WhatsApp. Der Verzicht auf WhatsApp schnitt mich leider ausgerechner bei der Freiwilligen Feuerwehr von einem Teil der Kommunikation ab. Daher freue ich mich nun umso mehr, dass unsere Feuerwehr zur Planung von Dienstabenden, Veranstaltungen und sonstigen Terminen auf Spond (Google Play Store) umgestiegen ist.

Ich nutze auch Online-Banking-Apps auf dem Smartphone. ich nutze diese z.B., um am Laptop getätigte Überweisungen oder Online-Einkäufe zu autorisieren. Darüber hinaus schätze ich die Benachrichtigung über getätigte Umsätze.

Insgesamt sind aktuell 168 Apps installiert. Ehrlicherweise werde ich vermutlich erst ausmisten, wenn der Speicher knapp wird.

Ach ja, telefonieren tue ich damit natürlich auch. ;-)

Tablet

Seit Mitte 2019 [verwende ich] auch ein Samsung T830 Galaxy Tab S4 Wi-Fi Tablet. Durch seine 10,5 Zoll (ca. 27 cm) Bildschirmdiagonale, das geringe Gewicht und mit der App ReadEra eignet es sich hervorragend zum Lesen von PDF-Dateien und E-Books.

https://www.my-it-brain.de/wordpress/meine-privaten-arbeitsmittel-anfang-2022/

Darüber hinaus nutze ich das Gerät:

  • Für Online-Shopping (mehr als das Smartphone)
  • Lesen im Internet (Blogs, Dokus, etc.) mit Firefox Klar

Dabei verwende ich mehr oder weniger die gleichen Apps wie auf dem Smartphone. Für den Zugriff auf Mastodon verwende ich hier statt Fedilab die App Tusky (F-Droid).

Seit 2024 neu auf dem Tablet sind FeedMe (Google Play Store) und Wallabag (Google Play Store). FeedMe teste ich als Alternative zu Feedly (Google Play Store), da dieser die Synchronisierung mit meiner FreshRSS-Instanz unterstützt. Er ist etwas langsam, ansonsten zufriedenstellend. In Wallabag speichere ich Artikel, die ich später lesen oder für Workshops, Talks und Blog-Artikel nutzen möchte.

Laptop

  • Ich arbeite weiterhin mit einem Lenovo ThinkPad T14s (seit 2021)
  • Das Betriebssystem wurde im Laufe der Zeit von Fedora 37 auf Fedora 40 aktualisiert; Das Upgrade auf Fedora 41 folgt bald
  • Nach Rambox ist auch hamsket entsorgt worden, da mich diese Apps im Laufe der Zeit doch mehr genervt als unterstützt haben
    • Dienste wie Element, Mastodon, GMail, Slack, etc. nutze ich jetzt direkt im Webbrowser
    • Ich nutze die Funktion Tabs zu pinnen, um häufig verwendete Dienste im Browser im schnellen Zugriff zu haben

Der Laptop ist mein Hauptarbeitsmittel, den ich für so gut wie alle anfallenden Aufgaben verwende. Lediglich zum Lesen von E-Books bevorzuge ich das Tablet und zum Instant Messaging das Smartphone.

  • Mein Lieblingsbrowser ist Firefox
  • Mein Lieblingseditor ist Vim
  • Thunderbird ist die Anwendung meiner Wahl für Aufgaben, E-Mail und Kalender
  • TeXstudio ist mein Lieblings-LaTeX-Editor

Ich habe immer mal wieder Evolution ausprobiert, da dies eine bessere Integration in GNOME bietet. Doch bin ich nie damit warm geworden. Da ich mehrere E-Mail-Konten bei verschiedenen Anbietern sowie Kalender für verschiedene Zwecke habe, finde ich die Zusammenführung und Nutzung in Thunderbird ideal.

Desktop-/Server-PC

Mein ehemaliger Desktop-PC ist in ein 19-Zoll-Gehäuse und mit diesem in einen Serverschrank im Keller umgezogen. Die ganze Geschichte dazu kann in „Ein Serverschrank mit Kompromissen“ nachgelesen werden.

  • Ein Selbstbau mit RHEL dient mir als Libvirt/KVM-Hypervisor für virtuelle Maschinen

Auf diesem Rechner laufen dauerhaft zwei virtuelle Maschinen:

Als dauerhaft laufender Rechner führt dieser Host meine Cronjobs und Ansible-Playbooks aus, erzeugt Backups und kopiert/synchronisiert Daten von hier nach dort.

Die Untersützung von Podman bzw. der weiteren Container-Tools Buildah und Skopeo in RHEL ist super. Die kostenlose Developer Subscription for Individuals ermöglicht mir die produktive Nutzung von bis zu 16 RHEL-Servern. Das sind mehr als genug für meine privaten Zwecke.

Sonstige Geräte im Netzwerk

  • Mein Brother DCP-540CN wurde dieses Jahr nach 18 Jahren ausgemustert; ich nutze jetzt einen Brother MFC-J890DW im Haus mit, falls ich mal etwas drucken muss
  • Meine Synology Diskstation DS213air dient mir seit 2013 als Netzwerkspeicher (NAS)
    • Dient als Backup-Senke
    • Beheimatet Foto-, Video- und Musiksammlung
    • Stellt Netzlaufwerke für Windows und Linux bereit
    • Bietet aktuell 2,7 TB Speicherkapazität (2 Disks als RAID 1)
    • Externe USB-Festplatte (500 GB) für lokale Backups
    • Sie ist alt, aber verrichtet zuverlässig ihren Dienst
  • Neu seit diesem Jahr dabei ist eine Protectli VP2410 – 4 Port Intel ® CeleVP2410 – 4 Port Intel ® Celeron J4125ron J4125 mit OPNSense
    • Dieses Gerät lag seit 2023 ungenutzt herum, da sich die Anschaltung des Glasfaseranschlusses um ein Jahr verzögert hat; jetzt ist er in Betrieb
    • Die OPNSense wird in 2025 meinen Pi-Hole ablösen und den Zugang zum Internet über Dual-WAN bereitstellen

Cloud-Dienste

Hier hat es im laufenden Jahr keine Änderungen gegeben. Ich gehe davon aus, dass es hier in 2025 ebenfalls keine Änderungen geben wird. Drei neue Dienste sind hinzugekommen, die ich bei adminforge.de nutze. Dies sind:

  • DNSforge
  • Bandbreite messen
  • ToDo App
  • FreshRSS Reader
  • Linkwarden
  • Wallabag

Die letzten vier befinden sich noch in der Testphase. Ob die Nutzung in 2025 anhält, werdet ihr im nächsten Rückblick erfahren können.

Ich freue mich, wenn euch dieser kleine Überblick gefällt und ihr vielleicht die ein oder andere Inspiration darin findet. Ich freue mich auch, wenn ich in euren Blogs lesen kann, womit ihr 2024 so gearbeitet habt.

14. Dezember 2024

Mit Common Voice stellt Mozilla den weltweit größten öffentlichen Datensatz menschlicher Stimmen bereit – kostenlos und für jeden nutzbar. Mozilla hat Version 20.0 seines Datensatzes veröffentlicht.

Der Markt für Spracherkennung wird von den ganz großen Namen kommerzieller Anbieter dominiert: Amazon, Apple, Google, Microsoft. Darum hat Mozilla im Jahr 2017 das Projekt Common Voice gestartet. Mit Common Voice bietet Mozilla eine kostenlose Alternative an, zu der jeder beitragen kann und die jedem zur Verfügung steht. Damit möchte Mozilla Innovation und Wettbewerb in der Sprachtechnologie auf Basis von Maschinenlernen fördern.

Mit dem nun veröffentlichten Common Voice Corpus 20.0 wächst der deutschsprachige Datensatz von 1.436 auf 1.443 Stunden an. Wer bereits den Common Voice Corpus 19.0 besitzt, kann wie immer auch nur ein sogenanntes Delta Segment mit den Unterschieden zur Vorversion herunterladen. Für Deutsch würde das den Download von 33,74 GB auf 138 MB reduzieren.

Insgesamt deckt Mozilla Common Voice mit der neuen Version 131 Sprachen mit insgesamt 33.151 aufgenommenen Stunden ab, was Mozilla Common Voice zum vielfältigsten mehrsprachigen Sprachkorpus der Welt macht.

Zum Download der Mozilla Common Voice Datensätze

Der Beitrag Mozilla veröffentlicht Common Voice Corpus 20.0 erschien zuerst auf soeren-hentzschel.at.

11. Dezember 2024

Die MZLA Technologies Corporation hat mit Thunderbird 128.5.2 ein Update für seinen Open Source E-Mail-Client veröffentlicht.

Neuerungen von Thunderbird 128.5.2

Mit Thunderbird 128.5.2 hat die MZLA Technologies Corporation ein Update für seinen Open Source E-Mail-Client veröffentlicht. Die neue Version bringt mehrere Korrekturen für die Versionsreihe 128, welche sich in den Release Notes (engl.) nachlesen lassen. Außerdem behebt Thunderbird 128.5.2 eine Sicherheitslücke.

Der Beitrag Sicherheits-Update Thunderbird 128.5.2 veröffentlicht erschien zuerst auf soeren-hentzschel.at.

10. Dezember 2024

Mozilla hat Firefox 133.0.3 veröffentlicht und behebt damit mehrere Probleme der Vorgängerversion.

Download Mozilla Firefox 133.0.3

Mit Firefox 133.0.3 hat Mozilla das erste Update außer der Reihe für die Desktop-Version von Firefox 133 veröffentlicht. Die Versionen Firefox 133.0.1 und Firefox 133.0.2 waren ausschließliche Android-Updates.

Die Bibliothek zum Betrachten unter anderem der Lesezeichen und Chronik zeigte auf Systemen ohne Overlay-Scrollbalken nicht länger den Scrollbalken an.

Wenn Firefox unter Windows in der Fenstergröße reduziert, maximiert und dann beendet wurde, wurde nach einem Neustart und Rückkehr in den nicht maximierten Modus nicht mehr die zuletzt verwendete Position verwendet.

Bei Verwendung des kontrastreichen Themes unter Windows und des System-Themes von Firefox waren die Symbole in der Navigationssymbolleiste bei Herüberfahren mit der Maus nicht länger erkennbar.

Linien in Canvas2D konnten bei aktivierter Hardwarebeschleunigung unscharf erscheinen.

Der PRIORITY_UPDATE-Frame in HTTP-Anfragen wurde deaktiviert, da dieser zu Ladeproblemen auf Websites führen konnte.

Bei einem fehlenden WebExtension-Protokoll-Handler wurde nur noch eine leere Seite anstelle einer Fehlerseite angezeigt.

Auf Linuxsystemen mit X11 konnte es beim Drag and Drop im Fehlerfall zum Einfrieren von Firefox kommen.

Für die Ortsauswahl des Wetters auf der Standard-Startseite von Firefox war der Platzhalter-Text nicht übersetzt.

Im Debugger-Entwicklerwerkzeug war verfrüht bereits das Upgrade auf den Code-Editor CodeMirror 6 aktiviert. Diese Änderung wurde rückgängig gemacht.

Auf Grund einer Änderung der Abhängigkeiten in den nicht stabilen Zweigen von Debian konnte Firefox nicht länger als .deb-Paket installiert werden.

Der Beitrag Mozilla veröffentlicht Firefox 133.0.3 erschien zuerst auf soeren-hentzschel.at.

9. Dezember 2024

Solo ist ein Ende des vergangenen Jahres vom Mozilla Innovation Studio angekündigter Website-Builder, der auf Künstliche Intelligenz (KI) und einen maximal einfachen Erstellungsprozess setzt. Nun steht Solo 1.4 bereit und bringt viele Neuerungen.

Im Rahmen der Innovation Week im Dezember 2023 hatte das Mozilla Innovation Studio Solo angekündigt. Dabei handelt es sich um einen sogenannten Website-Builder mit Fokus auf Selbständige, der auf generative Künstliche Intelligenz für einen maximal einfachen Erstellungsprozess setzt.

Jetzt Website-Builder Solo von Mozilla testen

Seit dem Start hat Mozilla einige Funktionen ergänzt. Jetzt hat Mozilla Solo 1.4 fertiggestellt. Unter anderem ist es nun möglich, bis zu fünf Redakteure zum Arbeiten an der eigenen Seite einzuladen. WhatsApp und BlueSky wurden als neue Icons für Social Media hinzugefügt. Die vollständigen Release Notes:

  • Laden Sie bis zu 5 Redakteure für jede Ihrer Websites ein
  • Google Analytics (GA) wird korrekt geladen, nachdem der Nutzer das Cookie-Banner akzeptiert hat, wenn es aktiviert ist
  • Neue benutzerdefinierte Google Analytics-Ereignisse für alle Schaltflächen auf Ihrer Website, wenn Sie GA verbunden haben
  • Kleinere Verbesserungen zur Verbesserung der Suchmaschinenoptimierung Ihrer Website, einschließlich der Erhöhung der maximalen Länge des Website-Titels
  • Unterstützung für WhatsApp- und Bluesky-Symbole für soziale Medien hinzugefügt
  • Eine neue Option „mittlere Größe“ für die Schaltfläche im Intro-Abschnitt hinzugefügt
  • Die maximal zulässige Anzahl der Dienstleistungen im Abschnitt Dienstleistungen wurde auf 12 erhöht
  • Ein eigenes neues Feld „Preisgestaltung“ für jede Dienstleistung im Abschnitt Dienstleistungen hinzugefügt
  • Die Bilder im Abschnitt Galerie werden jetzt im Karussell-Layout korrekt beschnitten
  • Das Anklicken von Bildern im Karussell-Layout im Abschnitt Galerie öffnet nun den Vollbild-Betrachter
  • Das Hinzufügen von Teammitgliedern im Abschnitt Team erfordert keinen Namen mehr
  • Neues Textfeld für die Zwischenüberschrift im Abschnitt Textbanner hinzugefügt
  • Unterstützung für die Neuanordnung von Links im Header-Abschnitt
  • Die Logogröße im Footer-Abschnitt kann unabhängig vom Header-Abschnitt eingestellt werden
  • Kleinere Aktualisierungen der Themes zur Verbesserung der Barrierefreiheit

Die Nutzung von Solo ist kostenlos. Geringe Kosten fallen höchstens bei Verwendung einer benutzerdefinierten Domain an. Als Nächstes stehen weitere Optionen zum Bearbeiten und Gestalten, ein Abschnitt für Kundenlogos sowie eine neue Bibliothek zur Verwendung von Icons auf der Website auf der Roadmap.

Der Beitrag Website-Builder Solo von Mozilla: Version 1.4 fertiggestellt erschien zuerst auf soeren-hentzschel.at.

8. Dezember 2024

Nach über sieben Jahren hat Mozilla eine neue visuelle Identität. Mozilla hat sein Rebranding nun offiziell vorgestellt.

Das aktuelle Logo trägt Mozilla seit Januar 2017. Das Logo in der Eigenschreibweise moz://a ist angelehnt an Internet-Protokolle wie https://.

Mozilla-Logo 2017

Bereits im August hatte ich weltweit als erstes über das neue Mozilla-Logo berichtet. Nun ist die neue visuelle Identität offiziell. Sowohl Mozilla als auch Jones Knowles Ritchie (JKR), die mit dem Rebranding beauftragte Agentur, haben jeweils darüber berichtet. Wer mehr über die Gedanken dahinter verstehen möchte, dem sei der Blogbeitrag von Mozilla ans Herz gelegt.

Während das aktuelle Mozilla-Logo laut bisheriger Brand-Guidelines immer auf einem Hintergrund zu sehen sein musste, ist das neue Logo ohne Hintergrund integriert, womit eine große Design-Einschränkung wegfällt. Die abstrakte Grafik rechts vom Mozilla-Schriftzug beinhaltet einerseits das „M“ aus „Mozilla“ und erinnert andererseits sowohl an eine Flagge, welche den aktivistischen Geist Mozillas und die Verpflichtung darstellen soll, das Internet zurückzufordern, als auch an einen Dino – das historische Symboltier von Mozilla.

Mozillas offizielle Website ist bereits auf die neue Mozilla-Marke umgestellt.

Der Beitrag Neue Mozilla-Marke offiziell vorgestellt erschien zuerst auf soeren-hentzschel.at.