ubuntuusers.de

🚧 Am Sonntag, 5. Mai, werden ab 16 Uhr die Server aktualisiert und eine neue Inyoka-Version veröffentlicht. Das Portal wird mehrmals nicht verfügbar sein.

30. Dezember 2023



Aktualisierung und Kernel-Umstellung auf Raspberry Pi OS Bookworm

WARNUNG: SORGFÄLTIG LESEN UND VORHER EIN BACKUP DER SD-KARTE ERSTELLEN

Diese Anleitung ermöglicht die Aktualisierung von Raspberry PiOS auf die neueste Version (Bookworm) und den Wechsel zu den neuen Kernels. Bitte beachten, dass dieser Vorgang nicht offiziell empfohlen wird und möglicherweise nicht für alle Anwendungen geeignet ist, besonders das Upgrade einer Installation mit grafischer Oberfläche wurde nicht getestet und wird höchstwahrscheinlich nicht ohne weiteres möglich sein. Auch ein Upgrade der 32-Bit Version von PiOS wurde nicht getestet.

With that out of the way:

Die 10 Schritte

Schritt 1: Sicherstellen, dass alles auf dem neuesten Stand ist

sudo apt-get update && sudo apt-get dist-upgrade

Schritt 2: Umstellen auf Bookworm-Repositorys

sudo sed -i -e 's/bullseye/bookworm/g' /etc/apt/sources.list
sudo sed -i -e 's/bullseye/bookworm/g' /etc/apt/sources.list.d/raspi.list

Inhalt von /etc/apt/sources.list sollte jetzt so aussehen:

deb http://deb.debian.org/debian bookworm main contrib non-free non-free-firmware
deb http://security.debian.org/debian-security bookworm-security main contrib non-free non-free-firmware
deb http://deb.debian.org/debian bookworm-updates main contrib non-free non-free-firmware
#deb-src http://deb.debian.org/debian bookworm main contrib non-free
#deb-src http://security.debian.org/debian-security bookworm-security main contrib non-free
#deb-src http://deb.debian.org/debian bookworm-updates main contrib non-free

Inhalt von /etc/apt/sources.list.d/raspi.list:

deb http://archive.raspberrypi.org/debian/ bookworm main
#deb-src http://archive.raspberrypi.org/debian/ bookworm main

Schritt 3: Tatsächliches Update durchführen

sudo apt update && sudo apt -y full-upgrade && sudo apt -y clean && sudo apt -y autoremove

Schritt 4: Neustart

sudo reboot

Schritt 5: Alte Konfigurationsdateien entfernen

sudo apt purge ?config-files

Schritt 6: Wechseln zu den neuen Kernels

Vorbereitung

sudo dpkg --purge --force-depends raspberrypi-kernel raspberrypi-bootloader
sudo umount /boot
sudo fsck -y /boot
sudo mkdir /boot/firmware
sudo sed -i.bak -e "s#boot#boot/firmware#" /etc/fstab
sudo systemctl daemon-reload
sudo mount /boot/firmware
sudo apt install raspi-firmware

Tatsächliche Installation der Kernel (Die richtige Version für den Pi wählen)

# 64-Bit
sudo apt install linux-image-rpi-v8 linux-headers-rpi-v8

# 32-Bit
# sudo apt install linux-image-rpi-v7l linux-headers-rpi-v7l

# 32-Bit (alternative Version)
# sudo apt install linux-image-rpi-v6 linux-headers-rpi-v6

Auto_initramfs hinzufügen

sudo sed -i.bak '$ a\auto_initramfs=1' /boot/firmware/config.txt

Schritt 7: Neustart

sudo reboot

Schritt 8: Überprüfen mit "uname -a" (alter Stand, sollte mittlerweile etwas aktuellere Versionen anzeigen)

Alter Kernel:

Linux raspberrypi 6.1.21-v8+ #1642 SMP PREEMPT Mon Apr  3 17:24:16 BST 2023 aarch64 GNU/Linux

Neuer Kernel:

Linux raspberrypi 6.1.0-rpi4-rpi-v8 #1 SMP PREEMPT Debian 1:6.1.54-1+rpt2 (2023-10-05) aarch64 GNU/Linux

Schritt 9: Wechseln zu NetworkManager (optional)

sudo systemctl enable --now NetworkManager
sudo systemctl disable --now dhcpcd

Statische IP einrichten (Anpassen nach Bedarf)

sudo nmcli -p connection show 
sudo nmcli -p connection show "Wired connection 1"
sudo nmcli con mod "Wired connection 1" ipv4.method manual ipv4.addresses 192.168.1.5/24 ipv4.gateway 192.168.1.1

Schritt 10: Neustart

sudo reboot

Hinweise:

  • Falls der Wechsel zu NetworkManager nicht durchgeführt wird, kann die Netzwerkverbindung nach dem Neustart verloren gehen.

Quelle:

https://gist.github.com/jauderho/6b7d42030e264a135450ecc0ba521bd8


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

29. Dezember 2023

Dieser Artikel ist der Auftakt einer Mini-Serie, die sich mit der Script-Programmierung des Raspberry Pi 5 beschäftigt. Geplant sind drei Artikel:

  • GPIO Reloaded I: Python (gpiozero, lgpio, gpiod, rpi-lgpio)
  • GPIO Reloaded II: Bash (gpiod, gpioget, gpioset, pinctrl)
  • GPIO Reloaded III: Kamera (rpicam-xxx, Picamera2)

Hinter den Kulissen hat sich mit der Vorstellung des Raspberry Pi 5 mehr geändert, als es in den ersten Testberichten den Anschein hatte. Schuld daran ist der neue I/O-Chip RP1, der unter anderem für die Kommunikation mit der GPIO-Leiste und der Kamera zuständig ist. Der RP1 bringt natürlich viele Vorteile mit sich (u.a. die Möglichkeit, zwei Kameras anzuschließen und größere Bild- bzw. Videomengen zu verarbeiten); er führt aber auch dazu, dass über Jahre etablierte Module und Kommandos nicht mehr funktionieren. Ja, die Raspberry Pi Foundation hat vorgearbeitet und empfiehlt schon eine Weile alternative Werkzeuge. Aber aus Bequemlichkeit blieben viele Programmierer bei langjährig bewährten Tools. Damit ist jetzt Schluss. Wer den Pi 5 als Maker-Tool nutzen will, muss umlernen.

Wo ist das Problem?

In der Vergangenheit gab es mehrere GPIO-Kommuniktionsmechanismen, z.B. das Lesen/Schreiben von sysfs-Dateien (sys/class/gpio) bzw. das direkte Verändern von Speicherbereichen. Diese Verfahren haben schon in der Vergangenheit oft Probleme bereitet. Beim Raspberry Pi 5 funktionieren sie schlicht nicht mehr. Neue Verfahren verwenden die lgpio-Bibliothek, die wiederum auf eine neue Kernel-Schnittstelle zurückgreift. Diese ist nach außen hin durch die Device-Dateien /dev/gpiochip* sichtbar.

Aus Python-Sicht ist insbesondere das Modul rpi.gpio betroffen. Es ist inkompatibel zum Pi 5 und es gibt anscheinend auch keine Pläne, den Code RP1-kompatibel zu reorganisieren.

Welche Alternativen gibt es?

Schon seit einiger Zeit empfiehlt die Raspberry Pi Foundation, das gpiozero-Modul zu verwenden. Es stellt für den Einstieg gut geeignete Klassen wie LED oder Button zur Verfügung, eignet sich aber auch für anspruchsvollere Maker-Aufgaben.

Wenn Sie sich partout nicht mit gpiozero anfreunden wollen, gibt es drei Alternativen: lgpio, gpiod und rpi-lgpio.

gpiozero

Das Python-Modul gpiozero macht die Steuerung von Hardware-Komponenten durch GPIOs besonders einfach. Für häufig benötigte Hardware-Komponenten gibt es eigene Klassen. Dazu zählen unter anderem:

  • LED (Leuchtdiode ein-/ausschalten)
  • PWMLED (Helligkeit einer Leuchtdiode mit Software Pulse Width Modulation steuern)
  • RGBLED (dreifarbige LED, die über drei GPIO-Ausgänge gesteuert wird)
  • TrafficLights (Kombination aus einer roten, gelben und grünen Leuchtdiode)
  • MotionSensor (für PIR-Bewegungssensoren)
  • LightSensor (Lichtdetektor)
  • Button (Taster)
  • Buzzer (Summer)
  • Motor (zur Steuerung von zwei GPIOs für Vorwärts- und Rückwärts-Signale)
  • Robot (zur Steuerung mehrerer Motoren)
  • MCP3008 (für den gleichnamigen A/D-Converter)

Das Modul gpiozero ist umfassend dokumentiert:

https://gpiozero.readthedocs.io/en/latest

Ein Hello-World-Beispiel sieht so aus:

#!/usr/bin/env python3
from gpiozero import LED
import time
myled = LED(7)    # BCM-Nummer 7 = Pin 26 des J8-Headers
print("LED ein")
myled.on()
time.sleep(1)
print("LED aus und Programmende")
myled.off()

Dieses Script setzt voraus, dass Pin 26 der GPIO-Leiste (intern BCM/GPIO 7) über einen Vorwiderstand mit einer Leuchtdiode verbunden ist. Anstelle der GPIO-Nummer gibt es einige alternative Adressierungsverfahren, wobei Sie den gewünschente GPIO-Kontakt als Zeichenkette angeben:

# alternative, gleichwertige Schreibweisen
myled = LED(7)          # GPIO 7 = BCM-Nummer 7
myled = LED("GPIO7")    # GPIO 7 (Achtung, nicht "GPIO07")
myled = LED("BCM7")     # BCM 7  (nicht "BCM07")
myled = LED("BOARD26")  # Pin 26 auf der GPIO-Leiste des Boards
myled = LED("J8:26")    # Pin 26 des J8-Headers (= GPIO-Leiste)

lgpio

lgpio (der Projektname lautet noch kürzer lg) ist eine C-Bibliothek zur lokalen Steuerung der GPIOs. Das gerade erwähnte Modul gpiozero verwendet intern seit Version 2.0 die lgpio-Bibliothek. Alternativ stellt das gleichnamige lgpio-Modul eine direkte Python-Schnittstelle zur lgpio-Bibliothek her. Deren Funktionen sind Hardware-näher implementiert. Der GPIO-Zugriff verbirgt sich also nicht hinter Klassen wie LED oder Button, vielmehr werden die GPIO-Schnittstellen direkt angesprochen.

Ein Hello-World-Beispiel mit lgpio sieht so aus:

#!/usr/bin/env python3
import lgpio, time

# Zugriff auf /dev/gpiochip4 für RP1-Chip
handle = lgpio.gpiochip_open(4)

# Raspberry Pi 4 und früher:
# handle = lgpio.gpiochip_open(0)

# GPIO 7 = Pin 26 als Output verwenden
led = 7
lgpio.gpio_claim_output(handle, led)  

# LED zehnmal ein- und ausschalten
for i in range(10):
    print("LED ein")
    lgpio.gpio_write(handle, led, 1)
    time.sleep(1)
    print("LED aus")
    lgpio.gpio_write(handle, led, 0)
    time.sleep(1)

# nichts blockieren
lgpio.gpiochip_close(handle)

Beachten Sie, dass die Initialisierung des Handles für den GPIO-Zugriff je nach Modell variiert! Bei den älteren Raspberry-Pi-Modellen bis einschließlich 4B/400 müssen Sie handle = lgpio.gpiochip_open(0) ausführen. Beim Raspberry Pi 5 ist für die GPIO-Steuerung dagegen der neue RP1-Chip zuständig, den Sie mit gpiochip_open(4) ansprechen. (Die richtige Chip-Nummer stellen Sie am einfachsten mit dem Kommando gpioinfo aus dem Paket gpiod fest. Der hier benötigte Kontakt GPIO7 heißt in gpioinfo ein wenig verwirrend PIN7.)

Wenn Sie mit Python ein lgpio-Script schreiben wollen, das auf allen Pi-Modellen funktioniert, müssen Sie Code zur Erkennung des Pi-Modells integrieren.

Weiterer Codebeispiele finden Sie hier:

rpi-lgpio

Was tun, wenn Sie Code für ältere Modelle entwickelt haben, den Sie nun für den Raspberry Pi 5 portieren möchten? Am schnellsten wird dies oft mit dem neuen Modul rpi-lgpio gelingen, das weitgehende Kompatibilität zu rpi.gpio verspricht.

Vor der Installation müssen Sie das in Raspberry Pi OS standardmäßig installierte Modul rpi.gpio installieren. Eine Parallelinstallation beider Module ist ausgeschlossen, weil rpi.gpio und rpi-lgpio den gleichen Modulnamen verwenden (import RPi.GPIO).

sudo apt remove python3-rpi.gpio

Da es in Raspberry Pi OS für rpi-lgpio kein fertiges Paket, installieren Sie dieses am einfachsten mit pip. Da es kein passendes Systempaket gibt, sind keine Konflikte zu erwarten. Wenn Sie die Option --break-system-packages dennoch vermeiden möchten, müssen Sie eine virtuelle Python-Umgebung einrichten.

pip install --break-system-packages rpi-lgpio

Das obige pip-Kommando installiert das Modul lokal, also nur für Ihren Account. Wenn Sie Ihr Script in einem anderen Account ausführen möchten (z.B. als Cron-Job), stellen Sie dem Kommando sudo voran und installieren so rpi-lgpio systemweit.

Nach diesen Vorbereitungsarbeiten sollten viele Ihre alten Scripts ohne Änderungen laufen. Einige Sonderfälle sind hier dokumentiert:

https://rpi-lgpio.readthedocs.io/en/release-0.4/differences.html

Die folgenden Zeilen zeigen einmal mehr eine Schleife zum Ein- und Ausschalten einer Leuchtdiode:

#!/usr/bin/env python3
# Das Script setzt voraus, dass vorher 
# rpi-lgpio installiert wurde!
import RPi.GPIO as gpio
import time

# BCM-GPIO-Nummern verwenden
gpio.setmode(gpio.BCM)

# LED an Pin 26 = GPIO 7 
gpio.setup(7, gpio.OUT)

# LED über Pin 26 fünf Mal ein- und ausschalten
for _ in range(5):
    print("LED ein")
    gpio.output(7, gpio.HIGH)
    time.sleep(1)
    print("LED aus")
    gpio.output(7, gpio.LOW)
    time.sleep(1)

# alle vom Script benutzten GPIOs/Pins wieder freigeben
gpio.cleanup()

gpiod

Das Python-Modul gpiod wird durch das Paket python3-libgpiod zur Verfügung gestellt, das unter Raspberry Pi OS standardmäßig installiert ist. Das Modul stellt eine Python-Schnittstelle zur Bibliothek libgpiod her. Diese Bibliothek ist wiederum eine Alternative zu der schon erwähnten lgpio-Bibliothek. Da es zum Python-Modul kaum Dokumentation gibt, ist gpiod nur für Entwickler von Interesse, die mit libgpiod bereits C-Programme entwickelt haben. Als Ausgangspunkt für eine eigene Recherche eignen sich die beiden folgenden Seiten:

Das folgende Minibeispiel zeigt, wie Sie eine LED an Pin 26 (GPIO 7) fünf mal ein- und ausschalten:

#!/usr/bin/env python3
import gpiod, time
chip = gpiod.Chip('gpiochip4')  # RP1 (Raspberry Pi 5)
led = chip.get_line(7)          # GPIO 7 = Pin 26 des J8-Headers
led.request(consumer="example", type=gpiod.LINE_REQ_DIR_OUT)

for _ in range(5):              # 5x ein- und ausschalten
    led.set_value(1)
    time.sleep(1)
    led.set_value(0)
    time.sleep(1)

Quellen/Links

Das Mozilla Innovation Team hat llamafile vorgestellt und bringt damit die Möglichkeit, einen vollständigen LLM-Chatbot in einer einzigen Datei auszuliefern, die auf sechs Betriebssystemen läuft. Dies begünstigt unter anderem die Entwicklung von ChatGPT-Konkurrenten, die ganz einfach lokal auf dem Computer ausgeführt werden können und nicht auf die Cloud eines Tech-Giganten angewiesen sind.

Sogenannte große Sprachmodelle, besser bekannt als LLMs, werden häufig über cloudbasierte, gerne auch kommerzielle, Dienste genutzt. Dies geschieht entweder direkt über den jeweiligen Dienst oder indem ein Produkt genutzt wird, welches auf einer Schnittstelle eines solchen Dienstes aufbaut, was Fragen in Bezug auf Datenschutz, Zugang und Kontrolle aufwirft. Werden die Unterhaltungen beispielsweise mitgelesen und wie werden die Daten verwendet? Wenn man nichts unternehme, würde in Zukunft „diese neue Ära der KI von einer Handvoll mächtiger Technologieunternehmen dominiert werden“, denen man dann vertrauen müsse, dass sie das Richtige tun, so Mozilla. Aus diesem Grund bräuchte es einen Plan B.

Diesen Plan B sieht Mozilla in der Open Source Community, welche dafür sorgen kann, dass der Zugang zu Künstlicher Intelligenz frei und kostenlos bleibt. Während Open Source KI in den letzten Jahren enorme Fortschritte gemacht hat, ist es immer noch nicht einfach, einen Open Source KI-Stack zum Laufen zu bekommen. Dies erfordert immer noch einiges an Fachwissen und Aufwand.

Im Rahmen der Innovation Week im Dezember hat das Mozilla Innovation Team llamafile vorgestellt. Mit llamafile werden LLM-Gewichte in ausführbare Dateien umgewandelt. Diese laufen auf Windows, macOS, Linux, OpenBSD, FreeBSD sowie NetBSD. Damit wird die Nutzung einer KI quasi so einfach wie der Doppelklick auf eine App, schreibt Mozilla. Dies ermögliche es mehr Entwicklern, mit der Technologie zu arbeiten, und mehr Endnutzern, Lösungen einzusetzen, welche Open Source statt Closed Source sind.

Für die Umsetzung von llamafile greift Mozilla auf bereits bestehende Open Source Technologie zurück. Zum einen ist dies llama.cpp, was eine Portierung von Metas LLaMA-Modellen in C/C++ ist und es ermöglicht, LLMs auf gewöhnlicher Endnutzer-Hardware laufen zu lassen. Zum anderen ist dies Cosmopolitan, was die Verteilung und Ausführung von Programmen auf einer Vielzahl von Betriebssystemen und Hardware-Architekturen unterstützt und deren Entwicklerin auch die Entwicklerin von llamafile ist. Zuvor hatte Mozilla über sein MIECO-Programm bereits die Entwicklung von Cosmopolitan 3.0 gesponsert. Mit llamafile werden diese beiden Projekte quasi kombiniert, um so beispielsweise einen Chatbot, vergleichbar mit ChatGPT, ganz einfach lokal auf dem eigenen Computer ausführen zu können.

Mozilla sieht in llamafile einen großen Schritt nach vorne, was den Zugang zu Open Source KI betrifft. Darüber hinaus möchte Mozilla mit dem Projekt „lokale KI“ vorantreiben. Keine Abhängigkeit von einer Cloud, man behält die Kontrolle über die Daten, niemand liest die Fragen oder Antworten mit. Ein weiterer Vorteil ist, dass die KI immer verfügbar ist und man nicht auf eine bestehende Internetverbindung angewiesen ist.

Wer llamafile testen möchte, findet auf GitHub mehrere Beispiel-Dateien zum Herunterladen. Nach Ausführung der entsprechenden Datei kann über den Browser eine Eingabe-Maske aufgerufen werden. Neben einigen Parametern, die sich darüber konfigurieren lassen, kann damit eine Unterhaltung mit dem Chatbot geführt werden. Es ist sogar möglich, Bilder hochzuladen und sich diese von der KI beschreiben zu lassen.

Mozilla llamafile Mozilla llamafile Mozilla llamafile

Der Beitrag Mit llamafile revolutioniert Mozilla den KI-Zugang und damit auch die Chatbot-Technologie erschien zuerst auf soeren-hentzschel.at.

28. Dezember 2023

Ich lese auf GNU/Linux.ch nun schon eine ganze Weile mit großer Begeisterung mit. Bei den Artikeln rund um das Smartphone, fehlte mir bisher immer ein Android Custom-Rom: CalyxOS. Das wollte ich nun ändern, indem ich einen eignen Artikel dazu schreibe.

Meine ersten Erfahrungen mit Smartphones und alternativen Custom-Roms, reichen etwas weiter zurück und starteten seiner Zeit mit dem legendären Nokia N900, welches ich mit Maemo geflasht habe. Voller Begeisterung von Maemo, habe ich mir noch das N9 gekauft und ebenfalls mit Maemo geflasht. Tolle Smartphones! Nun hatte ich Lunte gerochen und mir das Jolla Phone gebraucht gekauft, was leider irgendwann durch einen Hardwaredefekt zum Erliegen kam. SailfishOS (SFOS) hatte mich jedoch so sehr begeistert, dass ich SFOS dann auf diversen Sony Xperia Modellen geflasht habe. Da ich immer wieder für mich auf Einschränkungen und Unzulänglichkeiten bei den SFOS tauglichen Smartphones gestoßen bin, habe ich mir einen Ruck gegeben und mich mit Android-Custom-Roms beschäftigt und ausprobiert. Mein Daily Driver wurde dann ein Motorola Moto G7 mit LineageOS (LOS).

Leider hatte ich später ein Akkuproblem bei meinem Moto G7 und daher habe ich mich weiter mit alternativen Custom-Roms und geeigneten Geräten beschäftigt. Hierzu wurde ich durch eine tolle Artikelserie Android ohne Google: Take back control! von Mike Kuketz, inspiriert. Schnell hatte ich mich auf GrapheneOS und CalyxOS fokusiert. Durch einen Bekannten, der sich ebenfalls mit dem Thema auskennt und beschäftigt, bin ich auf die Google Pixel Geräte gestoßen. Da er auf seinem Smartphone CalyxOS einsetzt, habe ich mich schlussendlich dafür entschieden.

Der Entschluss war also gefasst, CalyxOS zu installieren. Hierzu habe ich mich umgeschaut, welche Geräte von diesem Custom-Rom unterstützt werden. Dabei ist die Wahl auf ein Google Pixel 6a gefallen. Für mich stellte das 6a das beste Preis-/Leistungsverhältnis von der Hardware dar und was mir sehr wichtig gewesen ist: Ein langer Firmware Support durch den Hersteller (Wichtig für Sicherheits-Updates ). In dem Fall von dem Pixel 6a wurden hier min. fünf Jahre zugesichert.

Gerne hätte ich mir ein Shift- oder FairPhone gekauft, da ich von der Idee zu Nachhaltigkeit, Modularität, guter Reparierbarkeit und deren Philosophie, sehr überzeugt bin. Allerdings hat mich leider das Preis-/Leistungsverhältnis nicht überzeugt (ich bin/war nicht bereit so viel Geld für ein Smartphone auszugeben) und CalyxOS hat zu dem Zeitpunkt nicht das Gerät, welches ich mir hätte vielleicht vorstellen können, unterstützt. Trotzdem möchte ich für diese Geräte und Hersteller Werbung machen und schließe für mich in der Zukunft nicht aus, mir ein solches zu kaufen.

Da wären wir auch schon bei dem ersten Argument für CalyxOS: Entgegen GrapheneOS unterstützt CalyxOS weitere Geräte wie nur die der Google Pixel Familie. Dazu zählen Shift, FairPhone und diverse Motorola Geräte (s. Geräteübersicht). Dazu kommt noch, dass bei den Google Geräten der Bootloader nach dem Flashen wieder geschlossen wird. Nicht ganz unwesentlich und leider ein Schwachpunkt bei den LOS Installationen. Hinzu kommt, dass der Bootloader der Pixel Geräte (ich kann das für mein 6a bestätigen, weiß aber, dass dies auch bei weiteren Geräten aus der Familie funktioniert) ohne Zustimmung und aufwendiges Beantragen beim Hersteller, entsperrt werden können. Die für meinen Geschmack gut beschriebene und recht einfache Installation (Beispiel Pixel 6a) von CalyxOS auf den Pixel Geräten, rundet den Gesamteindruck für mich ab. Das Device-Flasher-Script von CalyxOS macht es sehr einfach, die Geräte zu flashen. Natürlich müssen auch hierzu die Standard-Tools, wie z.B. die „android-sdk-platform-tools-common“ installiert sein, aber das ist wirklich sehr gut und einfach beschrieben und sollte für ambitionierte User ohne Probleme zu stemmen sein. Das Flashen des Pixel 6a habe ich unter Linux (wie alle meine Smartphones) erledigt. Ist aber genauso für Mac- wie auch Windows Rechner möglich und beschrieben.

Erwähnen möchte ich auch, dass es Geräte mit vorinstalliertem CalyxOS von den Calyx Institute zu erwerben gibt. Aus meiner Sicht ist das sicherlich ein Vorteil von Projekten wie z.B. Murena oder das Volla Phone (um nur mal zwei zu nennen), die mit bereits vorinstalliertem System auf Geräten erworben werden können. Das trägt m.M.n. zur Verbreitung und Akzeptanz bei den Nutzern bei, da die Hemmschwelle durch das selber Flashen doch recht hoch ist.

Hervorheben möchte ich bei CalyxOS, dass während der Einrichtung, also nachdem die Installation (Flashen) auf dem Gerät abgeschlossen ist und ihr das Smartphone das erste Mal bootet, ausgewählt werden kann, ob ihr microG auf dem Gerät verwenden möchtet oder nicht. Ich habe mich aufgrund meiner vorherigen Erfahrungen dafür entschieden microG zu verwenden und bereue das kein Stück. Für mich wird damit das Smartphone deutlich mehr alltagstauglich, da ihr deutlich weniger Einschränkungen bei diversen Apps, die Google Services voraussetzen, habt. Allerdings möchte ich auch nicht verschweigen, dass Ihr mit dem Einsatz von microG einen hart erkämpften Vorteil, von dem aufwendig entgoogeltem Phone, abgebt. Wie groß dieser Nachteil (wenn man das so überhaupt sagen kann) ist, kann ich nicht beantworten und muss jeder für sich selber entscheiden. Allerdings sehe ich das so mit den Android (AOSP) Smatphones: Nichts ist 100 % sicher und ich muss bewusst damit umgehen und mich an diverse Regeln halten. Es gibt ganz sicherlich Informationen oder Daten, die nicht auf ein solches Gerät gehören und Dinge, die ich damit nie tun würde!

Was mich von CalyxOS auch überzeugt hat, ist die App Auswahl nach der Installation (während der Installation kann ich diverse Apps auswählen): Ein aufgeräumtes System mit einer guten, aber nicht überladenen Vorauswahl an Apps. Dazu zählen z.B. der F-Droid und Aurora Store, Signal, K9 als E-Mail App, Tor Broser, Calyx VPN und diverse weitere Apps. Hinzu kommt, dass ich entgegen diverser anderer Custom-Roms, so gut wie alle Apps einfach deinstallieren kann.

Ich finde das CalyxOS hier einen guten Mittelweg gefunden hat, ohne das Gerät zu überladen oder den User zu bevormunden.

Die Sicherheits-Updates kommen automatisch einmal monatlich rein und werden in Bezug zu Google m.M.n. recht zeitnah zur Verfügung gestellt. Die Updates werden im Hintergrund (so macht es Google selber auch) installiert, um den Nutzer so wenig wie möglich in der Nutzung des Smartphones zu stören. Hier gibt es ein paar Konfigurationsmöglichkeiten im Handling. Des Weiteren kann ich zwischen Sicherheitsexpress, Stabil und Beta wechseln. Inwieweit ich da hin und her switchen kann, weiß ich nicht, da ich nur Stable nutze. Finde die Möglichkeit aber gut und kenne das bereits von SFOS.

Selber nutze ich Apps, wo immer das möglich ist aus dem F-Droid Store. Wenn das nicht zu vermeiden ist, kommt der Aurora Store zum Einsatz. Sehr wenige Apps beziehe ich auch vom Hersteller direkt.

Die Einrichtung von CalyxOS geht wirklich leicht von der Hand. Dabei wird der User nicht unnötig bevormundet, jedoch gut und sinnvoll unterstützt. Die Community ist rege dabei und z.B. im Matrix Kanal (Englisch) m.M.n. schnell bei der Unterstützung, wenn es doch mal irgendwo hakt oder Ihr eine Frage habt.

Mittlerweile habe ich auch das Moto G7 meiner Frau durch ein Pixel 6a mit CalyxOS ersetzt und es gab bisher keinerlei Beschwerden. Ich selber bin seit gut einem Jahr mit dem Pixel 6a und CalyxOS unterwegs und bereue meine Entscheidung kein Stück.

Natürlich gibt es auch andere tolle und hervorragende Projekte, die absolut empfehlenswert sind.
Calyx ist nur eines davon.

Ich möchte mich hier ausdrücklich bei allen Beteiligten des Projektes für die unermüdliche und hervorragende Arbeit bedanken. Aber auch bei der Community, die immer da ist, wenn es doch mal klemmt. Selbstverständlich gilt der Dank auch der Open Source Gemeinde, die sich jeden Tag aufs neue einbringt und dafür sorgt, dass wir alle diese freien Systeme und Programme nutzen dürfen.

In diesem Sinne frohe Festtage und eine unbeschwerte Zeit. Kommt gut und vor allem gesund nach 2024 rüber.

Quelle: https://gitlab.com/CalyxOS/branding/-/blob/master/calyxos/Logo_CalyxOS.jpg


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

27. Dezember 2023

Das Mozilla Innovation Team hat Solo gestartet. Dabei handelt es sich um einen Website-Builder für Selbständige, der auf Künstliche Intelligenz (KI) und einen maximal einfachen Erstellungsprozess setzt.

Im Rahmen der Innovation Week im Dezember hat das Mozilla Innovation Team Solo gestartet. Dabei handelt es sich um einen sogenannten Website-Builder mit Fokus auf Selbständige. Wie Mozilla auf seinem Blog schreibt, sind in den USA 39 Prozent der Arbeitnehmer selbständig, sei es hauptberuflich oder im Nebenerwerb. Ein Drittel der von Selbständigen gegründeten Unternehmen hätten aber keine Website. Bei denen, die eine Website haben, würde sich laut Umfragedaten von Mozilla die Mehrheit auf „Technikfreunde“ verlassen, um eine Website zu erstellen – was zur Folge hat, dass die Unternehmer für Änderungen an der Website abhängig von diesen Freunden sind. Andere würden auf bestehende Website-Builder setzen, die es aber schwer machen, Inhalte zu erstellen und zu pflegen.

Solo möchte dieses Problem durch eine generative Künstliche Intelligenz lösen. Solo fragt grundlegende Informationen zum Unternehmen ab. Es kann außerdem auf eine bestehende Seite verwiesen werden. Daraufhin generiert Solo eine passende Website inklusive Kontaktformular, die dann weiter personalisiert und schließlich veröffentlicht werden kann. Der ganze Prozess dauert nur wenige Minuten. Die KI erstellt zum Unternehmen passende Textvorschläge, bezieht Bilder von Unsplash und kümmert sich um die Optimierung für Suchmaschinen.

Solo Website Builder Solo Website Builder Solo Website Builder Solo Website Builder Solo Website Builder

Solo ist derzeit noch als Beta gekennzeichnet. Die Verwendung einer eigenen Domain wird noch nicht unterstützt, soll aber bald kommen, ebenso wie das Hochladen eigener Bilder. Das Team kommuniziert diese und andere geplante Features auf der Website.

Die Nutzung von Solo ist kostenlos. Schon bald sollen gegen eine monatliche Gebühr aber auch zusätzliche Funktionen zur Verfügung stehen.

Der Beitrag Solo: Website-Builder von Mozilla setzt auf KI erschien zuerst auf soeren-hentzschel.at.

Mozilla hat in Firefox 120 eine Funktion implementiert, die im Idealfall Einwilligungsabfragen auf Webseiten (sog. Cookie-Banner) automatisch beantwortet. Die Funktion ist derzeit noch versteckt.

Die Funktion ist derzeit noch versteckt und bei Aktivierung zunächst nur für private Fenster aktiv. Das ist eine übliche Vorgehensweise bei Mozilla für neue Funktionen und wird vermutlich in künftigen Versionen vereinfacht. Diese Anleitung zeigt, wie sie überall aktiviert werden kann.

Dazu muss zunächst about:config in die Adresszeile getippt werden. Das öffnet die erweiterten Einstellungen von Firefox. Dort sucht man zunächst

cookiebanners.ui.desktop.enabled

Und setzt diesen Wert auf true.

Hierdurch erscheint in den Einstellungen eine neue Option in Datenschutz & Sicherheit.

Wenn diese Einstellung aktiviert ist, blockiert Firefox im privaten Modus alle erkannten Cookie-Banner. Um diese Einstellung auf den Normalbetrieb auszuweiten, ist wiederum eine Änderung in about:config notwendig. Die Suche nach folgendem Wert ergibt zwei Einstellungen

cookiebanners.service.mode

Zunächst die bereits in der UI modifizierte Einstellung für den privaten Modus (Fett) sowie die globale Einstellung. Es gibt drei Möglichkeiten:

  • 0 Cookie-Banner-Blocker ist deaktiviert
  • 1 Cookie-Banner-Blocker lehnt Cookies ab, sofern möglich
  • 2 Cookie-Banner-Blocker lehnt Cookies ab, sofern möglich und wenn nicht, dann akzeptiert es den Rest

Für eine auf Datenschutz und Privatsphäre ausgerichtete Nutzung empfehle ich den Wert 1. Wer nur in Ruhe gelassen werden möchte, sollte den Wert 2 eintragen.

Die Technik funktioniert noch nicht fehlerfrei. Insbesondere bei selbstgebastelten Lösungen ist der Erfolg begrenzt. Ich denke aber, dass das in Zukunft besser werden wird.

Eigentlich ist es schade, dass man solche technischen Lösungen braucht, um die ungewollten Folgen der DSGVO in den Griff zu bekommen.

Der Artikel Cookies automatisch ablehnen mit Firefox erschien zuerst auf Curius

Passkeys sind das bisher überzeugendste Konzept, um Passwörter endlich hinter uns zu lassen. Mit dem FIDO2-Standard ist ein etabliertes Gremium involviert und alle großen Hersteller ziehen mit. Im Jahr 2023 konnte man sehen, wie es Gestalt annimmt und ich gehe davon aus, dass sich Passkeys in den nächsten Jahren sukzessive etablieren werden. Linux und freie Android-Systeme wie GrapheneOS sind leider nicht dabei.

Passkeys sind eine Weiterentwicklung des FIDO2-Prinzips. Anstelle des physischen zweiten Faktors, z.B. in Form eines YubiKeys, wird nun ein anderes Verfahren mit Hilfe z.B. des Smartphones eingesetzt. YubiKeys haben sich einfach nicht durchgesetzt. Selbst in IT-Kreisen war das Verfahren vielen zu kompliziert, an die breite Masse braucht man gar nicht zu denken. Passkeys werden von den Herstellern mit biometrischen oder erweiterten Sicherheitseinstellungen der Geräte gekoppelt. Hier greifen also verschiedene Trends der letzten Jahre ineinander. Das ist keine Pflicht, aber stärkt das Vertrauen in das Prinzip. Zum Verständnis der Funktionsweise möchte ich zwei Artikel bei Heise empfehlen:

Das Problem ist nur, dass sowohl Linux als auch die Google-freien Android-Varianten außen vor sind. Bei Linux fehlt einfach die Implementierung und bei den vielen Baustellen im Sicherheitsbereich habe ich meine Zweifel, ob Linux Passkeys überhaupt sicherheitskonform implementieren kann. KeePassXC wird dies aber in Kombination mit dem Browseraddon bald anbieten. Bei Android hat Google wie so oft die Funktionalität nicht in AOSP implementiert. Mit Android 14 sind aber Lösungen von Drittanbietern erlaubt, so dass KeePassDX mittelfristig wohl Passkeys unterstützen wird.

Ob das mit Linux und Android so komfortabel wird wie mit Microsoft, Apple oder Google, sei dahingestellt. Auf jeden Fall ist dies ein weiterer Bereich, in dem Open-Source-Systeme nicht den Anschluss verlieren dürfen.

Der Artikel Passkeys aktuell ohne Linux und GrapheneOS erschien zuerst auf Curius

Ab Anfang 2024 wird Google Drittanbieter-Cookies in Chrome blockieren. Dieses Instrument ist schon seit einiger Zeit auf dem Rückzug und mit diesem Schritt von Google werden Drittanbieter-Cookies für die Tracking-Branche endgültig uninteressant. Wir werden sie vermissen.

Damit mich niemand falsch versteht. Tracking ist die Pest des Internets. Aber Cookies von Drittanbietern waren in einer Hinsicht wunderbar. Sie waren die Allzweckwaffe für hemmungsloses Tracking, aber sie waren auch eindeutig identifizierbar. Es gab ein klares Kriterium dafür, welche Cookies zur besuchten Seite gehörten und welche nicht. Dieses klare Unterscheidungsmerkmal half, Cookies effektiv und mit wenig negativen Begleiterscheinungen zu blockieren. Zunächst nur über Add-ons, wurde die entsprechende Blockfunktionalität bald auch in Mozilla Firefox und Apples Safari integriert. Irgendwann hatten viele Internetnutzer begriffen, dass Cookies von Drittanbietern irgendwie böse sind oder installierten Adblocker, die das Problem nebenbei lösten. Die allgegenwärtigen Cookie-Banner in der EU nerven zwar viele Nutzer, haben aber die Botschaft verbreitet, dass es sich um eine schlechte Technologie handelt, und viele Nutzer für das allgegenwärtige Tracking sensibilisiert.

Insgesamt funktionierten diese Maßnahmen so zuverlässig, dass Google das Interesse an Drittanbieter-Cookies für seine Tracking-Maschinerie verlor. Denn der als Suchmaschine getarnte Werbekonzern Alphabet (Google) ist einer der größten Nutznießer des gezielten Trackings im Internet. Google entscheidet nie altruistisch, sondern trennt sich öffentlichkeitswirksam von veralteten Technologien, wenn sie keinen Nutzen mehr bringen. Genau das war bei Drittanbieter-Cookies der Fall, denn zu viele Anwender blockierten sie irgendwann wissentlich oder unwissentlich. Für die Abkehr vom Drittanbieter-Cookie brauchte Google jedoch zunächst eine Alternative zum Tracking. Denn das einzige funktionierende Geschäftsmodell darf keinesfalls leiden. So können IT-Medien und Blogs (die sich fast ausschließlich über Werbung finanzieren und oft in irgendeiner Form Google-Technologien nutzen) diesen tollen Schritt von Google loben und in den Augen vieler Menschen ist Google plötzlich ein bisschen weniger böse, während gleichzeitig weiterhin Geld fließt.

Die Tracking-Alternative ist jetzt fertig. Google braucht einfach keine Drittanbieter-Cookies mehr. Durch den Siegeszug von Android im mobilen Bereich und Chrome auf dem Desktop kontrolliert Google das Eingangstor zum Internet. Damit hat Google die Kontrolle und mit der Privacy Sandbox eine neue Lösung auf den Markt gebracht, um Werbung zielgerichtet auszuspielen. Diese Funktion hat Google seinen Nutzern in den letzten Monaten schmackhaft zu machen versucht und vermutlich haben viele zugestimmt. Verglichen mit dem hemmungslosen Tracking, das Drittanbieter-Cookies ermöglichten, ist die Privacy Sandbox vielleicht sogar ein Fortschritt, aber es ist eben kein Internet ohne Tracking. Es bleibt abzuwarten, wie Google den kleinen Teil der Nutzer ohne Chrome/Android adressieren will.

Für die anderen Anbieter auf dem Werbemarkt ist die Herausforderung ungleich größer. Sie können nicht auf die Privacy Sandbox und die Kontrolle der Zugangswege ins Internet vertrauen. Andere Anbieter werden eigene Lösungen implementieren, um den Wegfall von Drittanbieter-Cookies zu kompensieren. Fingerprinting wird dadurch an Bedeutung gewinnen und der Aufwand für die Nutzer, sich dem zu entziehen, wird steigen. Auch Mozilla und Apple werden hier aktiv werden, wobei beide ein doppeltes Spiel spielen, da Apple auch Werbung anbietet und Mozilla noch finanziell von Google abhängig ist. Für die Nutzerinnen und Nutzer beginnt damit ein Katz-und-Maus-Spiel mit Google und den anderen Targeting-Anbietern, um die vielfältigen Möglichkeiten des Fingerprinting zu blockieren.

Cookies von Drittanbietern waren ein mächtiges Werkzeug für die Werbeindustrie, aber sie waren auch klar definiert und leicht zu blockieren. Die Welt des Tracking wird nun vielfältiger werden, mit verschiedenen Anbietern und unterschiedlichen Systemen. Datenschutzbewusste Nutzer müssen eine noch steilere Lernkurve durchlaufen und ihr Wissen ständig auf dem neuesten Stand halten. Das relativ einfache Drittanbieter-Cookie wird uns also noch fehlen.

25. Dezember 2023

Wie die MZLA Technologies Corporation bekannt gegeben hat, wird die Veröffentlichung von Thunderbird für Android auf das kommende Jahr verschoben.

Im Sommer 2022 wurde die Übernahme des E-Mail-Clients K-9 für Android durch die MZLA Technologies Corporation, Entwicklerin von Thunderbird, bekannt gegeben. Nach der Integration weiterer Funktionen sowie einer Modernisierung des Designs hätte K-9 nach letztem Stand Ende 2023 als Thunderbird für Android veröffentlicht werden sollen.

Mittlerweile ist klar, dass daraus nichts werden wird. Einen konkreten Termin hatte MZLA vorher schon keinen genannt und nennt auch jetzt keinen. Im Gegenteil hat MZLA in einer aktuellen Ankündigung noch einmal bekräftigt, dass man keine Eile habe und Thunderbird für Android dann veröffentlicht wird, sobald alle Funktionen implementiert sind, die das Team gerne implementiert sehen möchte, bevor die App Thunderbird genannt wird.

Im Übrigen soll es auch nach Veröffentlichung von Thunderbird auch K-9 erst einmal weiterhin geben. Diese App würde dann weiterhin das aktuelle Branding anstelle der Thunderbird-Marke nutzen, aber funktional komplett identisch sein.

Der Beitrag Thunderbird für Android erscheint 2024 erschien zuerst auf soeren-hentzschel.at.

Um Verbindung mittels SSH aufzubauen bzw. solche entgegenzunehmen, wird ein SSH-Schlüssel benötigt. Für den OpenSSH-Server finden sich diese Schlüssel im Verzeichnis /etc/ssh/. Um die Schlüssel für den Server neu zu generieren, müssen die alten Schlüssel gelöscht werden: Anschließend wird der OpenSSH-Server neu konfiguriert, damit neue Schlüssel erzeugt werden: Nachdem dies geschehen ist…

Quelle

Das Jahr 2023 neigt sich langsam dem Ende zu. In diesem Monat for 25 Jahren wurde das IPv6-Protokoll in RFC 2460 beschrieben, bevor es 2017 in RFC 8200 als Internet-Standard von der Internet Engineering Task Force (IETF) veröffentlicht wurde.

Seit immerhin sechs Jahren ist dieses IP-Protokoll also schon standardisiert. Da sollte man doch meinen, dass man im Jahr 2023 problemlos ein vernetztes System betreiben kann, welches nur mit einer IPv6-Adresse mit dem Internet verbunden ist. Leider ist dem nicht so.

In den folgenden kurzen Abschnitten schreibe ich mir meinen Frust von der Seele und dokumentiere, was heute alles mit IPv6 noch nicht geht. Falls ihr weitere Fälle ergänzen möchtet, nutzt gerne die Kommentare, um eurem IPv6-Frust Luft zu machen.

Red Hat Satellite 6.14

Bei der Planung einer Red Hat Satellite 6.14 Installation bin ich über folgenden Satz in der Dokumentation gestolpert:

You can install Satellite and Capsules in IPv6-only systems, dual-stack installation is not supported.

URL: https://access.redhat.com/documentation/en-us/red_hat_satellite/6.14/html/installing_satellite_server_in_a_connected_network_environment/preparing-environment-for-installation-in-ipv6-network_satellite

Das ist schade. Betreibt man Server in IPv4- und IPv6-Netzwerken und möchte eine vollständig unterstützte Lösung, muss man aktuell zwei Satellite installieren.

Ich wollte jedoch einen Satellite in einer reinen IPv6-Umgebung installieren, daher sollte mich diese Anmerkung nicht weiter stören. Da störten mich folgende Stellen im gleichen Kapitel der Dokumentation schon mehr:

You must deploy an external IPv4 HTTP proxy server. This is required because Red Hat Content Delivery Network distributes content only over IPv4 networks, therefore you must use this proxy to pull content into the Satellite on your IPv6 network.

You must configure Satellite to use this IPv4 HTTP proxy server as the default proxy. For more information, see Adding a Default HTTP Proxy to Satellite.

URL: https://access.redhat.com/documentation/en-us/red_hat_satellite/6.14/html/installing_satellite_server_in_a_connected_network_environment/preparing-environment-for-installation-in-ipv6-network_satellite#requirements-for-installation-in-an-ipv6-network_satellite

Zuerst wollte ich dies nicht glauben, habe einen Fehler in der Dokumentation vermutet. Es ist 2023 und Content Delivery Network (CDN) von Red Hat unterstützt kein IPv6? Das kann doch nicht sein! Kann es doch:

Der zweite Link in obiger Liste führt ausschließlich IPv4-Adressen auf. Einzelne Kommentare lassen darauf schließen, dass es jedoch durchaus Interesse an IPv6-Konnektivität gibt. Also installiere ich erstmal einen Proxy-Server mit Dual-Stack, damit ich Hosts aus einem reinen IPv6-Netzwerk via subscription-manager register beim Red Hat Subscription Management (RHSM) registrieren kann.

subscription-manager cli command does not support IPv6 proxy

Nachzulesen in:

Die gute Nachricht, es sind gefixte Versionen für RHEL 9 und RHEL 8 in Aussicht. Auf einen Fix für RHEL 7 würde ich nicht warten und diese Systeme lieber migrieren oder aktualisieren, ist das Support-Ende doch bereits nah.

Also lege ich mein Vorhaben erstmal beiseite und wende mich anderen Wochenendprojekten zu, die vielleicht mehr Erfolg versprechen.

ansible-galaxy does not work on IPv6 only hosts

Nun guck an, da ist mein Kollege Andreas also schon im Jahr 2022 in den Ansible-Issue #77308 gelaufen. Ihr interessiert euch für den aktuellen Stand dieser Geschichte? Siehe:

So langsam komme ich mir vor wie ein bekannter spanischer Junker, welcher gegen Windmühlen pardon Riesen anritt. Aber es ist ja nicht so, dass mir die Themen ausgehen. Klone ich mir halt ein Repo von Github und trage ein bisschen zu Open Source bei…

IPv6 support for cloning Git repositories #10539

Ich spare mir viele Worte und präsentiere nur folgenden Code-Block:

$ host -t AAAA github.com
github.com has no AAAA record

URL zur Diskussion: https://github.com/orgs/community/discussions/10539

Auch hier kein Anschluss unter dieser Nummer.

Fazit

Ich möchte meine jüngsten Erfahrungen umschreiben mit: „An manchen Tagen hat man kein Glück und an anderen kommt auch noch Pech dazu.“

Für Red Hat möchte ich sagen, ist es ein Priorisierungs-Thema. Wenn der Wunsch nach IPv6 auf Kundenseite hinreichend groß wird, wird man hier handeln. Bei Github wird es ähnlich sein. Ich muss vielleicht nur nochmal 25 Jahre warten.

  • Welche Erfahrungen habt ihr mit IPv6 gemacht?
  • Habt ihr es schon an den Nagel gehängt; oder bleibt ihr hartnäckig und gebt nicht auf?
  • Ich freue mich auf eure schönsten Fehlschläge und Erfolgsmomente.

24. Dezember 2023

Vor wenigen Tagen erschien im Blog von openSUSE ein Beitrag mit den Plänen zur Vollverschlüsselung bei openSUSE Tumbleweed und openSUSE MicroOS. Die Entwicklung geht eindeutig in Richtung von TPM und/oder FIDO.

Hintergrund

Die klassische Vollverschlüsselung unter Linux bedeutet, dass bei der Installation ein LUKS-verschlüsselter LVM angelegt wird, der eine oder mehrere Partitionen enthält. GRUB2 kann verschlüsselte LVMs unter bestimmten Bedingungen entsperren. Wenn man andere Bootloader verwendet oder GRUB nicht vertraut, sollte man zusätzlich eine unverschlüsselte Bootpartition anlegen. Beim Systemstart erfolgt dann eine Passwortabfrage und meistens wird der Benutzer dann auf Autologin gesetzt, damit es keine doppelte Passwortabfrage gibt. Das ist nicht schlecht und war bis vor ca. 10 Jahren auch systemübergreifend State of the Art.

Das System ist bewährt (und Linux-Anwender sind oft alt, konservativ und halten an bewährten Lösungen fest), aber nicht mehr ganz zeitgemäß. Das fängt damit an, dass LUKS eigentlich nie einem Audit unterzogen wurde, veraltete Konfigurationen unsicher sein können, ein verifiziertes Booten eigentlich nicht vorgesehen ist und LUKS nicht einmal gegen Bruteforce-Angriffe geschützt ist. Das sind alles keine abwegigen Themen, sondern iOS, Android, Windows, macOS – alle diese Systeme haben bereits verschiedene Schutzmaßnahmen implementiert.

Eine häufige Antwort auf all diese Ambitionen ist, dass der normale Nutzer das nicht braucht. Darauf gibt es eigentlich nur zwei Antworten.

  1. Eigentlich braucht der “normale Anwender” auch keine Verschlüsselung. Der stationäre Laptop oder PC ist keiner Bedrohung ausgesetzt. Einbrecher schlachten zu 99 % das System aus und sind nicht an Daten interessiert.
  2. Die Orientierung am vermuteten Bedarf von “normalen Anwendern” bedeutet eine Selbstinfantilisierung von Linux und nimmt das System für alle professionellen Szenarien proaktiv aus dem Rennen. Das freut vor allem Microsoft, die im Business-Umfeld immer noch die Nase vorn haben.

Pläne bei openSUSE

Die Pläne von openSUSE haben zwei Aspekte. Zum einen soll GRUB durch systemd-boot ersetzt werden. GRUB ist überladen und laut openSUSE werden derzeit 200 Patches benötigt, um GRUB für die Nutzer verfügbar zu machen. Eigentlich ist GRUB sowieso völlig überflüssig, da moderne EFI-Systeme einen solchen Bootloader nicht benötigen. Außerdem arbeiten Red Hat und SUSE am sogenannten Unified Kernel, der dann auch wieder Anpassungen benötigt. Systemd-Boot kann damit bereits umgehen. Damit systemd-boot aber mit dem SUSE-spezifischen Setup aus Btrfs und Snapper klarkommt, sind einige Anpassungen notwendig.

Für den weiteren Ablauf möchte man eine Lösung adaptieren, die ich hier schon beschrieben habe. Kernel und initrd sollen im ESP abgelegt werden und die Freischaltung soll über TPM2 oder FIDO2 (mit optionaler PIN) auf Basis von systemd-cryptsetup erfolgen. Ziel ist es, dem Fernziel einer vollständig verifizierten Bootkette näher zu kommen.

Ausblick

Kurzfristig ist es gut, dass openSUSE auf GRUB verzichten und stattdessen aktiv systemd-boot anbieten will. Das dürfte vielen Anwendern das Leben erleichtern.

Mittel- bis langfristig sind die Ambitionen aus dem systemd-Umfeld, von Red Hat und nun auch SUSE zu begrüßen, Komponenten wie TPM oder FIDO2 in die Linux-Verschlüsselung zu integrieren und einen verifizierten Systemstart als Ziel anzustreben. Canonical hat die gleichen Ambitionen, setzt aber auf eine andere Implementierung.

Jenseits der großen Enterprise-Distributionen und ihrer Community-Varianten lässt sich z.B. auch mit Arch Linux in dieser Hinsicht viel erreichen, da vor allem Red Hat und SUSE ihre Änderungen upstream einbringen. Nur mit Debian scheint noch nichts zu gehen, da initramfs nichts davon unterstützt. Aber das passt auch irgendwie in das Gesamtbild, das Debian zur Zeit abgibt.

Der Artikel Pläne von openSUSE für Vollverschlüsselung erschien zuerst auf Curius

Mit Common Voice stellt Mozilla den weltweit größten öffentlichen Datensatz menschlicher Stimmen bereit – kostenlos und für jeden nutzbar. Mozilla hat Version 16.0 seines Datensatzes veröffentlicht.

Der Markt für Spracherkennung wird von den ganz großen Namen kommerzieller Anbieter dominiert: Amazon, Apple, Google, Microsoft. Darum hat Mozilla im Jahr 2017 das Projekt Common Voice gestartet. Mit Common Voice bietet Mozilla eine kostenlose Alternative an, zu der jeder beitragen kann und die jedem zur Verfügung steht. Damit möchte Mozilla Innovation und Wettbewerb in der Sprachtechnologie auf Basis von Maschinenlernen fördern.

Mit dem vor kurzem veröffentlichten Common Voice Corpus 16.0 wächst der deutschsprachige Datensatz von 1.388 auf 1.403 Stunden an. Wer bereits den Common Voice Corpus 15.0 besitzt, kann wie immer auch nur ein sogenanntes Delta Segment mit den Unterschieden zur Vorversion herunterladen. Für Deutsch würde das den Download von 32,8 GB auf 307 MB reduzieren.

Insgesamt deckt Mozilla Common Voice mit der neuen Version jetzt 120 Sprachen mit insgesamt 30.329 aufgenommenen Stunden ab, was Mozilla Common Voice zum vielfältigsten mehrsprachigen Sprachkorpus der Welt macht.

Zum Download der Mozilla Common Voice Datensätze

Der Beitrag Mozilla veröffentlicht Common Voice Corpus 16.0 erschien zuerst auf soeren-hentzschel.at.

Da ich meine Notizen nicht direkt in LibreOffice schreibe und ich gerne Hashtags nutze und ich diese etwas anders formatieren muss, habe ich nach einer Möglichkeit gesucht, wie ich in LibreOffice diese suchen und markieren kann, so dass ich sie mit einer Formatvorlage versehen kann. Aber alles der Reihe nach.

Ich schreibe meine Texte normalerweise in Markdown. Weil das extrem schnell, mit jedem Editor und auf jedem Gerät dieser Erde, auf dem Texte eingeben werden können funktioniert. Markdown ist im Prinzip nur Text. Wer mehr darüber wissen will, findet hier in der Wikipedia schon mal einen guten Einstieg.

Kurzer Ablauf in einzelnen Schritten

  1. Ich schreibe meinen Text in Obsidian (Markdown Suite) und versehe ihn mit Hashtags wie z.B. #english #deutsch #himmel und #hölle
  2. Dann exportiere ich den Text mit „Export to“ nach OpenOffice. Wobei OpenOffice hier für das Dateiformat ODT (Open Document Text) steht. Ich benutze aber kein OpenOffice, sondern das modernere LibreOffice
  3. In LibreOffice definiere ich eine neue Zeichenvorlage für meine Hashtags, damit alle Hashtags das gleiche Aussehen haben
  4. Dann öffne ich im LibreOffice Menü „Bearbeiten“ den Dialog „Suchen und Ersetzen“ (Strg+Alt+F)
  5. Dort gebe ich im Suchen Feld \#[:alpha:]+ ein (siehe Screenshot unten)
  6. klicke auf „Reguläre Ausdrücke“
  7. klicke dann auf „Alle suchen“
  8. Jetzt werden alle Hashtags markiert, ohne dass Leerzeichen oder andere Wörter dazwischen mitmarkiert werden.
  9. Ich schließe den Suchen und Ersetzen Dialog und doppelklicke auf die Hashtag Zeichenvorlage
Suchen und Ersetzen Dialog von LibreOffice

RegEx erklärt

Eine kurze Erklärung was der Reguläre Ausdruck genau macht. Dafür zerlege ich ihn in die Einzelteile

\#[:alpha:]+
  • \# definiert das Zeichen # . Das Kreuz ist bei den RegEx normalerweise ein Befehl, so dass ich dem Programm sagen muss, dass es nicht der Befehl ist, den ich hier angebe, sondern nur das Zeichen. Dafür muss ich einen Backslash \ , ein sogenanntes ESCAPE Zeichen vorweg stellen. Mehr weiter unten in den Quellen.
  • [:alpha:] heißt, dass nur alphanumerische Zeichen a-Z und 0-9 vorkommen dürfen
  • + so oft wie sie vorkommen

Ausgeschrieben heißt das

Suche nach einem Wort, das mit einem # anfängt und dann nur noch alphanumerische Zeichen hat und zwar egal wie viele. Und nichts anderes! Folgt danach ein Komma oder ein Leerzeichen oder ein Zeilenumbruch oder ein Tab oder irgendein anderes Zeichen, das nicht in [:alpha:] vor kommt, ist die Suche beendet. Dadurch dass ich im Dialog „Alle suchen“ angeklickt habe, wird diese Suche auf den gesamten Text angewandt.

Quellen

The post LibreOffice: Suchen&Ersetzen – Mit RegEx Hashtags markieren first appeared on Dem hoergen Blog.

22. Dezember 2023

Als ich vor einigen Wochen das erste Mal Zellij ausprobiert habe, habe ich erst den Terminal Emulator an sich und dann Zellij gestartet. Das ist mir inzwischen zu umständlich, da ich derzeit fast nur noch mit Zellij arbeite.

Der Terminal Emulator Alacritty bietet hierfür eine recht einfache Konfigurationsmöglichkeit, die es ermöglicht beispielsweise direkt nach dem Starten Zellij auszuführen.

In der Konfigurationsdatei ~/.config/alacritty/alacritty.yml gibt es den Bereich, der sich auf die verwendete Shell bezieht. In meinem Fall ungefähr ab Zeile 405 (da die Konfigurationsdatei auch gleichzeitig als deren Dokumentation dient, ist die Datei ziemlich lang). Diesen habe ich wie folgt geändert.

1shell:
2  program: /bin/zsh
3  args:
4    - -c
5    - zellij attach -c Notebook

In der zweiten Zeile gibt man die Shell an, die verwendet werden soll. In meinem Fall also die ZSH. Das erste Argument -c bedeutet im Falle der ZSH, dass das nächste Argument als Befehl ausgeführt wird. Mit der nächsten Zeile wird Zellij gestartet und eine Verbindung zur Session mit der Bezeichnung Notebook aufgebaut. Ist diese nicht vorhanden, wird die Session erstellt.

Der Name ist frei wählbar. In meinem Fall lautet er Notebook, da ich gerade diesen Artikel mit meinem Notebook schreibe. Man kann attach -c Notebook auch weglassen. Dann wählt Zellij die Bezeichnung der Session allerdings automatisch, sodass Namen wie adamant-capsicum oder schlimmere dabei herauskommen.

21. Dezember 2023

Mozilla hat Firefox 121 für Windows, Apple macOS und Linux veröffentlicht. Dieser Artikel fasst die wichtigsten Neuerungen zusammen – wie immer auf diesem Blog weit ausführlicher als auf anderen Websites.

Download Mozilla Firefox für Microsoft Windows, Apple macOS und Linux

Verbesserter Cookie-Dialog-Blocker

Mit Firefox 120 hatte Mozilla vor vier Wochen einen Cookie-Banner-Blocker eingeführt, welcher schrittweise für Nutzer in Deutschland ausgerollt wird. Aktuell befindet sich Firefox immer noch im Prozess der Ausrollung für 50 Prozent der Nutzer. Wer nicht warten möchte oder nicht in Deutschland lebt, kann den Cookie-Banner-Blocker aber auch jederzeit über about:config aktivieren, indem der Schalter cookiebanners.service.mode.privateBrowsing auf 1 gesetzt wird. Eine Änderung des Schalters cookiebanners.service.mode auf 1 aktiviert diesen auch für nicht private Fenster. Wird der jeweilige Schalter auf 2 gesetzt, werden ein paar Cookie-Dialoge mehr blockiert – zum Preis, dass Firefox bei diesen dann zustimmt, weil es keinen Ablehnen-Button gibt.

Neue Regeln, um weitere Cookie-Banner zu blockieren, werden automatisch heruntergeladen, dafür bedarf es also keines Firefox-Updates. Tatsächlich gab es seit Veröffentlichung von Firefox 120 auch schon mehrere Updates der Regel-Liste. In Firefox 121 gab es Verbesserungen der Funktionalität an sich. So wurden Optimierungen vorgenommen, welche das Risiko für Website-Defekte reduzieren. Außerdem wurde die Unterstützung für sogenannte Consent Management Provider (CMPs) aktiviert. Während bisher ausschließlich individuelle Domain-Regeln aktiviert waren, werden damit nun auch erste gängige, wenn auch längst noch nicht alle Lösungen unterstützt, wie sie von vielen Websites genutzt werden.

Linux: Wayland Compositor statt XWayland

Auf Linux nutzt Firefox nun standardmäßig den Wayland Compositor anstelle von XWayland. Dies bringt diverse Vorteile, darunter die Unterstützung von Touchpad- und Touchscreen-Gesten, DPI-Einstellungen pro Bildschirm, eine bessere Grafik-Performance und mehr.

Durch Limitierungen des Wayland-Protokolls bleiben Bild-im-Bild-Fenster nicht im Vordergrund. Hier schafft eine GNOME-Erweiterung Abhilfe.

Mehr Sicherheit für Firefox-Nutzer

Auch in Firefox 121 wurden wieder mehrere Sicherheitslücken geschlossen. Alleine aus Gründen der Sicherheit ist ein Update auf Firefox 121 daher für alle Nutzer dringend empfohlen.

Sonstige Endnutzer-Neuerungen von Firefox 121

Die Unterstützung für die Hardware beschleunigte Wiedergabe von AV1-Videos gibt es bereits seit Firefox 100. Erforderlich ist dafür allerdings die AV1 Video Extension von Microsoft. Bei Aufruf der Seite about:support fordert Firefox ab sofort zur Installation dieser Erweiterung auf, falls diese noch nicht installiert ist.

Auf PDF-Dateien hinzugefügte Bilder, Texte und Zeichnungen haben nun ein Mülleimer-Symbol, über welches das jeweilige Objekt wieder entfernt werden kann.

Auf macOS unterstützt Firefox jetzt Sprachsteuerungsbefehle, wenn die Sprachsteuerung des Betriebssystems aktiviert ist.

Ebenfalls in den Bereich der Barrierefreiheit fällt eine neue Einstellung im Abschnitt Allgemein: Surfen, um Textlinks auf Websites immer zu unterstreichen.

Die Seite about:plugins wurde entfernt, nachdem die einzigen verfügbaren Plugins bereits seit Jahren via about:addons verwaltet werden können.

Die Übersetzungs-Funktion nutzt jetzt nur noch eine einzige Übersetzungs-Engine anstelle einer Engine pro Tab. Dies reduziert den RAM-Verbrauch teilweise signifikant, wenn Websites in mehreren Tabs übersetzt werden.

Um den Anforderungen des Digital Services Acts der Europäischen Union gerecht zu werden, wurde die Melden-Funktion für Erweiterungen umgebaut und funktioniert nun außerdem über eine Website anstelle einer direkt in Firefox integrierten Funktion. Auch Wörterbücher können jetzt gemeldet werden, was bislang nicht möglich war.

Schließlich wurde noch ein Problem unter macOS behoben, welches unter der Voraussetzung, dass mehrere Schriften installiert waren, die sich selbst als jeweils gleiche Schrift identifizieren, zu fehlerhaften Schriftdarstellungen auf Websites führen konnte.

Unterstützung von :has() in CSS

Mit jedem Major-Release von Firefox kommt auch die Unterstützung zusätzlicher Webstandards dazu. Diese werden normalerweise gesammelt in einem Abschnitt behandelt. Eine Neuerung bringt aber einen derart großen Mehrwert für Website-Entwickler, dass ihr ein eigener Abschnitt gegönnt sei: Firefox 121 unterstützt den :has()-Selektor in CSS, welcher als eine Art „Eltern-Selektor“ genutzt werden kann.

Weitere Verbesserungen der Webplattform

Eine weitere nennenswerte Neuerung auf CSS-Seite ist die Unterstützung des balance-Wertes für die Eigenschaft text-wrap. Diese kann dazu genutzt werden, das Erscheinungsbild mehrzeiliger Textblöcke durch Harmonisierung der Zeilenlängen zu verbessern.

Die CSS-Eigenschaft text-indent wurde um Unterstützung für die Werte hanging und each-line erweitert.

Lazy Loading wird jetzt auch für iFrames unterstützt, womit diese erst geladen werden, sobald sich diese im sichtbaren Bereich befinden, was die initiale Zeit reduziert, die eine Website zum Laden benötigt.

In JavaScript unterstützt Date.parse() jetzt zusätzliche Formate für Datumsangaben.

WebAssembly wurde um die Unterstützung für die Tail Call Eliminiation erweitert.

Weitere Neuerungen für Entwickler von Websites und Browser-Erweiterungen lassen sich in den MDN Web Docs nachlesen.

Verbesserungen der Entwicklerwerkzeuge

Der Inspektor zeigt bei Verwendung eines nicht eingeschränkten :has()-Selektors ein Schildkröten-Symbol an, um einen möglichen Performance-Flaschenhals zu kennzeichnen.

Bestimmte Attribute wie for oder aria-labelledby referenzieren andere HTML-Elemente. Der Inspektor zeigt bei diesen nun ein Symbol an, über welches zum entsprechenden Element im Inspektor gesprungen werden kann.

Es wurden mehrere Verbesserungen für die Barriereheit der Entwicklerwerkzeuge vorgenommen. Dies schließt unter anderem den Fokus-Indikator und Farbkontraste ein.

Der Debugger hat eine Option erhalten, um das debugger-Schlüsselwort auf der aktuellen Seite zu deaktivieren.

Der Beitrag Mozilla veröffentlicht Firefox 121 erschien zuerst auf soeren-hentzschel.at.



Projekt Bluefin, geschaffen von einer Gruppe Cloud- und Container-Enthusiasten unter der Führung von Jorge Castro, präsentiert sich als eine maßgeschneiderte Variante von Fedora Silverblue. Die Vision: Eine Desktop-Distribution, die zuverlässig und wartungsfrei ist und die Power von Ubuntu und Fedora in sich vereint. Die Ziele von Bluefin sind klar umrissen: Eine benutzerfreundliche Desktoperfahrung mit minimalem Wartungsaufwand à la Chromebook, die beste Cloud-Native-Entwicklererfahrung mit speziellen bluefin-dx- und bluefin-dx-nvidia-Images sowie eine erstklassige Flathub-Gaming-Performance.

Noch Beta

In der Beta-Phase präsentiert sich Projekt Bluefin als verfeinerte Version vom immutable Fedora Silverblue, die auf einem sauberen, atomaren Layer über dem Standard-Fedora-Image aufbaut. Dies gewährt Benutzern die Freiheit, jederzeit zu einem Standardbuild zurückzukehren. Bluefin ermöglicht flexible Benutzerumgebungen und automatisiert Updates nahtlos ohne Rückmeldung im Hintergrund über einen GitHub-Bereitstellungsprozess. Die Plattform umfasst integrierte Treiber (z.B. für Nvidia), unterstützt die Ausführung von Flathub-Anwendungen und bietet eine Container-Runtime für nahezu jede Linux-Arbeitslast.

Dev Dream

Für Entwickler ist Bluefin ein wahres Eldorado an Tools, darunter Podman (Docker lässt sich aber auch installieren) als Container-Runtime und das Entwickler-Image bluefin-dx mit Visual Studio Code, Devcontainers, Homebrew und mehr. Besonderes Augenmerk wird auf die Nachhaltigkeit von Open-Source-Beiträgen gelegt, wobei Cloud-Native-Experten besonders willkommen sind.

Community

Die Bluefin-Community betont Werte wie Gemeinschaft und Nachhaltigkeit, laut FAQ symbolisiert durch den Dinosaurier im Projekt-Design. Das Team hat die Contribution-Arbeit komplett automatisiert, um Entwicklern Raum für Innovation zu geben. Mit dem geplanten Start im Frühjahr 2024 konzentriert sich das Team darauf, das Installationserlebnis weiter zu verfeinern.

Große Pläne

Projekt Bluefin sieht sich als einen Neustart für Linux-Desktop-Nutzer und -Entwickler, mit dem Ziel, die Adoption von Cloud-Native-Technologien zu beschleunigen. Während der Beta-Phase lädt das Projekt die Gemeinschaft ein, aktiv teilzunehmen und zum zukünftigen Stand des Linux-Desktops beizutragen.

Quellen:

https://projectbluefin.io

https://www.ypsidanger.com/announcing-project-bluefin/


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

20. Dezember 2023



In einer mehrjährigen Zusammenarbeit zwischen dem Asahi Linux-Projekt und dem Fedora-Projekt ist Fedora Asahi Remix entstanden. Diese Distribution ist speziell für Apple Silicon-Geräte der M1- und M2-Serie, darunter MacBook, Mac Mini, Mac Studio und iMac, entwickelt worden. Die Kollaboration ermöglicht eine nahtlose Integration der Asahi-spezifischen Pakete in Fedora Linux 39.

Getunete Software

Als Standard-Desktop-Umgebung wird KDE Plasma präsentiert, mit fortschrittlicher Wayland-Unterstützung und Anpassungsmöglichkeiten für ein optimales Erlebnis auf Apple Silicon. Sowohl KDE Plasma 5.27 als auch GNOME 45 sind verfügbar, und eine benutzerfreundliche Einrichtung wird durch einen maßgeschneiderten Calamares-Installer gewährleistet.

Übertroffene Standards

Die 100%ige Wayland-Umgebung sorgt für eine reibungslose Desktop-Erfahrung, ohne Bildstörungen auf Apple-Hardware. OpenGL 3.3-Unterstützung (3.1 sogar zertifiziert, im Gegensatz zu Apple, was bei 2.1 die Entwicklung eingestellt hat), inklusive GPU-beschleunigter Geometrie-Shader und Transform Feedback, wird geboten, mit zukünftigen Plänen für OpenGL 4.x- und Vulkan-Unterstützung. Eine bemerkenswerte Leistung ist auch im Audiobereich zu verzeichnen, mit einer integrierten DSP-Lösung, die hochwertigen Klang ohne zusätzliche Konfiguration bietet.

Hardwareunterstützung

Das Fedora Asahi Remix bietet umfangreiche Unterstützung für diverse Hardwarekomponenten von MacBooks und Desktop-Macs. Hierzu zählen WLAN und Bluetooth, die integrierten Tastaturen samt Hintergrundbeleuchtung, Trackpads, Lautsprecher, Kopfhörer- und Stromanschluss MagSafe(bei M2 MacBooks) und Webcam. Leider besteht keine Unterstützung für Mikrofone, den Fingerabdruckscanner Touch ID sowie Thunderbolt/USB4. Zusätzlich können externe Bildschirme nicht über USB-C angesteuert werden.

Fazit

Insgesamt verspricht Fedora Asahi Remix eine erstklassige Linux-Erfahrung auf Apple Silicon-Geräten mit Unterstützung für kommende Technologien und stetigen Verbesserungen, auch die M3-Unterstützung soll bald folgen. Die Entwickler rühmen sich damit, dass neue MacBooks sogar die mit am besten unterstützten Linux-Laptops sind, ob das stimmt, darüber lässt sich im Moment streiten, wenn sie aber in diesem Tempo weitermachen, dann könnten sie bald vollkommen richtig liegen.

Quelle:

https://asahilinux.org/fedora/


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

19. Dezember 2023

Die MZLA Technologies Corporation hat mit Thunderbird 115.6 ein planmäßiges Update für seinen Open Source E-Mail-Client veröffentlicht.

Neuerungen von Thunderbird 115.6

Mit dem Update auf Thunderbird 115.6 hat die MZLA Technologies Corporation ein planmäßiges Update für seinen Open Source E-Mail-Client veröffentlicht. Das Update bringt diverse Fehlerbehebungen und Verbesserungen, welche sich in den Release Notes (engl.) nachlesen lassen. Auch wurden diverse Sicherheitslücken geschlossen.

Der Beitrag Thunderbird 115.6 veröffentlicht erschien zuerst auf soeren-hentzschel.at.

18. Dezember 2023

Seit mehreren Jahren habe ich den Terminal Emulator Terminator genutzt. Was mich an dem Programm stört ist, dass OSC52 nicht unterstützt wird. Das liegt daran, dass Terminator auf VTE3 basiert und das dafür verantwortliche Team möchte OSC52 wegen möglicher Sicherheitsprobleme nicht einbauen (https://gitlab.gnome.org/GNOME/vte/-/issues/2495).

Auch wenn ich die Gründe nachvollziehen kann, bin ich zu dem Ergebnis gekommen, dass ich mit den möglichen Risiken leben kann. Da ich seit ein paar Wochen verstärkt Zellij nutze, habe ich mich auch entschieden, dass ich auch gleich den Terminal Emulator wechsle. Da Zellij Tiling und Tabs anbietet, habe ich mich für den Terminal Emulator Alacritty entschieden, der dies nicht anbietet. Dafür wird OSC52 unterstützt.

Seit ich Alacritty nutze, habe ich das Problem, dass sobald ich eine SSH-Verbindung zu Uberspace aufgebaut habe und die Backspace-Taste drücke Leerzeichen angezeigt werden. Das Problem kann ich mit oder ohne Zellij nachvollziehen.

Die Ursache ist aber nicht schlimm und die Lösung somit glücklicherweise auch recht einfach.

Aber kommen wir erst mal zur Ursache. Das Problem wird dadurch ausgelöst, dass Alacritty den Wert von $TERM bei Uberspace auf alacritty ändert. Die Server von Uberspace kommen damit scheinbar nicht zurecht.

Wie kann man das Problem lösen? Mir sind in dem Fall zwei Möglichkeiten bekannt den Wert für $TERM bei Uberspace zu ändern.

Wer SSH-Verbindungen in ~/.ssh/config definiert hat, kann die betreffende Konfiguration entsprechend erweitern.

1Host        Uberspace
2Hostname    xxx.uberspace.de
3SetEnv      TERM=xterm-256color
4Port        22
5User        User
6IdentityFile ~/.ssh/Uberspace

Die zweite Möglichkeit ist, die Konfiguration von Alacritty entsprechend anzupassen. Der betreffende Teil der Konfigurationsdatei (~/.config/alacritty/alacritty.yml) würde dann wie folgt aussehen.

1env:
2 TERM: xterm-256color

Baut man dann eine SSH-Verbindung zu Uberspace auf und führt echo $TERM aus, sollte man die Ausgabe xterm-256color erhalten und die Backspace-Taste sollte wieder funktionieren. Vermutlich sind auch nicht andere Tasten betroffen, aber mir ist das Problem nur bei der Backspace-Taste aufgefallen.



Windows AI Studio soll die Entwicklung von generativen KI-Anwendungen erleichtern, indem es fortschrittliche KI-Entwicklungstools und Modelle aus dem Azure AI Studio Catalog und anderen Katalogen wie Hugging Face integriert. Durch das Durchsuchen dieser Kataloge sollen Benutzer Modelle lokal herunterladen, feinabstimmen, testen und in Windows-Anwendungen verwenden können. Die Berechnungen erfolgen lokal, daher ist es wichtig sicherzustellen, dass das Gerät die erforderliche Leistung erbringen kann. Im Moment wird eine NVIDIA-GPU benötigt.

Schritt 1: Installiere Linux

Außerdem sollte die WSL Ubuntu-Distribution 18.4 oder neuer installiert und als Standard festgelegt sein. Die Installation erfolgt über Visual Studio Code als Erweiterung, die im VS Marketplace heruntergeladen werden kann.

Meine Meinung dazu:

Microsoft hat sich wahrscheinlich zu diesem ungewöhnlichen Schritt entschieden, weil Ubuntu (nicht unbedingt Linux im Allgemeinen) die unangefochten beliebteste Plattform für AI Tools ist und sich viele Tools nur mit Mühen an andere Distros anpassen lassen, ganz zu schweigen an ein komplett fremdes Betriebssystem wie Windows.

Quelle:

https://github.com/microsoft/windows-ai-studio


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

Die neuen ISO-Images enthalten den LTS-Kernel 6.6 und Pipewire 1.0, sowie die aktuellen Versionen der Desktop-Umgebungen.

Manjaro ist eine auf Arch Linux basierende kuratiert-rollende Distribution, die KDE-Plasma und Xfce und GNOME als Hauptdesktop-Umgebungen anbietet. Daneben gibt es eine Vielzahl weiterer Desktops, die von der Community bereitgestellt werden: Budgie, Cinnamon, i3, Sway und MATE. Alle paar Monate bringt das Team um Phillip Müller neue ISO-Images heraus, welche für Erst- oder Neuinstallierer interessant ist, damit nicht zu viele Pakete aktualisiert werden müssen. Bestehende Installationen werden automatisch auf dem aktuellen Stand gehalten. Dies geschieht mit einer Verzögerung von wenigen Wochen gegenüber den Arch-Repositories, weil die Pakete bei Manjaro noch eine Testrunde drehen.

Die Images für die neue Version 23.1 sind am Freitag erschienen. Die ISO-Downloads findet ihr hier. Die wichtigsten Neuerungen dieser Version beziehen sich überwiegend auf aktuelle Versionen der Desktop-Umgebungen. Im Falle von KDE sind das Plasma 5.27 LTS mit der App-Suite KDE Gear 23.08.3. Da es bei Xfce stabil und gemächlich zugeht, hat sich an der Version 4.18 seit den letzten Manjaro-Versionen nichts geändert. GNOME ist mit der Version 45.2 am Start.

Wer sich über die Neuerungen bei den Desktop-Umgebungen informieren möchte, sollte die o.a. Links ansteuern. Linux-Neulingen empfehle ich, sich ein paar Videos zu den Desktops anzusehen und nach Geschmack zu entscheiden.

Manjaro selbst, wartet mit dem aktuellen Linux-Kernel 6.6.7 LTS auf und hat den Schritt auf den Audio/Video-Server Pipewire 1.0 geschafft. Diese Distribution gibt es für die X86_64-Architektur, also für Desktops und Notebooks, und für die ARM-Architektur, die man auf Smartphones, Tablets, Raspberry-PIs und bestimmten Notebooks vorfindet. Zudem kann man sich zwischen einer minimalen und einer Full-Variante entscheiden. Der Unterschied wird in diesem Foren-Beitrag beschrieben. Falls ihr euch unsicher seid, nehmt die Full-Variante. Kenner verwenden die minimale Variante und installieren fehlende Pakete nach.

Quelle: https://forum.manjaro.org/t/manjaro-23-1-vulcan-released/153458/1


GNU/Linux.ch ist ein Community-Projekt. Bei uns kannst du nicht nur mitlesen, sondern auch selbst aktiv werden. Wir freuen uns, wenn du mit uns über die Artikel in unseren Chat-Gruppen oder im Fediverse diskutierst. Auch du selbst kannst Autor werden. Reiche uns deinen Artikelvorschlag über das Formular auf unserer Webseite ein.

17. Dezember 2023

VeraCrypt ist besonders dann eine ideale Verschlüsselungslösung, wenn der Container auf allen Desktopbetriebssystemen lauffähig sein soll. Die meisten konkurrierenden Werkzeuge haben nämlich ein Hauptsystem und lassen sich bestenfalls mit Krücken unter anderen Systemen zum Laufen bringen.

Da ich auf dem Desktop nur Linux benutze und meine externen Speichermedien entweder unverschlüsselt sind oder nur mit Linux entschlüsselt werden müssen, habe ich VeraCrypt etwas aus den Augen verloren. Vor 5 Jahren hatte ich das letzte Mal beruflich damit zu tun. Dementsprechend habe ich die umwälzenden Änderungen in der Version 1.26.7, die bereits Anfang Oktober erschienen ist, erst jetzt zur Kenntnis genommen. Nichtsdestotrotz ist VeraCrypt nach wie vor ein wichtiges Werkzeug im Werkzeugkasten der Datensicherheit. Allerdings würde ich es nicht zur vollständigen Verschlüsselung eines Systems einsetzen, obwohl VeraCrypt diese Möglichkeit nach wie vor bietet.

VeraCrypt ist der Nachfolger von TrueCrypt, dessen Entwicklung 2014 unter etwas dubiosen Umständen eingestellt wurde. Viele hielten zunächst an einer älteren Version von TrueCrypt fest, aber schon 2018 schrieb ich hier im Blog, dass man sich endlich von TrueCrypt verabschieden sollte. Damals setzten noch erschreckend viele die unsichere und veraltete letzte TrueCrypt-Version ein. Dieser Aufruf gilt nun auch für das Containerformat. Die große Stärke von VeraCrypt war anfangs, dass es eine 1:1 Kopie von TrueCrypt war. Das hat leider viele Benutzer dazu verleitet, ihre Container nicht anzupassen. Ein Problem, mit dem auch das LUKS in letzter Zeit zu kämpfen hatte. Eine Besonderheit von VeraCrypt ist, dass es sich – auch wegen der TrueCrypt-Problematik – mal einem Audit unterzogen hat. Das können alternative Lösungen wie LUKS oder eCryptFS nicht bieten.

Die Welt der Sicherheit ist nicht statisch und die Entwickler von VeraCrypt haben sich glücklicherweise für eine behutsame Weiterentwicklung entschieden, um die Sicherheit langfristig zu gewährleisten. Die Bedienlogik wurde nicht angetastet, so dass VeraCrypt auch im Jahr 2023 noch so funktioniert wie TrueCrypt vor über 10 Jahren. Unter der Haube hat sich jedoch einiges getan. Eine ständige Aufgabe bei Verschlüsselungslösungen ist es, veraltete und gebrochene Algorithmen zu entfernen und neue Standards zu implementieren. Mit der jetzt veröffentlichten Version hat man sich in diesem Zuge auch vom TrueCrypt-Kompatibilitätsmodus verabschiedet. Wer also noch alte Container öffnen oder konvertieren möchte, muss einmalig auf die Version 1.25.9 zurückgreifen.

Diese Episode zeigt einmal mehr, dass es nicht reicht einen Container einmalig anzulegen, sondern man sich in regelmäßigen Abständen damit befassen sollte, ob die eingesetzte Technologie noch dem aktuellen Stand entspricht.

Der Artikel VeraCrypt 1.26.7 verabschiedet sich von TrueCrypt erschien zuerst auf Curius

Seit einiger Zeit habe ich mir Gedanken über die Kommentarfunktion gemacht. Schlussendlich bin ich zu dem Ergebnis gekommen, diese ab sofort und bis auf Weiteres bei neuen Artikeln zu deaktivieren. Das hat hauptsächlich zwei Gründe. Mich selbst. Und manche andere Nutzer.

  • Ich merke, dass ich Kommentare oft sehr zeitverzögert freischalte. Zum einen, fehlt mir teilweise die Zeit dafür. Sei es nun, weil ich beruflich viel zu tun habe oder weil mir einfach manche Dinge wichtiger sind. Oftmals will ich mich derzeit auch nicht mehr mit den Kommentaren an sich beschäftigen.

  • Dass ich immer weniger Lust habe, liegt teilweise an den Kommentaren an sich. Gefühlt würde ich sagen, dass ich 80 Prozent aller Kommentare gar nicht mehr freischalte. Zum Beispiel, weil sich um Spam handelt, der nur abgesetzt wird, um auf irgendwelche dubiosen Seiten zu verlinken. Oder Kommentare, in denen andere Programme empfohlen werden, obwohl ich gar keine Alternative will. Aber auch, weil immer mehr Leute Kommentare erstellen, die scheinbar Defizite im Umgang mit Dritten oder bezüglich des Textverständnisses haben.

Kurz gesagt, mich nervt die Situation. Wobei ich nicht sagen kann, was mich mehr stört. Ich würde aber fast schon sagen, der erste Grund.

Daher habe ich beschlossen, dass bis auf Weiteres bei neuen Artikeln (angefangen mit diesem) keine Kommentare mehr möglich sein werden. Kommentare, die sich aktuell noch in der Warteschleife befinden, werde ich in den nächsten Tagen bearbeiten.

Bei bereits bestehenden Artikeln wird die Kommentarfunktion erst einmal weiter aktiv bleiben, damit eventuell vorhandene Kommentare weiterhin angezeigt werden. Eine zufriedenstellende Lösung, wie ich neue Kommentare verhindern, aber bereits vorhandene Kommentare anzeigen kann, habe ich bisher noch nicht gefunden.

Ob dies eine dauerhafte Entscheidung sein wird, kann ich noch nicht sagen. Vielleicht entscheide ich mich auch dafür, die Kommentarfunktion nur für bestimmte Artikel wieder zu aktivieren. Die Zeit wird es zeigen.

Unabhängig davon habe ich mich entschieden, dass ich die Lizenz des von mir erstellten Codes zum Anzeigen der Internetseite auf die AGPL ändere. Die Artikel an sich werden weiterhin unter der Creative Commons Attribution-ShareAlike 4.0 International Lizenz veröffentlicht. Der von mir genutzte Code Dritter (Isso, Prism und Atkinson Hyperlegible) ist von dem Lizenzwechsel natürlich auch nicht betroffen.