ubuntuusers.de

Neueste Artikel

gestern

Heise bringt mal wieder eine Serie zum Umstieg auf Linux. Dieses mal für Unternehmen im Angesicht der Windows 11-Migration. Das geht völlig am Thema vorbei. Wir brauchen dringend eine andere Diskussion über den Linux-Umstieg und nicht immer die gleichen aufgewärmten Geschichten.

Bei Heise können interessierte Menschen aktuell eine Serie „Zweites Leben mit Linux“ lesen. Bisher sind zwei Teile erschienen:

  1. Zweites Leben mit Linux: Wie Unternehmen alte Windows-Rechner retten können​
  2. Zweites Leben mit Linux: Die besten Distributionen für Unternehmen

Inhaltlich sind die Beiträge ganz interessant und legen mal den Fokus auf die wirklich zentralen Distributionen. Das Lesen beider Artikel bringt daher schon einem Mehrwert. Für sich genommen und ohne das übergestülpte Thema. Denn hier gehen sie total an der Zielgruppe bzw. am Thema vorbei. Das bemängeln sogar viele Kommentatoren im von mir sonst so oft gescholtenen Kommentarbereich von Heise.

Die Grundannahme ist, dass der auslaufende Support für Windows 10 und anstehende Umstieg auf Windows 11 irgendwie mit Kosten für Firmen verbunden ist, die diese vermeiden müssen und können, wenn sie auf Linux umsteigen. Dahinter steht ein völlig veraltetes Bild von IT-Beschaffung und wieder mal das leidige Kostenargument.

Hardware wird über mehrere Jahre abgeschrieben. Die hier suggerierte völlig veraltete Hardware ist somit bereits komplett abgeschrieben. Angesichts der Leistungsanforderungen von Windows 11 ist die betroffene Hardware realistischerweise sogar weit darüber hinaus genutzt worden. Die meisten Firmen haben Beschaffungszyklen, bei denen Hardware turnusgemäß ausgewechselt wird – spätestens nach Ende von Gewährleistung und Support. Die Zeiten, bei denen ein neues Betriebssystem die Auswechslung des kompletten „Fuhrparks“ erforderte, sind doch spätestens seit Anfang der 2000-Jahre vorbei.

Die Kosten für Hardware und Lizenzen sind zudem sehr gering. Wir reden hier von dreistelligen Investitionsbeträgen pro Gerät, wenn keine besonderen Anforderungen beispielsweise im IT- oder Multimediabereich vorliegen. Eine Behörde oder Firma, die hierfür keine Mittel in der mehrjährigen Finanzplanung hat, dürfte andere Probleme haben.

Zumal Hardwarekosten nicht das Hauptproblem bei den meisten Firmen sind, sondern Lohnkosten. Alte Hardware macht Mitarbeiter unproduktiver, weil diese langsamer arbeiten müssen, als es möglich wäre. Alte Hardware verursacht also ganz direkt Kosten an anderer Stelle im Budget. Die meisten Firmen wissen das und stellen deshalb Hardware mit den passenden Leistungskennzahlen passend zu den Aufgaben der Mitarbeiter zur Verfügung.

Am meisten stört mich aber, dass wieder das Kostenargument für Linux in den Vordergrund geschoben wird. Das ist kontraproduktiv und schadet der Verbreitung von Linux und sollte langsam auch dem Letzten klar sein. Die Einführung von Linux kostet auf kurze Sicht sogar mehr Geld, als sie spart. Erstens, weil viele der in den Artikel dargestellten Distributionen kostenpflichtig sind, zweitens weil bei den kostenlosen Distributionen der FOSS-Gedanke eigentlich eine Partizipation der Firmen voraussetzen, die deshalb wiederum Entwicklerkapazitäten bereitstellen müssten. Dazu kommen dann weitere Kosten, weil zusätzliche IT-Kapazität auch ohne Beteiligung an Open Source-Projekten vonnöten wäre, wenn man die genutzten Systeme diversifiziert und die IT-Abteilung neben Windows plötzlich auch Linux auf dem Desktop unterstützen soll.

Bei all diesen Überlegungen ist man noch nicht mal in den Bereich der Anwendungen vorgedrungen und hat hier Chancen und Risiken abgewogen.

Anstelle immer wieder diese leidige Diskussion aufzuwärmen, bei der ein Linux-Umstieg immer nur über das Kostenargument propagiert wird, brauchen wir hier endlich mal eine ehrliche Kampagne. „Public money, public code“ ist eine solche Kampagne für den öffentlichen Dienst und hat inzwischen Einzug in viele politische Sonntagsreden und sogar Koalitionsverträge gefunden. Für die Privatwirtschaft gibt es das bisher nicht. Es muss aber Vorteile abseits von Kostenargumenten geben und diese müssen wirkliche Mehrwerte bieten. Wenn es diese nicht gibt, dann hat Windows zu recht seinen Platz in den deutschen Büros.

Kurzum: Nette Artikel, aber völlig am Thema vorbei. Hoffentlich brauchte man einfach einen Aufhänger für eine Serie und hat da ein bisschen daneben gegriffen und das entspricht nicht dem Firmenbild von Heise. Ansonsten können sie dort ihre Business-IT-Kompetenz endgültig einpacken. Genau so wie die Firmen, die wegen der Investitionskosten für Windows 11 auf Linux umsteigen müssen.

Bereits im April dieses Jahres wurde Version 3 des Repository-Security-Tools Trufflehog veröffentlicht. Zeit, einen eigenen Artikel über das bekannte Kali Tool zu verfassen.

Was ist Trufflehog

Leaked credentials oder secret keys sollten nicht in Github Repositorys zu finden sein, dennoch passiert dies öfters als gedacht. Genau hier setzt das Tool truffleHog3 an, es scannt Repositorys und mehr auf Geheimnisse wie Zugangsdaten, API Keys usw.

Das Security-Tool durchläuft dabei die gesamte Commit-Historie jedes Branches, prüft jedes diff von jedem commit und sucht nach Geheimnissen.

Möglich wird dies unter anderem durch die Verwendung von regulären Ausdrücken und Entropie.

Mit der Version 3 unterstützt truffleHog inzwischen mehr als 700 verschiedene Key Types von AWS, Azure, Confluent oder Facebook. Eine Übersicht der Detektoren ist hier zu finden.

Folgende Code Quellen werden momentan unterstützt:

  • git
  • github
  • gitlab
  • S3
  • filesystem
  • syslog

Installation

Die Trufflehog Installation erfordert eine funktionierende GO Installation. Alternativ kann auch auf Python Pip zurückgegriffen werden, allerdings wird via Pip momentan keine aktuelle Version angeboten. Für einen Test bietet sich die Docker Variante an.

#Aktuellste Version
git clone https://github.com/trufflesecurity/trufflehog.git
cd trufflehog
go install oder go build

#Via Python Pip (allerdings steht hier nur Version 3.0.x zur Verfügung)
pip3 install trufflehog3

#Die aktuellste Version via Docker Paket laufen lassen

docker run -it -v "$PWD:/pwd" trufflesecurity/trufflehog:latest github --org=trufflesecurity

Anwendungsbeispiele

#Hilfe
trufflehog --help

#github scan mit Optionen
trufflehog github --repo=https://github.com/trufflesecurity/trufflehog

trufflehog github --repo=https://github.com/trufflesecurity/trufflehog --json --only-verified

#AWS scan
trufflehog s3 --bucket=<bucket name> --only-verified

#Dateisystem
trufflehog filesystem --directory=/home/guenny/ansible/repository

Da die aktuellste Version momentan nur via Source/Docker zur Verfügung steht, können Gitlab, S3 und Co nur darüber gescannt werden

  git [<flags>] <uri>
    Find credentials in git repositories.

  github [<flags>]
    Find credentials in GitHub repositories.

  gitlab --token=TOKEN [<flags>]
    Find credentials in GitLab repositories.

  filesystem --directory=DIRECTORY
    Find credentials in a filesystem.

  s3 [<flags>]
    Find credentials in S3 buckets.

  syslog [<flags>]
    Scan syslog

trufflehog


Passwörter und andere Geheimnisse aus Git-Repositories entfernen

Was tun, wenn ein Passwort gefunden wurde?

Git Filter Branch bietet eine Möglichkeit, um dieses Problem zu beheben.

Beispielsweise:

git filter-branch --prune-empty --index-filter "git rm --cached -f --ignore-unmatch löschdatei" -- --all

Git Filter Branch ist ein sehr mächtiges Tool, daher verweist Github selbst auf den BFG Repo Cleaner und git filter-Repo

Mit ersterem lassen sich relativ einfach sensitive Dateien löschen oder ersetzen.

bfg --delete-files id_{dsa,rsa}  my-repo.git
bfg --replace-text passwords.txt  my-repo.git
git push --force

Wenn ein Passwort im letzten Commit vorhanden ist, würde übrigens auch amend ausreichen:

git commit --amend

Fazit

Vergessene Zugangsdaten in Repositorys schaffen unnötige Sicherheitslücken. Diese lassen sich mit TruffleHog einfach aufspüren. Das Tool unterstützt inzwischen weit mehr als nur Github. So lässt sich der gesamte Software Development Life Cycle/SDLC bei Bedarf überwachen.

Mit TruffleHog Enterprise bietet der Hersteller inzwischen eine GUI in der Cloud an, allerdings lässt er sich diese auch bezahlen. Für eine automatisierte Überwachung der eigenen Repositorys lassen sich alle Aufgaben via Kommandozeile erledigen.

Download



Ähnliche Artikel

Security Tools: Trivy – Docker Container auf Sicherheitslücken durchsuchen

Nuclei - schneller Schwachstellen Scanner mit praktischen Vorlagen

Security: GVM 21.04 - mit Docker in 15 Minuten zum OpenVAS Schwachstellen Scanner

Ich habe in einem Tibble mehrere Adressen (z.B. von Kunden, Kooperationspartnern etc.) und möchte diese auf einer OpenStreetMap plotten. Dies kann mit dem {OpenStreetMap}-Paket und ggplot() umgesetzt werden.

Skurrile Adressen

Erzeugen wir uns zunächst ein paar skurrile Testadressen.

library(tidyverse)
# Erzeuge Tibble mit skurrilen Adressen
Orte <- tribble(
  ~Strasse, ~PLZ, ~Ort,
  "Beamtenlaufbahn", 24103, "Kiel",
  "Bremsweg", 19057, "Schwerin",
  "Zäher Wille", 68305, "Mannheim",
  "Ameisenstraße", 04249, "Leipzig",
  "Am Schmerzenmösle", 78464, "Allmannsdorf",
  "Unter Fettenhennen", 50667, "Köln",
  "Im Himmel", 58285, "Gevelsberg",
  "Unterer Fauler Pelz", 69117, "Heidelberg",
  "Seidenes Strümpfchen", 34117, "Kassel",
  "Im Sack", 27321, "Thedinghausen",
  "Rutschbahn", 20146, "Hamburg",
  "Zornige Ameise", 45134, "Essen",
  "Mafiastraße", 47249, "Duisburg"
)

Hilfsfunktion

Jetzt benötigen wir eine kleine Hilfsfunktion, mit welcher wir die Adressen in Längen- und Breitenangaben (longitude, latitude) umwandeln können. Hier hat Dimitry Kisler eine funktionierende Variante vorgestellt. Die Funktion heisst nominatim_osm() und nutzt die API von http://nominatim.openstreetmap.org/.

## geocoding function using OSM Nominatim API
## details: http://wiki.openstreetmap.org/wiki/Nominatim
## made by: D.Kisler 

nominatim_osm <- function(address = NULL)
{
  if(suppressWarnings(is.null(address)))
    return(data.frame())
  tryCatch(
    d <- jsonlite::fromJSON( 
      gsub('\\@addr\\@', gsub('\\s+', '\\%20', address), 
           'http://nominatim.openstreetmap.org/search/@addr@?format=json&addressdetails=0&limit=1')
    ), error = function(c) return(data.frame())
  )
  if(length(d) == 0) return(data.frame())
  return(data.frame(lon = as.numeric(d$lon), lat = as.numeric(d$lat)))
}

Die Funktion nimmt die vollständige Adresse als Charakter entgegen. Also binden wir die Adressdaten zu jeweils einem Adress-String zusammen.

### ziehe die Adressen
Adressen <- Orte %>%
  unite("Adresse", Strasse:Ort, sep=" ") |> 
  pull(Adresse)

# Anschauen
Adressen
 [1] "Beamtenlaufbahn 24103 Kiel"          
 [2] "Bremsweg 19057 Schwerin"             
 [3] "Zäher Wille 68305 Mannheim"          
 [4] "Ameisenstraße 4249 Leipzig"          
 [5] "Am Schmerzenmösle 78464 Allmannsdorf"
 [6] "Unter Fettenhennen 50667 Köln"       
 [7] "Im Himmel 58285 Gevelsberg"          
 [8] "Unterer Fauler Pelz 69117 Heidelberg"
 [9] "Seidenes Strümpfchen 34117 Kassel"   
[10] "Im Sack 27321 Thedinghausen"         
[11] "Rutschbahn 20146 Hamburg"            
[12] "Zornige Ameise 45134 Essen"          
[13] "Mafiastraße 47249 Duisburg"          

Hole die Längen- und Breitenangaben der Adressen

Per lapply() können wir die Adressen auf unsere Funktion loslassen.

### Hole die Koordinaten von allen Adressen
Koordinaten <- suppressWarnings(lapply(Adressen, function(address) {
  #calling the nominatim OSM API
  api_output <- nominatim_osm(address)
  # if address has a typo or is not found, return NA
  if(nrow(api_output) == 0) { 
    api_output <- data.frame(lon=NA, lat=NA)
  }
  #return data.frame
  return(data.frame(Adresse = address, api_output))
}) %>%
  #stack the list output into data.frame
  bind_rows() %>% data.frame())

# schaue an
Koordinaten
                                Adresse       lon      lat
1            Beamtenlaufbahn 24103 Kiel 10.131968 54.32531
2               Bremsweg 19057 Schwerin 11.349682 53.64714
3            Zäher Wille 68305 Mannheim  8.493369 49.51984
4            Ameisenstraße 4249 Leipzig 12.320721 51.29433
5  Am Schmerzenmösle 78464 Allmannsdorf  9.197833 47.68228
6         Unter Fettenhennen 50667 Köln  6.956249 50.94143
7            Im Himmel 58285 Gevelsberg  7.334334 51.32348
8  Unterer Fauler Pelz 69117 Heidelberg  8.709759 49.41028
9     Seidenes Strümpfchen 34117 Kassel  9.498792 51.31495
10          Im Sack 27321 Thedinghausen  9.025481 52.95809
11             Rutschbahn 20146 Hamburg  9.983085 53.57055
12           Zornige Ameise 45134 Essen  7.056024 51.43018
13           Mafiastraße 47249 Duisburg  6.767938 51.37159

Erstelle den Kartenausschnitt

Jetzt erstellen wir uns einen Kartenausschnitt, der jeweils die kleinsten und größten Ausprägungen von lat und lon einschließt (plus etwas margin vom 0.05). Dies kann ein bisschen dauern…

# aktiviere OpenStreetMap
library(OpenStreetMap)
# get the map (this might take some time)
mymap <-openmap(c(min(Koordinaten$lat, na.rm=TRUE)-0.05, 
                  min(Koordinaten$lon, na.rm=TRUE)-0.05), 
                c(max(Koordinaten$lat, na.rm=TRUE)+0.05, 
                  max(Koordinaten$lon, na.rm=TRUE)+0.05), 
                #zoom=10,
                # other 'type' options are "osm", "bing", "stamen-toner",
                # "stamen-watercolor" "apple-iphoto", "skobbler";
                type = "osm", mergeTiles = TRUE)

Die Daten müssen auf das selbe Koordinatensystem transformiert werden. Auch dies kann ein bisschen dauern…

# project openstreetmap to alternate coordinate system (might also take some time)
mymap_coord <- openproj(mymap)

Plotte die Karte mit ggplot

Jetzt können wir ein ggplot()-Objekt der Karte erzeugen….

# create a ggplot2-Object of the map
mymap_plt <- OpenStreetMap::autoplot.OpenStreetMap(mymap_coord)

…und die Adresspunkte dort einfügen.

# add the city points
mymap_plt + 
  geom_point(data=Koordinaten, aes(x=lon, y=lat), 
             size=1, shape=13, color="red") +
  xlab("") + ylab("") + 
  ggtitle("Wohnorte der Kunden")

Kartentypen

Die Funktion openmap() kann verschiedene types erstellen. Die Hilfeseite zeigt alle Möglichkeiten an. Hier mal zum Vergleich der type apple-iphoto“…

## andere Kartenvariante
# get the map (this might take some time)
mymap2 <-openmap(c(min(Koordinaten$lat, na.rm=TRUE)-0.05, 
                  min(Koordinaten$lon, na.rm=TRUE)-0.05), 
                c(max(Koordinaten$lat, na.rm=TRUE)+0.05, 
                  max(Koordinaten$lon, na.rm=TRUE)+0.05), 
                #zoom=10,
                # other 'type' options are "osm", "bing", "stamen-toner",
                # "stamen-watercolor" "apple-iphoto", "skobbler";
                type = "apple-iphoto", mergeTiles = TRUE)
mymap_coord2 <- openproj(mymap2)
mymap_plt2 <- OpenStreetMap::autoplot.OpenStreetMap(mymap_coord2)
mymap_plt2 + 
  geom_point(data=Koordinaten, aes(x=lon, y=lat), 
             size=1, shape=13, color="red") +
  xlab("") + ylab("") + 
  ggtitle("Wohnorte der Kunden")

… und stamen-watercolor“…

## andere Kartenvariante
# get the map (this might take some time)
mymap3 <-openmap(c(min(Koordinaten$lat, na.rm=TRUE)-0.05, 
                  min(Koordinaten$lon, na.rm=TRUE)-0.05), 
                c(max(Koordinaten$lat, na.rm=TRUE)+0.05, 
                  max(Koordinaten$lon, na.rm=TRUE)+0.05), 
                #zoom=10,
                # other 'type' options are "osm", "bing", "stamen-toner",
                # "stamen-watercolor" "apple-iphoto", "skobbler";
                type = "stamen-watercolor", mergeTiles = TRUE)
mymap_coord3 <- openproj(mymap3)
mymap_plt3 <- OpenStreetMap::autoplot.OpenStreetMap(mymap_coord3)
mymap_plt3 + 
  geom_point(data=Koordinaten, aes(x=lon, y=lat), 
             size=1, shape=13, color="red") +
  xlab("") + ylab("") + 
  ggtitle("Wohnorte der Kunden")

Weblinks

26. November 2022

Mozilla hat Firefox Translations 1.2.0 veröffentlicht. Dabei handelt es sich um eine Übersetzungsfunktion für Websites, welche im Gegensatz zu Übersetzern wie Google Translate vollständig ohne Online-Komponente auskommt. Ein Highlight der neuen Version ist die Möglichkeit der freien Text-Übersetzung.

Was ist Firefox Translations?

Im Rahmen des von der Europäischen Union geförderten Bergamot-Projekts hatte Mozilla gemeinsam mit der University of Edinburgh (Schottland), der University of Tartu (Estland), der University of Sheffield (England) sowie der Charles University (Tschechien) zusammengearbeitet, um eine vollständig clientseitige Funktion zur maschinellen Übersetzung von Websites für den Browser zu entwickeln. Das bedeutet, dass die Übersetzung vollständig im Browser geschieht und keine zu übersetzenden Inhalte an einen Datenriesen wie Google oder Microsoft übermittelt werden müssen.

Download Firefox Translations

Die Neuerungen von Firefox Translations 1.2.0

Kompatibilität mit neuen Firefox-Versionen

Das Wichtigste zuerst: Firefox Translations 1.2.0 hat notwendige Anpassungen der Kompatibilität erhalten, einerseits um seit Firefox 107 auftretende Darstellungsprobleme zu beheben, andererseits damit Firefox Translations in Firefox 109 und höher überhaupt noch bedient werden kann.

Firefox Translations unterstützt jetzt freie Text-Übersetzungen

Bislang konnte Firefox Translations nur vollständige Websites übersetzen. Nach dem Update auf Firefox Translations 1.2.0 erscheint eine zusätzliche Schaltfläche in der Symbolleiste, über welche der Nutzer die Möglichkeit hat, beliebige Texte aus einer beliebigen in eine andere beliebige von Firefox Translations unterstützte Sprache zu übersetzen.

Firefox Translations 1.2.0

Änderbare Ziel-Sprache für Website-Übersetzung

Während die Original-Sprache einer Website, sollte diese nicht automatisch richtig erkannt worden sein, bereits über die Übersetzungsleiste geändert werden konnte, war die Zielsprache einer Übersetzung bisher immer fest die bevorzugte in den Firefox-Einstellungen hinterlegte Content-Sprache. Jetzt kann auch die Ziel-Sprache über ein Auswahlfeld verändert werden, falls man mal eine Website in eine andere Sprache übersetzen möchte.

Original-Version der Website anzeigen

Eine neue Schaltfläche erlaubt nach der Übersetzung die Anzeige des originalen Inhalts, wobei diese Schaltfläche de facto nur die Website neu lädt. Hier wäre für ein zukünftiges Update eine Lösung wie in TranslateLocally wünschenswert, was die Orignal-Version anzeigen kann, ohne die Website neu zu laden.

Sonstige Neuerungen von Firefox Translations 1.2.0

Man sieht jetzt auch nach einer Übersetzung, aus welcher Sprache in welche Sprache eine Website übersetzt worden ist.

Eine neue Option, welche sich hinter der Einstellungs-Schaltfläche in der Übersetzungsleiste befindet, kann aktiviert werden, damit die Übersetzungsleiste nicht mehr automatisch auf jeder Website erscheint, welche nicht der bevorzugten Content-Sprache entspricht. Auch wenn diese Option aktiviert ist, kann immer noch jederzeit die Übersetzungsleiste über das entsprechende Symbol in der Adresseleiste aktiviert werden.

Bisher hat sich nach einem Update der Erweiterung automatisch ein Tab mit einer Auflistung der Neuerungen des Updates geöffnet. Diese Funktion ist nun in den Einstellungen der Erweiterung ein- und ausschaltbar und standardmäßig deaktiviert.

Dazu kamen noch weitere Korrekturen und Verbesserungen unter der Haube.

Der Beitrag Firefox Translations 1.2.0 bringt freie Text-Übersetzung erschien zuerst auf soeren-hentzschel.at.

25. November 2022

TranslateLocally ist wie Firefox Translations aus dem Bergamot-Projekt der Europäischen Union hervorgegangen. Mit dem neuesten Update können auch Formular-Eingabe in die Original-Sprache der Website übersetzt werden.

Bergamot, Firefox Translations, TranslateLocally?

Im Rahmen des von der Europäischen Union geförderten Bergamot-Projekts hatte Mozilla gemeinsam mit der University of Edinburgh (Schottland), der University of Tartu (Estland), der University of Sheffield (England) sowie der Charles University (Tschechien) zusammengearbeitet, um eine vollständig clientseitige Funktion zur maschinellen Übersetzung von Websites für den Browser zu entwickeln. Das bedeutet, dass die Übersetzung vollständig im Browser geschieht und keine zu übersetzenden Inhalte an einen Datenriesen wie Google oder Microsoft übermittelt werden müssen.

Neben dem daraus entstandenen Firefox Translations gibt es mit TranslateLocally noch eine weitere Firefox-Erweiterung, welche einige Gemeinsamkeiten mit Firefox Translations aufweist, aber auch ein paar Unterschiede. Anfang des Monats hatte ich TranslateLocally in einem eigenen Artikel ausführlich vorgestellt, inklusive Vergleich mit Firefox Translations.

Download TranslateLocally für Firefox

TranslateLocally kann jetzt Formular-Eingaben übersetzen

Ein Unterschied war, dass bislang nur Firefox Translations Formular-Eingaben in Echtzeit aus der eigenen Sprache in die Original-Sprache der Website übersetzen konnte. Hier zieht TranslateLocally nun nach. Dazu muss mit der rechten Maustaste in ein Eingabefeld geklickt und anschließend „Type to translate…“ ausgewählt werden. Dann öffnet sich ein Eingabefeld, dessen Inhalt automatisch im ausgewählten Textfeld in die Original-Sprache der Website übersetzt wird. Die Übersetzung wiederum wird automatisch zurück übersetzt und in einem zweiten Bereich neben dem Feld angezeigt, in welchem die Eingabe erfolgte. Auf diese Weise kann der Benutzer eine einfache Selbstkontrolle der Übersetzung vornehmen.

TranslateLocally 0.8

Aber auch darüber hinaus bietet die neue Version von TranslateLocally Verbesserungen. So merkt sich die Erweiterung nun die bevorzugte Sprache, es gibt eine Dark Mode-Unterstützung, die webNavigation-Berechtigung wird nicht länger benötigt und es gab diverse Korrekturen und Verbesserungen unter der Haube.

Der Beitrag TranslateLocally 0.8 bringt Formular-Übersetzungen erschien zuerst auf soeren-hentzschel.at.

In meinem privaten LAN ist ein Raspberry Pi 4 vorhanden der neben ein paar anderen Dingen eine Kombination von PiHole und unbound zur Verfügung stellt. Vor ein paar Tagen hat die Namensauflösung auf den Rechnern im LAN nicht mehr funktioniert.

Als ich mit SSH mit dem Raspberry Pi verbinden wollte, konnte keine Verbindung aufgebaut werden. Sehr seltsam…

Meine erste Vermutung war, dass die Speicherkarte defekt ist, da ich diese schon einige Jahre nutze und auch schon ein viele Schreibvorgänge stattgefunden haben. Also habe ich die Karte aus dem Raspberry Pi entfernt und mittels eines Kartenlesers an mein Notebook angeschlossen. Sofort wurden die beiden Partitionen auf der Speicherkarte erkannt, ich konnte sie mounten und auf die Dateien zugreifen. Also ist es scheinbar doch nicht die Speicherkarte.

Trotzdem habe ich erst mal ein Image der Karte erstellt und dieses dann mittels PiShrink auf eine annehmbare Größe verkleinert.

Vielleicht steht ja in den Log-Dateien etwas, dass auf das Problem hinweist. Da am Raspberry Pi weder ein Monitor noch eine Tastatur angeschlossen ist, habe ich die größere der beiden Partitionen gemountet. Nehmen wir an im Home-Verzeichnis des Notebooks im Verzeichnis rasp. Dann habe ich mittels journalctl -D ~/rasp/var/log/journal -r auf die Log-Dateien auf der Speicherkarte zugegriffen. Schon nach wenigen Zeilen habe ich die erste und einzige Fehlermeldung gefunden.

alarmpi systemd[1]: Failed to start Wait for Network to be Configured.
alarmpi systemd[1]: systemd-networkd-wait-online.service: Failed with result 'exit-code'.
alarmpi systemd[1]: systemd-networkd-wait-online.service: Main process exited, code=exited, status=1/FAILURE
alarmpi systemd-networkd-wait-online[322]: Timeout occurred while waiting for network connectivity.

Der Raspberry Pi bootet also, kann aber keine Netzwerkverbindung aufbauen. Aber warum? Die Konfigurationen habe ich seit mindestens einem Jahr nicht geändert.

Trotzdem habe ich mir die Konfigurationsdatei eth0.network unter ~/rasp/etc/systemd/network/ angesehen.

Sieht gut aus.

[Match]
Name=eth0
...

Wobei… Moment! Eth0 bei einer Distribution die systemd und somit Predictable Network Interface Names nutzt? Könnte das die Ursache sein?

Einen Versuch ist es wert. Also habe ich Name=eth0 in Name=en* geändert, da der Netzwerkanschluss per Kabel immer eine Bezeichnung zugeteilt bekommt die mit en beginnt. Welche genau, kann ich nicht sagen, da ich ja keinen Zugriff im laufenden Betrieb habe.

Und siehe da, der Raspberry Pi bootet und eine Verbindung per SSH ist wieder möglich. Mittels ip addr habe ich mir dann die Netzwerkverbindungen des Raspberry Pi anzeigen lassen und festgestellt, dass der Netzwerkanschluss per Kabel die Bezeichnung end0 hat. Also ich ich abschließend Name=en* noch in Name=end0 geändert. Wobei das ist in dem Fall nicht nötig ist, da nicht zwei unterschiedliche Netzwerkanschlüsse mit Kabel vorhanden sind. Aber sicher ist sicher.

Aber warum ist das erst jetzt passiert? Predictable Network Interface Names gibt es unter systemd schon ewig und sind in der Standardkonfiguration aktiv. Nachdem ich im offiziellen Forum von Arch Linux ARM gesucht habe, habe ich mehrere Fälle mit dem gleichen Problem gefunden. Z. B. https://archlinuxarm.org/forum/viewtopic.php?f=15&t=16245. Zumindest bin ich nicht alleine. Ich vermute, dass durch ein Update Predictable Network Interface Names aktiviert wurden und es deshalb zu Problemen gekommen ist, weil meine Installation schon sehr alt ist. Aber das ist eine Vermutung.

24. November 2022

Mozilla hat Version 2.11 seiner VPN-Clients für das Mozilla VPN veröffentlicht. Dieser Artikel beschreibt die Neuerungen vom Mozilla VPN 2.11.

Mit dem Mozilla VPN bietet Mozilla in Zusammenarbeit mit Mullvad sein eigenes Virtual Private Network an und verspricht neben einer sehr einfachen Bedienung eine durch das moderne und schlanke WireGuard-Protokoll schnelle Performance, Sicherheit sowie Privatsphäre: Weder werden Nutzungsdaten geloggt noch mit einer externen Analysefirma zusammengearbeitet, um Nutzungsprofile zu erstellen.

Jetzt Mozilla VPN nutzen

Die Neuerungen vom Mozilla VPN 2.11

Ist die Option aktiviert, beim Start des Gerätes automatisch eine Verbindung zum Mozilla VPN herzustellen, startet die App jetzt minimiert.

Dazu kommen wie immer diverse Fehlerbehebungen und Verbesserungen unter der Haube. Außerdem nennt Mozilla Performance-Verbesserungen.

Tipp: Mozilla VPN aktuell mit 20 Prozent Rabatt

Ein Tipp für alle Interessierten: Mit dem Rabatt-Code VPN20 bekommt man das Mozilla VPN derzeit mit 20 Prozent Rabatt für das erste Jahr.

Der Beitrag Mozilla VPN 2.11 veröffentlicht erschien zuerst auf soeren-hentzschel.at.

23. November 2022

Mit Common Voice stellt Mozilla den weltweit größten öffentlichen Datensatz menschlicher Stimmen bereit – kostenlos und für jeden nutzbar. Mozilla hat Version 11.0 seines Datensatzes veröffentlicht. Außerdem lassen sich jetzt optional auch nur die Unterschiede zur vorherigen Version herunterladen.

Der Markt für Spracherkennung wird von den ganz großen Namen kommerzieller Anbieter dominiert: Amazon, Apple, Google, Microsoft. Darum hat Mozilla im Jahr 2017 das Projekt Common Voice gestartet. Mit Common Voice bietet Mozilla eine kostenlose Alternative an, zu der jeder beitragen kann und die jedem zur Verfügung steht. Damit möchte Mozilla Innovation und Wettbewerb in der Sprachtechnologie auf Basis von Maschinenlernen fördern.

Im vergangenen Jahr hat Mozilla Common Voice Investitionen von Nvidia, der Bill & Melinda Gates Foundation, der Deutschen Gesellschaft für Internationale Zusammenarbeit (GIZ) und dem britischen Außenministerium in Gesamthöhe von knapp fünf Millionen Dollar erhalten.

Mit dem vor kurzem veröffentlichten Common Voice Corpus 11.0 wächst der deutschsprachige Datensatz von 1.212 auf 1.234 Stunden an. Insgesamt deckt Mozilla Common Voice mit der neuen Version jetzt 100 Sprachen mit insgesamt 24.211 aufgenommenen Stunden ab, was Mozilla Common Voice zum vielfältigsten mehrsprachigen Sprachkorpus der Welt macht.

Außerdem ist es ab sofort möglich, anstelle vollständiger Datensätze für eine Sprache auch nur die Unterschiede zur vorherigen Version herunterzuladen. Wer also bereits den Common Voice Corpus 10.0 besitzt, muss mit dem sogenannten Delta Segment der Version 11.0 anstelle der ganzen 29,45 GB für Deutsch nur 424,4 MB herunterladen.

Zum Download der Mozilla Common Voice Datensätze

Der Beitrag Mozilla veröffentlicht Common Voice Corpus 11.0 und Delta-Downloads erschien zuerst auf soeren-hentzschel.at.

20. November 2022

Biometrische Entschlüsselung ist ein Thema für sich. Selbst wenn man dem nicht gänzlich ablehnend gegenüber steht, sollte man nicht leichtfertig jede Lösung nutzen. Gesichtserkennung bzw. Face unlock bei einem Google Pixel 7 gehört dazu.

Ein Punkt im GrapheneOS Changelog hat mich darauf aufmerksam gemacht:

Pixel 7, Pixel 7 Pro (adevtool): drop unused face unlock components since we have no plans to enable support for an insecure face unlock implementation incapable providing reasonable security due to lack of dedicated face unlock hardware (Pixel 4 and Pixel 4 XL had dual infrared cameras, IR dot projector and IR flood illuminator providing a more secure biometric unlock system than fingerprint unlock as opposed to simply using the front camera in a way that could be done on any device)

GrapheneOS Changelog 2022111800

Dazu muss man wissen, dass die Gesichtsentsperrung beim Pixel 7 kein schmutziger Hack der Community ist, sondern offiziell von Google unterstützt wird.

Im Gegensatz zum Pixel 4 oder beispielsweise Apple-Geräten wollte man bei Google aber nicht die notwendigen Hardwareinvestitionen tätigen. Dem Pixel 7 fehlen schlicht die notwendigen Infrarot-Kameras für ein echtes 3D-Modell. Es handelt sich deshalb letztlich nur um eine per KI aufgehübschte 2D-Lösung mit mäßiger Sicherheit. Das ist auch Google klar, weshalb sie die Entsperrung per Gesichtserkennung nur für weniger sensible Bereiche wie die Entsperrung des Geräts und nicht beispielsweise für Zahlvorgänge freigibt.

Wenn schon biometrische Verfahren zur Authentifizierung, dann doch bitte mit hohen Sicherheitsstandards. Linux hat schon vorgemacht, wie man es auf keinen Fall tun sollte, nun folgt Google auf diesem Weg. Zwar nicht, indem man die biometrischen Daten leichtfertig teilt, aber indem man vorgibt biometrische Verfahren wären unter allen Umständen geeignete Authentifizierungsmethoden. Was kommt als Nächstes? Fingerabdrucksensoren mit einer 50/50 Genauigkeit, die im Zweifelsfall entsperren, um keinen Ärger bei den Anwendern auszulösen? Dann können wir gleich zum 4-stelligen PIN mit seiner Pseudosicherheit zurückkehren.

Die wenigsten Nutzer werden sich mit Gefahren und Problemen beschäftigen und es einfach nutzen. Die Hersteller werden damit ihrer Verantwortung beim Einsatz sensibler biometrischer Verfahren nicht gerecht.

Zum Glück gibt es noch Projekte und Entwickler, die das nicht so sehen und die Anwender vor den schlimmsten Ausrutschern bei Google bewahren. Leider sind das dann genau jene Anwender, die im Zweifelsfall sogar komplett auf biometrische Verfahren verzichten, weil sie ein hohes Problembewusstsein haben.

19. November 2022

VPN ist für Anonymität einfach keine gute Idee. Wer dafür noch weitere Gründe braucht, muss sich nur die aktuellen Berichte über das iPhone-Betriebssystem iOS und Googles Android ansehen.

VPN ist im Kern eine ziemlich alte Idee und konzeptionell ein Produkt der 1990er-Jahre und war in den 2000er-Jahren vor allem als Unternehmenslösung bekannt. Vor ein paar Jahren haben dann einige Anbieter angefangen damit – aus meiner Sicht unlautere – Geschäftsideen umzusetzen: Anonymität und Sicherheit.

VPN hat dabei mindestens drei Schwachstellen. Erstens wurde es nicht für Anonymität entwickelt, sondern die von den Anonymisierungsdienstleistern beworbene Möglichkeit darüber seine IP und Herkunft zu verschleiern ist quasi ein Abfallprodukt der Funktion. Zweitens muss man dem VPN-Betreiber vertrauen, dass er wirklich keine Daten sammelt und drittens die Abhängigkeit von der jeweiligen Implementierung das Betriebssystems.

Letzteres ist nicht unproblematisch, wie die Berichte zu iOS und Android zeigen. Eigentlich sollte ein System bei aktiviertem VPN alle Daten durch den Tunnel senden. Das ist aber gar nicht so trivial umzusetzen.

Zuerst stand iOS in der Kritik. Im August gab es Berichte über Verbindungen außerhalb des Tunnels beispielsweise zu Apple Push-Servern oder zu GMail. Das erinnerte an ältere Beschwerden von ProtonVPN, das Probleme hatte, bestehende Verbindungen bei der Aktivierung von VPN zu schließen und neu aufzubauen, weshalb diese weiterhin außerhalb des VPNs liefen. Das Problem besteht nach wie vor und wohl auch im sogenannten „Lockdown“-Modus von iOS, der besondere Sicherheit gewährleisten sollte. Mich würde es nicht weiter verwundern, wenn ähnliche Probleme auch bei den Desktopbetriebssystemen bestehen würden.

Wer jetzt glaubt, mit Android auf der sicheren Seite zu sein, täuscht sich leider. Wie der bekannte VPN-Betreiber Mullvad berichtete, kann bei Android trotz der Funktion „Durchgehend aktives VPN“ Datenverkehr neben dem VPN beobachtet werden.

Man könnte jetzt Apple oder Google kritisieren oder auch einfach akzeptieren, dass VPN eine Technologie ist, die nicht für die Sicherheitsanforderungen der Gegenwart konzipiert wurde und schon gar nicht, um Anonymität im Internet zu gewährleistet. VPN hat sicherlich weiter seine Berechtigung, beispielsweise für nicht sensible Tätigkeiten im Homeoffice oder um Ländersperren zu umgehen. Mehr sollte man davon aber nicht erwarten.

Im Frühjahr, als die Kaufabsichten von Elon Musk publik wurden, schrieb ich einen skeptischen Kommentar, was den prognostizierten massenhaften Wechsel zu Mastodon betrifft. Meine Prognose hatte ungefähr 6 Monate bestand.

Das Problem bei allen sozialen Netzwerken ist, dass es nicht um Funktionalität, sondern um Menschen geht. Wenn die relevante Gruppe sich auf einen Dienst geeinigt hat, erzeugt das eine Sogwirkung und der Einzelne kann nicht einfach wechseln, weil ein soziales Netzwerk alleine eben keinen Sinn ergibt.

Als ich im Frühjahr mir Mastodon anschaute, war ich Teil einer kleinen Twitter-Vorhut, die sich dort mal umschaute. Wenigstens die Instanzsuche blieb mir erspart, da die Staatsbibliothek zu Berlin schon seit Langem eine eigene Instanz betreibt. Für Bibliotheksmenschen gibt es dadurch eine natürliche und professionell betriebene Anlaufstelle. Nur war dort einfach im Frühjahr noch nicht viel los. Dadurch fehlte das Netzwerk und letztlich doppelten sich die Netzwerke. So wie viele andere in meiner Blase dümpelte mein Mastodon-Account über den Sommer vor sich hin.

Als Musk nun tatsächlich Twitter kaufte und die allseits diskutierten Entscheidungen traf, fragte ich mich noch skeptisch, ob der Kipppunkt erreicht werden würde, der bei Signal vs. WhatsApp im ersten Halbjahr 2022 erreicht wurde. Die Trägheit der Masse ist ja oft groß, aber manchmal setzen sich auch die Gruppen plötzlich und unaufhaltsam in Bewegung. Denn erst leckte meine Blase, dann entstand ein kleiner Bach, der schnell zu einem reißenden Strom anschwoll. Erst die Aficinados offener Infrastrukturen, dann folgten wichtige Ankerpersonen des Bibliothekswesens, gleichzeitig kamen parallel namhafte Wissenschaftler hinterher und dann jene, die merkten, dass es bei ihnen auf Twitter immer ruhiger wurde. In den vergangenen Tagen kamen dann zahlreiche institutionelle Accounts, die augenscheinlich erst einmal intern abstimmen mussten, ob sie zu Mastodon wechseln. Als ich mich gestern auf Twitter umsah, war es sehr ruhig. Nur noch Werbung, vorgeschlagene Trends, denen ich nicht folgte und ein paar einzelne Accounts, die sich öffentlich fragten, wann der letzte das Licht ausmacht.

Für die eingefleischten Mastodon-Nutzer ist das eine Herausforderung. In eine kleine gemütliche Wohnung mit wenigen ausgewählten und tendenziell ähnlich gestrickten Gästen platzte eine ganze Festivalhorde, schlug im übertragenen Sinne ihre Zelte im Wohnzimmer auf, fragt sich, wo die Getränke herkommen und warum die Musik so komisch ist. Damit ist eingetreten, wofür viele Mastodon-Nutzer immer geworben hat. Es ist trotzdem für beide Seiten eine Herausforderung.

Der Kipppunkt wurde nun schneller erreicht als gedacht. In meinem diesjährigen Jahresrückblick werde ich eine weitere „Sünde“ streichen können. Mein Twitter-Account überlebt diesen Monat nicht.

18. November 2022

Fr, 18. November 2022, Lioh Möller

In den letzten Jahren ist es still geworden um wattOS, einer spezialisierten Distribution, welche grossen Wert auf geringen Energieverbrauch und Leichtgewichtigkeit legt. Doch nun hat der Entwickler Ron Ropp die Verfügbarkeit einer neuen Version angekündigt.

wattOS R12 basiert auf Debian 11 Bullseye und als Desktopumgebung kommt LXDE zum Einsatz. Wie es bereits bei der Mutterdistribution der Fall ist, wird der Kernel in Version 5.10 ausgeliefert. Eine Flatpak Unterstützung sowie das Backports Repository sind standardmässig aktiviert.

Als Installationsprogramm kommt Calamares zum Einsatz und dank gdebi ist es möglich auf einfache Weise heruntergeladene deb Pakete zu installieren.

Auch die vorliegende Version ist explizit für den Einsatz auf älteren Computern mit x86_64 CPU geeignet.

Quelle: https://www.planetwatt.com/R12-details/
Download: https://cpufu.com/iso/wattOS-R12.iso

17. November 2022

Mozilla hat seinen Finanzbericht für das Jahr 2021 veröffentlicht. Gegenüber dem Vorjahr hat Mozilla seinen Umsatz um über 100 Millionen Dollar gesteigert. Gleichzeitig waren die Ausgaben so niedrig wie zuletzt sechs Jahre zuvor.

Wie jedes Jahr am Jahresende hat Mozilla auch in diesem Jahr seinen Finanzbericht für das Vorjahr veröffentlicht, welcher offenlegt, in welcher Höhe Mozilla Einnahmen und Ausgaben hatte.

Mozilla steigert Umsatz um über 100 Millionen Dollar

Konnte Mozilla im Jahr 2020 noch einen Umsatz in Höhe von knapp 497 Millionen Dollar erzielen, lag der Umsatz im Jahr 2021 bei über 600 Millionen Dollar. Nur einmal hatte Mozilla einen höheren Jahresumsatz, nämlich im Jahr 2019. Darin war allerdings eine Vergleichszahlung aus einem Rechtsstreit mit Yahoo inbegriffen, deren Höhe schätzungsweise im Bereich von 338 Millionen Dollar lag. Damit hat Mozilla im Jahr 2021 den höchsten regulären Jahresumsatz seit Firmengründung erzielt.

Mehr Geld und trotzdem weniger Abhängigkeit von Google

Einen wesentlichen Anteil daran trägt der neue Suchmaschinen-Vertrag mit Google, den Mozilla Ende 2020 verlängert hatte. Insgesamt hatte Mozilla im Vorjahr 441 Millionen Dollar durch Suchmaschinen-Verträge umgesetzt. Diesen Posten konnte Mozilla im Jahr 2021 auf knapp 528 Millionen Dollar steigern.

Die finanzielle Abhängigkeit von Google hat Mozilla dennoch weiter reduzieren können. Bestand 2017 noch eine 93 prozentige Abhängigkeit von der primären Standard-Suchmaschine, waren es 2018 noch 91 Prozent, 2019 noch 88 Prozent, 2020 noch 86 Prozent und im Jahr 2021 schließlich nur noch 83 Prozent.

Mehr Einnahmen durch Abo-Dienste und Werbung

Aber auch Mozillas Abo-Dienste wie das Mozilla VPN oder das Premium-Angebot von Mozillas Read it Later-Dienst Pocket entwickeln sich gut. Die Einnahmen aus den Abonnement-Diensten sowie durch bezahlte Platzierungen auf der Standard-Startseite von Firefox konnten von knapp 25 Millionen Dollar im Vorjahr auf fast 57 Millionen Dollar mehr als verdoppelt werden.

Deutliche Reduzierung der Ausgaben

Nicht nur der Umsatz konnte um über 100 Millionen Dollar gesteigert werden, auch die Ausgaben konnten um fast 100 Millionen Dollar gegenüber 2020 gesenkt werden. Dabei wurden erneut insbesondere die Ausgaben für Software-Entwicklung gesenkt, nämlich von 243 Millionen auf 199 Millionen Dollar. Aber auch die Marketing-Kosten wurden um sieben Millionen auf 30 Millionen Dollar reduziert.

Mozillas Vermögen wächst auf über eine Milliarde Dollar

Als Ergebnis aus gesteigertem Umsatz und verringerten Ausgaben folgt auch eine Steigerung von Mozillas Netto-Vermögens von 843 Millionen auf 1,05 Milliarden Dollar.

Entwicklung von 2005 bis heute

Wie gehabt gibt es auf soeren-hentzschel.at eine Sonder-Seite, welche die Einnahmen, die Ausgaben sowie das Vermögen von Mozilla seit dem Jahr 2005 bis heute visualisiert und die Entwicklung anschaulich gestaltet. Die Seite steht auch in englischer Sprache zur Verfügung.

Mozilla Finanzen 2021
Bildquelle: soeren-hentzschel.at/mozilla-umsatz

Ausblick auf die Zukunft

Der Finanzbericht für das Jahr 2022 wird voraussichtlich Mitte November bis Mitte Dezember 2023 veröffentlicht werden.

Nach zwischenzeitlich herausfordernden Zeiten, die zur Kündigung von über 300 Mitarbeitern im Jahr 2020 führten, entwickelt sich Mozilla nach in diesem Zusammenhang durchgeführten internen Umstrukturierungen wieder besser, nicht nur finanziell. Die Mitarbeiterzahl ist in den letzten zwei Jahren wieder um fast 200 Personen gestiegen.

Für das kommende Jahr ist mit einer weiteren Steigerung der Einnahmen durch Mozillas kostenpflichtige Dienstleistungen zu rechnen. Das Mozilla VPN hat in diesem Jahr weitere spannende Neuerungen erhalten und ist in weiteren Ländern gestartet, mit Firefox Relay Premium und dem MDN Plus sind ganz neue kostenpflichtige Angebote gestartet. Auch das Firefox Private Network ist in den USA weiterhin am Start, ebenso die Mozilla Hubs Cloud. Außerdem wurde in 2022 der Grundstein für weitere Investitionen ab 2023 gelegt, von denen Mozilla durch Gewinnbeteiligungen profitieren kann. Auch das Produkt-Angebot im Bereich Sicherheit und Datenschutz soll 2023 weiter ausgebaut werden.

Der Beitrag Mozilla macht Rekord-Gewinn im Jahr 2021 erschien zuerst auf soeren-hentzschel.at.

16. November 2022

Die MZLA Technologies Corporation hat mit Thunderbird 102.5 ein planmäßiges Update für seinen Open Source E-Mail-Client veröffentlicht.

Neuerungen von Thunderbird 102.5

Mit dem Update auf Thunderbird 102.5 hat die MZLA Technologies Corporation ein planmäßiges Update für seinen Open Source E-Mail-Client veröffentlicht und behebt damit aktuelle Sicherheitslücken. Darüber hinaus bringt das Update diverse Fehlerbehebungen und Verbesserungen, welche sich in den Release Notes (engl.) nachlesen lassen.

Der Beitrag Thunderbird 102.5 veröffentlicht erschien zuerst auf soeren-hentzschel.at.

15. November 2022

Di, 15. November 2022, Lioh Möller

Aufgrund patentrechtlicher Bedenken wurde unter Fedora 37 das Hardware-Video-Decoding via GPU in Mesa deaktiviert (wir berichteten).

Die Unterstützung lässt sich dank des RPM Fusion Projektes allerdings mit wenigen Schritten nachrüsten.

Dafür muss zunächst, falls noch nicht vorhanden, das Repository aktiviert werden:

sudo dnf install https://download1.rpmfusion.org/free/fedora/rpmfusion-free-release-$(rpm -E %fedora).noarch.rpm

Um zu ermitteln, welche Mesa Freeworld Pakete auf dem System benötigt werden, kann zunächst mit folgendem Befehl geprüft werden, welche RPMs ohne Codecs bisher installiert sind:

rpm -qa |grep -e mesa-va-drivers -e mesa-vdpau-drivers

Nun können die entsprechenden Freeworld Treiberpakete installiert werden, wobei die ursprünglichen Pakete bei diesem Vorgang ausgetauscht werden. Es sollten nur Installationen für die zuvor ermittelten Pakete durchgeführt werden.

mesa-va-drivers-freeworld (VA-API):

sudo dnf swap mesa-va-drivers mesa-va-drivers-freeworld

mesa-vdpau-drivers-freeworld (VDPAU / Nvidia):

sudo dnf swap mesa-vdpau-drivers mesa-vdpau-drivers-freeworld

Silverblue

Unter Fedora Silverblue erfolgt die Installation wie folgt:

mesa-va-drivers-freeworld (VA-API):

rpm-ostree override remove mesa-va-drivers --install mesa-va-drivers-freeworld

mesa-vdpau-drivers-freeworld (VDPAU / Nvidia):

rpm-ostree override remove mesa-vdpau-drivers --install mesa-vdpau-drivers-freeworld

Codecs

Bei Bedarf können weitere nicht Hardware-abhängige Codecs wie folgt installiert werden. Dieser Schritt ist optional.

sudo dnf groupupdate multimedia --setop="install_weak_deps=False" --exclude=PackageKit-gstreamer-plugin
sudo dnf groupupdate sound-and-video
sudo dnf install @multimedia @sound-and-video ffmpeg-libs gstreamer1-plugins-{bad-\*,good-\*,base} gstreamer1-plugin-openh264 gstreamer1-libav lame\*

Die Codec Installation unter Silverblue wird hier beschrieben.

Quelle: https://github.com/rpmfusion-infra/fedy/issues/110

Mozilla hat Firefox 107 für Windows, Apple macOS und Linux veröffentlicht. Dieser Artikel fasst die wichtigsten Neuerungen zusammen.

Nach dem sehr großen Update auf Firefox 106 vor vier Wochen hat Mozilla heute erwartungsgemäß ein deutlich kleineres Update veröffentlicht.

Download Mozilla Firefox für Microsoft Windows, Apple macOS und Linux

Die Neuerungen von Firefox 107

Zahlreiche Icons im PDF-Betrachter wurden erneuert und passen nun besser zum restlichen Icon-Stil von Firefox.

Firefox 107

Der Performance-Profiler kann seit Firefox 104 auch den Stromverbrauch einer Website analysieren. Voraussetzung hierfür war bisher ein Mac-Computer mit Apple Silicon-Prozessor oder ein Computer mit Windows 11 als Betriebssystem. Ab sofort werden auch Mac- sowie Linux-Systeme mit Intel-Prozessor unterstützt.

Verbesserungen gab es auch beim Scrolling auf Touch-Geräten. Außerdem wurde die Performance beim Zugriff auf die Dokument-URL für Nutzer von Windows 11 22H2 verbessert, wenn ein Barrierefreiheits-Tool und Microsofts IME für die japanische Sprache genutzt wird.

Auf Webstandard-Seite erwähnenswert ist die Unterstützung der CSS-Eigenschaft contain-intrinsic-size.

Natürlich wurden in Firefox 107 auch wieder mehrere Sichereitslücken geschlossen. Alleine aus Gründen der Sicherheit ist ein Update auf Firefox 107 daher für alle Nutzer dringend empfohlen.

Der Beitrag Mozilla veröffentlicht Firefox 107 erschien zuerst auf soeren-hentzschel.at.

Di, 15. November 2022, Lioh Möller

Immutable Linux-Distributionen wie Fedora Silverblue oder die Variante Kinoite mit dem KDE Plasma Desktop zeichnen sich durch eine besonders einfache Aktualisierung auf einen neuen Release aus.

Dabei wird lediglich ein sogenannter Rebase ausgeführt und ein Wechsel zurück auf die Vorgängerversion ist ebenfalls möglich.

Unter Silberblue wird eine neue Hauptversion wie ein reguläres Update in GNOME Software dargestellt und lässt sich darüber installieren.

Kinoite hingegen verwendet als grafischen Paketmanager die Anwendung Plasma Discover, welche diese Funktionalität aktuell noch nicht bietet.

Eine Aktualisierung kann dennoch in wenigen Schritten über die Kommandozeile erfolgen. Diese Variante bietet darüber hinaus eine erweiterte Kontrolle über den gesamten Vorgang.

Zunächst lassen sich mit folgendem Befehl alle verfügbaren Versionsstände anzeigen:

ostree remote refs fedora

Für Fedora 37 auf der x86_64 Architektur wären dies:

Silverblue: fedora:fedora/37/x86_64/silverblue
Kinoite: fedora:fedora/37/x86_64/kinoite

Bei einer Systemaktualisierung wird standardmässig die aktuell installierte Version beibehalten, auf welche bei Bedarf mithilfe des rpm-ostree rollback Kommandos oder durch die Auswahl des entsprechenden Eintrages im Bootmenü zurückgegriffen werden kann.

Bei einer nachfolgenden Aktualisierung, bei der es sich auch um ein reguläres Update handeln kann, wird diese überschrieben. Um die Vorgängerversion länger beibehalten zu können, kann diese gepinned werden. Dieser Schritt ist optional und muss im Gegensatz zu regulären rpm-ostree oder ostree Befehlen, welche dem Standardbenutzer ohne zusätzliche Authentifizierung via PolicyKit ermöglicht werden, mit Root-Rechten ausgeführt werden:

sudo ostree admin pin 0

Die eigentliche Aktualisierung kann daraufhin mittels rebase durchgeführt werden:

Silverblue: rpm-ostree rebase fedora:fedora/37/x86_64/silverblue
Kinoite: rpm-ostree rebase fedora:fedora/37/x86_64/kinoite

Sofern man RPM Fusion auf seinem System aktiviert hat, lässt sich die Aktualisierung mit folgendem Befehl durchführen:

rpm-ostree rebase fedora:fedora/37/x86_64/silverblue \
--uninstall rpmfusion-free-release-36-1.noarch \
--install https://mirrors.rpmfusion.org/free/fedora/rpmfusion-free-release-branched.noarch.rpm \
--uninstall rpmfusion-nonfree-release-36-1.noarch \
--install https://mirrors.rpmfusion.org/nonfree/fedora/rpmfusion-nonfree-release-branched.noarch.rpm

Um einen zuvor gesetztes Pinning zu entfernen, können zunächst alle verfügbaren Stände ausgegeben werden:

rpm-ostree status

Das Entfernen des Pinnings erfolgt mithilfe der Angabe des Indexes. Dabei wird der erste Eintrag mit 0 geführt und aller weiteren mit der entsprechenden Folgezahl.

sudo ostree admin pin --unpin 0

14. November 2022

Mit Thunderbird 115 wird die MZLA Technologies Corporation im kommenden Jahr seinem kostenfreien E-Mail-Client einen frischen Anstrich verpassen. Dieser Artikel gibt einen kleinen Vorgeschmack auf das neue „Supernova“-Design.

Die folgenden Mockups geben einen Vorgeschmack auf die Planungen für das kommende „Supernova“-Design von Thundebird 115. Bis zur finalen Implementierung können sich natürlich noch Dinge ändern, doch geben die Mockups in jedem Fall die Richtung vor, in welche sich Thunderbird optisch entwickeln wird.

Supernova-Design Thunderbird

Supernova-Design Thunderbird

Supernova-Design Thunderbird

 

Der Beitrag Thunderbird: Vorschau auf das Supernova-Design 2023 erschien zuerst auf soeren-hentzschel.at.

Mo, 14. November 2022, Ralf Hersel

Ubuntu 23.04 wird voraussichtlich am 20. April 2023 erscheinen und trägt den Namen "Lunar Lobster". Diese 38. Version der Canonical-Distribution ist ein Zwischenrelease mit einer neunmonatigen Unterstützung für Software- und Sicherheitsupdates.

Titelbild: Stable Diffusion

Den genauen Zeitplan der Entwicklungsschritte könnt ihr dem Releaseplan entnehmen. Es ist noch zu früh, um inhaltliche Aussagen für die Frühlingsversion zu treffen. Wahrscheinlich bekommen wir es mit einem 6.2er-Kernel zu tun. Die Desktop-Umgebung wird vermutlich auf GNOME 44 aufbauen.

Bei den weiteren Systemkomponenten kann folgendes angenommen werden: GCC 13 als optionaler System-Compiler, LLVM 16, Python 3.11 als Standard, GNU Binutils 2.40, GNU C Library 2.37, OpenLDAP 2.6, Go 1.20 und PolicyKit 122. Es ist auch mit dem neuen, in Flutter geschriebenen, Installer zu rechnen.

Der neue Installer wurde bereits Anfang 2021 von Martin Winpress angekündigt. Um den Wechsel zu begründen schrieb er:

Das aktuelle Ubuntu Desktop-Installationsprogramm, Ubiquity, stammt aus dem Jahr 2006. Ubiquity ist zwar immer noch funktionsfähig, hat aber seit einigen Jahren keine nennenswerten Entwicklungen mehr erfahren und ist aufgrund seines Erbes immer mühsamer zu warten.

Wir haben mit dem Flutter-Team bei Google zusammengearbeitet, um Flutter für den Linux-Desktop zu aktivieren. Wir werden diese Arbeit nutzen, um das Desktop-Frontend des neuen Installers zu implementieren.

Wir haben mit der Arbeit an dem neuen Desktop-Installationsprogramm begonnen und planen, eine vorläufige Version zum Testen in der Version 21.10 bereitzustellen, die im Oktober 2021 erscheinen soll. Dies ebnet den Weg für den Übergang zum neuen Installer für das nächste LTS-Release, das 22.04 sein wird und im April 2022 erscheinen soll.

Der Ubiquity-Installer bleibt im Ubuntu-Archiv verfügbar, damit offizielle Varianten, Remixe oder Derivate ihn weiterhin in ihren Images verwenden können.

Kann man machen, muss man aber nicht. Mit Calamares steht ein sehr gutes Installer-Framework zur Verfügung, das aktuell weiterentwickelt wird und bei vielen GNU/Linux-Distributionen zum Einsatz kommt (Garuda, KaOS, Manjaro, KDE Neon, Lubuntu, NetRunner, Endeavour, Debian). Alternativ dazu gibt es noch Anaconda, welches auch bei vielen bekannten Distros verwendet wird (Red Hat, Fedora, Alma, CentOS), sowie Yast (OpenSuse). Aber Canonical wäre nicht Canonical, wenn man beim Installer keine Extrawurst braten würde.

Quelle: https://discourse.ubuntu.com/t/lunar-lobster-release-schedule/27284

11. November 2022

Für meine Video Tutorials nutze ich ein Mikrofon. Damit der Sound hier auch gut ist, nutze ich zusätzlich diverse Tools bzw Plugins. Das erste Plugin, das zum Einsatz kommt ist immer ein Denoising Plugin. Das versucht das Umgebungsrauschen raus zu filtern und nur die relevanten Geräusche wie Stimme oder Ähnliches aufzunehmen.

 

In OBS-Studio gibt es zwei verschiedene Plugins dieser Art. Leider kann ich diese aufgrund des Aufnahmeaufbaus nicht benutzen, da Mikrofon und weiterer Sound (Musikproduktion) von einem Rechner zusammengemischt auf einen anderen Rechner geschickt werden, auf dem OBS Studio läuft.

 

Bisher hatte ich mit Easy Effects eine Effekt Kette “RNNoise - Gate - Compressor - Limiter” am Start. Allerdings fiel mir dann auf, dass das RNNoise oder/und das Gate nicht wirklich gut funktionierten. Ich hatte ein leises und leider doch zu sehr hörbares Dauerrauschen.

 

Ich bin dann auf das Tool Real-time Noise Suppression Plugin gestoßen, dass es für Linux, Windows und Mac als VST2, VST3, LV2, LADSPA, AU, AUv3 gibt. Bei der Probe in der DAW gefiel mir das Plugin sofort.

 

Der Autor beschreibt auch gleich noch, wie man das LADSPA Plugin in Pipewire einbindet und somit ein eigenes Noise Suppression Modul erhält. Perfekter geht es nicht, denn das Plugin fungiert sogar noch ein wenig wie ein Gate. Perfekt eingerichtet leite ich per qpwgraph Pipewire Patchbay den Input auf das Noise Suppression Modul, von dort auf Easy Effects, in dem ich nur noch einen Kompressor und einen Limiter habe. Das Rauschen ist jetzt glücklicherweise komplett weg.

 

Hier geht es zum Repository von Real-time Noise Suppression Plugin VST2, VST3, LV2, LADSPA, AU, AUv3  und unter Releases (rechte Seite) gibt es den Download.

 

 

Fr, 11. November 2022, Peter Starfinger

Der Artikel gibt die persönlichen Erfahrungen und Meinungen des Autors wieder.

Meine ersten Erfahrungen mit Linux (damals Knoppix mit KDE 3.5.9) liegen nun schon fast 20 Jahre zurück, und nach einer sechsjährigen Testphase parallel zu Microsoft Windows beschloss ich 2009, mich nur noch auf Linux, genauer Ubuntu, zu stützen. In den Folgejahren probierte ich einige Varianten aus: Kubuntu mit KDE 4, Lubuntu, Ubuntu Mate.

Auch wenn ich meinen Umstieg von Windows auf Linux nie bereut, sondern von Anfang an die Stabilität, Quelloffenheit und die Einladung zur digitalen Selbstbestimmung und Eigenverantwortung geschätzt habe, gab es doch immer auch kleinere oder grössere Anlässe, mich über schlecht oder schlampig programmierte Software zu ärgern.

Mal fehlten wichtige Features, mal stolperte ich über hartnäckige Programmfehler, die auch nach Jahren noch nicht korrigiert waren, mal musste ich enttäuscht feststellen, dass eine bestimmte von mir geschätzte Software gar nicht mehr weiterentwickelt wurde.


Wenn z. B. der Dateimanager eigentlich das Plug & Play voll unterstützt, aber in Wirklichkeit den eingesteckten USB-Stick oft nicht erkennt oder dessen Inhalt unverständlicherweise erst nach Eingeben des Userpassworts anzeigt, kommt Frust auf.

Oder wenn die Task-Leiste instabil ist und manchmal unversehens verschwindet oder plötzlich ihre Einstellungen verliert, sodass man alles wieder neu konfigurieren darf, steigert das die Freude nicht. Natürlich hofft man auf das nächste Upgrade, oft aber auch vergebens. Mich wundert schon, wie beharrlich sich so mancher Bug jahrelang hält.

Noch etwas stiess mir mehr und mehr auf, nämlich die zunehmende Selbstherrlichkeit der Ubuntu-Entwickler, was einerseits das sang- und klanglose Einmotten geschätzter und andererseits den Einbau überflüssiger, zum Teil nicht gerade ressourcenschonender Software betrifft. Warum verbannt man z. B., angeblich aus Sicherheitsgründen, das bewährte Paket gksu als praktische GUI des Terminalbefehls sudo und verpflichtet den User stattdessen zum Gebrauch des viel umständlicheren Befehls pkexec? Oder warum will man dem User plötzlich die Containersoftware-Ideologie von snap mit all ihren Nachteilen bzgl. Laufzeit, Platzbedarf und Sicherheit aufzwingen?

Vor diesem Hintergrund beschloss ich im Herbst 2019, eine eigene, nur noch auf dem Ubuntu-Kern aufsetzende Distribution, nämlich Starbuntu, zu entwickeln. Einerseits trieb mich die pure Neugier, und die Herausforderung reizte mich. Andererseits wollte ich die angesprochenen Fehlentwicklungen meiden, bei der Auswahl verfügbarer Software möglichst gewissenhaft vorgehen, und dort, wo mich die Software nicht überzeugte oder erst gar nicht vorhanden war, eigene Programme schreiben. Dabei war und ist meine Hauptmotivation durchaus auf mich selbst und nicht auf die Community bezogen: endlich keine faulen Kompromisse mehr machen zu müssen, sondern das, was ich mir von einer guten Desktop-Umgebung wünsche, einfach selbst umzusetzen. Das geht nämlich am besten in der eigenen Werkstatt und nicht am fremden Produkt!

Nach der Einrichtung des X-Window-Systems (damals noch alternativlos) stellte sich das erste Problem: welchen Fenstermanager nehmen? Ich hatte schon viele ausprobiert, konservative wie exotische, ohne oder mit Schnickschnack (z. B. andockbare, wackelnde oder ex- und implodierende Fenster), mehr oder weniger stabil. Schliesslich entschied ich mich für OpenBox, den Weltmeister in den Disziplinen Schlichtheit und Stabilität, denn ich wollte keinen Paradiesvogel, sondern Zuverlässigkeit!

Die nächste Kardinalfrage war die Wahl eines guten Dateimanagers. Ausschlaggebend war hier, welchen Spielraum ich hatte, ihn nach meinen Vorstellungen "aufmotzen" zu können. Nach längerer Suche fiel meine Wahl auf den ROX-Filer, einen wunderbaren leichtgewichtigen, superschnellen und nach eigenem Gusto fast beliebig erweiterbaren Dateimanager, der zwar zunächst viel Konfigurationsaufwand erfordert, diesen aber später doppelt und dreifach zurückzahlt. Die hochgezüchteten Konkurrenten bieten m. E. keine grosse Modulierfähigkeit. Obendrein bringt der ROX-Filer gleich noch eine konfigurierbare Desktopverwaltung mit.

Die meisten Taskleisten (Panels) werden im Verbund mit einer ganzen Desktop-Umgebung angeboten: das MATE-Panel, das LXDE-Panel, das XFCE-Panel usw. Daher kamen sie für mich nicht infrage, denn ich wollte bei der Wahl einer Taskleiste unabhängig sein. Auch hier liess ich mich von den beiden Kriterien Schlichtheit und Stabilität leiten. Natürlich sollte sie auch ansprechend aussehen, allerdings ohne so überflüssige Features wie ein 3D-Design oder auf den Mauszeiger reagierende hüpfende Icons. So entschied ich mich schliesslich für Tint2, eine absolut fehlerfreie und zuverlässige, aber auch ansprechende Leiste, und habe diese Wahl nicht bereut.

Einige Entscheidungen für eine geeignete Software waren nahezu alternativlos, wie z. B. das Libreoffice-Paket oder die Ebook-Verwaltung von Calibre, andere basierten auf persönlichen Erfahrungen oder Vorlieben und sind sicherlich diskutabel. Eine Übersicht über die Standard-Software (GUI) von Starbuntu findet sich hier.

Nun wäre eine selbst entwickelte Linux-Distribution nicht unbedingt existenzberechtigt, würde sie sich in einer mehr oder weniger willkürlichen Zusammenstellung bekannter Software, vielleicht noch verziert mit nettem Design, erschöpfen. Ihr würde nämlich der eigene Stallgeruch fehlen, das Alleinstellungsmerkmal, das sich nicht nur in einer individuellen Gestaltung (Themes, Hintergrundbilder usw.), sondern vor allem in einer selbstgeschriebenen Lücke füllenden Software findet.

Die Notwendigkeit für eine solche Software zeigte sich mir an vielen Stellen, von denen einige beispielhaft erwähnt seien:

  • Der Dateimanager ROX-Filer zeigt andere Festplattenpartitionen wie auch eingesteckte Speichermedien nicht von selbst an. Daher war es nötig, einen Daemon zu schreiben, der die Ports überwacht und anhand eines Hilfsprogramms entsprechende Icons dynamisch auf den Desktop bringt, nach deren Anklicken der Dateimanager den Inhalt des jeweiligen Mediums anzeigt.
  • Ebenso bietet der Dateimanager von sich aus keine Möglichkeit an, auf Daten-Images oder entfernte Dateisysteme (ISO-Images, FTP-, SSH- oder WebDAV-Server) zuzugreifen, sodass auch hier Programmierarbeit nötig war.
  • Für den ROX-Filer musste ein Papierkorb eingerichtet werden, da er nur endgültiges Löschen anbietet.
  • Das Hintergrund-Design für den ROX-Desktop wurde dynamisiert.
  • Tint2 bietet kein Applikationsmenü an. Da es in der Linux-Welt kaum unabhängige Standalone-Applikationsmenüs gibt, wurde ein eigenes geschrieben, sowie ein weiteres Programm zur Konfiguration des Applikationsmenüs.
  • OpenBox wurde um die Möglichkeit der Positionierung, Zentrierung und Kachelung von Fenstern ergänzt.
  • Wie oben schon ausgeführt, war es nötig ein eigenes grafisches Programm für den Benutzerwechsel, meist zum Root, zu schreiben.
  • Es wurde eine leistungsfähige Generalapplikation geschrieben, die das deutlich limitierte Standardprogramm xdg-open ersetzt.
  • Für diverse Aufgaben wurde ein Verwaltungsprogramm für editierbare und erweiterbare Listen geschrieben, das auch Befehle als Listeneinträge zur Ausführung bringen kann.
  • Es wurde ein History-Generator geschrieben, der in verschiedensten eigenen Programmen Anwendung findet.
  • Eine browserunabhängige Texteingabebox zur Internet-Recherche mit History für die Suchmaschinen Google, DuckDuckGo oder Startpage wurde geschaffen.
  • Es wurde ein Starbuntu-spezifischer Dateityp *.url als Zeiger auf lokale Dateien und Verzeichnisse, Webseiten, FTP-, SSH- und WebDAV-Server, Mailempfänger u. a. kreiert, dessen gespeicherte Zieladresse immer mit der dafür vorgesehenen Anwendung geöffnet wird.
  • Eine Starbuntu-eigene Verwaltungssoftware für die benutzerspezifischen Tastenkombinationen mit alphabetischer Label- oder Hotkeysortierung wurde geschaffen.
  • Ein Starbuntu-eigener Clipboard-Manager mit getrennter History und Bearbeitungsmöglichkeit für die primäre und die sekundäre Selektion sowie für das Clipboard wurde entwickelt. Dieser Clipboard-Manager erlaubt bis zu drei parallele Zwischenablagen, legt aber nur das ab, was abgelegt werden soll.

Ich denke, erst durch diese und viele weitere Programmierarbeiten ist Starbuntu zu einer Distribution gereift, in der Einfachheit, Klarheit, Übersichtlichkeit, Praxistauglichkeit, aber auch Schönheit realisiert sind.

Hinweis: Die vielen GUI-Dialoge in meinen Programmen hätte ich ohne das hervorragende GTK+-Dialog-Programm yad (yet another dialog) von Victor Ananjevsky nicht realisieren können. Dafür gebührt ihm mein grosser Dank.

Webseite: https://die-starfingers.de/Starbuntu/de/
Download: https://die-starfingers.de/Starbuntu/Starbuntu.iso

9. November 2022

Do, 9. November 2022, Martin Brodbeck

Hintergrund: Als ich mir neulich ein neues Notebook gekauft habe, fiel die Wahl auf ein Gerät der Firma Tuxedo, weil ich sichergehen wollte, dass es linuxkompatible Hardwarekomponenten verbaut hat. Letztendlich ist es ein Tuxedo InfinityBook S15 Gen7 geworden.

Als es dann ankam, stellte sich die Frage, welche Linux-Distribution installiert werden soll. Zunächst entschied ich mich für das quasi hauseigene TUXEDO OS. Das ist schnell installiert, enthält bereits die tuxedoeigenen Module und Programme und es verwendet meine derzeit bevorzugte Desktopumgebung KDE Plasma. Und der Ubuntu 22.04 Unterbau garantiert eine gewisse Stabilität. Leider habe ich mich recht schnell dabei ertappt, dass ich mehr und mehr 3rd Party Repositories eingebunden habe, um aktuellere Softwareversionen zu erhalten. Die Version von KDE Plasma war auch noch auf Ubuntu 22.04 Stand (5.24.x) und eine klare Aussage, ob/wann für TUXEDO OS die KDE-Version aktualisiert wird, gab es leider nicht.

Also habe ich dann doch beschlossen, Arch Linux zu installieren, auch wenn es etwas mehr Aufwand bedeutet. Im Folgenden möchte ich also die Installationsprozedur, wie ich sie für mich gewählt habe, beschreiben. Hier führen natürlich viele Wege nach Rom und es gibt kein hartes Richtig oder Falsch. Dies soll also nur als grober Leitfaden dienen, den jede(r) nach eigenen Vorlieben anpassen kann.

Da Arch Linux sehr vielseitige Setups erlaubt, habe ich vorab einige Entscheidungen treffen müssen. Für folgende Eckpunkte habe ich mich entschieden:

  • Komplettverschlüsselung der Festplatte (außer /boot)
  • Als Dateisystem soll Btrfs verwendet werden
  • Verwendung eine Swapdatei (nicht: Swappartition)
  • Als Bootloader soll systemd-boot in Einsatz kommen

Selbstverständlich habe ich mich am Installation Guide von Arch Linux orientiert, den ich hier zur Vertiefung wärmstens empfehlen möchte.

Installationsmedium erstellen und Vorarbeiten

Zunächst lädt man sich von der Downloadseite über einen der Spiegelserver ein ISO-Image des Arch Linux Livesystems herunter. Dieses Image wird immer wieder aktualisiert; zum Zeitpunkt meiner Installation war dies archlinux-2022.11.01-x86_64.iso. Mit Tools wie etcher oder usbimager wird damit ein USB-Stick zum bootfähigen Installationsmedium, das auch später noch für Reparaturarbeiten hilfreich sein kann. Hiervon wird also nun gebootet (UEFI) und wir finden uns nun in einer etwas spartanischen Konsolenumgebung wieder.

Die erste Aktion ist nun, mittels loadkeys de-latin1 das Tastaturlayout auf Deutsch umzustellen. Es ist auch kein Fehler, schonmal für eine Internetverbindung zu sorgen. Über den Commandprompt informiert Arch Linux bereits, dass man dafür iwctl verwenden kann, wenn man eine Wi-Fi-Verbindung aufbauen möchte. Nach Eingabe von iwctl befindet man sich in einer Shell, in der man sich mittels station DEVICE connect SSID im WLAN anmelden kann. DEVICE ist der Name des WLAN-Gerätes, etwa wlan0. SSID ist natülich der Name des WLAN-Netzwerks. Ist das gemacht, verlässt man mit exit die iwctl-Shell wieder.

Partitionierung und Verschlüsselung

Ich bevorzuge eine übersichtliche Einteilung der Festplatte mit nur wenigen Partitionen. Tatsächlich erstellen wir hier lediglich zwei: Eine kleine EFI-Partition, ohne die ein UEFI-System nicht auskommt und eine große Partition, die im nächsten Schritt verschlüsselt wird und auf der das eigentliche System installiert wird. Am einfachsten geht die Partitionierung mit dem guten alten fdisk von der Hand. Da ich die Installation in einer virtuellen Maschine nochmal nachvollzogen habe, verwende ich hier der Einfachheit halber das Device /dev/vda. Ein aktuelles Notebook dürfte aber eher eine M.2 NVMe enthalten. Ein Devicename von /dev/nvme0n1 o. ä. dürfte also wahrscheinlicher sein. Hier, exemplarisch, die Prozedur mit fdisk:

root@archiso ~ # fdisk /dev/vda
Welcome to fdisk (util-linux 2.38.1)
[…]

Command (m for help): g
Created a new GPT disklabel (GUID: xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx).

Command (m for help): n
Patition number (1-128, default 1):
First sector (2048-41943006. default 2048):
Last sector, […]: +512M
[…]

Command (m for help): t
Selected partition 1
Partition type or alias (type L to list all): 1
Changed type of partition 'Linux filesystem' to 'EFI System'.

Command (m for help): n
Patition number (2-128, default 2):
First sector (1050624-41943006, default 1050624):
Last sector, […]: 
[…]

Command (m for help): w
The partition table has been altered.
Calling ioctl() to re-read partition table.
Syncing disks.

Die EFI-Partition formatieren wir gleich mit FAT32:

root@archiso ~ # mkfs.fat -F32 /dev/vda1

Jetzt muss die zweite, große Partition mit cryptsetup verschlüsselt werden:

root@archiso ~ # cryptsetup luksFormat /dev/vda2

WARNING!
========
This will overwrite data on /dev/vda2 irrevocably.

Are you sure? (Type 'yes' in calital letters): YES
Enter passphrase for /dev/vda2: 
Verify passphrase:
[…]

luksFormat bietet mannigfaltige Optionen, mit denen man den Verschlüsselungsalgorithmus und anderes anpassen kann. Doch kann man auch einfach, wie hier gezeigt, die Standardeinstellungen verwenden.

Btrfs

Jetzt kommt das Dateisystem Btrfs zum Einsatz. Dank Subvolumes kann man eine Partition praktisch einteilen, ohne eine feste Größe wie bei "echten" Partitionen angeben zu müssen. Außerdem kann man von den Subvolumes später Snapshots erstellen und davon dann wiederum konsistente Backups durchführen. Auch hier möchte ich es übersichtlich halten und nur folgende Subvolumes erstellen:

  • @ (für das System, also /)
  • @home (für die Homeverzeichnisse, also /home)
  • @swap (für die Swapdatei, dazu später mehr)

Zunächst aber muss die verschlüsselte Partition geöffnet werden, damit wir das Dateisystem darauf erstellen können. Anschließend wird das Btrfs-System gemountet, damit darin die Subvolumes erstellt werden können.

Los geht's:

root@archiso ~ # cryptsetup open /dev/vda2 dm-0
Enter passphrase for /dev/vda2:
root@archiso ~ # mkfs.btrfs /dev/mapper/dm-0
btrfs-progs v6.0
[…]

root@archiso ~ # mount /dev/mapper/dm-0 /mnt
root@archiso ~ # btrfs subvolume create /mnt/@
Create subvolume '/mnt/@'
root@archiso ~ # btrfs subvolume create /mnt/@home
Create subvolume '/mnt/@home'
root@archiso ~ # btrfs subvolume create /mnt/@swap
Create subvolume '/mnt/@swap'
root@archiso ~ # umount /mnt

Jetzt können die Subvolumes (und die EFI-Partition) entsprechend ihrer Verwendung gemountet werden:

root@archiso ~ # mount -o compress=zstd,subvol=@ /dev/mapper/dm-0 /mnt
root@archiso ~ # mount --mkdir -o compress=zstd,subvol=@home /dev/mapper/dm-0 /mnt/home
root@archiso ~ # mount --mkdir /dev/vda1 /mnt/boot

Installation essenzieller Pakete

Jetzt wird es langsam spannend, denn nun können wir die ersten Arch Linux Pakete nach /mnt installieren. Hier dürfen die btrfs-progs nicht vergessen werden. Auch kann man gleich einen Netzwerkmanager und einen Editor installieren. Bei mir sieht das Kommando hierfür so aus:

pacstrap -K /mnt base linux linux-firmware btrfs-progs networkmanager vim man-db man-pages

Konfiguration des Arch Systems

Wenn die Pakete installiert wurden, ist es Zeit, das System, das sich nun unter /mnt befindet, einzurichten. Zunächst erstellen wir dort eine /etc/fstab, basierend auf den aktuellen Mountpunkten:

root@archiso ~ # genfstab -U /mnt >> /mnt/etc/fstab

Jetzt wechseln wir in das neue System, in eine chroot-Umgebung, damit wir direkt dort die restlichen Einstellungen vornehmen können:

root@archiso ~ # arch-chroot /mnt

Zeitzone

Zunächst ein paar Zeit-Einstellungen:

[root@archiso /]# ln -sf /usr/share/zoneinfo/Europe/Berlin /etc/localtime
[root@archiso /]# hwclock --systohc

Lokalisation

In /etc/locale.gen entfernen wir bei en_US.UTF-8 UTF-8 und de_DE.UTF-8 UTF-8 die Kommentarzeichen und erstellen die locales:

[root@archiso /]# locale-gen

Dann erstellen wir die Datei /etc/locale.conf mit dem Inhalt LANG=de_DE.UTF-8. Außerdem erstellen wir die Datei /etc/vconsole.conf mit dem Inhalt KEYMAP=de-latin1.

Netzwerkkonfiguration

Schließlich tragen wir in die Datei /etc/hostname noch den Namen des Rechners ein, z. B. myhostname. Außerdem ist da noch /etc/hosts:

Static table lookup for hostnames.
# See hosts(5) for details.
127.0.0.1       localhost.localdomain   localhost
::1             localhost.localdomain   localhost
127.0.0.1       myhostname.localdomain  myhostname

Bootloader

Als Bootloader verwende ich nicht grub, sondern systemd-boot, da hier die Konfiguration einfacher von der Hand geht und der Bootloader eh mit systemd mitkommt. Zunächst muss er installiert werden:

[root@archiso /]# bootctl install

Das erstellt einige Verzeichnisse und Dateien unter /boot/EFI sowie unter /boot/loader.

In /boot/loader/loader.conf habe ich folgende Einträge gemacht, damit etwa arch.conf standardmäßig vorausgewählt ist und nach 3 Sekunden automatisch gebootet wird:

default arch.conf
timeout 3
console-mode max
editor no

Und in /boot/loader/entries werden noch zwei Dateien, also Einträge für das Bootloadermenü, erstellt:

arch.conf:

title   Arch Linux
linux   /vmlinuz-linux
initrd  /intel-ucode.img
initrd  /initramfs-linux.img
options rd.luks.name=xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx=dm-0 root=/dev/mapper/dm-0 rootflags=subvol=@ rw quiet

arch-fallback.conf:

title   Arch Linux (fallback initramfs)
linux   /vmlinuz-linux
initrd  /intel-ucode.img
initrd  /initramfs-linux-fallback.img
options rd.luks.name=xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx=dm-0 root=/dev/mapper/dm-0 rootflags=subvol=@ rw quiet

In beiden Fällen entspricht xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx der UUID der verschlüsselten Partition, welche mittels blkid ermittelt werden kann.

initrd /intel-ucode.img bindet die Microcode Updates für die CPU ein – in diesem Fall Intel. Dazu muss das Paket intel-ucode installiert werden:

[root@archiso /]# pacman -S intel-ucode

Für AMD-CPUs steht das Paket amd-ucode zur Verfügung.

Initramfs

Das Initramfs ist ein komprimiertes Archiv, das für den Systemstart benötigte Dateien enthält. Hier müssen wir aufpassen! In /etc/mkinitcpio.conf müssen einige Anpassungen gemacht werden, damit die verschlüsselte Partition eingebunden werden kann.

Die MODULES-Zeile sollte so aussehen: MODULES=(btrfs).

Die HOOKS-Zeile habe ich für die systemd-Variante angepasst (näheres siehe Arch Linux-Wiki): HOOKS=(base systemd autodetect keyboard sd-vconsole modconf block sd-encrypt filesystems fsck)

Schlussendlich erstellen wir die Initramfs noch:

[root@archiso /]# mkinitcpio -P

Passwort

Damit wir uns nachher am System einloggen können, müssen wir noch das Passwort für root setzen. Das machen wir mit dem Kommando passwd.

Reboot!

Jetzt ist es geschafft! Wir verlassen die chroot-Umgebung mit exit und unmounten /mnt mit umount -R /mnt. Mit reboot wird das System neu gestartet. Zu Beginn des Bootprozesses wird das Passwort für die Entschüsselung der Festplatte abgefragt. Anschließend sehen wir das Login-Prompt und wir können uns als root anmelden.

Als Allererstes stellen wir wieder eine Internetverbindung her. Da wir den Network Manager installiert haben, aktivieren wir diesen nun:

[root@myhostname ~]# systemctl enable --now NetworkManager

Die eigentliche Internetverbindung können wir nun recht bequem mit nmtui herstellen.

Damit sich bei neuen systemd-Versionen der Bootloader automatisch aktualisiert, müssen wir noch den entsprechenden Dienst aktivieren:

[root@myhostname ~]# systemctl enable --now systemd-boot-update

Swap

Der Einfachheit halber habe ich bisher das Erstellen des Swapfiles verschwiegen, weil wir es jetzt, da das System problemlos läuft, in Ruhe nachholen können. In /etc/fstab fügen wir folgende Einträge noch ein (natürlich auch hier die eigentliche UUID verwenden):

# swap
UUID=xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx       /swap           btrfs           rw,noatime,compress=zstd:3,ssd,space_cache=v2,subvol=/@swap    0 0
/swap/swapfile                                   none           swap            defaults 0 0

Außerdem mounten wir das Ganze nach /swap und erstellen darin ein Swapfile, nachdem wir das Verzeichnis mit dem NO_COW-Flag versehen haben:

[root@myhostname ~]# mkdir /swap && mount /swap
[root@myhostname ~]# chattr +C /swap
[root@myhostname ~]# dd if=/dev/zero of=/swap/swapfile bs=1M count=4096 status=progress

Jetzt müssen wir noch die Permissions anpassen und die Datei für Swap formatieren. Schließlich aktivieren wir das Swapfile:

[root@myhostname ~]# chmod 0600 /swap/swapfile
[root@myhostname ~]# mkswap -U clear /swap/swapfile
[root@myhostname ~]# swapon /swap/swapfile

Schluss

Noch ein Wort zum Tuxedo Notebook: Im AUR, dem Arch User Repository, gibt es die Pakete tuxedo-control-center-bin und tuxedo-keyboard-dkms. Mit ersterem kann man u. a. die Performance- und Lüftereinstellungen komfortabel festlegen. Letzteres installiert die Treiber für die Tastatur. Damit funktionieren dann auch die Tastenkombinationen, um etwa die LED-Beleuchtung zu justieren. Hier bitte nicht vergessen, vorab die linux-headers zu installieren. Wie Pakete aus dem AUR installiert werden, ist übrigens auch sehr gut beschrieben. Damit ist die minimale Einrichtung des Notebooks abgeschlossen. Nun haben wir ein Notebook mit aktuellem Linux und aktuellen Softwarepakten. Und Hardware, die komplett mit Linux funktioniert.

Es gäbe jetzt noch viele Möglichkeiten, um das System einzurichten und zu verfeinern. Viele Pakete wollen noch installiert werden. Eine grafische Benutzeroberfläche wie etwa KDE Plasma möchte man sicherlich auch haben. An dieser Stelle verweise ich jedoch nochmals auf das hervorragende Wiki von Arch Linux. Hier findet man wirklich zu jedem Anliegen die passende Beschreibung. Insbesondere beim Setup eines Systems wie dem unseren hier, also die Kombination aus Verschlüsselung, Btrfs und systemd-boot, findet man manchmal in der Dokumentation den Wald vor lauter Bäumen nicht. Ich hoffe, dass die Anleitung hier als kleiner Leitfaden dienen kann, um es selbst einmal mit Arch Linux zu versuchen.

6. November 2022

In RStudio kann man sich “Snippets” - so eine Art “Shortcuts” hinterlegen. Dabei definiert man ein Signalwort und einen Aktionstext. Wenn das Signalwort im Quartodokument ausgeschrieben ist, drückt man SHIFT + TAB, und das Signalwort wird durch den Aktionstext ersetzt. Das ist wirklich hilfreich.

Im folgenden Beispiel wird das Signalwort column durch Drücken von SHIFT + TAB in eine vollständige Column-Umgebung umgewandelt:

Um solche Snippets einzurichten klickt ihr im RStudio Menü auf “Tools” - “Edit Code Snippets” und wählt dort den Reiter “Markdown” aus.

Unter https://git.zilium.de/-/snippets/7 könnt ihr meine Snippets einsehen.

5. November 2022

TranslateLocally steht als Erweiterung für Firefox sowie als native Desktop-Anwendung für Windows, macOS und Linux zur Verfügung und ist wie Firefox Translations aus dem Bergamot-Projekt der Europäischen Union hervorgegangen. Mit Firefox Translations gibt es Gemeinsamkeiten, aber auch Unterschiede, welche in diesem Artikel beleuchtet werden. Außerdem gehe ich auch auf die Zukunft von Firefox Translations ein.

Bergamot, Firefox Translations, TranslateLocally?

Im Rahmen des von der Europäischen Union geförderten Bergamot-Projekts hatte Mozilla gemeinsam mit der University of Edinburgh (Schottland), der University of Tartu (Estland), der University of Sheffield (England) sowie der Charles University (Tschechien) zusammengearbeitet, um eine vollständig clientseitige Funktion zur maschinellen Übersetzung von Websites für den Browser zu entwickeln. Das bedeutet, dass die Übersetzung vollständig im Browser geschieht und keine zu übersetzenden Inhalte an einen Datenriesen wie Google oder Microsoft übermittelt werden müssen.

Aus dieser Zusammenarbeit entstanden ist Firefox Translations. Die Firefox-Erweiterung von Mozilla erlaubt die Übersetzung vollständiger Websites direkt im Browser.

Download Firefox Translations

Das Bergamot-Projekt wurde mit drei Millionen Euro von der Europäischen Union gefördert. Im Juni 2022 ist das Bergamot-Projekt nach 3 1/2 Jahren offiziell ausgelaufen.

TranslateLocally entstand ursprünglich zunächst als Bergamot Translations aus Firefox Translations und wurde genutzt, um Änderungen zu testen, bevor diese schließlich in Firefox Translations implementiert worden sind. Jetzt ist TranslateLocally eine unabhängige Weiterentwicklung von Mitgliedern der University of Edinburgh, während Mozilla die alleinige Verantwortung von Firefox Translations übernommen hat.

Download TranslateLocally für Firefox

TranslateLocally im Unterschied zu Firefox Translations

TranslateLocally bietet im Wesentlichen die gleiche Funktionalität wie Firefox Translations: Die Übersetzung vollständiger Websites. Es gibt aber auch einige Unterschiede.

Der auffälligste Unterschied ist der, dass TranslateLocally keine Übersetzungsleiste nutzt, wie sie nur von Firefox unterstützt wird, sondern als Toolbar-Button mit Panel umgesetzt ist, womit die Erweiterung technisch auch für andere Browser nutzbar wird. Es gibt auch schon eine experimentelle Unterstützung von Google Chrome. Hierfür gibt es allerdings noch keine fertige Version, die der Nutzer einfach per Klick installieren kann.

TranslateLocally

TranslateLocally erlaubt nicht nur die Übersetzung vollständiger Websites. Über einen Kontextmenü-Eintrag ist es auch möglich, einzelne Sätze übersetzen zu lassen.

TranslateLocally

Dafür fehlen im Gegensatz zu Firefox Translations die Formular-Übersetzung sowie die optionale Anzeige eines Indikators für die Qualität der Übersetzung. Auch steht die Oberfläche von TranslateLocally derzeit ausschließlich in englischer Sprache zur Verfügung.

TranslateLocally als native Desktop-Anwendung

Für die Nutzung ohne Browser gibt es TranslateLocally als Desktop-Anwendung für Windows, macOS und Linux. Hier zeigen die Download-Links der Website momentan allerdings nicht auf die aktuellen Versionen, welche für die Anbindung an die Firefox-Erweiterung (siehe unten) notwendig sind, weswegen ich auf die Downloads bei GitHub verweise.

Download TranslateLocally für Windows, macOS und Linux

TranslateLocally

Ein Vorteil der Desktop-Anwendung gegenüber der Implementierung als Browser-Erweiterung ist eine noch bessere Übersetzungs-Geschwindigkeit. Außerdem können über die Desktop-Anwendung auch andere Sprachmodelle importiert werden. TranslateLocally unterstützt jedes Sprachmodell, welches von Marian unterstützt wird.

Über Desktop-Anwendung schnellere Übersetzungen in Firefox

Wer die Desktop-Anwendung installiert hat, kann sich dessen Vorteile auch in Firefox zu Nutze machen. Sobald die Desktop-Anwendung mindestens einmal gestartet worden ist, wird diese für das sogenannte Native Messaging mit der Firefox-Erweiterung registriert. Anschließend kann in den Einstellungen der Firefox-Erweiterung TranslateLocally anstelle der eingebetteten WASM-Implementierung ausgewählt werden. Nun nutzt die Firefox-Erweiterung im Hintergrund die Desktop-Anwendung zur Übersetzung, womit deren Übersetzungs-Geschwindigkeit und ggfs. importierte Sprachmodelle auch für Firefox zur Verfügung stehen.

Doch was bedeutet das alles für Firefox Translations?

Natürlich stellt sich zwangsläufig die Frage, was das alles für Firefox Translations bedeutet. Mit dem Auslaufen des Bergamot-Projekts wurde es um Firefox Translations zuletzt ziemlich ruhig. Ein Grund zur Sorge besteht aber keiner. Die Entwicklung von Firefox Translations wurde in den letzten Tagen wieder fortgesetzt und tatsächlich steht die Veröffentlichung eines Updates von Firefox Translations kurz bevor. Neben anderen Änderungen wird es dann auch in Firefox Translations möglich sein, nicht mehr nur vollständige Websites zu übersetzen. Alle Neuerungen des kommenden Updates werden in einem gesonderten Artikel besprochen, sobald die neue Version verfügbar ist.

Wie sieht es mit der Unterstützung weiterer Sprachen aus?

Eine wesentliche Frage für eine Übersetzungs-Erweiterung ist natürlich auch die Unterstützung weiterer Sprachen. Auch hier gibt es gute Nachrichten. Am 1. September ist die Förderung eines neuen Projektes der Europäischen Union in Höhe von knapp vier Millionen Euro angelaufen, in dessen Rahmen bis Ende August 2025 Sprachmodelle für 50 hochqualitative Sprachpaare entstehen werden. Davon werden sowohl Firefox Translations als auch TranslateLocally profitieren.

Der Beitrag TranslateLocally: Maschinelle Übersetzung ohne Cloud für Firefox und als native Desktop-Anwendung erschien zuerst auf soeren-hentzschel.at.

4. November 2022

Mozilla hat mit Firefox 106.0.5 ein Update außer der Reihe für seinen Desktop-Browser veröffentlicht und reagiert damit auf einen Hardware-Fehler in einem Intel-Prozessor.

Download Mozilla Firefox 106.0.5

Erneut reagiert Mozilla mit einem Firefox-Update auf einen Hardware-Fehler in einem Prozessor. Anders als bei Firefox 106.0.1, wo ein AMD-Prozessor betroffen war, umgeht Firefox 106.0.5 einen Bug in einer Intel Gemini Lake CPU, der in Abstürzen für betroffene Nutzer resultierte.

Der Beitrag Mozilla veröffentlicht Firefox 106.0.5 erschien zuerst auf soeren-hentzschel.at.