ubuntuusers.de

25. Juni 2021

Gnome verlässt mit der neuesten Version den vertikalen Sonderweg und packt das „Dock“ wieder an den unteren Bildschirmrand – und schafft damit lustigerweise ganz neue Probleme. Für Frust sorgt nebenbei nicht nur die neue Position des Anwendungsstarters, sondern vor allem, dass selbst nach Wochen viele Gnome-Shell-Erweiterungen nicht mit der aktuellen Gnome-Version funktionieren.

Die Überschrift ist wörtlich zu nehmen. Das neue Gnome 40, das nun allmählich immer mehr Linuxanwendern in ihren Distributionen offeriert wird, ist weniger kantig als die Vorversionen: Die Menüs sind deutlich abgerundeter, und auch die Schaltflächen-Effekte machen nun einen ovalen Eindruck. Es wirkt, als hätten die Gnome-Designer mal wieder etwas sehr Richtung Mac geschielt. Allmählich verwundert es, dass der Fenster-Schließen-Knopf noch nicht auf die linke Seite gewandert ist. Auch die neue „Dock“-Anordnung unterstützt den Mac-Eindruck, denn das Dash hat nun die bisherige vertikale Position am linken Bildschirmrand verlassen und wird im Übersichtsmodus nun standardmäßig horizontal und unten dargestellt.

Euer Ernst?

Dabei drängt sich der Verdacht auf, dass Gnome-Shell-Entwickler selbst gar kein Gnome zu benutzen scheinen – oder zumindest nicht mit einer angeschlossenen Maus. Sonst hätte eigentlich mal auffallen müssen, dass die Mauswege nun ein Fall für den Katastrophenschutz sind.

Da das Dash nur sichtbar wird, wenn man mit der Maus die obere linke Ecke berührt, muss man im ungünstigsten Fall erst ganz nach oben links zielen, um im zweitungünstigsten Fall auf die exakt gegenüberliegende Bildschirmecke zu navigieren, falls sich die gesuchte Anwendung rechts im Dash befindet. Im drittungünstigsten Fall muss man „nur“ von der oberen zur unteren Bildschirmkante fahren. Bei größeren Monitoren kommt da richtig Laune auf.

Diese neuerliche „Ergognomie“ scheint der Maxime zu folgen, wie man Anwender mit minimalstem Aufwand am meisten ärgern kann. Das Dazunehmen der Windows-Taste ist nun praktisch Pflicht, um noch einigermaßen komfortabel häufig genutzte Programme zu starten. Das Ganze wird dadurch erschwert, dass ausgerechnet eine der beliebtesten Erweiterungen, die das Dash-Panel dauerhaft in den Vordergrund zaubert und damit in ein klassisches Dock verwandelt, auch nach Wochen noch nicht für die neue Gnome-Version zur Verfügung steht – denn entscheidende Schnittstellen wurden geändert, so dass die Erweiterung in wesentlichen Punkten für Gnome 40 neu geschrieben werden muss.

Optisch ist es trotzdem ein Gewinn, denn die Panelanordnung entspricht dem Gewohnten von anderen Arbeitsflächen – ausgenommen Ubuntu, hier ist man seit Unity-Zeiten mit der linken, vertikalen Ausrichtung des Docks vertraut.

Zurück zu den Wurzeln bei der Arbeitsflächenrichtung

Die alte vertikale Anordnung in „Aktivitäten“-Knopf-Nähe ergab funktional mehr Sinn, doch mit dem Umbau nach unten kehrt Gnome als kleiner Trost dafür ein wenig zu ganz alten Gnome-Zeiten zurück. Denn die Wechselrichtung der virtuellen Arbeitsflächen hat sich ebenfalls geändert – über die Arbeitsflächen wird nun ebenfalls horizontal statt zuvor vertikal gewechselt. Das entspricht dem alten Verhalten aus Zeiten von Gnome 1 und Gnome 2, so dass nun wie einst wieder mit Strg + Alt + Pfeiltasten nach rechts oder links die nächste Arbeitsfläche ausgewählt werden kann. Bei der Einführung der Gnome-Shell hatte es auch erst einmal für Verwirrung gesorgt, dass man fortan mit Pfeiltasten nach oben und unten wechseln sollte. Das wurde nun zurückgedreht.

Faktische Erweiterungs-Pflicht bleibt das Problem

Auch wenn Gnome nun wieder für grundsätzliche Usabilityentscheidungen gescholten wird – summa summarum ist Gnome gerade durch die Reduktion aufs Wesentliche eine attraktive Arbeitsumgebung, und was an persönlich benötigten Funktionen fehlt, lässt sich über Erweiterungen nachrüsten. Theoretisch jedenfalls. Praktisch funktioniert es nur bis zum nächsten größeren Update, wie das Beispiel Dash to Dock exemplarisch zeigt – und das ist leider kein Einzelfall. Schlagartig ist das Gros der Erweiterungen nach einem Versionssprung meist entfallen. Obwohl die Aktualisierung der Arbeitsumgebung selbst wunderbar durchläuft, funktioniert dadurch hinterher praktisch nichts mehr, wie man es vorher gewohnt war. Jedenfalls, wenn man auch nur eine Handvoll von Erweiterungen installiert hatte.


Dash to Dock ist bislang nicht offiziell verfügbar

Im Falle des Docks, das mit der gewohnten Erweiterungen nun nicht mehr permanent in den Vordergrund zu bringen ist, fällt nun auf einmal wieder auf, dass man bei nativem Gnome ohne Extrahelferlein mit der Maus nicht einmal zwei Programme unmittelbar hintereinander starten kann – denn das Dash verschwindet nach dem ersten Klick auf ein Programmsymbol eben sofort wieder.

Langsam nervts

Und das Spielchen geht bei jedem Update von vorne los, da nur ein Bruchteil der Erweiterungen vom Gnome-Projekt selbst verwaltet und entsprechend rechtzeitig kompatibel gemacht werden. Inzwischen hat sogar Michael Kofler zwischen den Zeilen Mühe, die Contenance zu wahren.

Solange es hier keine vernünftige Kompatibilitätsprüfung und Schnittstellenstabilität bei den Erweiterungen gibt, während Gnome am eigenen Minimalismus ohne Wahlmöglichkeiten für den Anwender festhält, der mehr möchte als die von Gnome stur vorgezeichneten Arbeitsabläufe, solange werden nicht wenige mit Gnome weiterhin nicht wirklich glücklich werden. Wieso das Projekt hier mutwillig an der Zielgruppe vorbeiprogrammiert – es will einem einfach nicht einleuchten. Es ist letztlich einfach nur verschenktes Potential, wenn Nutzer wegen solcher Kleinigkeiten, die jedoch maximal nerven, sich eine andere Desktopumgebung suchen.


Erweiterungen für Gnome 40 lassen auf sich warten

Ebenso unverständlich, dass nicht mehr Distributionen die Lücke füllen und selbst Anpassungen vornehmen – jedenfalls beim Dock. Dabei liefert selbst Fedora – die Communityversion von Gnome-Hauptsponsor Red Hat – kein hundertprozentig reines Gnome aus, sondern patcht z. B. traditionell die von Gnome aus dem Terminal entfernte Hintergrundtransparenz wieder dort hinein. Ubuntu bildet hier bislang eine der wenigen Ausnahmen, allerdings mit dem Haken, dass im Zweifel bei älteren Komponenten verharrt wird, weil neuere Gnome-Bestandteile die gewünschte Funktion nicht wie gewünscht bereitstellen. Wie das nächste Ubuntu auf Gnome-40-Basis aussehen wird, wenn dem gewohnten Workflow bei Ubuntu nun die neuen Gnome-Paradigmen in den Weg kommen, wird noch spannend werden.

24. Juni 2021

Am 29. Juni beginnt Synology mit der offiziellen Verteilung des DiskStation Manager 7. Bis das Update alle Anwender unterstützter NAS-Hardware erreicht dürfte noch einige Zeit verstreichen. Neugierige und etwas risikobereite Anwender können das Update-Paket bereits direkt über die Synology Webseite beziehen.

Das Update ist die erste größere Aktualisierung seit DSM 6.2 im Jahr 2018. Das ist nicht unwichtig, da Synology von seinen Kunden für das Paket aus Hardware und Software gekauft wird (ähnlich wie bei Apple). Die reine NAS-Hardware bekommt man in Einzelteilen deutlich preiswerter.

Beginnen wir mit dem positiven. Das Update hat reibungslos funktioniert und alle Daten und Dienste laufen wie gewünscht. Die Liste der unterstützten Hardware ist zudem lang und beinhaltet auch noch Geräte von 2014 und vereinzelt 2013. Das klingt jetzt so schnöde, aber ist natürlich eigentlich schon eine Meldung für sich wert.

Leider gilt das aber nicht für alle Nutzungszenarien. Wenn man intensiv mit den alten Apps Photos und Moments gearbeitet hat dürfte man eher entäuscht sein. Synology hat beide Anwendungen in der neuen App Synology Photos zusammen geführt und die Supportforen und Kommentarspalten sind voll von enttäuschten Nutzern.

Es scheint bei Synology momentan in der Softwareentwicklung zu klemmen. Hinter der optisch hübsch überarbeiteten GUI verbirgt sich nämlich weiterhin gut abgehangene Hardware. Das war ja bereits bei der Vorgängerversion zu beobachten.

Der Kernel trägt die Versionsnummer 4.4.180+. PostgresSQL liegt immerhin in Version 11.11 bei und nginx mit Version 1.17.10. Das sind Fortschritte, aber aktuell ist wahrlich was anderes. Das betrifft leider nicht nur die Basis, sondern auch die Synology App – sowohl für DSM als auch für Desktop- und Mobilsysteme – haben keine nennenswerten Updates erfahren.

Wirkliche Neuerungen gibt es nur um Bereich der engeren Verzahnung mit Synology-Diensten, wie z. B. dem neuen Synology C2.

Für so ein großes und langerwartetes Update nach drei Jahren Entwicklungszeit und so viel Verspätung ist das ein wenig schwach auf der Brust. Ich kann gegenwärtig meine Ansprüche noch alle gut mit meinem Synology NAS realisieren, aber man sollte die weitere Entwicklung (oder ihr Ausbleiben) aufmerksam verfolgen.

Der Artikel Synology veröffentlicht DSM 7 erschien zuerst auf [Mer]Curius

Die Linux-Paketverwaltung wird ja immer für ihre Effizienz gelobt. Es kommen Updates nur an den notwendigen Stellen und eine Bibliothek ist nur ein einziges Mal installiert und nicht Dutzende Male, wenn unterschiedliche Programme sie benötigen. Das ist nette Theorie, hilft aber nicht, wenn Entwickler sie unterlaufen.

Das openSUSE-Projekt hat für Tumbleweed die nette Tradition, auf der Mailingliste die Changelogs für neue Snapshots zu veröffentlichen. Als Beispiel möchte ich einfach mal auf den Snaptshot 20220620 verweisen. An dem Tag rollte ein Bugfix-Update für Plasma rein. Das bedeutet auf meinem System den Download und die Aktualisierung von ~200 Paketen. Beim Durchsehen des Changelogs fällt aber auf, dass die große Mehrheit der Pakete folgende Zeile im Changelog hat:

No code changes since 5.22.0

Ein Einzelfall? Nein, leider nicht. Insbesondere bei Bugfix-Releases wird bei KDE die große Mehrheit der Programme und Pakete gar nicht angefasst. Wenn ein Plasma-Release nur 5 Bugs behebt, ist das wohl auch logisch. Noch schlimmer ist das bei KDE Gear (ehm. Applications), wo das Verhältnis aktiv gepflegter Pakete zu „mitgeschleppten“ Programmen noch ungünstiger ist.

Ich persönlich finde es deshalb auch nicht vorteilhaft, wenn immer mehr Programme unter solche „Dächer“ schlüpfen. Das Problem ist bei KDE wegen der absurd hohen Update-Frequenz (bei gleichzeitig nur moderater Entwicklung) der drei Säulen – Plasma, Gear und KDE Framework – besonders ausgeprägt, aber sicher nicht darauf beschränkt. Auch bei einem GNOME-Release oder einem von MATE wird nicht jedes Paket angefasst. Genau so auf Bibliotheken-Ebene, wenn man sich z. B. Qt anschaut.

Bei manchen Programmen wie LibreOffice ist das logisch, weil die Trennung in mehrere Pakete hier künstlich durch die Distributionen herbeigeführt wurde und Updates immer alle Pakete tangieren. Bei anderen Software-Sammlungen sind das aber eigentlich eigenständige Programme ohne Interdependenzen.

Früher haben Linux-Anwender sich über Windows oder macOS lustig gemacht, wenn ein Bugfix-Update mal wieder 1,5 GB groß war. Heute sind wir selbst nicht mehr anders.

Ich finde das ärgerlich. Aus mehreren Gründen:

  • Es gibt immer noch Anwender mit schmalen Internetverbindungen oder Volumen-Tarifen. Man ist mit seinem Mobilgerät ja auch mal längere Zeit nicht im heimischen Internet (1 GB im Hotel WLAN zu beziehen ist nicht erstrebenswert).
  • Es kostet gerade auf älteren Systemen lange Zeit Ressourcen.
  • Es ist ineffizient.
  • Es konterkariert die Vorteile der Paketverwaltung
  • Es erzeugt die Illusion von Softwarepflege, wo eigentlich nichts passiert.

Etwas überspitzt gesagt: Wenn das so weiter geht können wir auch die Paketverwaltung einstampfen und ähnlich wie bei FreeBSD oder macOS Updates als riesiger „Blob“ einmal alle 1-2 Monate ins System bügeln.

Die Frage, die sich mir stellt: Wer ist hier eigentlich in der Pflicht? Müsste Upstream diese ineffiziente Sammlung von Software einstellen oder müssten die Distributoren hier eingreifen? Verkürzt: Habe ich ein KDE- oder habe ich ein openSUSE-Problem?

Nachtrag 01. Juli 2020

Passend zu diesem Artikel ist die Diskussion um die sinnlosen KDE-Updates inzwischen auch auf der openSUSE-Factory Mailingliste angekommen.

Der Artikel Programm-Kompilationen – Updates für nichts? erschien zuerst auf [Mer]Curius

23. Juni 2021

Mozilla hat mit Firefox 89.0.2 ein Updates seines Desktop-Browsers außer der Reihe veröffentlicht.

Download Mozilla Firefox 89.0.2

Mit dem Update auf Firefox 89.0.2 behebt Mozilla ein mögliches Einfrieren des Browsers, von dem manche Linux-Nutzer mit aktiviertem Software-WebRender betroffen waren.

In Sprachversionen, welche standardmäßig mit Yandex als Suchmaschine ausgeliefert werden, wurde das Logo von Yandex aktualisiert. Interne Anpassungen gab es außerdem bei der mitgelieferten Amazon-Suchmaschine.

Der Beitrag Mozilla veröffentlicht Firefox 89.0.2 erschien zuerst auf soeren-hentzschel.at.

22. Juni 2021

Im Sommer des vergangenen Jahres hat Mozilla sein eigenes VPN-Angebot gestartet. Mittlerweile kann das Mozilla VPN in acht Ländern gebucht werden, darunter seit April in Deutschland. Bereits in Kürze fällt der Startschuss für Österreich, Schweiz sowie weitere Länder.

Mozilla VPN in 13 Ländern

Im Juli 2020 ist das Mozilla VPN offiziell gestartet. Bislang ist das Angebot in den USA, Kanada, Großbritannien, Neuseeland, Singapur und Malaysia, seit April außerdem in Deutschland und Frankreich verfügbar. Über die Veröffentlichung in Deutschland und Frankreich hatte ich bereits knapp drei Monate vor Start weltweit als erstes berichtet.

Jetzt Mozilla VPN nutzen

Nun liegen mir auch Informationen für den nächsten Schritt der Ausrollung vor. Demnach wird das Mozilla VPN bereits in Kürze in den folgenden Ländern starten: Österreich, Schweiz, Belgien, Italien sowie Spanien.

Der exakte Start-Termin ist noch nicht bekannt. Sobald der Marktstart in diesen Ländern erfolgt ist, wird man es natürlich hier auf dieser Seite lesen können.

Das Mozilla VPN

Für das Mozilla VPN arbeitet Mozilla mit dem schwedischen VPN-Anbieter Mullvad zusammen und verspricht neben einer sehr einfachen Bedienung eine durch das moderne und schlanke WireGuard-Protokoll schnelle Performance, Sicherheit sowie Privatsphäre: Weder werden Nutzungsdaten geloggt noch mit einer externen Analysefirma zusammengearbeitet, um Nutzungsprofile zu erstellen.

Das Mozilla VPN besteht aus über 400 Servern in mehr als 30 Ländern, hat keine Bandbreiten-Beschränkung und erlaubt die Verbindung auf bis zu fünf Geräten. Es stehen Apps für Windows 10, Apple macOS, Ubuntu, Android sowie Apple iOS zur Verfügung.

Die Kosten belaufen sich auf 9,99 Euro für einen Monat. Bei Bindung für sechs Monate beträgt der Monatspreis 6,99 Euro (30 Prozent Ersparnis), bei Bindung für ein Jahr werden 4,99 Euro pro Monat fällig (50 Prozent Ersparnis). Eine Rückerstattung ist innerhalb von 30 Tagen nach dem Kauf möglich.

Der Beitrag Mozilla VPN: Start in Österreich, Schweiz und weiteren Ländern steht bevor erschien zuerst auf soeren-hentzschel.at.

Ich habe mich heute selbst ge-DoS-ed, und dabei wieder 1-2 wichtige Lektionen gelernt, die ich euch nicht vorenthalten möchte. Gut, technisch gesehen war es kein DoS, da der Service nicht in die Knie ging. Andrerseits musste das System heute ein vielfaches (d.h. 190000-fache dessen, was es sonst so im Schnitt macht) leisten, und da's auch irgendwie lustig war gibt's jetzt einen Blogpost dazu.

Damit man das Ausmaß versteht ein paar Hintergrundinfos: Seit geraumer Zeit bastle ich auf Basis des ZigBee-Protokolls an meinem SmartHome. Ich persönlich bin absolut kein Fan von Cloud-basierten Diensten, daher übernimmt die Steuerung des Systems mein Homeserver, auf welchem wiederum diverse Dienste abgeschottet laufen.

Die Kommunikation mit den ZigBee-Geräten übernimmt dabei ein ConBee II USB-Stick, einfache Steuerungsaufgaben (Ein/Aus von Lampen bspw.) werden über die vom Hersteller verfügbare Software erledigt.

Komplexere Aufgaben übernimmt eine Node-RED-Instanz. Node-RED ist eine browser-basierte Entwicklungs- und Laufzeitumgebung, mit der man so gut wie alles machen kann. Im Prinzip läuft da ein NodeJS-Server mit Weboberfläche, auf der Flows (d.h. Abläufe) definiert werden können, welche von dieser dann auch ausgeführt werden. Es gibt ein paar vorgefertigte Nodes die viele Dinge erleichtern, dann eine gefühlte Million Drittanbieternodes, als auch die Möglichkeit Code direkt in JavaScript zu schreiben. Ich bin kein Fan von JavaScript, aber Node-RED macht die Entwicklung und das Deployment schon sehr einfach. Nutzen wir unter anderem aus diesem Grund auch in der Firma bei Industrieanlagen. Man kommt damit sehr schnell an Ergebnisse, und ich muss zugeben, dass ich auch privat einfach keine Lust mehr habe riesen Projekte aufzusetzen wenn man einfach nur ein paar Sachen automatisieret haben will. Und dafür ist Node-RED echt genial.

Das hat mir aber noch nicht gereicht, nein, ich wollte auch die Möglichkeit haben über gewisse Dinge auch unterwegs benachrichtigt werden zu können (bspw. wenn ein Paket ankommt). Und da mir Sicherheit schon so halbwegs wichtig ist, laufen Benachrichtigungen von Node-RED an mein Smartphone über den Signal Messenger.

Und da fängt der Spaß jetzt an. Damit nicht jeder über Signal mit meiner Node-RED-Instanz kommunizieren kann, habe ich eine Allowlist implementiert. Da ist aktuell nur meine Mobilfunknummer hinterlegt, und wenn ich eine Anfrage via Signal schicke, bekomme ich auch eine Antwort. Das habe ich gestern Abend noch getestet, war glücklich damit, und ging guten Gewissens ins Bett.

Heute Morgen dann, als ich bereits außer Haus war, kam mir die wunderbare Idee auch mal zu sehen ob der Filter auch für Geräte funktioniert, die nicht in der Allowlist hinterlegt sind. Also das Zweithandy gezückt, Die Nachricht „Test“ getippt, auf Senden gedrückt, und die Antwort abgewartet. Relativ genau 1,6 Sekunden später kam dann ein „You're not allowed to use this service.“ zurück, und für weitere 1,6 Sekunden hatte ich auch ein Lächeln im Gesicht. Und dann kam die gleiche Meldung nochmal, und weitere 1,6 Sekunden später nochmal.

Kein Stress dachte ich mir, Signal hat ja ein Rate Limit eingebaut, das geht vielleicht 100 Nachrichten oder so gut, und dann werd ich eh blockiert. Denkste.

Nach 150 Nachrichten habe ich dann langsam mal das Smartphone stummgeschaltet, und nach den ersten 500 Nachrichten kam ich ins Zweifeln, ob es tatsächlich ein Rate Limit gibt. Nach 1000 Nachrichten war klar: Es gibt keines.

2021-06-22-Eigen-DoS

Exakt 19056 Nachrichten später hatte ich dann auch den Fehler gefunden: Wenn man in Signal eine Nachricht sendet, bekommt man standardmäßig auch eine Nachricht ohne Inhalt zurück. Ich konnte nicht herausfinden, wofür genau (ist das die Benachrichtigung dass die Nachricht zugestellt wurde, oder die Benachrichtigung, dass die Nachricht gelesen wurde?), aber das war die Ursache.

Nachdem ich mein „Test“ abgesendet hatte, hat Node-RED die Nachricht empfangen, und mit einem „You're not allowed to use this service.“ quittiert. Das hat wiederum mein Smartphone mit einer Inhaltslosen Nachricht quittiert, was Node-RED wiederum zum Anlass nahm, mir den gleichen Text nochmal zu schicken. Und das eben den ganzen Tag. Die Fehlerbehebung bestand entsprechend darin innerhalb meines Node-RED-Flows zu schauen ob die via Signal übertragene Nachricht überhaupt einen Inhalt hat, und falls nicht kann die Nachricht direkt verworfen werden.

Gelernt habe ich also:

  • Dass Signal entgegen der üblichen Meinungen (und ich habe echt viele Threads dazu gefunden) zumindest bei mir absolut kein Rate Limit anwendet. Ich kann anscheinend den ganzen Tag senden was ich will ohne dass das irgendeine Auswirkung hätte. Und wenn es SPAM ist, ist es halt so
  • Unterwegs nicht testen, ob der Code, den man am Abend zuvor geschrieben hat, auch wirklich funktioniert, das macht man zu Hause
  • Code spätestens dann testen, wenn man den Spaß live schaltet
  • Akkus in Smartphones enorme Sprünge gemacht haben, ebenso wie die verbauten CPUs. Nachdem Signal verhindert hat, dass sich Android in den Deep Sleep begibt, habe ich nach 9 Stunden gerade mal 57% Akku verbraten. Finde ich, dafür dass das Gerät den ganzen Tag aktiv war, in Ordnung
  • Signal relativ problemlos mit mehreren tausend Nachrichten zurechtkommt. Allerdings auch nur so lange, wie man nicht den ganzen Thread dazu öffnet
  • Es gut ist, dass mein Node-RED-Service eine Ablaufzeit für verschwindende Nachrichten bei Signal erzwingt. Die Nachrichten, die ich von meinem SmartHome bekomme, sind immer nur kurze Zeit relevant (Paket angekommen, Licht noch an, Bewegung erkannt, whatever), und werden in der Regel nach einem Tag automatisch gelöscht. Das war übrigens der ausschlaggebende Punkt in diesem Anwendungsfall auf Signal anstelle von Matrix zu setzen
  • Der Spaß deutlich weniger Datenvolumen verbraucht hat als erwartet. Der komplette bisherige Monat wird mir mit 5MB angezeigt, was bei über 19000 Nachrichten deutlich weniger ist, als ich erwartet habe, zumal da auch noch ein paar Mediendateien mit drin sind.

Dieser Beitrag ist eine deutsche Übersetzung von Great Invitations (CC BY-SA 4.0). Mit wir o.ä. ist dementsprechend das Prosody-Team gemeint, welches diesen Artikel ursprünglich verfasst hat.

Es gibt derzeit zwei Arten von Servern im XMPP-Netzwerk: solche mit öffentlicher Registrierung und solche ohne.

Die Server, die eine Registrierung unterstützen, erlauben es in der Regel, Konten über das Web oder mit einem XMPP-Client (XEP-0077) zu erstellen. Das Problem ist, dass dies den Server für die ganze Welt öffnet.

Selbst wenn CAPTCHAs und andere Schutzmechanismen genutzt werden, wird selbst der sorgfältigste Administrator eines öffentlichen XMPP-Servers irgendwann feststellen, dass Spammer Konten auf seinem Server registrieren.

Die Alternative ist, die Registrierung zu deaktivieren und alle Konten manuell einzurichten. Dies funktioniert für einen privaten Server, bedeutet aber zusätzlichen Aufwand und zusätzliche Verantwortung des Administrators. In vielen Fällen bedeutet es auch, dass der Admin dafür verantwortlich ist, das Passwort des Benutzers zu generieren und einen Weg zu finden, es irgendwie sicher an den Benutzer zu senden.

Aber halt! Es gibt einen dritten Weg! Das Konzept von Internetdiensten, die nur für eingeladene Benutzer zugänglich sind, gibt es schon seit langer Zeit. Als Google Gmail auf den Markt brachte, war es bekanntlich nur möglich, sich per Einladung anzumelden. Heute hat Gmail über 1,5 Milliarden Nutzer! Vielleicht sind die Ambitionen als Prosody-Administrator nicht so hoch, aber es gibt einige eindeutige Vorteile für einen einladungsbasierten Registrierungsablauf:

  • Server-Administratoren können Einladungen erstellen und müssen niemals das Passwort eines anderen Benutzers generieren oder sehen.
  • Einladungs-Links nutzen natürlich den Server, von dem sie stammen, so dass der Benutzer nicht manuell einen Server in seinem Client auswählen muss (eine überraschend häufige Schwierigkeit für Leute, die mit dem Konzept von föderierten Messaging-Netzwerken nicht vertraut sind).
  • Benutzer-zu-Benutzer-Einladungen können vom Administrator aktiviert werden, was ein natürlicheres und vertrauensvolleres Wachstum ermöglicht als eine offene Registrierung.
  • Eingeladene Benutzer können die Person, die sie eingeladen hat, direkt in ihrer Kontaktliste finden, was eine weitere Hürde beseitigt, mit der sich Erstbenutzer normalerweise auseinandersetzen müssen.
  • Missbräuchliche Accounts (z.B. solche, die Spam versenden) können zu einem einladenden Benutzer zurückverfolgt werden, und dieser Benutzer kann daran gehindert werden, weitere Einladungen zu erstellen.

Die Erfahrung mit dem einladungsbasierten Registrierungsablauf, den wir für Snikket entwickelt haben, hat gezeigt, dass Einladungs-Links ein wirklich einfacher Weg sind, um Leute auf einem Server anzumelden, ohne offene Registrierung aktivieren zu müssen. Daher haben wir uns entschlossen, dies auf das weitere XMPP-Ökosystem zu übertragen.

Screenshot der Prosody-Einladungsseite

Screenshot der neuen Prosody-Einladungsseite

Unser Ziel war es, die Einfachheit des Snikket-Registrierungsablaufs so weit wie möglich beizubehalten und gleichzeitig zu ermöglichen, mit anderen Clients auf so vielen Plattformen wie möglich zu arbeiten. Dies ist nicht so einfach, wie man vielleicht denkt!

Wie es funktioniert

Wir haben die Clients in drei Kategorien eingeteilt, basierend darauf, was sie unterstützen:

Die Funktion “magischer Link” bietet den nahtlosesten Ablauf. Der Benutzer folgt dem Link, um die App zu installieren, und das Invite-Token wird nach der Installation auf magische Weise von der App erkannt. Das heißt, der Ablauf ist kurz und reibungslos:

Diagramm, das den Ablauf für magische Installationslinks darstellt

Der Ablauf für magische Installationslinks

Wenn dieser Ablauf nicht unterstützt wird, ist die nächste bevorzugte Option, dass der Benutzer den Einladungs-URI mit der von ihm gewählten App öffnet. Die Schwierigkeit dabei ist, dass der Client zuerst installiert werden muss, da der Browser sonst nicht weiß, wie er den URI behandeln soll. Das bedeutet, dass der Benutzer zum Herunterladen und Installieren des Clients umgeleitet wird und dann zurück auf die Einladungsseite gehen muss:

Diagramm, das den Ablauf für Invite-URI-Links darstellt

Der Ablauf der Einladungs-URIs

Wenn der Client keine Einladungs-URIs unterstützt, wird der Benutzer durch die Online-Registrierung seines Kontos geführt (Prosody validiert das Invite-Token) und muss dann nur noch seine Anmeldedaten in den Client eingeben, nachdem er ihn installiert hat:

Diagramm, das den Ablauf für die manuelle Registrierung zeigt

Der Ablauf der manuellen Registrierung

Mit diesen drei Abläufen können wir einen Einladungslink in einen angemeldeten Benutzer überführen, egal für welche Plattform- und Client-Kombination sich der Benutzer entscheidet.

Daten über Clients werden in mod_register_apps gesammelt und können auch von Server-Administratoren konfiguriert werden (die vielleicht eine bestimmte Gruppe von Apps empfehlen wollen, die sie für die Verwendung auf ihrem Server unterstützen wollen).

Wie man es einrichtet

Alle Module befinden sich in unserem Community-Repository1 und sollten mit Prosody 0.11 und trunk funktionieren.

Einfach einen Blick auf das Beispiel-Konfigurations-Snippet in mod_invites werfen, um loszulegen! Wenn man fertig ist, fügt man vielleicht noch mod_invites_api hinzu, um sich eine URL mit Lesezeichen zu erstellen, die auf Knopfdruck eine Einladung für ein neues Konto generieren kann.

Vieles davon ist sehr neu, daher freuen wir uns über Feedback. :)

Und nicht vergessen: Wer einen einfachen Prosody-Server für eine kleine Gruppe einrichten und Funktionen wie diese und mehr fertig konfiguriert haben möchte, sollte einen Blick auf Snikket werfen.

Die Zukunft

Es gibt viele Möglichkeiten, auf diesem System aufzubauen. Wir hoffen, dass mehr Clients Token-URIs implementieren, und vielleicht finden ein paar schlaue Leute sogar heraus, wie man den “magischen Link”-Ablauf auf weitere Plattformen ausweiten kann. Wir denken auch, dass die Einladungs-API, die es vertrauenswürdigen Dritten erlaubt, Einladungen für einen Server zu generieren, einige sehr interessante Einsatzmöglichkeiten bietet.

In der Zwischenzeit freuen wir uns auf Feedback und Beiträge und darauf, von den Erfolgsgeschichten beim Onboarding zu hören :)


  1. Prosody Community Modules ↩︎

20. Juni 2021

Mit meinen Plädoyers für LTS-Distributionen scheine ich bei manchen immer wieder einen Nerv zu treffen. Einige scheinen in ihrer RR-Blase vergessen zu haben, wo die Mehrheiten sind.

Anlass für diesen kleinen Kommentar ist die Feststellung bei Heise, dass Desktop-Anwender bei Debian doch eher Testing verwenden, worauf sich schon in den Kommentaren Widerspruch äußerte. Das möchte ich mal aufgreifen, um hier ein paar Grundannahmen zu äußern, die ich für Linux/Linux-Anwender veranschlage und den meisten Blog-Artikeln zugrunde lege.

Zahlen sind natürlich bei Linux ein schwieriges Thema, weil die wenigstens Distributionen wirklich Zahlen erheben und jene, die das tun (wie z. B. Ubuntu) diese nicht transparent teilen, sondern lediglich in Form von Berichten. Man kann also anders als Apple oder Microsoft schlecht sagen, dass x. Mio. Anwender dieses oder jenes Release nutzen. Unstrittig ist, dass die Zahlen von Distrowatch nichts taugen.

Relativ unstrittig dürfte auch sein, dass die meisten „normalen“ Anwender von Updates tendenziell genervt sind und eher selten den Mehrwert sehen. Die meisten machen Updates erst, wenn die Systeme sie penetrant daran erinnern oder sie gar einfach erzwingen. Nicht umsonst haben Apple und Microsoft automatische Updates im Hintergrund im Dienste einer allgemeinen Systemsicherheit in den letzten Jahren zum Standard erklärt.

Schauen wir uns mal an, welche Distributionen groß sind. Das sind jetzt „gefühlte“ Werte. Sie ergeben sich aus den Zahlen der Distributionen, der Resonanz in den Medien, der Größe der Communitys und der subjektiv wahrgenommenen Präsenz im öffentlichen Raum. Ich mache mal ganz bewusst keine nummerische Liste, sondern gehe alphabetisch vor.

  • Arch Linux
  • Debian
  • Fedora
  • Manjaro
  • Mint
  • openSUSE
  • RHEL & Clone
  • Ubuntu

Ich behaupte mal ganz dreist: Alle anderen Distributionen kann man von den Marktanteilen unter „ferner liefen“ eingruppieren. Bei den meisten darf man wohl sogar bezweifeln, dass sie vierstellige Nutzerzahlen haben. Und auch diese Liste dürfte eine erhebliche Spannbreite aufweisen. Vermutlich sind Ubuntu und Mint mit weitem Abstand führend.

Man muss kein Zahlenakrobat sein, um die Mehrheit der Nutzer bei stabilen Distributionen zu sehen. Das müssen jetzt nicht gleich extreme LTS-Varianten sein. Vermutlich aktualisieren die meisten Nutzer irgendwo in einem Intervall zwischen den 12 Monaten, die bei Fedora das Maximum sind, bis zu den 24 Monate zwischen zwei Ubuntu LTS-Varianten. Das ist übrigens auch der Zyklus den Windows 10 und macOS vorgeben.

Eines dürfte jedenfalls auch klar sein: Manjaro und Arch haben nicht mehr Anwender als die hier gelisteten stabilen Varianten. Selbst dann nicht, wenn man Debian und openSUSE wegen ihrer rollenden Zweige dazu zählt.

Nur mal so als Hinweis, weil viele Poweruser und Entwickler manchmal vergessen, wo die Masse der Anwender sind. Das soll natürlich niemanden daran hindern, RR-Distributionen zu nutzen.

Manche Entwickler/Projekte sollten sich allerdings schon fragen, ob ihr Zyklus mit 3-4 Monaten Sinn ergibt und welche Anwender sie damit erreichen, oder ob dahinter nur die Unfähigkeit zur Produktpflege steht. Einer der häufigst gelesenen Artikel hier im Blog ist ausgerechnet: Kommentar: KDE und die Distributionen – zwei Antipoden. Im Grunde genommen kann man Veröffentlichungen ab einer gewissen Häufigkeit und bei fehlender Pflege der Vorgängerversionen auch gleich bleiben lassen und den Distributoren einfach Git-Snapshots zur Paketierung überlassen.

Der Artikel Kommentar: Linux – Die Mehrheit nutzt kein Rolling Release erschien zuerst auf [Mer]Curius

Ein qualitativ hochwertiges Custom ROM mit langfristiger Pflege zu finden, ist gar nicht so einfach. Aktuelle Firmware-Dateien noch viel weniger. Beides ist notwendig für den leidlich sicheren und Datenschutz-freundlichen Betrieb eines Android Smartphones.

Über den allgemeinen Zustand der Custom ROM Entwicklung habe ich mich kürzlich ja bereits hinreichend ausgelassen. Aber man muss ja weiter machen und deshalb heute ein paar eher praktische Empfehlungen. Offizielle LineageOS-Builds gibt es zur Zeit nur noch für wenige Geräte und diese sind meistens ziemlich alt. Deshalb muss man für neuere Modelle (und in der Custom ROM-Szene ist das Samsung Galaxy S10 noch verhältnismäßig neu) in den Weiten von XDA Developers suchen.

Kriterien für ein Custom ROM sind bei mir:

  • Offene Verwaltung des Quellcodes des Custom ROMs
  • Aktuelles Android
  • Aktueller Patchlevel von AOSP und Hersteller
  • Aktives SELinux
  • Aktive Verschlüsselung
  • Keine vorinstallierten Google-Dienste

Ich habe dafür längere Zeit die Variante von modpunk genutzt, aber wie man im entsprechenden Thread sehen kann, entwickelt modpunk eher erratisch. Nach langen Phasen ohne Updates kommt dann ab und mal wieder was. Das soll jetzt definitiv nicht als Vorwurf missverstanden werden, denn bei einem in der Freizeit entwickelten Projekt kann man keine Updates erzwingen.

Vor Kurzem hat Tim Zimmernann (Linux4) sein eigenes Build veröffentlicht (die GitHub-Projektseite findet sich hier). Das möchte ich hier allen Besitzern eines Gerätes der S10-Familie ans Herz legen. Der Entwickler veröffentlicht nicht nur regelmäßig Updates (1-2x pro Monat), sondern hat auch nervige Bugs wie die Probleme mit der WPA3-Verschlüsselung behoben. Updates laufen unproblematisch OTA über die entsprechende Lineage-Routine. Da er auch der offizielle Maintainer des Galax Tab S6 Lite für LineageOS ist, habe ich die Hoffnung noch nicht aufgegeben, dass das Samsung Galaxy S10 doch noch ein offizielles Build bekommen könnte.

Updates für Android sind das eine, Updates für die Firmware aber ebenso wichtig und bei Custom ROMs oft nicht ganz trivial. Deshalb ist es umso schöner, dass Linux4 hier auch Bundles über die Projektseite anbietet. Linux-Anwender können dann mit heimdall ziemlich unproblematisch die Firmware ihrer Geräte aktualisieren.

Dazu muss das Samsung-Smartphone nur in den Download-Mode versetzt werden und dann folgender Befehl in der Konsole ausführt werden.

$ cd </Pfad/zum/Download>
$ heimdall flash --CM cm.bin --DQMDBG dqmdbg.img --KEYSTORAGE keystorage.bin --RADIO modem.bin --CP_DEBUG modem_debug.bin --PARAM param.bin --BOOTLOADER sboot.bin --UH uh.bin --UP_PARAM up_param.bin 

Wie immer besteht natürlich bei Custom ROMs immer ein gewisses Restrisiko am Ende ein Soft bricked oder gar Hard bricked Gerät zu habe, aber ich habe damit sehr positive Erfahrungen gemacht.

Der Artikel Android Custom ROM und Firmware für Samsung Galaxy S10 erschien zuerst auf [Mer]Curius

Unbemerkt von vielen greift sich das Oligopol aus Verlagen und Wissenschaftsdienstleistern nach und nach die wichtigsten Literaturverwaltungslösungen, um ihre Ausrichtung hin zu Daten-Analyse-Firmen zu stärken. Nach EndNote folgte Papers, nun ist Citavi an der Reihe. Übrig bleiben nur noch Open Source-Lösungen.

Die Literaturverwaltung war damals einer der Gründe für meinen Wechsel zu macOS. Die Möglichkeiten von Linux waren mir einfach zu beschränkt, denn Literaturverwaltungen sind bei Linux-Programmen oft nicht mehr als digitale Literaturlisten oder „Literaturverwaltungs-Bronzezeit“, wie ich 2015 konstatierte. Ich schätze umfassende Literaturverwaltungssysteme wie Citavi, weil sie meinem Arbeitsstil sehr entgegenkommen. Ich weiß aber natürlich auch, dass man das anders sehen kann. Schon damals hatte ich allerdings Datenschutz und individuelle Datensouveränität bei Forschungsvorhaben im Blick.

Die letzten gallischen Dörfen fallen

Die Welt war damals aber noch „in Ordnung“. Mendeley gehörte zwar schon zu Elsevier, aber EndNote wurde noch von Thompson Reuters entwickelt und Citavi von einer Firma namens Swiss Academic Software GmbH. Die größte Kröte bei Citavi war damals „nur“ die Bindung an Windows als einziger Plattform. Mit Papers gab es für macOS eine „Geheimwaffe“, die so taten, als ob sie ein kleines unabhängiges Start-up wären. Sicher alles keine Open Source Software und natürlich kommerziell agierende Unternehmen, aber eben doch verhältnismäßig kleine Player in einem vielfältigen Markt. Die Angebotslage war nicht perfekt, aber man konnte guten Gewissens damit arbeiten.

Kurz darauf übernahm Clarivate Thompson Reuters und Digital Science führte sein mittelmäßig erfolgreiches Cloud-Produkt ReadCube mit der Neuerwerbung Papers (das man erstaunlicherweise von Springer Nature erwarb) unter dem gemeinsamen Label „ReadCube Papers“ zusammen. Hinter Digital Science steht die Holtzbrinck Publishing Group und neben ReadCube Papers hat man einige Produkte für den Wissenschaftssektor im Angebot. Am bekanntesten unter den Produkten von Digital Science dürfte hier Dimensions sein, das sich anschickt, eine Alternative zu Scopus und Web of Science (WoS) zu werden. vor einigen Tagen erhielt ich eine Ankündigung, in der mir das lang versprochene Citavi Web offeriert wurde. Nach dem Login sah die URL so gar nicht nach Citavi aus und eine kurze Recherche ergab, dass Citavi im Februar von QSR International erworben wurde. Von der Firma hatte ich vorher noch nichts gehört, aber die englischsprachige Wikipedia weiß dazu etwas mehr:

QSR International is the developer of qualitative data analysis (QDA) software products, NVivo, NVivo Server, Interpris and XSight. These are designed to help qualitative researchers organize and analyze non-numerical or unstructured data. Qualitative research is used to gain insight into people’s attitudes, behaviours, value systems, concerns, motivations, aspirations, culture or lifestyles. It is used to inform business decisions, policy formation, communication and research. Focus groups, in-depth interviews, content analysis and semiotics are among the many formal approaches that are used, but qualitative research also involves the analysis of any unstructured material, including customer feedback surveys, reports or media clips.

Artikel: QSR International, zuletzt abgerufen am 20.06.2021

Das liest sich nicht nach einer Firma, der ich mit meiner Literatur- und Wissensverwaltung das Herzstück meiner wissenschaftlichen Arbeit überlassen möchte.


Exkurs: Geschäftsmodelle von Wissenschaftsverlagen & Co

Mit Elsevier und Springer Nature sind schon zwei wesentliche Akteure im Markt der Wissenschaftsverlage genannt. Clarivate (die nun auch ProQuest übernommen haben) und Holtzbrincks Digital Science sind weitere Akteure unter den Wissenschaftsdienstleistern. Sie alle eint ein sehr „spezielles“ Geschäftsmodell, das sich stark simplifiziert folgendermaßen erklären lässt:

Öffentliche finanzierte Forschung wird publiziert in kommerziellen Zeitschriften, die wiederum zu horrenden Summen von öffentlich finanzierten (Universitäts-)Bibliotheken erworben werden müssen, um ihrem Auftrag in der Zurverfügungstellung von Literatur nachzukommen. Dafür streichen die Verlage eine Rendite von bis zu 30% ein.

Mancher mag jetzt denken, wo sind denn hier die Drittmittel, von denen immer alle reden. Nun, die gibt es eigentlich nicht! Es gibt in Deutschland keine Tradition von privatwirtschaftlicher Wissensförderung. Die Unternehmen haben Grundlagenforschung gerne für Lau (und zahlen dafür nicht mal nennenswert Steuern…). Das was heute meistens Drittmittel genannt wird, hieß früher „Zweitmittel“. Damit waren jene Mittel gemeint, die zwar nicht aus dem eigenen Haushalt stammten, aber dennoch von der öffentlichen Hand in Form von z. B.DFG und BMBF-Förderung. Im neoliberal dominierten Diskurs wollte man das „cooler“ klingen lassen und schaffte die Zweitmittel als Begriff ab, um die Illusion einer nennenswerten Drittmittelförderung zu kreieren. Im Prinzip ist das für den Steuerzahler ein „Linke Tasche, rechte Tasche“-Phänomen.

Weil die Nachwuchswissenschaftlicher im „Ich bin Hanna“-System sich die Zeitschriften, in denen sie publizieren, faktisch nicht selbst aussuchen können, gibt es in vielen Wissenschaften zwangsläufig ein Oligopol aus relevanten Verlagen.

Die Geschäftsmodelle der Datendienstleister im Wissenschaftssektor sind nicht ganz so einfach zu erklären, aber laufen auf ähnliches hinaus. Ohne diese Dienstleister können Einrichtungen ihre Fördermittelanträge nicht mehr ausreichend belegen und haben keine Grundlage für notwendige bibliometrische Verfahren. Diese sind aber mitunter die Grundlage für zahlenbasierte Evaluationsverfahren bei Neuberufungen und Mittelvergabe.


Verlage entdecken neue Geschäftsmodelle

Gleichzeitig entdecken die Verlage neue Geschäftsmodelle. Einerseits einfach um neue Märkte zu erschließen, andererseits sicherlich auch, um sich abzusichern, falls die Open Access-Initiative tatsächlich eine Transformation des Publikationssystems schaffen sollte. Die Kriegskassen der Verlage und Wissenschaftsdienstleister sind dank satter Renditen gut gefüllt. Dem Steuerzahlen sei Dank.

Nachdem man bemerkt hat, auf was für einem „Datenschatz“ man durch seine dominante Stellung im Publikationssystem sitzt, möchte man diesen nun heben. Tracking auf den Plattformen der Verlage gehört da ebenso dazu wie die Aushebelung des bisher auf Anonymität ausgerichteten Authentifizierungssystems über Shibboleth. Wer sich für das Thema interessiert, dem seit die Podcast-Folge 197 des Open Science Radio mit Renke Siems und Björn Brembs ans Herz gelegt.

Diese Daten lassen sich natürlich perfekt ergänzen, wenn man nicht nur die Publikationsdaten hat, sondern auch noch Informationen darüber, wie die Forscher so arbeiten. Diese Daten befinden sich zu einem nicht unerheblichen Teil in den Literaturverwaltungen der Wissenschaftler. Also exakt jene Softwarelösungen, die nicht nur seit Jahren auf Cloud-Lösungen umgestellt werden, sondern auch sukzessive in die Hände der großen Player geraten.

Welche Alternativen bleiben?

Um dem wenigstens ein ganz kleines bisschen zu entgehen, bleiben wirklich fast nur noch die klassischen Open Source-Lösungen. Am prominentesten sind hier vermutlich Zotero und JabRef. Daneben gibt es natürlich noch zahlreiche weitere Lösungen, vor allem im Umfeld der BibTex-Manager. Auch hier sollte man aber Abstand von allfällig offerierten Clouddiensten nehmen. Wer weiß schon, wer als nächstes übernommen wird und wohin die Daten dann fließen.

Gemessen den EndNote, Citavi oder ReadCube ist das mit enormen funktionalen Rückschritten verbunden, aber es bleibt einem keine Alternative, sofern man nicht die Hoheit über seine eigene wissenschaftliche Arbeit preisgeben möchte.

Der Artikel Literaturverwaltung: Es bleiben nur noch Zotero und JabRef erschien zuerst auf [Mer]Curius

17. Juni 2021

Im berühmten Artikel „Linux ist nicht Windows“ wird thematisiert, dass Windows-Kompetenz keine allgemeine IT-Kompetenz ist und nicht einfach 1:1 auf Linux übertragen werden kann. Aber fördern wir überhaupt IT- oder wenigstens allgemeine Linux-Kompetenz oder nicht eher Distributions-Kompetenz?

Ich habe einen ziemlich distanzierten Blick auf Distributionen und Desktopumgebungen. Beides wird maßlos überbewertet. Bevor jetzt ein wütender Kommentar kommt, bitte weiterlesen.

Meiner Meinung nach kochen alle Linux-Distributionen letztlich nur mit Wasser. Das bedeutet, sie können letztlich nur paketieren, was Upstream da ist und die zunehmende Komplexität der Systeme und vielfältige Kooperationen haben in den letzten 15 Jahren eine hohe Standardisierung erzeugt. Eigenentwicklungen und wirklich individuelle Lösungen kann man an einer Hand abzählen. Und selbst die funktionieren oft ähnlich, weil sie die gleichen Aufgaben erfüllen sollen. Das ist wie in der Evolution. Unterschiedliche Arten auf dem Globus, die eine ähnliche ökologische Nische besetzen, prägen vollkommen unabhängig voneinander ähnliche Merkmale aus.

Das Gleiche gilt für Desktopumgebungen. Letztlich haben doch alle ähnliche Konzepte. Es gibt Fenster, in denen Programme laufen. Irgendwo gibt es eine Übersicht der aktuell laufenden Programme (Dock, Fensterleiste o.ä.) und einen Starter (Startmenü, Launchpad etc.). Dazu noch ein bisschen „Gedöns“ für Benachrichtigungen, Systemdienste, Einstellungen. Wir haben dieses Konzept mit Anpassungen inzwischen sogar auf Smartphones und Tablets übertragen. Ob das ein objektiv gutes Konzept für die Bedienung ist oder wir uns einfach kollektiv daran gewöhnt haben, darüber kann man sicher trefflich streiten.

Das so rational herunter zu brechen, beruht auf abstrakter IT- oder Linux-Kompetenz – dazu muss man bei weitem kein Informatik-Studium hinter sich haben. Wenn man mit vielen Distributionen parallel arbeitet und daneben mit macOS und Windows, merkt man mit ein wenig Abstraktionsvermögen schnell, was die funktionalen Grundlagen jedes Systems sind. Dazu muss nicht d-bus verstanden haben, aber das 1×1 der Partitionierung schon. Nur um mal ein paar praktische Beispiele zu bringen. Diese Kenntnisse kann man dann auf jedes neue Systeme anwenden und hat eine deutlich flachere Lernkurse.

Umso mehr überraschen mich immer wieder die entrüsteten Kommentare, die darauf beharren, dass doch alles ganz unterschiedlich sei. Noch mehr überraschen mich in den Supportforen Anwender, die vom Wechsel von Ubuntu zu Debian überfordert sind.

Mir stellt sich die Frage, ob wir als Linux-Community nicht letztlich denselben Fehler wiederholen, den alle Anwender mit Windows machen. Anstelle allgemeine Kompetenz zur Funktionsweise von Betriebssystemen bzw. Linux-Distributionen zu vermitteln (in Wikis, Foren, Blogs etc. pp), lehren wir die Neueinsteiger (und Nicht-mehr-so-Neueinsteiger) die Funktionsweise und Abläufe einer einzelnen Distribution. So wie der Windows-Nutzer dann nur Windows kann, schaffen wir Linux-Anwender, die nur Ubuntu (oder jede beliebige andere Distribution) können.

Werden wir damit unserem eigenen Anspruch eigentlich gerecht? Ein Anspruch, der vor vielen Jahren in solchen Artikeln wie dem oben verlinkten „Linux ist nicht Windows“ formuliert wurde. Ein Anspruch, den viele in Diskussionen wie eine Trophäe vor sich her tragen: „Wir“ vermitteln doch schließlich mehr als nur Klickfolgen-Kompetenz.

Und wenn dem so ist, stellt sich die Frage, warum wir das so machen? Haben wir als – in der Regel – um eine Distribution herum organisierte Community Angst vor mündigen Anwendern, die bei Bedarf schnell das System wechseln können? Verweigern wir in den meisten Supportforen die Unterstützung für „fremde“ Distributionen, um die Anwender im „Walled Garden“ der eigenen Community zu halten? Dienen wir als Community damit eigentlich „Linux“, den „Anwendern“ oder nur unserem eigenen „Walled Garden“?

Der Artikel Fördern wir Betriebssystem-Kompetenz oder Distributions-Kompetenz? erschien zuerst auf [Mer]Curius

16. Juni 2021

Mozilla hat Firefox 89.0.1 veröffentlicht und behebt damit mehrere Probleme der Vorgängerversion, einschließlich einer Sicherheitslücke.

Download Mozilla Firefox 89.0.1

Mit dem Update auf Firefox 89.0.1 behebt Mozilla durch Deaktivierung der erst mit Firefox 89 eingeführten Shared Font List, welche den Speicherverbrauch reduzieren und die Performance verbessern sollte, mehrere Probleme in Zusammenhang mit der Darstellung von Schrift auf Websites, von denen manche Nutzer von Windows und Linux betroffen waren. Auf macOS sind keine Probleme bekannt, hier blieb die Option aktiviert.

Auf macOS konnte es bei Verwendung eines externen Bildschirms zu einem Flackern beim Scrollen kommen. Grund hierfür ist ein Bug in einem AMD-Grafikkartentreiber. In Firefox 89.0.1 wurde dies durch die Deaktivierung von WebRender für die Darstellung der Scroll-Leisten auf macOS behoben. Auf Windows und Linux blieb die entsprechende Option aktiviert.

Dafür gab es für manche Linux-Nutzer Performance- und Stabilitätsprobleme in Zusammenhang mit der Software-WebRender-Implementierung. Diese wurde für betroffene Nutzer deakiviert.

Ebenfalls ein Problem, von dem manche Linux-Nutzer betroffen waren, waren fehlerhafte Scroll-Leisten bei Verwendung mancher GTK-Themes.

Unter Windows haben manche Screenreader nicht mehr korrekt mit Firefox interagiert. Zur Behebung hat Mozilla die mit Firefox 89 erst eingeführte „Pseudo-Oberfläche“ deaktiviert, welche zu Beginn des Startvorgangs angezeigt wurde, um so die gefühlte Performance des Firefox-Starts unter Windows langsameren Systemen zu verbessern.

Die DisableDeveloperTools-Unternehmensrichtlinie zur Deaktivierung der Entwicklerwerkzeuge funktionierte nicht mehr korrekt und wurde repariert.

Außerdem wurde mit Firefox 89.0.1 eine als moderat eingestufte Sicherheitslücke behoben. Von dieser waren ausschließlich Nutzer des Betriebssystem Windows betroffen, welche nicht WebRender als Rendering-Backend von Firefox verwenden.

Schließlich wurden noch einige Übersetzungen aktualisiert.

Der Beitrag Mozilla veröffentlicht Firefox 89.0.1 erschien zuerst auf soeren-hentzschel.at.

13. Juni 2021

Videokonferenzen sind gekommen, um zu bleiben. Die Idee und die Technologie ist schon alt, aber mit der Corona Pandemie kam der Durchbruch. Wir freuen uns sicher alle, wenn wir weniger Meetings in Videokonferenzen haben, aber eine komplette Rückkehr in Face-to-Face Begegnungen in stickigen Meeting-Räumen wird es sicher nicht geben.

Manchmal bin ich bei [Mer]Curius antizyklisch unterwegs. Über 12 Monate schrieb jede mir bekannte Technik-Seite über Videokonferenzen, aber ich habe mir das Thema gespart. Nun, wo die Zeichen auf Lockerungen stehen, schreibe ich hier einen Beitrag. Denn ich denke, das Thema wird uns erhalten bleiben. Außerdem haben sich die Dienstanbieter und ihre Angebote im letzten Jahr konsolidiert und man kann sich besser einen Überblick verschaffen.

Wichtig ist eine Abgrenzung, denn Videotelefonie ist nicht gleich Videokonferenz. Viele herkömmliche Videotelefonie-Lösungen (FaceTime, Skype, Jami, auch die entsprechenden Funktionen der Messenger) sind lediglich für Gespräche im kleinen Kreis gedacht und teilweise auch offiziell darauf beschränkt. FaceTime wurde gerade erst auf maximal 32 Teilnehmer ausgedehnt. Das sind Bereiche, in denen Videokonferenz-Systeme erst losgehen. Eine gute Videokonferenz-Lösung sollte in der Lage sein, mindestens 100 Teilnehmer mit Bild und Ton zu verarbeiten. Alles darunter ist keine Konferenz, sondern eine kleine Gesprächsrunde. Dessen ungeachtet taugen die großen Videokonferenz-Lösungen natürlich auch für Zweier-Gespräche.

Ist Sicherheit immer wichtig?

Die erste Frage, die man sich stellen sollte, ist ob es wirklich immer eine Lösung mit Fokus auf Privatsphäre und Sicherheit braucht. Erscheint vielen jetzt vielleicht abwegig, ist es aber nicht.

Bei einer öffentlichen Veranstaltung, die jeder besuchen darf und wo die Teilnehmer oder zumindest die zentralen Personen vielleicht sogar öffentlich im Internet stehen, braucht es keine besonders sichere Lösung. Denn weder Gesprächsinhalte, noch Metadaten (Wer, wo, wie, wann?) müssen geschützt werden. Sie liegen ja sowieso offen.

Bei allen anderen Gesprächen sollten sowohl die Inhalte als auch die Metadaten bestmöglich geschützt werden.

Ende-zu-Ende Verschlüsselung

Ende-zu-Ende Verschlüsselung der Gesprächsinhalte ist normalerweise der Goldstandard, ab dem man anfängt, von Sicherheit zu sprechen. Tatsächlich wurde da im vergangenen Jahr aber viel mit Nebelkerzen geworfen. Insbesondere von der großen Zahl der Zoom-Kritiker. Inhalte-Verschlüsselung bei Videokonferenzen bot faktisch Anfang 2020 noch kein einziger Anbieter!

Gegenwärtig bietet das Zoom mit einigen Einschränkungen an. Die Konkurrenz von Cisco Webex bietet das ebenfalls, allerdings auch mit Nebenwirkungen. So schließt man beispielsweise Linux-Nutzer pauschal aus. Bei Microsoft Teams ist das seit Anfang des Jahres offiziell in Arbeit und wird wohl erst mal nur für Zweier-Gespräche ausgerollt. Bei den freien Systemen bietet das gegenwärtig nur Jitsi Meet. Das so gerne gelobte Big Blue Button bietet eine solche Absicherung nicht an.

Betreiber – Vertrauen muss wer nicht selber betreibt

Ende-zu-Ende Verschlüsselung schützt allerdings erst mal auch nur die Inhalte – oder auch nicht, wenn es sie nicht gibt. Metadaten können dennoch viele anfallen und das kann für Betreiber interessant.

Viele der Anbieter haben ihren Sitz in den USA. Datenschutz-Aktivisten rufen da immer schnell: „Nicht-DSGVO-konform!“ Aber so einfach ist das nicht. Mit zur Verunsicherung haben Schnellschüsse mancher Datenschutzbeauftragte der Länder beigetragen. Tatsächlich ist das eine Frage der vertraglichen Aushandlung zwischen den beteiligten Parteien und kann gar nicht pauschal beantwortet werden. Schon gar nicht übergreifend von der Schule über die Universität bis zur privaten Firma.

Ganz klar ist aber auch, dass selbst betriebene Instanzen im eigenen Rechenzentrum von BBB natürlich viel datenschutzfreundlicher sind als die Lösungen von Drittanbietern. Das gilt aber nur für den Eigenbetrieb. Sobald man eine BBB-Instanz nutzt, die man nicht selbst betreibt, steht man vor dem gleichen Problem wie bei Zoom & Co.

Leistungsfähigkeit

Und selbst betreiben muss man erst mal können. Während heute jeder privat eine Cloud mit Nextcloud oder Synology aufsetzen kann und Firmen Groupware- und Cloud-Lösungen selbstverständlich selbst betreiben können (was nicht unbedingt bedeutet, dass sie das auch tun!), sieht das bei Videokonferenz-Lösungen ganz anders aus.

BBB kann theoretisch Videokonferenzen mit 100 Teilnehmern inklusive Bild und Ton abhalten. Faktisch scheitern die meisten Firmen und öffentlichen Einrichtungen daran, eine solch leistungsfähige Plattform bereitzustellen. Das heißt es schnell mal „Kamera aus!“ für alle. Für Jitsi ist mir nicht bekannt, dass die Plattform solche Teilnehmerzahlen verkraftet.

Die anderen genannten Alternativen wie Zoom, Webex und Microsoft Teams kommen damit klar. Meiner persönlichen Erfahrung nach ist Zoom hier immer noch stabiler als die Konkurrenz, aber hier gibt es auch gegenteilige Meinungen.

Komfort

Bei vielen hartnäckigen Problemen bleibt der Komfort als Argument oft auf der Strecke. Bevor man sich diesem Punkt zuwenden kann, müssen schließlich erst die wirklich großen Baustellen geschlossen werden. Das erklärt auch den eher schwierigen Zustand in diesem Bereich.

Positiv zu vermerken ist, dass alle Lösungen plattformübergreifend funktionieren. Die Zeiten, in denen Linux-Anwender pauschal ausgeschlossen blieben, sind lange vorbei. Leider war es das dann aber auch schon.

Die meisten Lösungen funktionieren nämlich im Browser nur mit Chrome wirklich gut, was ein erhebliches Manko für den Datenschutz impliziert. Vollwertige Clients für Linux bieten nur Zoom und Microsoft Teams an. Für Cisco Webex gibt es eine abgespeckte Variante. Für BBB gibt es gar keine Clients.

Was Funktionen betrifft, die über den Kern hinausgehen, wie z. B. Breakout-Räume und Kollaborations-Werkzeuge setzt Zoom immer noch Standards.

Zusammengefasst: Es bleibt kompliziert

Wirklich auf der sicheren Seite ist, wer BBB selbst in einem leistungsfähigen eigenen RZ betreiben kann. Für alle anderen bleibt es kompliziert. Denn setzt man einen Dienstleister für BBB ein, steht man vor dem gleichen Dilemma wie bei Zoom, Webex & Co und das sogar ohne E2E-Verschlüsselung.

Der Artikel Überblick über Videokonferenz-Lösungen erschien zuerst auf [Mer]Curius

Kürzlich stolperte ich in einer Email über den Jabber-ID Email Header und da XMPP (früher Jabber) mein Hauptmessenger ist, muss ich diesen header natürlich auch für meine ausgehenden Emails setzen.

Mit NeoMutt geht das ganz simpel:

my_hdr Jabber-ID: martin@mdosch.de

Nun möchte ich diesen header nicht nur senden, sondern auch die Chatadresse (Jabber-ID, kurz JID) von anderen, die diesen header setzen, direkt in der Leseansicht der Emails angezeigt bekommen. Das geht mit NeoMutt auch einfach mit der unignore Option in der Konfiguration:

unignore Jabber-ID

Damit sieht das bei mir dann so aus:

Jabber-ID in NeoMutt

Im xmpp.org Wiki ist das Setzen des headers auch für andere Emailprogramme beschrieben. Wenn jemand weiß, wie man den header in einem Programm setzen kann, das noch nicht dort gelistet ist, bitte kommentieren. Ich pflege das dann im Wiki ein.

9. Juni 2021

Kürzlich musste ich einige Tickets ausdrucken, die großflächig mit Farbe hinterlegt waren. Der Treiber meines Drucker bietet leider keine Möglichkeit, ein Dokument in Graustufen auszudrucken. Und der Farbdruck vergeudet eine Menge Tinte/Toner. Also habe ich nach einem Weg gesucht, Farb-PDFs in Graustufen-PDFs umzuwandeln. Und siehe da: Was Linux an Benutzerkomfort vermissen lässt, ersetzt es durch tolle Kommandos :-)

Variante 1: convert

Den bequemsten Weg bietet das Kommando convert aus dem Paket ImageMagick (apt/dnf install imagemagick). Mit den Optionen -quality und -density steuern Sie gleichzeitig die Qualität und Größe der resultierenden PDFs. Einen guten Kompromiss bietet:

convert -colorspace GRAY -density 300 -quality 95 in-color.pdf  out-grey.pdf

Noch schärfer wird der Ausdruck so:

convert -colorspace GRAY -density 400 -quality 100 Tickets-color.pdf  Tickets-grey.pdf

Die resultierende Datei ist dann aber auch entsprechend größer.

Bei vielen Distributionen weigert sich convert, PDFs zu verarbeiten, und liefert die folgende Fehlermeldung:

convert-im6.q16: attempt to perform an operation not allowed by the security policy `PDF' @ error/constitute.c/IsCoderAuthorized/421.
convert-im6.q16: no images defined `Tickets-grey.pdf' @ error/convert.c/ConvertImageCommand/3229.

Abhilfe schafft die Entfernung der entsprechenden Zeile aus /etc/ImageMagick-6/policy.xml. Im folgenden Listing habe ich die Zeile auskommentiert:

<policymap>
  ...
  <!-- <policy domain="coder" rights="none" pattern="PDF" /> -->
  ...
</policymap>

Variante 2: gs

Mit mehr Tippaufwand ist das zweite Kommando verbunden:

gs -sOutputFile=out-grey.pdf \
 -sDEVICE=pdfwrite \
 -sColorConversionStrategy=Gray \
 -dProcessColorModel=/DeviceGray \
 -dCompatibilityLevel=1.4 \
 -dNOPAUSE -dBATCH in-color.pdf

Die Qualität ist ähnlich wie bei convert -density 400 -quality 100. Die Rechenzeit ist deutlich höher, dafür ist die Dateigröße spürbar kleiner.

Quelle

https://superuser.com/questions/104656/convert-a-pdf-to-greyscale-on-the-command-line-in-floss

7. Juni 2021

Das openSUSE Projekt hat 2. Juni die aktuelle Version des stabilen Zweigs Leap 15.3 herausgebracht. Nun gibt es schwere Probleme mit dem Update-System, die im schlimmsten Fall zu einem unbenutzbaren System führen können.

Ich nutze openSUSE wirklich gerne und berichte dementsprechend sehr regelmäßig über die Entwicklungen, aber das ist jetzt eine Blamage, die an einen GAU grenzt. Im stabilen Zweig fällt nach dem Release auf, dass das Update-System quasi unbenutzbar ist.

Startet man die YaST Online Aktualisierung, gibt es für zahlreiche Patches Fehler, bei denen die Aktualisierungsverwaltung die Deinstallation Hunderter Pakete empfiehlt.

Fröhlich, wer da nicht genau liest oder gar die Einspielung von Aktualisierungen automatisiert hat.

Abhilfe schafft momentan der Gang auf Kommandozeile

# zypper up

Dadurch nutzt man ein anderes Tool und umgeht das Problem, weil die YaST Online Aktualisierung mit zypper patch arbeitet, was wohl die gegenwärtig fehlerbehaftete Komponente ist. Unklar ist, ob mit zypper up alle bestehenden Sicherheitsaktualisierungen eingespielt werden.

Die Ursache liegt wohl im „Closing the Gap“ und der Einbindung der neuen Update-Repositorien. Das Problem ist bekannt und wird gerade diskutiert. Aufgetreten ist das Problem anscheinend so kurzfristig, weil die neuen Update-Repositorien erst rund um den Release-Termin eingebunden wurden.

Ich weiß, dass viele meine ständige Kritik an Linux oder einzelnen Distributionen nervig finden, aber so etwas darf einfach nicht passieren! Nicht bei einer Variante, die für stabilitätsorientierte Anwender und den Server-Einsatz empfohlen wird! Wenn man so kurz vor der Veröffentlichung was an den Repositorien ändert und das nicht testet, braucht man sich wirklich nicht wundern.

Ich halte openSUSE natürlich weiter die Treue und hoffe, sie beheben das Problem schnell. Als halbwegs erfahrener Anwender testet man eine neue Version ja erst mal ausgiebig, bevor man sie produktiv ausrollt. Das openSUSE-Projekt wird sich aber fragen lassen müssen, ob es sinnvoll war, mitten in einem Zyklus die Art und Weise, wie man die Distribution erstellt, zu ändern und damit nicht bis openSUSE Leap 16 zu warten.

Aktualisierung vom 10.06.2021

Das Problem besteht nach wie vor. Es gibt keine offizielle Kommunikation dazu seitens openSUSE, sondern nur Hinweise in Mailinglisten. Das ist ein Debakel sondergleichen – sowohl was das Problem als auch die Kommunikation betrifft – und sollte im Nachgang dringend evaluiert werden, wenn man die LTS-Ambitionen nicht gleich wieder beerdigen möchte.

Aktualisierung vom 10.06.2021

Die meisten Probleme wurden inzwischen behoben, vereinzelt gibt es noch Schwierigkeiten. Die Ursache ist mir immer noch nicht klar. Die vollständig ausbleibende Kommunikation dazu (abseits der Mailingliste mit ihrer sehr geringen Reichweite) finde ich enorm schwach vom openSUSE-Projekt.

Der Artikel Schwere Fehler im Update-System von openSUSE Leap 15.3 erschien zuerst auf [Mer]Curius

Anfang April habe ich mir Gedanken zu Neuer Hardware in 2021 gemacht. Zu der Zeit hatte ich ein TUXEDO Pulse 14 Gen 1 und ein ThinkPad P14s Gen 1 ins Auge gefasst.

Eure Rückmeldungen in den Kommentaren und das Studium etlicher Testberichte auf notebookcheck.net mündeten nun in einer Entscheidung. Besonders das umfangreiche Feedback von ‚Art‘ hat meine Kaufentscheidung beeinflusst. Danke dafür.

Ich habe mir nun ein Lenovo Campus ThinkPad T14s 20UJS00K00 für 1.399 Euro bei cyberport gekauft. Das Gerät beinhaltet (Quelle: Datenblatt):

  • CPU: AMD Ryzen™ 7 Pro 4750U Prozessor (bis zu 4,1 GHz), Octa-Core
  • Display: 35,6 cm (14 Zoll) IPS Full-HD Display mit LED-Hintergrundbeleuchtung, 400 nits, 800:1 Kontrast
  • RAM: 32 GB DDR4-3200 SO-DIMM fest verlötet
  • Festplatte: 1 TB SSD M.2 2280 PCIe NVMe Opal2
  • Webcam: IR Kamera und HD720p Kamera mit ThinkShutter
  • WLAN und Bluetooth: Wireless LAN 802.11 ax und Bluetooth 5.1
  • Weitere Anschlüsse:
    • 2x USB 3.2 Gen 1 (1x Always On)
    • 2x USB 3.2 Type-C Gen 2 (mit Power Delivery und DisplayPort 1.4)
    • 1x HDMI 2.0
    • Ethernet extension connector (proprietärer Anschluss)
    • Mikrofoneingang / Kopfhörerausgang (komb.)
    • Dockinganschluss
    • MicroSD-Kartenleser; Lesegerät für Smartcards

Das Feedback von ‚Art‘ bezieht sich zwar auf das P14s, doch teilt sich dieses Modell etliche Komponenten mit dem T14s, so dass ich in der Hoffnung gekauft habe, einige Eigenschaften übertragen zu können. Dieses Feedback, der Trackpoint, dieser Testbericht und der Preis waren die Haupteinflussfaktoren bei diesem Kauf.

Es folgt ein erster persönlicher Erfahrungsbericht zum neuen Gerät.

Ach du Schreck, ist das dünn.

Mein erstes ThinkPad war ein R61. Ich habe dessen Größe, Gewicht und Robustheit geschätzt. Auch das T410 und das X201 machen einen stabilen und robusten Eindruck. Und nun ist da dieses T14s.

Mein erster Gedanke war: „Damit erschlägst du niemanden mehr.“ (Nicht, dass ich das jemals getan hätte.)

Für ein Gerät dieser Größe ist die Stabilität in Ordnung. Erwartungsgemäß ist es nicht so verwindungssteif, wie die älteren Modelle. Dafür ist es bedeutend leichter. Ich glaube, auf dieses Gerät muss ich deutlich besser acht geben, damit es lange hält.

Die äußeren Maße finde ich hingegen optimal. Es passt genau zwischen das T410 und das X201, was mir gut gefällt.

vergleich-t410-x201-t14s
T410 (links unten), X201 (oben) und T14s (rechts unten) auf einen Blick

Um es kurz zu machen, ich habe mich mit dem T14s angefreundet.

Die einzige Sache, die sich mir bisher noch nicht erschlossen hat, ist der Sinn hinter dem proprietären LAN-Anschluss.

proprietaerer-lan-anschluss
Der proprietäre LAN-Anschluss befindet sich zwischen dem USB-C-Ladeanschluss (links) und dem USB-A-Anschluss.

Um einen LAN-Anschluss mit bis zu 1 Gbps nach außen zu führen, hätte in einen Augen ein normaler USB-C-Port gereicht. Diesen hätte man auch noch anderweitig verwenden können. Aber vielleicht steckt ja noch mehr hinter diesem Port, das mir noch nicht bewusst ist.

Und wie läuft es mit Linux?

Debian Buster wollte nicht starten. Ich habe mehrere Debian Testing Images ausprobiert, doch hat mich die Partitionierung im Installer so genervt, dass ich schlussendlich (erstmal) zu Fedora 34 Workstation gegriffen habe. Hiermit funktionierte fast alles Out-of-the-Box.

Lediglich für den Standby-Modus war noch ein Firmware-Update auf Version 1.30 notwendig. Dank LVFS war dies im Handumdrehen aus Linux heraus erledigt.

Nur ein Bug nervt mich sehr. In meinem Gerät ist ein Touchpad und Trackpoint der Firma Elantech verbaut. Bei Nutzung des Trackpoints springt dieser sporadisch an die Seiten bzw. in die Ecken des Displays. Da dieser Bug bei Lenovo bekannt ist und reproduziert werden konnte, habe ich die Hoffnung, dass hier noch Abhilfe geschaffen wird.

Mit dem letzten Debian Testing weekly-build funktionieren Stand-By (ursächlich ist hier wohl eher die aktualisierte Firmware). Nur der Trackpoint-Bug existiert wenig überraschend auch hier.

Fazit

Alles in allem ist es ein schönes Gerät. Die Linux-Unterstützung ist gut und ich habe es behalten.

Das Problem mit dem Trackpoint ist wirklich nervig, doch verschmerzbar. Zudem hoffe ich hier auf Abhilfe.

An dieser Stelle noch einmal Danke für eure Kommentare, die mir bei der Entscheidung geholfen haben.

Weiterführende Links

6. Juni 2021

Viele Linux-Anwender glauben immer noch, sie bräuchten keine Firewall. Das Mantra wurde schließlich jahrzehntelang vor Linux hergetragen. Doch die meisten Linux-Desktopinstallationen sind nicht mehr minimalistisch und bewegen sich auch nicht mehr nur innerhalb des Heimnetzes.

Eine Firewall kann dann Sinn machen, wenn man ein mobiles Gerät besitzt und sich in fremde Netze einwählt. Nennt sich Notebook und dürfte bei den meisten Anwendern der Standardfall sein. Man verweist immer gerne auf Windows mit seinen vermeintlich vielen offenen Ports und Diensten, die man nicht braucht, aber auch bei Linux laufen viele Dienste, die außerhalb des Heimnetzes nicht gebraucht werden: CUPS, Avahi, KDE Connect, ggf. ein Samba-Share. Die Liste ließe sich sicher noch erweitern. Das ist jetzt grundsätzlich kein Problem, aber es schadet auch nicht, diese Ports bei unbekannten Netzwerken zu blockieren. Wer weiß schon, welche Sicherheitslücke demnächst in CUPS oder sshfs gefunden wird.

Distributionen wie Red Hat Enterprise Linux, Fedora, SUSE Linux Enterprise oder openSUSE liefern deshalb mit Firewalld schon länger standardmäßig eine aktivierte Firewall aus. Distributionen wie Debian oder Ubuntu bieten eine Nachinstallation aus den Paketquellen an, aber hier ist ufw verbreiteter.

Ein bisschen Nacharbeit ist in jedem Fall notwendig. Bei SUSE kann man dies via YaST machen oder auf der Konsole. KDE bietet seit Neuestem mit Plasma Firewall eine GUI für Firewalls, aber bei mir hat diese nicht funktioniert.

Zonen in Firewalld

Firewalld arbeitet mit vordefinierten Zonen. Die wichtigen Kern-Zonen sind:

  • block – Alle eingehenden Netzwerkverbindungen werden blockiert. Nur vom System aus initiierte Netzwerkverbindungen sind möglich.
  • dmz – Klassische entmilitarisierte Zone (DMZ), die begrenzten Zugang zum Netzwerk bietet und nur definierte eingehende Ports zulässt.
  • drop – Löscht eingehenden Netzwerkverbindungen und erlaubt nur ausgehende Netzwerkverbindungen.
  • external – Nützlich vor allem im Router-Kontext.
  • home – Gedacht für Heimcomputer wie Notebooks und Desktops innerhalb des eigenen Netzwerks, in dem anderen Systemen vertraut werden kann.
  • internal – Für interne Netzwerke, wenn den anderen Servern oder Computern im Netzwerk vertraut werden kann.
  • public – Es wird anderen Systemen im Netzwerk nicht vertraut. Nur erforderliche Ports und Dienste sind erlaubt.
  • trusted – Alle Netzwerkverbindungen werden akzeptiert.
  • work – Äquivalent von Home für den Einsatz am Arbeitsplatz.

Welche Zonen zusätzlich noch verfügbar sind kann mit folgendem Kommando geprüft werden:

# firewall-cmd --get-zones

Dienste für Zonen konfigurieren

Für die klassischen Notebook-Installation sind vor allem zwei Zonen von Firewalld von Interesse: home und public.

Die Standard-Zone sollte public sein, das lässt sich mit folgendem Befehl prüfen:

# firewall-cmd --get-default-zone

Durch die Integration in den NetworkManager lassen sich Netzwerke Zonen zuordnen. Jede neue Verbindung wird automatisch public zugewiesen. Eigene Netzwerke können home zugewiesen werden.

Für Home können dann Dienste freigeschaltet werden, die man im heimischen Netzwerk gerne nutzen möchte.

Mit folgendem Befehl überprüft man, welche Services gerade aktiv sind:

# firewall-cmd --list-services --zone=home

Folgender Befehl kann man die vorkonfigurierten Dienste für Firewalld ausgeben. Diese sind bereits für den Dienst passend konfiguriert und man muss nicht manuell irgendwelche Ports zusammen stellen und freigeben.

# firewall-cmd --get-services

Für meinen persönlichen Bedarf haben die vorkonfigurierten Dienste immer gereicht, aber das hängt natürlich von den eigenen Einsatzszenarien ab.

Mit folgenden beiden Befehlen fügt man einen Dienst hinzu bzw. entfernt ihn wieder. Hier mal am Beispiel von SSH.

# firewall-cmd --zone=home --add-service=ssh --permanent
# firewall-cmd --zone=home --remove-service=ssh --permanent

Nach jeder Anpassung muss man Firewalld neustarten, damit die Änderung greift:

# systemctl restart firewalld

Beispiel für den Einsatz

Mein primäres Notebook kommt mit zwei Zonen aus: home und public. In public ist so wenig die nötig erlaubt, in home einiges mehr, damit ich z. B. KDE Connect nutzen kann oder meinen Drucker erreiche:

GH-Elite:/home/gerrit # firewall-cmd --list-services --zone=home                  
dhcpv6-client kdeconnect kdeconnect-kde mdns samba-client
 
GH-Elite:/home/gerrit # firewall-cmd --list-services --zone=public 
dhcpv6-client

Die Netzwerke eines Erst- und Zweitwohnsitzes sind Home zugewiesen. Alle anderen Netzwerke landen bei der Einrichtung automatisch bei Public. Bisher hatte ich damit keine Probleme.

Der Artikel Linux-Desktop mit Firewalld absichern erschien zuerst auf [Mer]Curius

5. Juni 2021

Wie bereits im letzten Artikel erwähnt, gibt es mit Visual Studio Code einen starken Editor, welcher sich mit Hilfe von Erweiterungen für jeden Einsatzzweck anpassen lässt.

Ich möchte euch einige davon vorstellen, welche sich für den Einsatz im Administrations- oder DevOps Bereich eignen.

Die 30 besten VS Code Erweiterungen

  1. Ansible Language: Zu dieser Erweiterung muss wenig gesagt werden. Ihr erhaltet YAML Support mit Syntax Highlighting, Autovervollständigung und der mitgelieferte YAML bzw. Ansible Linter zeigt euch Fehler adhoc an. ansible

  2. Apache Syntax Support: Der Name ist Programm und eure Apache Config Files erstrahlen beim Editieren in neuem Glanz, dank Syntax Highlighting.

  3. Atom Keymap: Solltet ihr aus der Atom Editor Welt kommen und eure alten Shortcuts vermissen, dann hilft das Plugin ungemein.

  4. Better Jinja: Das Arbeiten mit Jinja Templates kann schnell in die Verzweiflung führen. Durch diese Erweiterung erhaltet ihr neben Jinja auch Support für HTML, Markdown, YAML, CSS, Docker, Python und uvm. in euren Dateien. jinja

  5. Better TomlTom's Obvious, Minimal Language kommt immer mal wieder vor. Einige werden die Dateien von Gitlab kennen. Die Extension sorgt für bessere Lesbarkeit beim Editieren.

  6. Confluence: Atlassians Wiki Lösung findet sich sehr häufig in Unternehmen. Aus diesem Grund kommen einige sicher öfters mit deren Markup in Berührung. Hier gibt es Unterstützung für Confluence® and Jira® Markup.

  7. Debian Package Syntax Highlighting: Nur für diejenigen, die öfters mit DEB Paketen zu tun haben.

  8. Docker: Eigentlich schon essentiell, Docker Unterstützung für VS Code. docker

  9. Git History: Für Git fast unverzichtbar. Bereitet Logs auf, nimmt Grafiken zu Hand, kann vergleichen usw.

  10. Git Lens: Der selbst ernannte Supercharger. Bietet ähnlich wie Git History eine schöne Log Übersicht. Zusätzlich dazu kommen Features wie Revision Navigation, History Anzeige in der Status Bar oder der aktuellen Zeile.

  11. Gremlins Tracker: Wer kenn es nicht, ein unerwünschtes Leerzeichen sorgt im Code für Aufregung. Gremlins werden sie von dieser Erweiterung genannt und als solche auch in der Sidebar sichtbar gemacht. gremlins

  12. Hugo Language Support: NutzerInnen des Frameworks wird mit Syntax Highlighting und Snippets das Webseiten bauen erleichtert.

  13. Indent Rainbow: Einer meiner Favoriten, macht Nichts anderes als Einrückung kolorieren. Das hilft nicht nur bei YAML Dateien ungemein. 

  14. Jinja Syntax Highlighting: Jinja kann durchaus hilfreich sein, leider geht auch schnell die Übersicht im Code verloren. Durch Syntax-Hervorhebung kann dem aber vorgebeugt werden.

  15. Kubernetes: Die Beschreibung im Marketplace sagt eigentlich alles:  Develop, deploy and debug Kubernetes applications

  16. Nginx Configuration Language Support: Autovervollständigung bei der NGINX Konfiguration, nicht mehr und nicht weniger. Allerdings nicht mehr ganz aktuell. nginx

  17. Notepad++ Keymap: Für Umsteiger eignet sich diese Notepad++ Keymap.

  18. OpenSSL Utilities: Auf ITrig hatte ich bereits Anleitungen, wie Private Key, CSR oder self-signed Zertifikate über die Kommandozeile erstellt werden. Die Erweiterung erlaubt euch das Erstellen ohne weitere Kenntnisse der CLI Befehle direkt in Visual Studio Code. privkey

  19. Prettier: Schöner programmieren mit Prettier - Code formatter. Das Tools formatiert euren Code automatisch. Unterstützt werden JavaScript, TypeScript, Flow, JSX, JSON, CSS, SCSS, Less, HTML, Vue, Angular, GraphQL, Markdown, YAML.

  20. Projekt Manager: Wenn an mehreren Projekten gleichzeitig gearbeitet wird, kann es sinnvoll sein die Verwaltung dieser zu verbessern.

  21. Rainbow Brackets: Es wird wieder bunt. Regenbogenfarben für die runden Klammern, die eckigen Klammern und die verschnörkelten Klammern.

  22. Remote SSH: Dateien direkt auf Servern editieren kann durchaus praktisch sein.

  23. Salt-lint. Einfacher Linter für States und Pillars

  24. Saltstack: Analog zum Salt-Linter ist dieser Syntax Highlighter für Saltstack ein Muss. saltstack

  25. Snort:  NIDS/NIPS in Farbe.

  26. Sort: Wörter alphabetisch sortieren, einfach shift+alt+s  drücken

  27. Tomcat for Visual Code: Tomcat Server direkt aus VS Code starten und war Pakete debuggen.

  28. Toml Language Support: Ein weiterer Formater für Toml Dateien.

  29. XML Support: Alles was es für XML braucht in einem Plugin.

  30. YAML: Voller YAML Support mit Kubernetes Unterstützung. yaml

Themes

Damit die Arbeit noch mehr Spaß macht, gibt es ebenfalls viele Themes, sowie Icon Sets.

Hier eine kleine Auswahl an Themes, welche ich gerne einsetze.

  1. SynthWave 84 (die 80er sind zurück)
  2. Dracula Theme (schönes ausgewogenes Theme)
  3. Material Icons (Icons für die Ordner und Dateistruktur)
  4. Solarized Dark (Blau und Grüntöne, ist bei VSCode dabei)
  5. Monokai Pro (Theme und Icon Set zusammen)

synthwave

Eine schöne Übersicht mit Vorschauen vieler Themes bietet vscodethemes.com

Download

Schlussendlich fehlt wohl noch ein Link zu Visual Studio Code. Denn was helfen Erweiterungen, wenn der Editor fehlt.

Download VSCode

Die MZLA Technologies Corporation hat mit Thunderbird 78.11 ein planmäßiges Update für seinen Open Source E-Mail-Client veröffentlicht.

Neuerungen von Thunderbird 78.11

Mit dem Update auf Thunderbird 78.11 hat die MZLA Technologies Corporation ein planmäßiges Update für seinen Open Source E-Mail-Client veröffentlicht. Neben den üblichen kleineren Fehlerbehebungen schließt die neue Version auch wieder die aktuellen Sicherheitslücken. Ein Update ist daher für alle Nutzer empfohlen.

Der Beitrag Thunderbird 78.11 veröffentlicht erschien zuerst auf soeren-hentzschel.at.

3. Juni 2021

Das openSUSE Projekt hat mit Leap 15.3 eine weitere Aktualisierung der LTS-Variante herausgegeben. Eine wesentliche Neuerung sind die neuen Repositorien für Updates infolge des Wechsels auf die SLE-Basis.

Leap 15.3 bietet oberflächlich betrachtet nicht viel Neues. Die größte Neuerung ist die Zusammenführung der Basis von openSUSE Leap und SUSE Linux Enterprise. Beide Distributionen teilen sich nun denselben Kern an Binärpaketen und sind kompatibel. Leap enthält zusätzliche Pakete durch die Community und insbesondere im Desktop-Bereich ein größeres Angebot. Mit der Veröffentlichung von Leap 15.3 zeigen sich nun die Veränderungen für die Anwender.

Besonders beachten sollten Anwender die Änderungen bei den System-Repositorien. Eine wesentliche Veränderng gibt es bei den Update-Quellen. Bisher hatte jede openSUSE-Variante im wesentlichen vier Repositorien (abgesehen von Quell- und Debug-Repos):

  1. OSS (für Open Source Software)
  2. Non-OSS (für proprietäre Pakete)
  3. OSS-Updates
  4. Non-OSS-Updates

Die ersten beiden Repositorien wurden mit der Veröffentlichung eingefroren und stabil gehalten. Die beiden Updates liefern Fehlerbehebungen und Sicherheitsupdates während der Laufzeit des Minor-Releases über 18 Monate.

Durch die Zusammenführung von openSUSE Leap und SLE gibt es nun vier verschiedene Update-Repositorien:

  1. OSS-Update (das klassische Update-Repository)
  2. Non-OSS (das klassische Update-Repository für proprietäre Software)
  3. Update von SUSE Linux Enterprise
  4. OpenSUSE Backports

Die letzten beiden sind neu. Insbesondere die Updates von SUSE Linux Enterprise sind sehr umfangreich und umfassen die kombinierten Updates aller gepflegten Enterprise-Varianten.

Das System ist relativ kompliziert und noch nicht gut dokumentiert. Das Zusammenspiel der unterschiedlichen Kanäle und welche Updates über welchen Kanal ausgeliefert werden, muss sich erst noch zeigen.

Der Artikel openSUSE Leap 15.3: Änderung bei den Update Repositories erschien zuerst auf [Mer]Curius

Ich nutze viele TUI1-Programme, wie z.B. profanity, neomutt, newsboat, wo es nicht so ohne weiteres möglich ist emoji einzugeben. Jetzt wurde mir ibus emoji empfohlen und ich bin begeistert:

Ich kann über ein Tastenkürzel (konfigurierbar via ibus-setup) ibus aufrufen und dann entweder über Schlagworte das emoji suchen oder Space drücken und bekomme einen grafischen emoji picker.

Die Installation ist bei Debian denkbar einfach:

# apt install ibus-table-emoji

Ich habe auch ein kleine Beispielvideo angefertigt um ibus-emoji zu zeigen.


  1. Text User Interface ↩︎

1. Juni 2021

Mozilla hat Firefox 89 für Windows, Apple macOS und Linux veröffentlicht. Firefox 89 bringt nicht nur ein völlig neues Design, sondern noch einige andere Neuerungen. Dieser Artikel fasst die wichtigsten Neuerungen zusammen – wie immer auf diesem Blog weit ausführlicher als auf anderen Websites.

Download Mozilla Firefox für Microsoft Windows, Apple macOS und Linux

Firefox hat ein neues Design

Unter dem Namen „Proton“ hat Mozilla in den letzten Monaten an einem neuen Design für Firefox gearbeitet. Dabei hat Mozilla optisch kaum einen Stein auf dem anderen gelassen. Alleine das neue Design zu beschreiben würde einen ganz eigenen Artikel füllen – und genau aus diesem Grund gibt es auch einen eigenen Artikel, welcher das neue Design von Firefox 89 ausführlich vorstellt und mit dem Design von Firefox 88 vergleicht.

Jetzt weiterlesen: Alles zum neuen Design von Firefox 89

Firefox 89

Firefox 89

Dunkle Kontextmenüs im Dark Mode

Es ist bereits im Artikel zum neuen Firefox-Design erwähnt, muss aber auch an dieser Stelle noch einmal festgehalten werden, weil sich viele Nutzer, ganz unabhängig vom neuen Design, darüber freuen dürften: Mit dem neuen Kontextmenü-Design unter Windows 10 sowie den nun nativen Kontextmenüs unter macOS (von Firefox-Nutzern seit 21 Jahren gewünscht und nun umgesetzt) erscheinen Kontextmenüs erstmals dunkel, wenn der Dark Mode des Betriebssystems genutzt wird.

Firefox 89

Firefox 89

Verbesserter Datenschutz in privaten Fenstern

Mit Firefox 86 hatte Mozilla den sogenannten „vollständigen Cookie-Schutz“ eingeführt. Dieser ist aktiv, wenn der Nutzer in den Datenschutz-Einstellungen den strengen Schutz vor Aktivitätenverfolgung aktiviert. Vereinfacht gesagt bedeutet dieser Schutz, dass die Cookies jeder Domain in einem separaten Cookie-Container gespeichert werden – seitenübergreifendes Tracking über Cookies ist so nicht mehr möglich.

Unabhängig von der Datenschutz-Einstellung ist der „vollständige Cookie-Schutz“ jetzt auch in privaten Fenstern immer aktiv.

Vollständiger Cookie-Schutz in Firefox 86

Zahlreiche Verbesserungen für Nutzer von macOS

Neben der Implementierung nativer Kontextmenüs inklusive Dark Mode-Unterstützung (siehe oben) bringt Firefox 89 noch einige weitere Neuerungen für Nutzer von Apple macOS.

Zum einen wäre da der elastische Overscroll-Effekt zu nennen: Scrollt der Anwender ganz zum Anfang respektive Ende einer Website, zeigt eine leicht hüpfende Animation, dass das Seitenende erreicht ist. Man kennt diesen Effekt beispielsweise aus Safari.

Eine weitere Neuerung ist die Unterstützung für smartes Zoomen: Ein Doppelklick mit zwei Fingern auf dem Trackpad respektive mit einem Finger auf der Magic Mouse führt einen Zoom aus, um auf die Stelle zu fokussieren, wo sich der Mauszeiger befindet.

Im Vollbildmodus werden nicht länger die Tabs durch die Menüleiste verdeckt, wenn man den Mauszeiger zum oberen Bildschirmrand führt.

Außerdem ist es im Vollbildmodus (via Rechtsklick und Auswahl der entsprechenden Option) jetzt möglich, die Symbolleisten auszublenden. Eine entsprechende Option existiert an dieser Stelle schon lange, hat in den letzten neun Jahren allerdings nicht funktioniert.

Schließlich werden Farben in Firefox auf macOS bei Verwendung eines Wide-Gamut-Bildschirms nicht länger gesätttigt, nicht getaggte Bilder werden korrekt als sRGB behandelt und Farben in Bildern, die als sRGB getaggt sind, entsprechen nun den CSS-Farben.

Verbesserungen der Webplattform und Entwicklerwerkzeuge

Formular-Elemente wurden in einer nicht-nativen Weise neu implementiert, was Auswirkungen auf das Standard-Design dieser Elemente hat und für Performance-Verbesserungen sorgen soll. Außerdem war dies eine Voraussetzung für die Implementierung der Seiten-Isolation, an welcher Mozilla derzeit arbeitet und die in einer späteren Firefox-Version ausgeliefert werden soll.

Neu ist die Unterstützung von CSS aspect-ratio, dem CSS forced-colors Media Query, den CSS @font-face-Deskriptoren ascent-override, descent-override und line-gap-override sowie der Performance Event Timing API und Top-Level await in JavaScript.

Die von anderen Browsern nicht unterstützten Sensor-Events DeviceProximityEvent, UserProximityEvent und DeviceLightEvent werden nicht länger unterstützt.

Im Inspektor der Entwicklerwerkzeuge lassen sich die Eigenschaften in der grafischen Box-Modell-Ansicht jetzt besser mit der Tastatur bearbeiten.

Eine Übersicht über Verbesserungen der Webplattform wie neue unterstützte Webstandards gibt es wie immer in den MDN web docs.

Optionale Features in Firefox 89

Grafik-Info anzeigen im Kontextmenü

Mit Firefox 88 hatte Mozilla bei Bildern den Eintrag Grafik-Info anzeigen aus dem Kontextmenü entfernt. Ab Firefox 89 kann dieser Eintrag optional wieder aktiviert werden. Dazu ist über about:config der Schalter browser.menu.showViewImageInfo auf true zu setzen.

HTTP-First-Modus

Firefox besitzt bereits einen Nur-HTTPS-Modus, in welchem Firefox ausschließlich Seiten über HTTPS lädt, nicht über eine unverschlüsselte HTTP-Verbindung (Ausnahmen sind möglich). Alternativ dazu kann ab Firefox 89 über about:config ein „HTTP-First-Modus“ aktiviert werden, indem über about:config der Schalter dom.security.https_only_mode_https_first per Doppelklick auf true gesetzt wird. Zusätzlich gibt es noch den Schalter dom.security.https_only_mode_https_first_pbm für die Aktivierung in privaten Fenstern. Bei diesem Modus versucht Firefox zuerst eine Verbindung via HTTPS herzustellen, fällt dann aber auf HTTP zurück, falls keine HTTPS-Verbindung möglich ist.

Vollständiger Dark Mode für macOS

Bei Verwendung des Dark Modes von macOS erscheint auch Firefox dunkel – allerdings nicht vollständig. Beispielsweise ist das Bibliotheksfenster nach wie vor hell. Wird über about:config der Schalter widget.macos.respect-system-appearance auf true gesetzt, erscheinen weitere Teile dunkel. Achtung: Hier kommt es in Firefox 89 noch zu Darstellungsfehlern an manchen Stellen, weil diese Verbesserung in Firefox 89 noch nicht fertig ist.

Geschlossene Sicherheitslücken

Natürlich hat Mozilla auch in Firefox 89 wieder mehrere Sicherheitslücken geschlossen. Alleine aus Gründen der Sicherheit ist ein Update auf Firefox 89 daher für alle Nutzer dringend empfohlen.

Sonstige Neuerungen in Firefox 89

Die Screenshot-Funkion steht jetzt auch als optionale Schaltfläche für die Navigations-Symbolleiste zur Verfügung.

Auch wenn es keine direkten Auswirkungen für den Nutzer hat, weil die Unterstützung des Adobe Flash Players als letztem verbliebenen NPAPI-Plugin mit dem 12. Januar endete, sei an dieser Stelle die Entfernung großer Teile der NPAPI-Schnittstelle in Firefox 89 erwähnt, weil Firefox dadurch um viele Zeilen Code leichter wird.

Eine Eingabe von beispielsweise user@host in die Adressleiste führte bisher dazu, dass Firefox versuchte, nach host aufzulösen und so nur eine Fehlerseite produzierte. Hier findet nun eine Suche nach dem eingegebenen Text bei der Standard-Suchmaschine statt.

Für das Speichern von Zugangsdaten wurden die Heuristiken zur Erkennung von Benutzernamen-Feldern verbessert, für den Fall, dass sich zwischen dem Benutzernamen- und dem Passwort-Feld noch andere Felder befinden.

Die gefühlte Performance des Firefox-Starts unter Windows wurde auf langsameren Systemen verbessert, indem zu Beginn des Startvorgangs eine Pseudo-Oberfläche angezeigt wird, ehe Firefox bereit ist, die vollständige Oberfläche anzuzeigen.

Auf Seiten mit lang laufenden requestAnimationFrame-Handlern, wie Slack, konnte es zu längeren Wartezeiten beim Tabwechsel kommen, was mit Firefox 89 behoben wurde.

Seit Firefox 88 bittet Firefox bei Mikrofon- und Kamera-Anfragen nicht mehr erneut um Erlaubnis, wenn schon einmal innerhalb der letzten 50 Sekunden auf dem gleichen Gerät im gleichen Tab die Erlaubnis für die jeweilige Website erteilt worden ist. Der Zeitraum wurde auf eine Stunde erweitert.

Der Grafik-Renderer WebRender wird mit Firefox 89 für weitere Linux-Nutzer ausgerollt.

Wie immer kamen auch in Firefox 89 Fehlerbehebungen und sonstige Verbesserungen unter der Haube wie auch Verbesserungen der Barrierefreiheit dazu. Auch die Unterstützung weiterer Unternehmensrichtlinien wurde ergänzt.

Der Beitrag Mozilla veröffentlicht Firefox 89 mit neuem Proton-Design erschien zuerst auf soeren-hentzschel.at.

31. Mai 2021

Am 1. Juni wird Mozilla Firefox 89 veröffentlichen. Mit diesem Tag wird Firefox in einem völlig neuen Glanz erstrahlen. Dieser Artikel stellt ausführlich das neue „Proton“-Design vor und legt dabei einen besonderen Fokus auf die Gegenüberstellung des aktuellen mit dem neuen Design.

Alles neu macht der Juni: Neues Design für Desktop, Android, iOS

Unter dem Namen „Proton“ hat Mozilla in den letzten Monaten an einem neuen Design für Firefox gearbeitet. Über Proton wurde auf diesem Blog weltweit als erstes berichtet.

Während der Fokus in der Berichterstattung dabei auf Firefox für Windows, macOS und Linux lag, wird es auch für die beiden Smartphone-Browser Firefox für Android sowie Firefox für iOS visuelle Veränderungen geben, wenn auch nicht im gleichen Ausmaß. In erster Linie ist es die Design-Sprache bei den Icons, welche sich durch Firefox für alle Plattformen ziehen wird. Dieser Artikel stellt ausführlich das neue Design des Desktop-Firefox vor.

Willkommen, neuer Nutzer

Los geht es mit der Einführungstour für neue Nutzer. War die alte Willkommensseite noch eher einfach und langweilig, arbeitet Mozilla hier nun mit einer großen Bild-Text-Kombination, was mehr Emotion bringt und Firefox gleich lebendiger wirken lässt.

Firefox 89 Proton-Design

Neue Icons

Mit wenigen Ausnahmen wurden alle Icons in Firefox gegen neue Icons ausgetauscht. Was dabei auffällt: Die neuen Icons sind sichtbar dünner als die alten Icons, wodurch Firefox weniger schwergewichtig wirkt.

Mut zu Neuem (Tab)

Sicherlich mit das erste, was einem als bestehender Firefox-Nutzer, aber auch als Nutzer eines anderen Browsers auffällt, ist die besondere Tab-Form. Wenn ein neues Browser-Design ansteht, sind Tabs traditionell ein Element, welches eine Überarbeitung erfährt. Meistens beschränkt sich die Veränderung dann auf die Ausgeprägtheit der Rundungen. Mit Firefox 89 geht Mozilla neue Wege. Dies fängt damit an, dass die klassische Verbindung zwischen dem Tab selbst und dem damit verbundenen Inhaltsbereich entfällt. Eine mutige Design-Entscheidung, die aber im direkten Vergleich zu einem deutlich moderneren Erscheinungsbild beiträgt.

Firefox 89 Proton-Design

Eine weitere Besonderheit des neuen Tab-Designs ist die neu dazu gekommene Status-Zeile bei der Wiedergabe von Medien – eine Implementierung, die man sonst so noch aus keinem anderen Browser kennt. Ob nun die Blockierung der automatischen Wiedergabe, Stummschaltung des Tabs oder ob sich ein Video im Tab im sogenannten Bild-im-Bild-Modus befindet – eine zweite Tab-Zeile zeigt den Status in textlicher Form an.

Firefox 89 Proton-Design

Übrigens: Wer die zweite Zeile nicht mag, kann diese über about:config deaktivieren. Dazu muss über about:config der Schalter browser.tabs.secondaryTextUnsupportedLocales um das Kürzel der genutzten Sprache ergänzt werden, also für einen deutschsprachigen Firefox um ,de. Anschließend ist Firefox neu zu starten.

Die Adressleiste und das „Drei-Punkte-Menü“

Natürlich gab es auch Anpassungen der Adressleiste im Rahmen des neuen Designs. Neben dem Austausch von Icons und der Anpassung von Farben ist die auffälligste Änderung hier mit Sicherheit die Entfernung des erst mit Firefox 57 eingeführten „Drei-Punkte-Menüs“, hinter welchem sich seitenspezifische Aktionen befunden hatten. Dieses war vom Grundsatz her eine gute Idee, wurde tatsächlich jedoch nicht viel genutzt und Nutzer kennen ein solches Menü auch nicht aus anderen Browsern. Auch Erweiterungs-Entwickler nahmen diese Platzierung nicht wirklich an, in der Regel wurden auch für seitenspezifische Aktionen Toolbar-Buttons bereitgestellt. Also hat sich Mozilla hier entschlossen, wieder einen Schritt zurück zu gehen und dieses Menü im Sinne einer Vereinfachung für den Nutzer zu entfernen.

Firefox 89 Proton-Design

Firefox 89 Proton-Design

Funktionen wurden dadurch tatsächlich keine entfernt. Alles, was bisher darüber zugänglich war, ist nach wie vor über andere Stellen zugänglich oder wurde mit Firefox 89 anders zugänglich gemacht. Ein Beispiel dafür ist die integrierte Screenshot-Funktion, für die es ab Firefox 89 eine optionale Schaltfläche gibt, die wie alle anderen Schaltflächen auch in die Symbolleiste gezogen werden kann, wenn man das denn möchte. Die Funktion zum Hinzufügen sogenannter OpenSearch-Suchmaschinen wurde in das Adressleisten-Dropdown integriert und erhält so sogar mehr Sichtbarkeit als bisher.

Neues Hauptmenü und Panel-Design

Eine Vereinfachung hat auch das Hauptmenü erhalten, welches nun keine Icons mehr besitzt und trotzdem übersichlicher wirkt. Lesezeichen, Chronik und Downloads sind jetzt einfacher zugänglich, da diese aus dem alten „Bibliothek“-Menüpunkt auf die erste Ebene verschoben worden sind.

Firefox 89 Proton-Design

Das neue Menü-Design zieht sich durch sämtliche Panels, welche im Bereich der Navigations-Symbolleiste beheimatet sind.

Firefox 89 Proton-Design

Neues Dialog-Design

Passend dazu wurde auch das Design diverser Dialoge von Firefox angepasst.

Firefox 89 Proton-Design

Überarbeitete Infoleisten

Neu gestaltet wurden auch die diversen Informationsleisten, welche nun in die Navigations-Symbolleiste integriert sind und damit nicht mehr von Websites nachgeahmt werden können. Manche Leiste wurde in der Priorität reduziert, erscheint nun also in weniger auffallender Farbe.

Firefox 89 Proton-Design

Neues Kontextmenü für Windows 10 und macOS mit Dark Mode-Unterstützung

Nutzer von Windows 10 erhalten ein moderneres Erscheinungsbild der Kontextmenüs, welches besser zum Design von Windows 10 passt und außerdem den Dark Mode von Windows unterstützt. Die alten Kontextmenüs unterstützten dies nicht. Nutzer von Windows 7 sowie Windows 8 erhalten weiterhin die alte Optik.

Firefox 89 Proton-Design

Firefox 89 Proton-Design

Auf Apple macOS ist der Umbau bedeutend größer, denn hier wechselt Mozilla von seiner „Fake-Kontextmenü-Implementierung“ zu nativen Kontextmenüs – einem der ältesten noch offenen Nutzer-Wünsche auf Bugzilla mit einem Ticket-Alter von mittlerweile 21 Jahren. Dies sorgt nicht nur für eine bessere System-Integration und schönere Optik, sondern bringt auch hier die Unterstützung für den Dark Mode des Betriebssystems.

Firefox 89 Proton-Design

Firefox 89 Proton-Design

Firefox-Startseite

Auch die Standard-Startseite von Firefox hat optische Anpassungen erhalten. Aber nicht nur das Design der Startseite hat sich verändert. Zwar gibt es die Konfiguration der Startseite noch immer in den Firefox-Einstellungen, das Einstellungs-Symbol auf der Startseite aktiviert jetzt aber eine neue Oberfläche zur Konfiguration der Startseite.

Firefox 89 Proton-Design

Mehr Fokus auf das Wesentliche

Kontextmenüs in Firefox wurden umstrukturiert, Einträge teils umbenannt oder entfernt, wenn diese nur selten genutzt worden sind. Das Ziel war, dass der Nutzer schneller das findet, was wirklich wesentlich ist. Auf der anderen Seite wurde im Kontextmenü der Tableiste auch ein Eintrag „Neuer Tab“ hinzugefügt, der theoretisch nicht notwendig wäre, weil es bereits mehrere Wege gibt, einen neuen Tab zu öffnen, tatsächlich aber von einigen Nutzern gewünscht worden ist und so auch aus anderen Browsern bekannt ist.

Fokus ist auch das Stichwort für die Navigations-Symbolleiste, welche standardmäßig mit weniger Schaltflächen daherkommt als bisher. Das Bibliotheks-Menüs ist beispielsweise nicht länger standardmäßig sichtbar, da es durch die Vereinfachung des Hauptmenüs keinen Vorteil mehr bietet.

Teilweise wurde auch ein smarter Ansatz gewählt: So erscheint „Barrierefreiheit-Eigenschaften untersuchen“ im Kontextmenü nur noch, wenn die Entwicklerwerkzeuge von Firefox mindestens einmal benutzt worden sind. Und die Schaltfläche für die Startseite, die standardmäßig ebenfalls nicht mehr angezeigt wird, wird nur für die bestehenden Nutzer entfernt, welche die Standard-Startseite von Firefox nutzen und diese Schaltfläche bisher nicht genutzt haben.

Weniger Unterbrechungen

In diversen Situationen hatte Firefox in der Vergangenheit kontextbezogene Empfehlungen gemacht, beispielsweise um auf die Synchronisations-Funktion von Firefox hinzuweisen. Sämtliche Empfehlungen dieser Art wurden entfernt, um den Nutzer in seinen Aufgaben nicht zu unterbrechen.

Standard- wird zu System-Theme

Bislang wurde Firefox mit vier verschiedenen Designs ausgeliefert: Standard, Hell, Dunkel, Firefox Alpenglow. Nach wie vor gibt es vier Optionen, wobei es sich nun tatsächlich nur noch um drei verschiedene Themes handelt.

Während bei Verwendung eines dunklen Betriebssystem-Designs das Standard-Design dem dunklen Design entsprach, gab es bei Verwendung des hellen Betriebssystem-Designs Unterschiede zwischen Standard und Hell. Diese unnötige Komplexität wurde entfernt, so dass das Standard-Theme jetzt immer 1:1 dem hellen respektiven dunklen Theme entspricht, je nachdem, ob das Betriebssystem hell oder dunkel eingestellt ist. Entsprechend wurde die Option in System-Theme umbenannt.

Firefox 89 Proton-Design

Kompakter Modus

Was nur wenige Nutzer wissen: Firefox besitzt einen kompakten Modus, welcher etwas weniger Platz benötigt. Für Nutzer, welche diesen bereits nutzten, ist der kompakte Modus weiterhin aktiv. Für alle anderen Nutzer ist die dazugehörigen Einstellung nun hinter dem Schalter browser.compactmode.show in about:config versteckt. Nach Setzen des Schalters auf true steht die „Dichte“-Einstellung wieder unter Menü > Weitere Werkzeuge > Symbolleiste anpassen… zur Verfügung.

Weitere Verbesserungen folgen

Mit Firefox 89 endet die Arbeit für Mozilla noch nicht. So werden mit den nächsten Updates weitere Detail-Verbesserungen und Korrekturen folgen, die es nicht mehr in Firefox 89 geschafft haben. Daneben arbeitet Mozilla auch noch an größeren Projekten wie einem umfangreichen Dark Mode für macOS oder neuen Tooltips für Tabs und Lesezeichen.

Der Beitrag Proton: Ausführliche Vorstellung des neuen Firefox-Designs erschien zuerst auf soeren-hentzschel.at.

Webseiten-Analyse ist ein Datenschutz-Albtraum, sowohl für Betreiber als auch für Benutzer. Dabei ist der Ansatz, ein paar rudimentäre Informationen über das Besucher-Aufkommen zu erheben, legitim. Abhilfe kann Koko Analytics schaffen.

Jeder Webseiten-Betreiber möchte gerne ein paar Informationen über sein Angebot. Die Verbesserung des Angebots ist nicht nur eine Floskel für Datenschutzerklärungen und Cookie-Banner, sondern ein wichtiger Beweggrund. Schließlich kann es interessant sein, wie sich das Besucher-Aufkommen entwickelt, welche Artikel viel gelesen werden und welche Perlen in den Tiefen einer Seite schlummern.

Bis zur DSGVO war Google Analytics quasi allgegenwärtig. Weil sich das im Grunde genommen nicht wirklich DSGVO-konform betreiben lässt, hat sich der Markt heute diversifiziert und viele setzen auf Matomo (ehm. Piwik), wobei auch hier vermutlich eine Einwilligung notwendig ist.

Abgesehen von wirklich professionellen Seiten ist das aber immer noch mit Kanonen auf Spatzen geschossen. Keine kleine oder mittlere Webseite braucht diese ausgefeilten Analyse- und Kampagnen-Werkzeuge und die Ergebnisse sind auch viel zu ungenau, wenn man DSGVO-konform eine Einwilligung einholt.

Koko Analytics hat da einen viel reduzierteren Ansatz. Das WordPress-Plugin zählt die Aufrufe der einzelnen Seiten/Blogbeiträge und liefert diese in einer Seite aus. Zusätzlich gibt es eine Liste der Top-Level-Domains der Referrerer, damit man ein wenig sieht, woher die Besucher kommen.

In den Einstellungen kann man das Setzen eines Cookies komplett deaktivieren, wodurch man nach dem Dafürhalten der meisten Juristen keine Einwilligung braucht, da absolut keine personenbezogenen Daten erhoben werden. Weil wiederkehrende Besucher auf diese Weise sehr schlecht identifiziert werden können, ist die Statistik natürlich ziemlich ungenau.

Zusätzlich gibt es noch ein paar Optionen, um z. B. einige Benutzerrollen von der Erhebung auszuschließen und alte Daten automatisiert zu löschen.

Für einen oberflächlichen Eindruck reicht so etwas aber aus und dürfte den meisten Betreibern genug Informationen liefern.

Der Artikel Koko Analytics für WordPress – Datenschutz-freundliche Analyse erschien zuerst auf [Mer]Curius