ubuntuusers.de

Neueste Artikel

28. September 2020

Die MZLA Technologies Corporation hat mit Thunderbird 78.3.1 ein Update für seinen Open Source E-Mail-Client veröffentlicht.

Neuerungen von Thunderbird 78.3.1

Mit dem planmäßigen Update auf Thunderbird 78.3.0 hat das Team der MZLA Technologies Corporation zahlreiche Korrekturen und Verbesserungen unter der Haube vorgenommen und Sicherheitslücken behoben. Eine vollständige Liste der Änderungen lässt sich in den Release Notes (engl.) nachlesen.

Die kurz nach Thunderbird 78.3.0 veröffentlichte Version Thunderbird 78.3.1 behebt eine mögliche Absturzursache, welche nach dem Update auf Thunderbird 78.3.0 auftreten konnte.

Der Beitrag Thunderbird 78.3.1 veröffentlicht erschien zuerst auf soeren-hentzschel.at.

26. September 2020

Das relationale Datenbankmanagementsystem PostgreSQL ist in Version 13 veröffentlicht worden. Optimiert wurden der Speicherplatzverbrauch sowie die Performance.

PostgreSQL ermöglicht seit einem knappen viertel Jahrhundert bereits die Verwaltung relationaler Datenbanken und stellt eine Alternative zu MySQL oder ähnlichen RDMS dar. Seit 2017 wurde jedes Jahr im oder kurz vor dem Oktober ein neues Major-Release des stetig an Popularität gewinnenden Systems veröffentlicht. So hat auch dieses Jahr die PostgreSQL Global Development Group am 24. September 2020 eine neue Version veröffentlicht: PostgreSQL 13.

Der neuste Release ermöglicht eine bessere Verarbeitung großer Datenbanken, besonders bei der Administration und im Betrieb: PostgreSQL 13 kann besser mit duplizierten Daten in B-Tree Indizes umgehen, was Speicherplatzeinsparungen zur Folge hat. Dies betrifft viele Datenbanken, da B-Tree Indizes die Standardindizes im RDBMS sind.

Bessere Administration

Weitere Verbesserungen gibt es beim VACUUM-Befehl. Zur Erinnerung: PostgreSQL greift, ähnlich wie andere Datenbanken, auf die Multiversion Concurrency Control-Verfahrenstechnik zurück. Diese isoliert im Grunde alle Transaktionen voneinander. Wird nun ein Datensatz aktualisiert (UPDATE), so wird das nicht an zentraler Stelle gespeichert, da andere parallele Transaktionen gerade noch auf die alte Version zugreifen könnten. Aus Performancegründen ist das Aufräumen ein getrennter Vorgang, der manuell über VACUUM, quasi den Garbage Collector, angestoßen werden muss. Die gute Nachricht: ab der neuen Version 13 gibt es die Option PARALLEL, damit VACUUM Indizes parallel verarbeiten kann. Allerdings gilt diese Nebenläufigkeit nicht für VACUUM FULL.

Mit max_slot_wal_keep_size kann nun bestimmt werden, wie viele WAL-Segmente von den Replication Slots im pg_wal-Verzeichnis vorgehalten werden dürfen, um Out-of-memory-Probleme auf der Primärdatenbank zu verhindern.

In der konkreten Anwendungsentwicklung hilft nun datetime() für SQL/JSON, um z. B. ISO 8601-Strings in für PostgreSQL native Datentypen zu konvertieren. Eine UUIDv4 kann nun nativ über gen_random_uuid() generiert werden.

Darüber hinaus kann mit dem neuen Kommando pg_verifybackup die Integrität von pg_basebackup-Erzeugnissen überprüft werden.

Sicherheit

Auf der Sicherheitsebene führt PostgreSQL 13 das Konzept der vertraulichen Erweiterungen ein, um einfachen Datenbank-Benutzern die Möglichkeit zu geben, zuvor von Superusers als vertraulich deklarierte Erweiterungen selbst zu installieren.

Neu ist auch das (erzwungene) Channel-Binding für Verbindungen, besonders bei SCRAM-Authentifziuerng. postgres_fdw kann nun Zertifikate für die Authentifzierung verwenden und mit dem sslpassword-Parameter können nun auch passwortgeschützte TLS-Zertifikate genutzt werden.

Weiterführende Informationen

Die vollständige Liste der Änderungen ist wie immer in den Release Notes zu finden, weiterhin sind auch die deutsche Pressemitteilung und die Pressemitteilung zum vorausgegangenen Beta-Release lesenswert.

PostgreSQL 13 ist ab sofort zum Bauen verfügbar und wird demnächst in die ersten Distributionen Einzug halten. Wer schon jetzt Version 13 ausprobieren möchte, kann auch auf das Docker-Image postgres:13 zurückgreifen.

25. September 2020

Kali Linux kann schon seit geraumer Zeit mittels WSL unter Windows ausgeführt werden. Ganz neu ist die Möglichkeit, Kali Linux in Kombination mit WSL2 auch im Grafikmodus zu nutzen. Das dazu erforderliche Paket kali-win-kex (Kex steht für Kali Desktop Experience) setzt dabei auf das bewährte Protokoll VNC.

Voraussetzungen

  • Sie müssen WSL aktivieren (Windows Features).
  • Sie müssen eine aktuelle Version von Kali Linux für WSL installieren (kostenlos zu finden im Microsoft Playstore).
  • Sie müssen die Kali-Installation von WSL1 auf WSL2 umstellen:
> wsl --set-version kali-linux 2

> wsl --list --verbose

    NAME                   STATE           VERSION
  * Ubuntu                 Stopped         2
    kali-linux             Stopped         2
    ...

Installation von kali-win-kex

Damit Kali Linux unter WSL im Grafikmodus laufen kann, müssen Sie Kali Linux starten und dort kali-win-kex installieren. Da Kali Linux für WSL normalerweise keine Grafikprogrammen enthält, zieht apt install kali-win-kex die Installation unzähliger weiterer Pakete nach sich. Haben Sie ein wenig Geduld!

> wsl -d kali-linux
$ sudo apt update
$ sudo apt full-upgrade
$ sudo apt install kali-win-kex

Betrieb

Der erstmalige Start von Kali Linux ist nun denkbar einfach: Sie führen (ohne sudo!) das Kommando kex aus. Es richtet einen VNC-Server ein und fragt zuerst zweimal nach einem Passwort für die VNC-Verbindung. Optional können Sie ein weiteres Passwort für einen Read-Only-Betrieb einrichten (Sie sehen also Kali Linux, können es aber nicht steuern). Überspringen Sie diesen Punkt.

$ kex

  Password: *******
  Verify:   *******
  Would you like to enter a view-only password: n

Danach erscheint Kali Linux im Vollbildmodus. Auf den ersten Blick scheint es keine Möglichkeit zu geben, diesen wieder zu verlassen. Drücken Sie F8! Diese Funktionstaste führt in ein Kontextmenü des VNC-Viewers. Dort können Sie nicht nur die Option Full Screen deaktivieren, sondern das VNC-Fenster auch minimieren oder die Session ganz beenden (Exit viewer). Der Kali-Desktop passt sich übrigens automatisch an die Fenstergröße des VNC-Viewers (es handelt sich um TigerVNC) an.

Oben die WSL-Konsole, unten Kali Linux im Grafikmodus in einem Tiger-VNC-Fenster samt Menü (F8)

Hinweis: Verwenden Sie nicht das Abmelden-Menü des Kali-Desktops! Übrig bleibt dann ein schwarzer Bildschirm mit Maus. Der VNC-Viewer läuft weiter, aber es gibt keine Möglichkeit, sich wieder anzumelden. Sie müssen Kex mit kex kill beenden und dann neu starten. (Wenn Sie das nicht tun, führt jeder Versuch, eine neue VNC-Verbindung herzustellen, zum Fehler connection refused.)

Seamless Mode

kex ohne weitere Optionen startet Kali Linux in einem VNC-Fenster. Daneben stellt kex eine zweite Variante zur Wahl, den Seamless Mode. Diesen starten Sie im WSL-Fenster von Kali Linux mit der Option --sl:

$ kali --sl

Wichtig ist, dass Sie beim ersten Start des Seamless Mode eine Firewall-Ausnahmeregel für das Programm vcxsrv akzeptieren, und zwar sowohl für private als auch für öffentliche Netzwerke.

Erforderliche Firewall-Einstellungen für den »Seamless Mode«

In der Folge blendet Kali ein Panel am oberen Rand in den Windows Desktop ein. Dort können Sie Kali-Programme starten, die parallel zu Windows-Programmen in Fenstern auf dem gemeinsamen Windows Desktop erscheinen. (Ähnliche Funktionen bieten auch kommerzielle Virtualisierungssysteme wie VMware und Parallels.) Der Seamless Mode setzt allerdings voraus, dass sich die Windows Task-Leiste am unteren Bildschirmrand befindet. Ich ziehe es vor, die Task-Leiste am linken Rand zu platzieren — aber dann kommt es zu Überlappungen. Wenn man von dieser Kleinigkeit absieht, funktioniert der Seamless Mode verblüffend gut und ermöglicht wirklich ein nahtloses Nebeneinander von Kali Linux und Windows.

Oben das Kali-Panel mit Menü, links unten ein Kali-Terminal, rechts zwei Windows-Programme, unten die Windows-Taskleiste

Beachten Sie aber, dass unter Kali Linux für WSL anfangs sämtliche Hacking-Tools fehlen! Es handelt sich ja um eine Minimalinstallation. Entsprechend leer sieht das Kali-Startmenü aus. Wenn Sie keine Lust haben, jedes Hacking-Tool einzeln zu installieren, erhalten Sie mit dem folgenden Kommando ein gute Auswahl der wichtigsten Kommandos (Vorsicht, ca. 1200 Pakete, 5 GByte Platzbedarf!):

sudo apt install kali-linux-default

Einschränkungen

Die Desktop-Integration von Kali Linux funktioniert verblüffend gut und trotz VNC-Backend ohne spürbare Lags. Grandios!

Kex ändert freilich nichts daran, dass WSL2 hinsichtlich der Netzwerkverbindungen recht inflexibel ist. Kali Linux erhält unter WSL2 standardmäßig eine IP-Adresse in einem privaten Netzwerk (NAT, auf meinem Rechner 172.22.7.*), was die Hacking-Möglichkeiten im lokalen Netz stark limitiert. Es gibt im Internet Anleitungen, wie diese Beschränkung teilweise umgangen werden kann, aber eine echte Lösung habe ich nicht gefunden.

Für viele Aufgaben muss Kali Linux daher weiterhin in eine virtuelle Maschine mit Network Bridging oder auf einen physischen Rechner installiert werden. (Ziehen Sie für letztere Option auch den Raspberry Pi in Betracht!)

Quellen

WSL2 Networking:

23. September 2020

Mozilla hat Firefox 81 für Windows, Apple macOS und Linux veröffentlicht. Dieser Artikel fasst die wichtigsten Neuerungen zusammen – wie immer auf diesem Blog weit ausführlicher als auf anderen Websites.

Download Mozilla Firefox für Microsoft Windows, Apple macOS und Linux

Neues optionales Farbschema

Neben dem vorwiegend hellen Theme mit Akzent als Standard-Design und einem komplett hellen sowie einem komplett dunklen Theme wird Firefox standardmäßig bereits mit drei Design-Optionen ausgeliefert. Mit Firefox 81 kommt noch eine vierte Wahlmöglichkeit dazu.

Das neue Theme hört auf den Namen Firefox Alpenglow und ist besonders farbenfroh. Damit hebt es sich ganz bewusst von den drei anderen Themes ab. Dem Nutzer dürfte durch diesen Kontrast zu den anderen Firefox-Themes vor allem die vielfältigen Möglichkeiten der farblichen Anpassung vermittelt werden. Nutzer können über addons.mozilla.org aus tausenden weiteren Themes wählen.

Firefox Alpenglow

Firefox Alpenglow

PDF-Betrachter in neuem Design

In neuer Optik erstrahlt auch der PDF-Betrachter von Firefox. Während das alte Design sehr dunkel war und nicht der sonstigen Design-Sprache von Firefox entsprochen hatte, zeichnet sich das neue Design durch neue Icons, passend zum Photon-Stil von Firefox, größere Schaltflächen sowie dem Fehlen von Farbverläufen und Schattierungen aus, wodurch es nicht nur moderner wirkt, sondern durch eine reduzierte Größe auch schneller lädt. Außerdem gibt es nun sowohl ein dunkles als auch ein helles Farbschema, passend zu den unterschiedlichen Design-Optionen von Firefox.

Firefox 81

Firefox 81

Ausfüllen von PDF-Formularen

Aber nicht nur die Optik des PDF-Betrachters hat sich geändert. Während Mozillas PDF-Betrachter in der Vergangenheit wirklich als reiner Betrachter zu sehen war, ist es ab Firefox 81 auch möglich, PDF-Formulare, sofern es sich um AcroForm-Formulare handelt, auszufüllen und diese ausgefüllt zu speichern und zu drucken. Diese Neuerung wird in Kürze ausgerollt werden. Neugierige können das Feature bereits jetzt aktivieren, indem sie über about:config den Schalter pdfjs.renderInteractiveForms auf true setzen.

Firefox 81

Unterstützung von Ebenen in PDF-Dateien

Eine weitere große Verbesserung im Umgang mit PDF-Dateien ist die Unterstützung von Ebenen. Bisher hat Firefox keine Ebenen in PDF-Dateien unterstützt, was beim Betrachten von PDF-Dateien mit unsichtbar geschalteten Ebenen dafür sorgen konnte, dass Inhalte in PDF-Dateien angezeigt worden sind, welche in anderen PDF-Anwendungen nicht zu sehen waren.

Firefox 81 hält sich dabei an die Standard-Vorgaben des PDF-Dokuments, ab Firefox 82 wird es möglich sein, jede Ebene gezielt ein- und auszublenden.

Firefox 82

USA, Kanada: Speichern von Kreditkarteninformationen

Für Nutzer in den USA und in Kanada ist es nun möglich, Firefox Kreditkarteninformationen speichern zu lassen, was vor allem Nutzern entgegenkommt, welche häufiger im Web shoppen gehen. Diese Änderung wird schrittweise an die Nutzer ausgerollt.

Österreich, Schweiz, Belgien: Pocket-Empfehlungen

Für Nutzer in Deutschland zeigt die Firefox-Startseite bereits seit langer Zeit Empfehlungen von Pocket an, einem Dienst von Mozilla. Mit Firefox 81 aktiviert Mozilla dieses Feature auch für Nutzer der deutschen Firefox-Version in Österreich, der Schweiz sowie in Belgien.

Firefox 81

Verbesserungen der Entwicklerwerkzeuge

Im Barrierefreiheit-Werkzeug wurde das Tool zur Simulation von Sehschwächen (steht nur bei aktiviertem WebRender zur Verfügung) dahingehend überarbeitet, dass es die jeweiligen Einschränkungen genauer simuliert.

Im Editor-Modus der Konsole ist es jetzt möglich, Code-Teile für eine bessere Übersicht einzuklappen.

TypeScript-Dateien werden im Debugger-Panel zur schnelleren Identifikation mit einem entsprechenden Symbol gekennzeichnet. Ein Kontextmenü-Eintrag im Debugger erlaubt das Umbrechen langer Zeilen.

Verbesserungen der Webplattform

Das sandbox-Element des iFrame-Elemts unterstützt jetzt das allow-downloads-Token. Die Unterstützung für das nicht standardisierte mozallowfullscreen-Attribut in iFrames wurde entfernt. Stattdessen ist allow=“fullscreen“ zu nutzen.

Firefox unterstützt aus Kompatibilitätsgründen zu anderen Browsern jetzt auch die nicht standardisierte Form des Content-Disposition Headers ohne Anführungszeichen und mit Leerzeichen im Dateinamen.

Ausführliche Informationen zu Verbesserungen der Webplattform in Firefox 81 finden sich in den MDN web docs.

Sonstige Neuerungen in Firefox 81

Ab sofort ist es möglich, die Wiedergabe von Audio und Video auch über die Media-Tasten der Tastatur oder des Headsets zu steuern.

Der Bild-in-Bild-Modus erlaubt es, die Wiedergabe von Videos von der Website loszulösen und über andere Tabs und sogar Anwendungen zu legen. Die entsprechende Schaltfläche wird in Kürze ein neues Design erhalten.

Werden Lesezeichen aus einem anderen Browser importiert, zeigt Firefox nun standardmäßig die Lesezeichen-Symbolleiste an.

Ab sofort lassen sich heruntergeladene Dateien in den Formaten .xml, .svg sowie .webp direkt in Firefox öffnen.

Firefox unterstützt nun die hardwarebeschleunigte Wiedergabe von VP9-Videos auf macOS Big Sur.

Die Benachrichtigungsleisten von Firefox wurden optisch überarbeitet.

Firefox 81

Sind in Firefox für eine Website noch keine Zugangsdaten gespeichert, in einem anderen Browser jedoch schon und das Profil ist noch keine Woche alt, schlägt Firefox bei Fokussierung des Passwortfelds nun den Import der Zugangsdaten aus entsprechendem Browser vor.

Mozilla hat die Parameter für das Scrolling mit dem Mausrad angepasst, damit sich Firefox nicht langsamer als andere Browser wie Chrome oder Edge anfühlt. Für bestehende Nutzer sind die Änderungen dabei geringer als für neue Nutzer, um bestehende Nutzer schrittweise umzugewöhnen.

Auch wurde in Firefox 81 WebRender wieder für weitere Nutzer ausgerollt. Genauer gesagt wurde die minimal erforderliche Treiber-Version für Intel-GPUs erneut gesenkt, außerdem wird WebRender nun für Nutzer weiterer Intel-Grafikchips ausgeliefert.

Für Entwickler von WebExtensions gibt es bei Verwendung der menus.create()-API hilfreichere Fehlermeldungen. Außerdem gab es zwei Kompatibilitäts-Anpassungen der webNavigation-API, damit sich Firefox vergleichbar zu Google Chrome verhält. Die tabs.saveAsPDF()-API funktioniert jetzt auch auf macOS. Firefox-Nutzer sehen in den Einstellungen einen Hinweis, wenn eine Erweiterung die Einstellung zum Speichern von Zugangsdaten kontrolliert.

Natürlich kam auch in Firefox 81 die Unterstützung weiterer Unternehmensrichtlinien dazu.

Es wurde ein Fehler behoben, der für Nutzer von Sprachpaketen dafür sorgen konnte, dass die Sprache nach einem Firefox-Update auf Englisch zurückgesetzt worden ist.

Außerdem wurde die Barrierefreiheit nativer HTML5 Audio- und Video-Elemente verbessert.

Geschlossene Sicherheitslücken

Wie immer hat Mozilla auch in Firefox 81 wieder mehrere Sicherheitslücken geschlossen. Alleine aus Gründen der Sicherheit ist ein Update auf Firefox 81 daher für alle Nutzer dringend empfohlen.

Der Beitrag Mozilla veröffentlicht Firefox 81 – die Neuerungen erschien zuerst auf soeren-hentzschel.at.

Seit Anfang September 2020 gibt es ein EEPROM-Update für den Raspberry Pi 4, das eine von älteren Modellen bekannte Funktion endlich auf für die Version 4 implementiert: Das Booten von externen USB-Datenträgern. Damit können Sie Ihren Raspberry Pi 4 ohne die auf Dauer oft unzuverlässige SD-Karte betreiben.

Testaufbau: Raspberry Pi 4B mit einer älteren SATA-SSD, die über ein USB-Kabel angeschlossen ist

Vorbereitungsarbeiten

Um den USB-Bootprozess auszuprobieren, habe ich das neueste 32-Bit-Image von Raspberry Pi OS heruntergeladen und mit Etcher auf eine SD-Karte übertragen. Die erforderliche neueste Firmware ist in diesem Fall bereits inkludiert.

Wenn Sie eine ältere Raspberry-Pi-OS- bzw. Raspbian-Installation haben, müssen Sie sich selbst um alle Updates für das Betriebssystem, die Firmware und das EEPROM kümmern. Anschließend ist ein Reboot erforderlich.

sudo -s
apt update
apt full-upgrade
rpi-update
rpi-eeprom-update 

  BCM2711 detected
  Dedicated VL805 EEPROM detected
  BOOTLOADER: up-to-date
    CURRENT: Do Sep  3 12:11:43 UTC 2020 (1599135103)
    LATEST: Do Sep  3 12:11:43 UTC 2020 (1599135103)
  FW DIR: /lib/firmware/raspberrypi/bootloader/critical
  VL805: up-to-date
    CURRENT: 000138a1
    LATEST: 000138a1

Bei einer aktuellen Version des Raspberry Pi OS wird das EEPROM schon dahingehend vorkonfiguriert, sowohl die SD-Karte als auch allfällige USB-Datenträger als Bootmedium zu berücksichtigen. Bei älteren Installationen sollten Sie auch das kontrollieren. Dazu führen Sie sudo raspi-config aus und wählen die folgenden Menükommandos aus:

  • 3. Boot Options
  • B4 Boot Order
  • B1 USB BOOT
Aktivierung des USB-Boot-Modus mit raspi-config

Wichtig für den späteren Bootprozess ist, dass die Datei /boot/cmdline.txt keinen absoluten Pfad zur Boot-Partition enthält, sondern deren UUID (Parammeter root=PARTUUID=...). In meinem Fall sieht cmdline.txt so aus:

console=serial0,115200 console=tty1 root=PARTUUID=9e49548b-02 rootfstype=ext4 elevator=deadline fsck.repair=yes rootwait quiet splash plymouth.ignore-serial-consoles

SD-Karte auf die Festplatte/SSD klonen

Damit Sie in Hinkunft vom USB-Datenträger booten können, müssen Sie den Inhalt der SD-Karte auf die mit dem Raspberry Pi verbundene Festplatte oder SSD kopieren. Am einfachsten geht das direkt im Raspberry Pi OS mit dem Programm Zubehör / SD-Card Copier. Beachten Sie, dass Sie dabei sämtliche Daten verlieren, die sich bisher auf dem USB-Datenträger befanden.

Anschließend fahren Sie den Raspberry Pi herunter, entfernen die SD-Karte, schalten den Pi wieder ein und hoffen, dass er nun den USB-Datenträger als Boot-Device akzeptiert.

Hinweis Der Raspberry Pi kann eine kleine USB-Disk (SSD oder 2,5-Zoll-Laufwerk) mit Strom versorgen. Dazu ist es aber wichtig, dass das Netzteil für den Raspberry Pi ausreichend stark ist! Verwenden Sie zumindest ein Netzteil mit 15 W! Andernfalls brauchen Sie für die USB-Disk ein eigenes Netzteil.

Raspberry-Pi-Image direkt auf die USB-Disk schreiben

Anstatt den Umweg über die SD-Karte zu nehmen, habe ich versucht, ein aktuelles Raspberry-Pi-OS-Image mit Etcher direkt auf die SSD zu schreiben. Die so initialisierte Disk habe ich an einen Raspberry Pi ohne SD-Karte angeschlossen — und siehe da, auch das funktioniert! Wenn Sie also nicht eine vorhandene Installation auf ein USB-Gerät übertragen, sondern eine Neuinstallation durchführen möchten, ist das der einfachste und schnellste Weg!

Hinweis Der Boot-Prozess setzt voraus, dass der Raspberry Pi ein aktuelles EEPROM hat. Sie müssen also auf jeden Fall vorweg mit rpi-eeprom-update sicherstellen, dass diese Voraussetzung erfüllt ist.

Praktische Erfahrungen

Die Hoffnung, dass der Boot-Prozess von einer SATA-SSD vielleicht schneller als von einer SD-Card erfolgen würde, haben sich nicht erfüllt. Der eigentliche Boot-Prozess geht zwar flott vor sich — aber es dauert ziemlich lange (fast eine halbe Minute), bis dieser startet. In der Wartezeit zeigt der Raspberry Pi eine Statusseite an. Warum die Erkennung der USB-Disk solange dauert, ist schwer zu verstehen.

Anstatt flott zu booten, zeigt der Raspberry Pi zuerst einmal eine Weile irgendwelche Statusinformationen an.

Ich habe für meine Tests eine ältere SSD mit 256 GByte verwendet. Nahezu der gesamte Platz steht nun im Root-Dateisystem zur Verfügung. Eindrucksvoll:

df -h -t ext4 -t vfat

Dateisystem    Größe Benutzt Verf. Verw% Eingehängt auf
/dev/root       229G    2,9G  217G    2% /
/dev/sda1       253M     54M  199M   22% /boot

Stark I/O-lastige Arbeiten, z.B. Updates, erfolgen nun spürbar schneller als mit einer SD-Karte. (Benchmark-Tests habe ich keine durchgeführt — aber sobald mir welche bekannt sind, werde ich hier einen Link angeben.)

Update: Stark abhängig vom USB/SATA-Controller

Ein Hinweis im Forum hat mich dazu gebracht, mein Setup mit einem zweiten USB/SATA-Controllern zu testen. Ergebnis:

  • Controller 1 (USB-3-Stecker für Labor-Setups, Aufschrift »GHB«, ID laut lsusb: 174c:55aa ASMedia Technology Inc. Name: ASM1051E SATA 6Gb/s bridge, ASM1053E SATA 6Gb/s bridge, ASM1153 SATA 3Gb/s bridge, ASM1153E SATA 6Gb/s bridge): der Raspberry Pi bootet erst nach ca. 30 Sekunden, läuft dann aber stabil
  • Controller 2 (Gehäuse für SATA-Disks, USB 3, Aufschrift »inateck«, ID laut lsusb: 152d:0578 JMicron Technology Corp. / JMicron USA Technology Corp. JMS567 SATA 6Gb/s bridge): der Raspberry Pi bootet sofort, bleibt aber hängen :-( Das Grafiksystem wird manchmal erreicht, manchmal nicht. Das System ist nicht benutzbar.

Links mein SATA/USB-Controller 1, rechts Controller 2

Mit anderen Worten: Der USB-Bootprozess hängt stark vom verwendeten Adapter ab! Es ist ein Lotteriespiel, ob das Zusammenspiel überhaupt klappt. Ich denke, es gibt keinen schlimmeren Standard als USB3 …

Quellen

Apple hat mit Safari 14 eine Art Tracking Pranger eingeführt (siehe: Radikale Transparenz gegen Tracking). Ein interessanter Ansatz um die allgegenwärtige Spionage im Netz für den Anwender praktisch greifbar zu machen. Die Ergebnisse sind wenig überraschend, prangern aber eine Firma besonders an.

Tracking ist eine Seuche des modernen Internets (siehe: Internet - Schutz vor Tracking und Anonymität). Ihre Ursache liegt letztlich in der Kostenlos-Kultur des Netzes. Weil Werbung die einzige wirklich gut funktionierende Einnahmequelle des Internets ist, versuchen alle beteiligten Akteure ihre Ausbeute zu steigern. Das geht nur, indem man immer mehr über den einzelnen Kunden erfährt. Nur zielgerichtete Werbung ist effiziente Werbung, denn letztlich soll Werbung Produkte verkaufen. Eine Werbung für ein Luxus-Auto ist bei einem Studenten ebenso fehl am Platz wie Babyprodukte bei einem Senior. Irgendwann haben alle beteiligten Akteure an diesem Markt beschlossen, dass der Kunde faktisch keine Rechte hat und man ihm hemmungslos nachspionieren kann.

Dabei ist zu beachten, dass die simple Erhebung von Statistiken kein Tracking ist. Wenn ein Webseitenbetreiber gerne mit den Serverlogs oder Matomo ein bisschen Datenauswertung betreibt, stellt das nur einen begrenzten Eingriff in die Privatsphäre dar. Der Betreiber kann dadurch nur die Bewegungen auf der einen Seite verfolgen und bei gesetzeskonformer Konfiguration keine Rückschlüsse auf die reale Person machen. Beim Tracking werden aber Daten von unzähligen Seiten zusammen geführt, was generalisierte Aussagen zulässt und - Anonymitätsversprechen hin oder her - Rückschlüsse auf die reale Person ermöglicht. Wirkliche Anonymisierung ist nämlich sehr kompliziert, muss ständig angepasst werden und bei beträchtlichen Datenmengen entsteht oft die Möglichkeit zur Deanonymisierung.

Um mal in den Blick zu nehmen, wer da so Daten erhebt, habe ich eine Woche lang mein Mehrbrowser-Konzept aufgehoben und nur mit Safari 14 gearbeitet. Das Ergebnis ist natürlich nur bedingt allgemeingültig. Erstens enthält es nur Tracker, die Apple auch als solche erkennt und zweitens basiert es auf meinem persönlichen Surfverhalten. Nachrichtenseiten aus Politik, Wirtschaft und Technik sind also überproportional vertreten, Social Media eher unterrepräsentiert. IoT-Geräte und mein Smartphone sind ebenfalls nicht in die Statistik eingeflossen. Das Ergebnis zeigt dennoch eine klare Tendenz.

Insgesamt bin ich beim surfen über 44 Tracking-Anbieter gestolpert, von denen mindestens einer auf 65 % meiner besuchten Seiten vertreten war. Die Tracking-Anbieter verteilen sich aber nicht gleichmäßig. 17 Tracking-Anbieter waren nur auf einer einzigen besuchten Seite vertreten, weitere 13 auf maximal 2 bis 3 Seiten. Lediglich 5 Tracking-Anbieter waren auf mehr als 10 Seiten vertreten: Google, Criteo, INFOnline, Amazon und Facebook.

Hierbei gibt es Schwerpunktbildungen. INFOnline könnte man als Tracker für die deutsche Medienwirtschaft bezeichnen. Die Erhebung erfolgt nahezu nur auf deutschen Onlinemedien. Hier aber von der Lokalzeitung über deutschlandweite Medien bis hin zu IT/Technikportalen. Die Amazon-Tracker finden sich "nur" auf Seiten mit Werbung für Produkte auf Amazon. Lediglich eine einzige Firma ist allerdings omnipräsent und verfügt über ein halbes Dutzend aktiver Tracker: Google

Google arbeitete in den vergangenen Tagen auf diesem System mit Google Tag Manager, DoubleClick, Google Tag Services, Google Analytics, Google Syndication und Google Ad Services. Viele Webseiten haben gleich mehrere Tracker von Google eingebunden, alleine der Google Tag Manager war aber auf einem Drittel der besuchten Seiten vertreten. Google sitzt also wie eine Spinne im Netz und erhebt Daten mit freundlicher Mithilfe zahlloser Webseitenbetreiber auf zweifelhafter rechtlicher Grundlage. Denn eine freiwillige und informierte Einwilligung habe ich nirgendwo erteilt. Dabei muss der Nutzer noch nicht einmal direkt einen Dienst von Google wie die Suchmaschine oder Youtube aufrufen.

Das Experiment brachte also im Grunde genommen nicht viel Neues zutage. Abgesehen davon, dass ich nicht vermutet hätte, so viele unterschiedliche Firmen in diesem Markt vorzufinden. Einige Webseiten - beispielsweise ein bekanntes deutsches IT-Blog - stellten sich zudem als so Tracker-verseucht heraus, dass sie aus meinen Bookmarks geflogen sind. Mit einem vielfältigeren Surfverhalten und der Einbeziehung von mehr internationalen Webseiten wäre hier vielleicht ein noch differenziertes Bild entstanden, allerdings wollte ich ja gezielt mein eigenes Surfverhalten überprüfen und mit welchen Trackern ich trotz sorgsam gesetzten Einwilligungen auf den besuchten Seiten konfrontiert werde.

Hier könnte diese kleine Geschichte über Tracking im Internet enden. Ein paar Sätze zum Phänomen Google müssen aber noch sein. Die meisten der oben gelisteten Anbieter kann ich meiden. INFOnline bietet nur Statistik-Dienstleistungen, ansonsten komme ich damit nicht in Kontakt. Natürlich reichern auch solche Firmen den Datenpool an und tragen ihren Teil zur Profilbildung bei, sie setzen aber einen aktiven Zukauf oder Verkauf von Daten voraus. Übrigens ein Hebel, an dem der Gesetzgeber dringend ansetzen müsste. Amazon und Facebook kann ich - mit etwas Mühe - aus dem Weg gehen. Google hingegen nicht und Google muss die Daten eigentlich nicht mal zukaufen, sondern erhebt sie alle selbst!

Ich stolpere nicht nur auf allen möglichen Seiten über Google-Tracker, selbst wenn ich meine IT-Systeme möglichst datenschutzfreundlich ausrichte, lauert überall der Suchgigant. Viele Anwender von Open Source Software haben ein gesteigertes Datenschutz-Bewusstsein und viele Projekte möchten genau dies bedienen (siehe z. B. KDE gibt sich Ziele: Privacy). Letztlich lauert hier aber überall Google. Sei es durch die Förderung der Projekte über den Google Summer of Code, als Hauptfinanzier von Mozilla oder über die omnipräsente Chromium-Engine, sowie die direkte Einbindung von Trackern auf den Distributions-Seiten (z. B. bei Ubuntu und Red Hat) und da ist das Phänomen Android mit all seinen Diensten noch komplett außen vor. Die enge Anbindung der Open Source-Welt an Google ist somit das genaue Gegenteil des Privatsphäre-Versprechens und beruht zumindest teilweise auf wirtschaftsfeindlichen Lizenzbedingungen freier Lizenzen. Nutze ich also einen Linux Desktop und ein Android Smartphone um meine technischen Systeme selbstbestimmt zu kontrollieren, hänge ich direkt und indirekt mehr von Google ab als bei Windows- und Apple-Produkten. Ein zumindest problematischer Wderspruch.

"

22. September 2020

Die Snowden-Leaks und ihre Folgen ordnet Wikipedia inzwischen international im Artikel Globale Überwachungs- und Spionageaffäre ein. Kein anderes Ereignis hat die Öffentlichkeit derart aufgerüttelt und Datensicherheit, Datenschutz und digitale Privatsphäre so nachhaltig im öffentlichen Bewusstsein verankert. Seitdem haben wir viel erreicht.

Oft werde ich kritisiert, weil ich vor allem kritisiere (welch Ironie!). Das liegt vermutlich weniger an der fehlenden Wahrnehmung von Erfolgen, als vielmehr als der Natur des Menschen (oder doch nur meiner?). Negativpunkte, Fehlentwicklung und Defizite stechen mehr ins Auge als Bereiche in denen es einfach gut läuft. Darum möchte ich in diesem Artikel mal ein wenig resümieren was seit 2013 erreicht wurde.

Ein Blick in den Abgrund

Zum Zeitpunkt der Snowden-Leaks sah es bei der digitalen Privatsphäre sehr schlecht aus. Verschlüsselung von Kommunikation und Daten auf den Geräten und auf dem Transportweg war in nahezu allen Bereichen ein Nischenthema oder komplette Fehlanzeige. Hemmungslose Datensammlungen waren zwar nicht legal (die Unterschiede zwischen dem alten deutschen Datenschutzrecht und der DSGVO sind geringer als die meisten glauben) aber allgemein praktiziert. Die weltweiten Datenströme waren für die Geheimdienste somit offene Bücher in denen man nur mitlesen musste. Das gleiche galt für die großen IT-Konzerne und den bei ihnen gespeicherten Daten. Die meisten Menschen leisteten sich zudem ein laxes Verhältnis Privatsphäre im Internet. Soziale Netzwerke als Massenphänomen waren schließlich noch relativ jung.

Sichere Kommunikation allgegenwärtig

Durch die Snowden-Veröffentlichungen ist Verschlüsselung ein Mainstream-Thema geworden.

Bereits in den Folgejahren hat sich im Bereich der E-Mail Sicherheit sehr viel getan. Mein Mailanbieter verweigert automatisiert den Versand an einem Empfänger ohne aktive Transportverschlüsselung. Es ist ewig nicht mehr vorgekommen, dass ich eine entsprechende Wartnung erhielt. Transportverschlüsselung und weiterführende Technologien sind heute selbstverständlich.

Die E-Mail verliert im privaten Bereich an Boden, das schwächt aber nicht die Sicherheit der Inhalte, sondern stärkt sie eher. Der Marktführer WhatsApp verschlüsselt seit 2014 die Inhalte mit einem anerkannten und sicheren Verfahren. Dabei handelte es sich mutmaßlich um eine Reaktion auf die damals aus dem Boden schießenden Alternativen mit mehr Sicherheit. Obwohl WhatsApp also nachgerüstet hat, konnten sich mit Signal und Threema sichere und datenschutzfreundliche Alternativen in einem geringen Umfang etablieren.

Das Thema sichere Gruppen- und Videkommunikation wurde durch die Corona-Pandemie dann 2020 in den Fokus gerückt. Die Defizite waren offensichtlich und beim Senkrechtstarter Zoom hatte man in der Gründungsphase die Prioritäten anders gewichtet. Der öffentliche Fokus auf dieses Phänomen brachte hier aber zeitnah Besserung. Dieser Punkt ist kaum zu unterschätzen. Es ist nicht selbstverständlich, dass während einer Pandemie und einer veränderten digitalen Kommunikation automatisch in der Mainstream-Presse das Thema Sicherheit und Verschlüsselung prominent thematisiert wird. Bei der suche nach freien und unabhängigen Alternativen dürfte Jitsi Meet allgemein gestärkt aus der Krise gehen. Bis dahin fristete das Projekt doch eher ein Nischendasein.

Verschlüsselung ist Standard

Verschlüsselung von Daten ist älter als 2013, aber wer hat das ernsthaft praktiziert. Windows 7, Linux, macOS - sie allen kamen standardmäßig ohne Verschlüsselung. Das gleiche galt für iOS und Android. Seitdem gab es massive Fortschritte. Die Smartphones des Duopols iOS / Android sind heute quasi standardmäßig verschlüsselt. Man kann von biometrischen Entsperrmechanismen halten was man will (siehe: Biometrische Daten zur Authentifizierung sind unsicher!) aber der direkte Sicherheitsgewinn ist sicherlich enorm. Windows 10 und macOS bieten heute ebenfalls eine implementierte und einfach zu aktivierende Verschlüsselung und bei Linux bieten immer mehr Distributionen eine einfache Aktivierung in der Installationsroutine.

Cloud im Fokus

Seit 2013 hat sich vor allem im Bereich "Cloud" viel getan. Die Fortschritte sind hier nicht ganz so evident nachvollziehbar aber dennoch beachtlich. Mit Nextcloud steht eine relativ einfache Lösung für Privatanwender und kleine bis mittlere Firmen zur Verfügung um eine eigene Cloud zu betreiben. Die verbreiteten Heimanwender-NAS-Anbieter Synology und QNAP haben ebenfalls nachgelegt. Die Mehrheit dürfte dennoch immer noch nicht einen kommerziellen Dienstanbieter nutzen. Hier stehen mit Boxcryptor oder Cryptomator allerdings bekannte und einfach zu bedienende Verschlüsselungslösungen zur Verfügung.

DSGVO wirkt

Die DSGVO etablierte deutsches Datenschutzniveau für Europa und strahlt auch darüber hinaus in die Welt aus. Der Schock war groß (und gerade deutsche Firmen sollten da eigentlich ganz leise sein, da die DSGVO wenig Neues beinhaltete), am Anfang ruckelte es gewaltig und es gibt immer noch mannigfaltige Probleme. Dennoch ist der Mehrwert inzwischen klar zu erkennen.

Misstraut man einem Unternehmen oder möchte schlicht nur wissen, was es genau speichert, bietet die DSGVO mächtige Verbraucherrechte. Die Firmen zieren sich teilweise ein wenig und lassen einen ein paar Mal nachhaken aber letztendlich bekommt man sehr viele Informationen.

Die manchmal nervigen Cookie-Abfragen stellen zwar alte Datenschutz-Strategien auf den Kopf (siehe: Cookie Löschung als Datenschutz Maßnahme obsolet?) aber ein besserer Umgang mit Nutzerdaten zeichnet sich ab. Viele Webseiten bieten inzwischen wegen den gesetzlichen Anforderungen die Möglichkeit einer Datenerhebung weitestgehend zu widersprechen und erste Tests zeigen, dass dem dann auch wirklich so ist.

Open Source verbessert und akzeptiert

In der direkten Nachfolge der Leaks hatte die OSS-Community ein paar Rückschläge zu erleiden. Skandale wie Heartbleed legten öffentlichkeitswirksame Probleme und Schwachstellen offen. In der Praxis fehlendes Mehr-Augen-Prinzip, intransparente Projektstrukturen und der verbreitete Einsatz in der weltweiten Infrastruktur ohne entsprechende Beteiligung der einsetzenden IT-Konzerne. Die daraus folgenden Lehren haben aber viele Projekte verbessert. 

Im Bewusstsein einer breiteren Öffentlichkeit ist Open Source als Alternative zu proprietären Produkten akzeptiert und wird in der Regel als datenschutzfreundlicher und sicherer wahrgenommen. Nichts zuletzt Microsofts neue Open Source Strategie spricht da Bände. Open Source Software dürfte bewusst oder unbewusst bei den meisten Menschen vorhanden sein.

Das geringe Bewusstsein kommt vor allem durch den Einsatzort. Wer weiß schon, was der Linux-Kernel in Android macht, welches System auf seinem Router läuft oder mit welcher Technik WhatsApp Inhalte verschlüsselt. Ausgerechnet die klassischen OSS-Projekte wie Linux am Desktop oder Firefox konnten nicht oder nur unwesentlich profitieren. Allerdings liefert Microsoft mit Windows 10 nun quasi Linux mit. Wer hätte das vor 10 Jahren gedacht?

Privatsphäre im Marketing

Vor nahezu einem Jahrzehnt ließ sich Mark Zuckerberg zur Aussage Privatsphäre sei überholt hinreißen. Die IT-Geschichte ist voll von legendären Fehlannahmen und Irrtümern und die Aussage des Facebook-Chefs reiht sich da nahtlos ein.

Nahezu jede Firma im Digitalbereich schreibt sich heute öffentlichkeitswirksam Privatsphäre, Datenschutz und Sicherheit auf die Fahnen. Obwohl es bei manchen an Substanz dahinter mangelt, gibt es auch Positivbeispiele (siehe: Apple vs. Google - Datenschutz und Sicherheit) In manchen Bereichen wie der Webbrowser-Entwicklung hat sich dieser Trend durch Konkurrenz fast verselbstständigt.

Bewusstsein

Der wichtigste Punkt ist jedoch das weit verbreitete Bewusstsein. Die meisten Menschen sehen das Internet nicht mehr als ihr erweitertes Wohnzimmer, sondern wissen, dass sie in der Öffentlichkeit (inter-)agieren. Man kann es Selbstzensur nennen oder einfach die gesunde Übertragung von analogen Gewohnheiten in den digitalen Raum. So wie niemand entgleiste Partybilder auf dem Marktplatz ausstellen würde, kommen diese auch in den Social Media-Kanälen nicht mehr in diesem Maße vor (man erinnere sich an StudiVZ).


Bilder:

Einleitungs- und Beitragsbild von Megan_Rexazin via pixabay

"

21. September 2020

 

Friendica Hackathon 25.09.2020

 

 

Kurz nach dem neuen Friendica 2020.09 Red Hot Poker Release geht es auch schon weiter mit dem alljährlichen Hackathon.

 

Kommenden Freitag den 25.09.2020 findet der virtuelle Hackathon ab 17 Uhr für alle Projektbeteiligten statt. Der Hackathon dauert bis zum Sonntag den 27.09.2020 … bis das Licht ausgemacht wird.

 

Ab Freitag, 20 Uhr deutscher Zeit (UTC 18:00) findet eine Open Round Table für alle Benutzer und generell Interessierte statt. Wenn ihr Fragen zum Projekt, zur Oberfläche, zu Funktionen, zum Fediverse oder dem ganzen Rest habt, dann seid ihr herzlichst eingeladen euch einzuklinken, zu fragen und mitzumachen.Und natürlich seid ihr auch herzlich willkommen, wenn ihr öfter oder auch längerfristig bei Friendica Mitwirken wollt. #WeAreFamily

Eine Bitte noch: Benutzt bitte ein Headset und die Push-2-Talk Funktion, so dass den anderen nicht die Ohren abfliegen. Standardmäßig sind die oftmals streng limitiert und ohne Ohren halten Brillen wirklich sehr schlecht.

Die Zugangsdaten für die Open Round Table auf Big Blue Button lauten:

URL = https://public.senfcall.de/Friendica%20Hackathon%202020
Passwort = friendica

 

Die entsprechenden URLs für den Video-/Audio Call mit Big Blue Button auf dem Senfcall System und weitere Termine für die Projektbeteiligten werden auf einem Cryptopad https://cryptpad.fr/pad/#/2/pad/edit/TzVdf-GDbUYkdvUpAU2GUhjA/ veröffentlicht und aktuell gehalten.

 

Und natürlich werden offizielle Mitteilungen auch auf dem Friendica Hackathon Blog veröffentlicht https://friendi.ca/tag/hackathon/

 

Hier noch eine kleine UTC Weltzeit-Tabelle, falls ihr in einer anderen Zeitzone wohnen solltet. Quelle: https://www.timeanddate.com/worldclock/meeting.html

UTC-time Fr 18:00
Berlin Fr 20:00
New York Fr 14:00
Los Angeles Fr 11:00
Singapore Sa 02:00
Canberra Sa 04:00

 

 

Und wieder gibt es ein neues Friendica Release, nämlich 2020.09 Red Hot Poker “Fackellilie". Viele der Features dieses Releases liegen unter der Haube. Friendica wird von Release zu Release immer schneller. Das kommt daher, dass der Code- und Datenbankumbau und Optimierung weiter fortschreiten. Wenn das so weiter geht müssen die Friendica Admins ihre Server downsizen. Aber mal Spaß beiseite, es ist wirklich toll, was die Entwickler wieder einmal geleistet haben. Der Server wird bei absoluter Stabilität immer schneller und verbraucht dabei immer weniger Platz.

Aber nicht nur unter der Haube hat sich etwas getan, sondern auch der Benutzer kann wieder von neuen Featuren profitieren.

 

So gibt es jetzt ein neues Relay Server Konzept für das Abonnieren von Hashtags. Bisher nutzte Friendica Relay Server von Diaspora. Diese sind aber abgeschaltet worden. Friendica nutzt jetzt ActivityPup (AP) konforme Relay Server und der Aufbau von sprachraumorientierten Relay Servern, also z.B. für den deutschen oder den englischen Sprachraum sind im vollen Gange.

Diese Einstellungen werden vom Friendica Knoten Betreiber/Admin getätigt auf der Kommandozeile mit dem Befehl bin/console relay add RELAYSERVER eingestellt. Eine Übersicht von Relay Servern im Fediverse gibt es hier https://the-federation.info/activityrelay . Dazu ist es wichtig zu wissen, dass der Console Befehl eine komplette URL erwartet, wie z.B. https://relayserver.tld/actor . Das heisst man muss händisch, die Information von the-federation vorne um das https:// und hinten um den /actor erweitern.

Eine GUI Variante für das Adminpanel ist für das nächste Release geplant. Als Benutzer merkt man nur, dass wieder mehr Hashtag-orientierte Beiträge auf dem Knoten erscheinen.

 

Das Theme Frio hat jetzt weitere Styles bekommen, so dass man zwischen einem hellem, einem dunklen und einem schwarzen Style wählen kann. Innerhalb des Styles kann man auch noch die Akzentfarbe, also die Farbe, mit der Links und Überschriften angezeigt werden wählen.

 

Die öffentlichen Kalendereinträge sind jetzt auch als iCAL abonnierbar.

 

Wer noch mehr technische Details zu diesem Release nachlesen will, kann sich das CHANGELOG zum Gemüte führen https://github.com/friendica/friendica/pull/9146/files

Die offizielle Nachricht über die neue Friendica Ausgabe könnt ihr auf englisch hier nachlesen https://friendi.ca/2020/09/20/friendica-2020-09-released/

 

Ich will noch ein wenig zur Geschichte und ganz zum Schluss zum aktuellen Resourcenverbrauch von Friendica etwas erzählen.

 

Ein bisschen Geschichte

Als ich vor 4 Jahren mit meinem 2-20 User Server anfing, war einer der Gründe, warum ich mich für Friendica entschied, dass Friendica über automatisierte Löschfunktionen verfügt. So kann man relativ detailiert einstellen, wie und nach welcher Zeit welche Art von Beiträgen gelöscht werden sollen und welche nicht. Micro- oder Macroblogging ist für mich eine temporäre Sache. Wie oft liest man alte Beiträge auf diesen Netzwerken “nach"? Für mich wichtige Beiträge schreibe ich hier ins Blog, in mein Wiki, oder lokal in mein Gedankensammlungszettelkasten “Obsidian".

 

Anfangs war die Datenbank teilweise bis zu 8 GB groß, mittlerweile versucht sie die 2GB Grenze zu unterbieten. Im Laufe der Zeit sind viele Kontakte hinzugekommen und auch seit das Abonnieren von Hashtags hinzugekommen sind, ist die Datenbankgröße dennoch gesunken. Wobei man ehrlicherweise sagen muss, dass Friendica früher ALLES in der Datenbank gespeichert hatte. Mittlerweile wird das aufgeteilt in Datenbank und Dateisystem.

 

Als Friendica dann um ein Dateispeicher-Backend erweitert wurde, konnte man endlich sämtliche Bilder aus der Datenbank im Dateisystem speichern. Die Datenbank schrumpfte bei mir um die Hälfte auf 4GB und die anderen 4 GB wurden auf die Festplatte ausgelagert. Das hatte den Effekt, dass die Datenbank und dadurch auch Friendica um einiges schneller wurde und die Last (Load) auf dem System sehr viel geringer wurde. Ich behaupte jetzt einfach mal, dass auf einem 6 CPU 8GB RAM VPS Server die Load von 8-10 mittlerweile auf unter 1 gerutscht ist. aufrichtigerweise muss man sagen, dass das sicherlich nicht nur der Verdienst von Friendica selbst ist, sondern auch die Evolution von PHP 5.x auf PHP 7.x

 

Ein Blick in die Zukunft

Mittlerweile wird der Quellcode immer weiter optimiert und, ich nenne es mal abstrahiert. Das hat den Hintergrund, dass man in Zukunft eventuell auch andere Datenbanken we z.B. PostgressSQL benutzen kann. Dazu wurden sogenannte Datenbank Views eingeführt.

 

“Kurz” erklärt sind Datenbank Views in der Datenbank fest definierte Abfragen und Speichervorgänge, die sonst direkt im Quellcode definiert waren. Man kann sich das wie eine virtuelle Tabelle vorstellen. Diese zieht ihre Informationen aus den diversen Tabellen zusammen, die für die entsprechende Seite, oder Funktion im Browser gebraucht werden.

 

Dadurch, dass man jetzt nur noch an die Datenbank eine extrem einfache Abfrage dieser virtuellen Tabelle (View) machen muss, kann man zum einen innerhalb der Datenbank sämtliche Strukturen umbauen bzw optimieren und die View bleibt nach außen immer gleich. Das gilt auch für den schreibenden Zugriff auf die Datembank. Zum anderen muss man in anderen Datenbanksystemen wie MariaDB oder PostgreSQL die Datenbank bzw die Views nur noch anlegen. In Friendicas Konfiguration wird dann nur noch angegeben, welche Datenbank benutzt werden soll. Das ist noch Zukunft, aber die Arbeiten laufen in diese Richtung.

 

Ein bisschen Resourcen

Ich habe im Forum der Friendica Admins mal gebeten eine ungefähre Angabe zu machen, was sie für Hardware mit Ausstattung haben, wie viele Benutzer auf den Systemen sind und was sie für eine Auslasung haben, damit man ein wenig ein Gefühl dafür bekommt, wenn man einen eigenen Server aufsetzen möchte.

Die Datenbankgröße und Cache/Storage sind natürlich abhängig von der generellen Einstellung der Speicherdauer. Dazu kommt, dass Friendica noch eine Proxy Option besitzt, mit der externe Inhalte wie z.B. Vorschaubilder von Youtube oder anderen Quellen, die einfach nur dazu geladen werden, über den Server dazu geladen und an den Client ausgeliefert werden. Statt, dass jeder Client sich diese Daten selbst lädt. Diese Option erhöht natürlich die Privatssphäre belastet aber den Server mit Traffic und Speicherplatz.

 

Hier sind nun die Ergebnisse

Server 1

  • VPS Server mit einigen anderen Applikationen
  • 6 CPUs, 8 GB RAM
  • Datenbank 2.5 GB, Cache/Storage 7 GB, kein Proxy
  • 15 Accounts, Load 0.5 - 1.5

Server 2

  • VPS Server, dedizierter Friendica Server
  • 8 CPUs, 20 GB RAM
  • Datenbank 15.5 GB, Cache/Storage 16.3 GB , kein Proxy
  • 8 Accounts, Load 0.4 - 1

Server 3

  • Root Server
  • 6 CPUs, 16 GB RAM
  • Datenbank 60 GB
  • 80 Accounts, Load 0.5 - 3

Server 4

  • VPS Server
  • 6 CPUs, 32 GB RAM
  • Datenbank 100 GB
  • 1.400 Accounts, Load 1-4

Server 5

  • VM / VPS
  • 2 CPUs, 4 GB RAM
  • Datenbank 11 GB
  • 1 Account, Load 3

Server 6

  • RaspberryPi 2
  • 4 CPUs, 500 MB RAM
  • 12 Accounts, Load 1-5

 

Viel Spass mit dem neuen Release 2020.09 Red Hot Poker (Fackellilien) https://de.wikipedia.org/wiki/Fackellilien

 

 

20. September 2020

Im Mai hatte ich elementary OS anstelle Kubuntu auf den von mir betreuten Geräten installiert (siehe: elementary OS im Consumer-Einsatz - Ein Experiment). Die Zwischenbilanz fällt ziemlich gemischt aus. Die elementary Software funktioniert gut, die Ubuntu-Basis leider nicht.

Die Wahl des elementary Projekts Ubuntu als Basis zu nehmen hatte ich immer komisch gefunden. Man bindet sich dadurch an die strategischen Entscheidungen Canonicals. Erste Probleme zeigen sich schon durch die Entscheidung des eOS Teams für Flatpak. Ich hätte aber nicht erwartet, dass das Zusammenspiel so viele Probleme macht.

Es zeigte sich leider, dass der Zustand von Ubuntu außerhalb "mains" noch schlimmer ist, als befürchtet. Ubuntu 18.04 ist im "universe" eigentlich nur noch eine Sammlung von Sicherheitslücken und Bugs. In die läuft man dann mit elementary OS haufenweise rein. Aktuellere Software wie Chromium gibt es nur noch als Snaps und eben jene möchte das eOS-Team nicht unterstützen. Inwieweit das trotzdem harmoniert wollte ich nicht ausprobieren. Hinzu kommen ärgerliche Bugs. Ein bekanntes Problem sind beispielsweise Notebooks, die nicht mehr aus dem Standby aufwachen. Das Problem liegt wohl irgendwo im Zusammenspiel von systemd und light-locker. Das eOS Team verweist auf Ubuntu und dort interessiert das niemanden, weil Ubuntu im Hauptzweig GDM nutzt.

Die Desktopumgebung Pantheon Shell und zentrale Programme funktionieren jedoch beim Anwender sehr gut. Wenige Schaltflächen, durchdachte Menüführungen und Designkonzepte zeigen ihre positive Wirkung. Das gilt für eigentlich für die gesamte Basis wie die Shell, den Dateimanager, den Kalender, die Fotoverwaltung die Mailanwendung.

Aus diesem Grund habe ich anstelle einer vollständigen Abkehr von eOS bereits im Juni die Basis auf Fedora 32 (siehe: Fedora 32 mit Pantheon Shell) umgezogen. Das funktioniert seitdem im Alltagsbetrieb mit Autoupdates erstaunlich reibungslos.

Nach der Veröffentlichung von elementary OS 6 mit Ubuntu 20.04 als Basis werde ich nochmal prüfen, ob eine Rückkehr zu einem reinen eOS denkbar ist oder es bei Fedora in Pantheon Flavour bleibt.

Langfristig denke ich aber, dass ein Wechsel des eOS Team auf eine passendere Basis unausweichlich ist.

"

In der Vergangenheit hatte ich bereits über WSL2 berichtet und die neuen Funktionen, die damit einhergehen. Leider kommt es nach der Aktivierung von WSL2 unter Windows 10 2004 zu Problemen mit VirtualBox.

Microsoft sind Probleme bekannt und listet dies auch auf der betreffenden FAQ Seite auf.

Ich hatte beispielsweise in der Vergangenheit mit aktivem WSL2 Probleme meine vorhandene Linux Server Systeme zu starten, bereits beim Bootvorgang kam es zu Kernel Fehlern, welche das System ausbremsten.

Da waren Fehler wie VERR_NEM_VM_CREATE_FAILED oder VERR_NEM_MISSING_KERNEL_API_2

WSL1 kannte diese Probleme noch nicht, da es Hyper-V (Windows Hypervisor Plattform) nicht verwendete, WSL2 tut aber genau dies, was wiederum zu dubiosen Fehlermeldungen in Verbindung mit VirtualBox führt.

Schlimmer wurde es mit Ubuntu Desktop 20.04 unter VirtualBox, hier war es nicht mehr möglich ein apt update auszuführen, ohne Hash Fehler (Hash sum mismatch) zu erhalten.

Hash_sum_mismatch

WSL2 und VirtualBox entweder oder - Die Lösung

Zunächst solltet ihr für eine aktuelle Umgebung sorgen

  • Aktualisiert VirtualBox, die neueste September Version 6.1.14 hat eines der hier beschriebenen Probleme gelöst. Changelog-6.1#v14
  • Deaktiviert das  Feature Windows Feature "Plattform für virtuelle Computer", damit greift VirtualBox auf seine eigene Engine zurück

PlattformfuervirtuelleComputer

Nach einem Neustart sollten alle Probleme in VirtualBox in Verbindung mit Linux Installation und Fehlern wie "Hash sum mismatch" oder "failed to fetch store" der Vergangenheit angehören. Negativer Effekt, WSL2 funktioniert nun nicht mehr.

Zum besseren Verständnis eine Übersicht der einzelnen Funktionen

  • Hyper-V ist der Hypervisor von Microsoft.
  • Plattform für virtuelle Computer - Ermöglicht Unterstützung für virtuelle Maschinen und ist für WSL2 erforderlich.
  • Windows-Hypervisor-Plattform - Ermöglicht die Ausführung von Virtualisierungssoftware auf dem Windows-Hypervisor. Die Hypervisor-Plattform ist eine API, die Drittanbieter-Entwickler für die Verwendung von Hyper-V verwenden können, beispielsweise Oracle VirtualBox oder Docker.

 

WSL und VirtualBox zusammen verwenden

Wie bereits oben erwähnt ist momentan ein Zusammenspiel von VirtualBox und WSL2 nicht ohne Probleme möglich.

Wer dennoch beide System verwenden möchte, der hat momentan nur die möglich auf WSL1 downzugraden.

WSL-Ubuntu_18.04_LTS_downgrade

dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart

wsl --list –verbose

wsl --set-version kali-linux 1

dism.exe /online /disable-feature /featurename:VirtualMachinePlatform /norestart

 

WSL selbst sollte natürlich weiterhin in den Windows Einstellungen aktiv sein.

WindowsSubsystemfuerLinux

19. September 2020

Seid ihr zufällig Nutzer von KDE Plasma 5.19.5 sowie Frameworks 5.74.0 und habt gerade auf Qt 5.15.1 geupdated? Nun, das kann schiefgehen. Bei mir hat es das Multi-monitor-Setup erfolgreich zerlegt.

Aktueller Workaround (siehe Update): KRunner aufrufen, plasmashell --replace ausführen.

Ich bin eigentlich KDE-Nutzer, weil man sich so schön die Oberfläche einrichten kann. Solche Dinge wie verschiedene Widgets und Hintergrundbilder, Schnellstartleiste oder Fensterleiste, die nur die Fenster anzeigt, die auch gerade auf dem Monitor liegen. Ist nun leider etwas glitchy momentan, erst einmal sind die Hintergrundbilder gezielt vertauscht, die Fensterleisten zeigen wahlweise die Fenster des jeweils anderen Monitors oder alle von einem bestimmten Monitor an und um das alles in Ordnung zu bringen, darf man x mal in den Einstellungen Primärbildschirm sowie Anordnung tauschen. Dann läuft es wieder – wohlgemerkt bis zum nächsten Neustart.

Aber ich bin damit zum Glück nicht alleine. Das beruhigt wenigstens. Ich habe erst einmal ein Downgrade gemacht, so läuft es wenigstens wieder.

Wir können gespannt bleiben, wenn ich es nicht vergesse, werde ich euch hier auf dem Laufenden halten.

Update 19.09. 22:20 Uhr: hier mal der Bugreport beim Qt-Projekt.

Update 19.09. 22:22 Uhr: Darüber hinaus gibt es einen Reddit-Thread, in dem auch das Event Calendar Applet als Verursacher verdächtigt wird und wo ein Workaround Abhilfe schaffen soll.

Update 20.09. 11:40 Uhr: endlich ein handhabbarer Workaround: im o.g. Reddit-Thread wird vor allem plasmashell --replace empfohlen. Das heißt, dass man trotzdem wie gewohnt upgraden kann und KDE mit der verdrehten Reihenfolge startet. Dann aber den KRunner aufrufen (oder den Anwendungs-Starter) und plasmashell --replace als Kommando eingeben. Damit startet man die Shell neu. Theoretisch kann man das auch aus dem Terminal heraus machen, dann "hängt" die Sitzung aber im Terminal mitsamt der Fehlerausgabe, etc. Es funktioniert nicht bei jedem, aber bei mir klappt dieser Workaround. Bei mir ist übrigens durchs Downgrade die Compositor-Einstellung verloren gegangen, evtl. noch an diese in den Einstellungen denken (Anzeige und Monitor → Compositor), damit die Effekte und Schatten funktionieren.

Update 25.09. 15:00 Uhr: es gibt einen ersten MR für einen Fix. Wir können gespannt bleiben.

18. September 2020

Wie Mozilla offiziell bekannt gegeben hat, werden sowohl der Filesharing-Dienst Firefox Send als auch die Notiz-Funktion Notes by Firefox im Rahmen der internen Umstrukturierung von Mozilla nicht länger fortgeführt.

Firefox Send

Firefox Send war ein Filesharing-Dienst, den Mozilla im März 2019 offiziell gestartet hat. Die Nutzung von Firefox Send war kostenlos und erfolgte durch eine Ende-zu-Ende-Verschlüsselung sicher. Durch die Festlegung einer Maximal-Dauer sowie einer Maximal-Anzahl an Downloads löschten sich die Dateien nach kurzer Zeit wieder von selbst vom Mozilla-Server.

Bereits Anfang Juli hatte Mozilla Firefox Send offline genommen. Der Grund war, dass Firefox Send zunehmend dazu verwendet worden sei, „Nutzlasten für alle Arten von Cyberkriminalität zu speichern, von Lösegeld- bis hin zu Finanzkriminalität und von Banking-Trojanern bis hin zu Spyware, die gegen Menschenrechtsaktivisten eingesetzt wird“, wie ZDNet.de berichtete.

Ursprünglich sollte es sich dabei nur um eine temporäre Auszeit handeln, während Mozilla im Hintergrund an Verbesserungen arbeitet, um Firefox Send in verbesserter Form neu ins Rennen zu schicken. Dazwischen kam aber COVID-19 und die daraus resultierenden finanziellen Folgen für Mozilla sowie die angekündigte Umstrukturierung, welche die Kündigung von 250 Mitarbeitern einschließt.

Im Zuge der stattfindenden Umstrukturierung wurde nun beschlossen, Firefox Send aus Kostengründen nicht wieder online zu schalten. Die Website von Firefox Send leitet bereits auf die reguläre Mozilla-Website um.

Notes by Firefox

Notes by Firefox ist eine Browser-Erweiterung für den Desktop-Firefox sowie eine App für Android, welche es dem Nutzer erlaubt, Notizen anzulegen und diese zwischen verschiedenen Geräten zu synchronisieren.

Es dürfte die wenigsten Nutzer überraschen, dass jetzt auch für Notes by Firefox das offizielle Ende kommt, immerhin gab es nun auch schon seit 1 1/2 Jahren kein Update mehr. Mozilla wird Notes by Firefox mit dem 1. November dieses Jahres einstellen.

Nutzer, welche die Erweiterung für den Desktop-Firefox installiert haben, können diese auch über den 1. November hinaus nutzen. Es wird jedoch keinerlei Aktualisierungen mehr geben, was auch mögliche Sicherheits-Updates einschließt. Zur Neuinstallation wird Notes by Firefox ab dem 1. November nicht länger zur Verfügung stehen. Auch die Synchronsiation der Notizen wird mit dem 1. November stoppen. Bestehende Notizen können über die Erweiterung bereits exportiert werden. Mozilla wird in Kürze noch ein Update veröffentlichen, welches auf das bevorstehende Ende hinweist und womit alle Notizen mit einem Mal exportiert werden können.

Für die Android-App hat Mozilla bereits gestern ein Update veröffentlicht, welches einen entsprechenden Hinweis in der App einblendet. Notes by Firefox für Android wird ab dem 1. November gar nicht mehr funktionieren.

Der Beitrag Mozilla stellt Firefox Send und Notes by Firefox ein erschien zuerst auf soeren-hentzschel.at.

15. September 2020

Einer der bekanntesten Nachfolger von yacc, GNU Bison, hilft ab Version 3.7 bei Schwierigkeiten in der Parser-Grammatik mit konkreten Gegenbeispielen.

Es gibt in der Informatik extrem spannende Gebiete, auf die wir täglich zurückgreifen, aber mit denen die Wenigsten direkt zu tun haben. Trotzdem ist es sehr kurzweilig, einen kleinen Einblick in diese Welt zu erhalten. Eines dieser Gebiete ermöglicht es, Informationen strukturiert und menschenleserlich darzustellen: es geht um (formale) Grammatiken. Grammatiken sind die Grundlagen für Sprachen und definieren, wie z. B. eine Rechenaufgabe, eine Konfigurationsdatei oder ein Quellcode aussehen dürfen. Während in einer Grammatik also definiert wird, wie etwas korrekt aussieht, ist das Pendant dazu der Parser, der eine Eingabe einliest, entscheiden kann, ob diese ein gültiger "Satz" in der Grammatik ist und anschließend zur Weiterverarbeitung vorbereitet. Diese Kombination aus Sprache und Parser ist im Grunde eine Schnittstelle zwischen Mensch und Maschine. Sie ermöglichte eine der entscheidendsten Produktivitätssteigerungen, da hierauf praktisch alle Programmiersprachen basieren und selbst einfachste Anwendungen wie Rechenaufgaben mit Hilfe von Grammatiken implementiert werden.

Nun sind Grammatiken ein gut erforschtes Gebiet: die Linguistik hat viel Forschung in den 1960er-Jahren reingesteckt und die Informatik hat diese automatisiert. Seit vielen Jahrzehnten gibt es sog. Parsergeneratoren, in die man einen Bauplan, die Grammatik, eingibt und welche dann einen fertigen Parser auswerfen. yacc war einer der bekanntesten Parsergeneratoren und wurde auf den meisten Systemen bereits von GNU Bison abgelöst. GNU Bison ist vor einigen Wochen in Version 3.7 erschienen und bietet eine interessante Möglichkeit, um Grammatiken zu debuggen. Ja, Grammatiken können „Bugs“ enthalten und ihr könnt euch vorstellen, dass es nicht ganz leicht ist, eine Lösung zu finden, wenn C++-Code oder eine JSON-Eingabe auf einmal nicht eingelesen werden können, weil der Parser XY einen Fehler hat.

Um es einfach zu halten, werde ich das kurz anhand des „Hello worlds“ der Parser, dem Taschenrechner, demonstrieren.

Eine Bison-Grammatik sieht in etwa so aus:

%{
#include <stdio.h>
int main(void);
int yylex(void);
void yyerror(char const *);
%}

%token ZAHL
%token ZEILENENDE

%%

start:
  %empty
| start berechnung
;

berechnung:
  strichrechnung ZEILENENDE { printf("= %d\n", $1);}
| ZEILENENDE /* ignore */
;


strichrechnung:
  punktrechnung
| strichrechnung '+' punktrechnung { $$ = $1 + $3; }
| strichrechnung '-' punktrechnung { $$ = $1 - $3; }
;

punktrechnung:
  ZAHL
| strichrechnung '*' ZAHL { $$ = $1 * $3; }
;

%%

int main(void)
{
        yyparse();
}

void yyerror(char const *s)
{
        fprintf(stderr, "Error: %s\n", s);
}

Den Lexer, der die Eingabe vorverarbeitet und entscheidet, was nun eine "ZAHL" ist, lasse ich der Einfachheit mal raus.

Interessant ist der Teil in der Mitte, da wird einerseits definiert, wie ein gültiger „Satz“ in unserer „Sprache der Rechenaufgaben (ohne Division)“ aussieht und daneben festgelegt, wie diese verarbeitet werden. So eine Bison-Grammatikdatei vermischt zwar ein wenig Syntax und Semantik, aber man will ja auch fertig werden. Die kleingeschriebenen Beizeichner heißen "Nichtterminale", sind ähnlich wie Variablen und können ausgetauscht werden. Die großgeschriebenen Bezeichner heißen "Terminale" und sind in unserem Beispiel Zahlen sowie das EOL/Enter. Eine Eingabe wäre also 2 + 5 * 2 <ENTER> bzw. 2 + 5 * 2 \n, da \n das Zeichen ist, was bei einem Enter entsteht. (Unter Linux zumindest) Das sieht visualisiert folgendermaßen aus:

Grammatik am Beispiel

Wir sehen also, dass Grammatiken nebenbei auch die Punkt- vor Strichregel implementieren. Und das ist im Grunde auch das Hauptarbeitsfeld, wenn man an Parsern baut. Und eine große Fehlerquelle. Findet ihr den Fehler in der obigen Grammatik?

Bison meckert jedenfalls über 6 Reduzier/Reduzier-Konflikte, kann also bei bestimmten Eingaben nicht entscheiden, wie die Eingabe interpretiert werden soll. Bisher musste man selber die Grammatik mit Hilfe des zugrundeliegenden Automaten debuggen, aber nun kann Bison selber konkrete Beispiele liefern, an welchen Stellen nicht entschieden werden kann.

Diese Funktion lässt sich mit der Option -Wcounterexamples aufrufen und liefert für obige Grammatik:

parse.y: warning: reduce/reduce conflict on tokens '+', '-', '*' [-Wcounterexamples]
  Example: strichrechnung '+' punktrechnung • '*' ZAHL
  First reduce derivation
    strichrechnung
    ↳ strichrechnung '+' punktrechnung
                         ↳ strichrechnung    '*' ZAHL
                           ↳ punktrechnung •
  Example: strichrechnung '+' punktrechnung • '*' ZAHL
  Second reduce derivation
    strichrechnung
    ↳ punktrechnung
      ↳ strichrechnung                       '*' ZAHL
        ↳ strichrechnung '+' punktrechnung •
parse.y: warning: reduce/reduce conflict on tokens '+', '-', '*' [-Wcounterexamples]
  Example: strichrechnung '-' punktrechnung • '*' ZAHL
  First reduce derivation
    strichrechnung
    ↳ strichrechnung '-' punktrechnung
                         ↳ strichrechnung    '*' ZAHL
                           ↳ punktrechnung •
  Example: strichrechnung '-' punktrechnung • '*' ZAHL
  Second reduce derivation
    strichrechnung
    ↳ punktrechnung
      ↳ strichrechnung                       '*' ZAHL
        ↳ strichrechnung '-' punktrechnung •

Mit geschultem Blick wird das Problem deutlich: die Operatorrangfolge, das "Punkt vor Strich", ist nicht korrekt implementiert. Bison kann also nicht entscheiden, ob "2 + 5 * 2 " nun 12 oder 20 ergeben soll, weil es entweder als (2 + 5) * 2 oder 2 + (5 * 2) interpretiert werden kann. Die Lösung sieht ohne weiteres Hintergrundwissen wie aus der Luft gegriffen aus, wäre aber, die Punktrechnung zu definieren als:

punktrechnung:
  ZAHL
| punktrechnung '*' ZAHL { $$ = $1 * $3; }
;

So kann die Grammatik eindeutig "interpretiert", also geparst werden und der Taschenrechner funktioniert.

Ihr könnt ja in den Kommentaren mal schreiben, ob euch das Thema interessiert und ob ich in weiteren Blogartikeln Aspekte und Grundlagen aus der Welt der Sprachen und Grammatiken aufbereiten soll. ;-)

Die MZLA Technologies Corporation hat mit der Verteilung des automatischen Updates von Thunderbird 68 auf Thunderbird 78 begonnen.

Vor gut zwei Monaten ist Thunderbird 78 erschienen. Thunderbird 78 bringt gegenüber Thunderbird 68 zahlreiche Neuerungen.

Automatische Updates von Thunderbird 68 auf Thunderbird 78 wurden bisher jedoch noch keine verteilt. Wer Thunderbird 78 nutzen wollte, musste also die neue Version von Hand über die alte Version installieren. In der Zwischenzeit hat die MZLA Technologies Corporation mehrere weitere Updates verteilt und nun damit begonnen, bestehende Installationen von Thunderbird 68 auf Thunderbird 78 zu aktualisieren.

Der Beitrag Update von Thunderbird 68 auf Thunderbird 78 wird verteilt erschien zuerst auf soeren-hentzschel.at.

12. September 2020

Vor kurzem habe ich mein kleines Heimnetzwerk erweitert und natürlich kam ich wieder mal bei der Frage an "Wie misst man jetzt eigentlich die Netzwerkgeschwindigkeit?". Klar kann man Daten über verschiedenste Protokolle übers Netzwerk schicken und hoffen, dass dabei halbwegs reale Zahlen herauskommen, aber in der Regel klappt das nicht so ganz.

Für so gut wie jede Plattform gibt es mittlerweile das Tool iperf3, was das eingangs erwähnte Problem elegant löst. Die Benutzung ist denkbar einfach, man startet hierzu iperf3 zuerst als Server auf dem Gerät was die Anfragen beantworten soll:

$ iperf3 -s

Anschließend ist ein Test in Senderichtung vom Client aus wie folgt durchführbar:

$ iperf3 -c <serveradresse>

Will man die Geschwindigkeit in Empfangsrichtung testen geht dies mittels des Parameters -R:

$ iperf3 -R -c <serveradresse>

Der Test dauert jeweils 10 Sekunden, danach bekommt man das Ergebnis zusammengefasst. Ich empfehle sowohl die Sende- als auch Empfangsrichtung zu testen, zumindest wenn es um eine kabellose Übertragung geht, da man hier stark unterschiedliche Werte bekommen kann.

In Version Thunderbird 78.2 haben die Entwickler nun die lang erwartete integrierte OpenPGP Funktion freigeschaltet (siehe: OpenPGP in Thunderbird 78 - Der Weg ist noch weit). Die Funktionsweise ist nun weitestgehend gewährleistet, aber es fehlt noch viel Feinschliff.

Die OpenPGP Funktion ist nun standardmäßig aktiviert. Dies bedeutet man kann in direkt nach dem Erststart und der Konteneinrichtung in den Konteneinstellungen die Verschlüsselung aktivieren. Ein Gang in about:config entfällt nun.

Die Einstellungen nennen sich schlicht Ende-zu-Ende Verschlüsselung und bieten sowohl die Optionen für OpenPGP, als auch für S/MIME.

Wie man auf dem Screenshot sehen kann fehlt zumindest in meiner Installation über das Ubuntu Edge Snap noch einiges an Lokalisierungsarbeit. Über Add Key lässt je nach Bedarf ein bestehender Schlüssel importieren oder ein neuere generieren.

Bei einem neu generierten Schlüssel sind die Voreinstellungen halbwegs sinnvoll gewählt. Ob man ein Ablaufdatum in 3 Jahren haben möchte muss jeder für sich selbst entscheiden. Es spricht aus Gründen der Sicherheit einiges dafür, aber die schwierige Distribution der öffentlichen Schlüssel verhindert andererseits eine uneingeschränkte Empfehlung.

Verwalten lassen sich die Schlüssel wie gehabt im Schlüsselmanager, der noch sein altes Aussehen hat.

Die Suche nach öffentlichen Schlüssel auf dem einem Schlüsselserver funktioniert im Gegensatz zur vorherigen Version nun.

Beim Verfassen einer Nachricht zeigt ein kleiner Text und ein Symbol und rechts nun die aktivierte Verschlüsselung.

Insgesamt funktioniert OpenPGP in Thunderbird nun leidlich stabil, aber es fehlt noch viel Feinschliff. Wie auch beim Firefox stehen alte Designelemente wie der Schlüsselmanager mehr oder weniger unpassend neben neuen Elementen wie den Einstellungen. Beim Verfassen neuer Nachrichten fehlt zudem eine eindeutig und optisch starke Warnung bzw. Bestätigung ob die Nachricht nun verschlüsselt oder ungesichert raus geht.


Bilder:

Einleitungs- und Beitragsbild von mohamed Hassan via Pixabay

"

Open Source bot mal ein komplett freies alternatives Ökosystem. Dieses Versprechen kann die Gemeinschaft immer weniger bedienen. Kern des immer größer werdenden Problems sind: Mobile, Smart Home und intelligente Assistenzsysteme.

In vielen Artikeln bemängle ich beiläufig die Defizite im Open Source Ökosystem. Gemeint mit "Open Source" sind in diesem Kontext die Entwickler- und Anwendercommunity, sowie die wenigen Firmen rund um freie Software und die von ihnen (maßgeblich) geschaffenen Produkte. Es geht nicht um freie Kerne wie bei Android oder IoT, eingebettet in ein proprietäres undurchdringbarens Dickicht, denn dann wäre macOS auch Open Source.

Grundsätzlich darf an natürlich fragen warum Defizite in manchen Bereichen überhaupt ein Problem sein sollen. Open Source und proprietäre Produkte harmonieren schließlich leidlich miteinander. Meiner Erfahrung nach verfolgen viele eingefleischte Open Source Nutzer allerdings einen ganzheitlichen Ansatz und möchten proprietäre Produkte so weit wie möglich aus ihrem Umfeld verbannen. Wenn in immer mehr Lebensbereichen nur die Wahl zwischen Verzicht und proprietären Produkten besteht könnte man dazu übergehen gleich auch die letzten Open Source Refugien zu eliminieren.

Defizite und Perspektiven

Smartphones

Android war wie schleichendes Gift! Als Apple 2007 mit dem iPhone die Handy-Welt umkrempelte das Smartphone aus der Business-Ecke holte gab es durchaus verschiedene vielversprechende Ansätze. Die ganze Welt startete quasi bei Null. Alte Ansätze wie Symbian oder Black Berry OS entwerteten sich binnen weniger Monate. Der Markt war offen für neue Player und davon gab es einige. Man erinnere an MeeGo oder PalmOS. Diese scheiterten natürlich nicht allesamt an Android sondern hatten viele weitere Begrenzungen Probleme und Fehlentscheidungen.

Linux am Desktop zeigt jedoch wie genügsam die Community sein kann. Man benötigt nicht jede App, man braucht keine 50% Marktanteil. Die Basis war da, nur sammelten sich die interessierten Open Source Entwickler im Android-Ökosystem. Da war ja irgendwie Open Source und irgendwie Linux. Dort arbeiten sie nun um die Android Restriktionen herum und versuchen krampfhaft den zunehmend proprietären Kurs von Google zu kompensieren. Von einer transparenten und offenen Mitwirkung am Entwicklungsprozess mal ganz zu schweigen. Es erinnert an OpenOffice.org und Oracle. Nur ist die Android-Community zu zerfasert und unorganisiert um den Sprung zu wagen, den damals die Office-Entwickler machten. Der Versuch von Cyanogen scheiterte kläglich, nachdem man sich einem anderen IT-Großkonzern an den Hals geschmissen hatten.

Den Mobile-Zug hat man vollständig verpasst. Ubuntu Touch und Meego sind kaum mehr als Experimentalstudien und kommen trotz des leidenschaftlichen Einsatzes der wenigen Entwickler kaum vom Fleck. Purisms Librem ist vor allem ein Beispiel für ausgezeichnete PR-Arbeit und wie verzweifelt die Community inzwischen ist.

Tablets

Tablets waren mal große Smartphones und mit diesem Konzept wurden viele Millionen Geräte verkauft. Die Absatzzahlen gehen nun aber schon länger zurück und die Firmen reagieren mit einer zunehmenden Professionalisierung der Geräte. Ein Microsoft Surface oder das iPad Pro richten sich nicht an den Sofa-Surfer. Die zugedachten Tätigkeiten werden auch immer weiter ins Produktivitätsumfeld geschoben und mit alternativen Eingabemethoden wie dem Pencil versehen.

Das ist erst einmal für Open Source eine Chance. Auf einer Surface Hardware läuft prinzipiell auch Linux. Während manche Desktops wie die GNOME Shell das Spagat zwischen Tastatur und Maus, sowie einer Finger- und Gestenbedienung ganz passabel meistern, gilt dies für viel Software im Produktivbereich - man denke nur an LibreOffice - überhaupt nicht.

Ganz abgefahren ist der Zug hier aber noch nicht. Das ist schon mal ein Unterschied zu Smartphones.

Smarte Assistenten

Smart Assistenten sind das Megathema der Gegenwart. Amazon, Apple, Google - alle spielen sie mit. Sonderlich smart sind diese Lösungen eigentlich immer noch nicht. Selbst die Produkte der Marktführer sind - um im Begriffsschema zu bleiben - ziemlich "dumm". Die Tendenz ist aber eindeutig. Waren sie ursprünglich nur in Smartphones und Autos, finden sie sich nun in Lautsprechern und weiteren Produkten. Sie sind Teil der Zukunft.

Am Beispiel der smarten Assistenten zeigt sich ein Problem in der Open Source Entwicklung. Geldmangel und Organisationsmangel. Einen smarten Assistent entwickelt kein Entwickler nebenbei in seiner Freizeit, hier reicht auch keine kleine Entwicklergruppe. Solche Organisationsformen sind aber Nukleus fast alles Open Source Projekte - bis hin zum Linux Kernel. Diese Lücke füllte zumindest ansatzweise eines der wenigen echten Open Source Unternehmen - Mozilla - mit Common Voice und Deep Speech. Zwei Projekte in den Kinderschuhen aber mit Perspektive. Jedenfalls hatten sie diese bis Mozilla aus Geldnot vor kurzem den Stecker zog. Unklar sind die Auswirkungen auf die einzige wirkliche freie AI Mycroft.

Zukunftsträchtige Unterfangen hängen oft von einigen Firmen ab, wenn diese sich zurückziehwen war es das. Das ist auf dem Desktop mit Red Hat so, am Browser mit Mozilla und eben auch bei exotischeren Projekten wie Spracherkennung. Ironie: Auch hier hängt es letztlich an Google. Nun sagt man immer, dass kein Parasit den Wirt zerfrisst von dem er lebt - aber auch das bleibt abzuwarten.

Smart Home

Smarte Assistenten und ein smartes Zuhause sind zwei Seiten der gleichen Medaille bzw. greifen oft ineinander. Genau wie bei den Assistenten spielt nahezu jede infrage kommende Firma mit. Neben Startups sind das auch etablierte Marken wie - das zwischenzeitlich ausgegliederte - Philips Hue oder gar IKEA. Als Schaltzentralen etablieren sich zunehmend Sachen wie Apples HomeKit oder Googles Home-Lösung. Die proprietären Anbieter versuchen mit zweifelhaften Maßnahmen ihre Standards für allgemeingültig zu erklären.

Open Source hat hier openHAB zu bieten. Das viel mehr als nichts, aber wie so oft ist die Einarbeitungszeit immens. Die Berichte zeigen die Möglichkeiten, aber auch den Arbeitsaufwand. Die damit gesteuerten Endgeräte sind allerdings nahezu immer proprietär. Trotzdem ist hier noch ein wenig Potenzial für die zukünftige Entwicklung enthalten.

Vernetzte Geräte

Vernetzte Geräte sind irgendwie Teil des Smart Home, aber ich möchte sie hier dennoch separat ansprechen. Ein verbreitetes Beispiel sind kabellose Multiroom-Lautsprecher. Bekannte Marken sind hier SONOS, BOSE und Teufel. Was eint sie alle? Es sind letztlich proprietäre Systeme und man ist für den langfristigen Betrieb auf den guten Willen der Hersteller angewiesen. Wenn man auf diese Systeme verzichten möchte bleiben einem ggf. noch die integrierten Protokolle von Apple- allerdings ist auch dieses nicht offen.

Bei Open Source sind hier leider nur Leerstellen. Miracast ist weitestgehend Theorie geblieben. Multiroom bedeutet bei Open Source immer noch ein zentrales raspberry oder einen Server und dann Kabel ziehen.

Viele weitere Leerstellen

Die Liste lässt sich beliebig fortführen, weil immer mehr Bereiche unsere Lebens digitalisiert werden. Offene und transparente Steuersysteme für Autos und andere Mobilitätssysteme? Smart-TVs und Smartwatches? Die ganzen aufkommenden Dienste wie das Mobile Payment? Streaming? Alles nicht mal angedacht, von Dienstleistern ohne DRM und freien Protokollen nichts in Sicht

Fazit

Abseits des eigentlichen Desktops und Notebooks spielt Open Source höchstens die Rolle eines Zulieferers. Man darf halt den Firmen den Kernel oder ein paar Protokolle liefern, aber freie Systeme gibt es nicht. Ausgehend von einem fiktiven Startdatum 2007 - also kurz bevor Smartphones das Licht der Welt erblickten, aber Linux schon quasi massentauglich war - ist das ein erheblicher Rückschritt aus Anwendersicht.

Dafür gibt es viele Gründe und man sollte sich hüten Schuldige zu benennen. Entwickler arbeiten woran sie Spaß haben und die zunehmende Komplexität des digitalen Umfelds als Herausforderung für die Open Source Entwicklungsstrukturen haben schon vor Jahren Entwickler erkannt.

Nur sollte man meiner Meinung nach die vielschichtigen Defizite und wenigen Perspektiven im Blick behalten, wenn mal wieder irgendeine Initiative Open Source auf irgendwelchen Staats-Desktops fordert oder Schulen mit Linux versorgen möchte. Angesichts der Gesamtentwicklung erscheint mir das gelegentlich als Zombiedebatte.


Bilder:
Einleitungsbild und Beitragsbild von von Pixaline via pixabay

"

Heute möchte ich ein Kommandozeilen-Werkzeug vorstellen, dass ich seit einigen Monaten zur Zeiterfassung benutze. Bis Ubuntu 18.04 habe ich immer das Hamster-Applet verwendet, was wirklich toll war. Unter 20.04 funktioniert dieses Applet aber nicht mehr. Deshalb habe ich mich nach Alternativen umgeschaut und bin bei Watson gelandet – ein Werkzeug für die Kommandozeile. Die Zeiterfassung mit Watson ist anders als mit dem Hamster-Applet, doch schauen wir uns zuerst die Installation an.

Installation

Watson ist ein Python-Programm und man installiert es am besten mit dem Python Paket Manager pip:

$ sudo apt install python3-pip
$ sudo pip3 install td-watson

Damit die Bedienung einfacher wird, installieren wir noch die Bash-Autovervollständigung:

$ cd /etc/bash_completion.d/
$ wget https://raw.githubusercontent.com/TailorDev/Watson/master/watson.completion

Damit die Autovervollständigung auch funktioniert, muss man den Terminal neu starten.

Bedienung von Watson

Es gibt eine Reihe von Befehlen, die einem helfen, die Zeit zu erfassen, Zusammenfassungen anzuzeigen oder einzelne Projekte zu verwalten. Die wichtigsten stelle ich kurz vor:

Zeit eines Projekts erfassen

$ watson start Projektname +Schlagwort1 +Schlagwort2

Im Hintergrund wird damit ein „Frame“ oder Zeitabschnitt angelegt für das Projekt inkl. der beiden Schlagwörter. Mit Schlagwörtern kann man z.B. die Zeit für Unterprojekte / Teilaufgaben erfassen.

Mit

$ watson stop

beende ich die Zeiterfassung für das Projekt wieder.

Andere hilfreiche Befehle

Manchmal kommt es vor, dass ich vergesse „watson stop“ auszuführen. Mit

$ watson edit

kann ich den letzten Zeitabschnitt / „Frame“ bearbeiten:

watson edit

Um das letzte Projekt neu zu starten, reicht ein:

$ watson restart

Um mir eine Zusammenfassung meiner Projekte anzuschauen, kann ich folgende Befehle benutzen:

$ watson report // letzte 7 Tage
$ watson report -m // aktueller Monat
$ watson report -f "2020-08-01" -t "2020-08-31" // Report vom 01.08. bis 31.08.2020
$ watson aggregate // zeigt eine Zusammenfassung der letzten 7 Tage an (für jeden Tag einzeln)

Weitere nützliche Befehle erhält man mit

$ watson --help
$ watson Befehl --help

Fazit

Watson ist ein wirklich einfach zu bedienendes Kommandozeilen-Werkzeug. Die Zeiterfassung mit Watson gefällt mir wirklich gut, obwohl ich das Hamster-Applet auch sehr praktisch fand. Es gibt einzelne Community-Projekte rund um Watson, die die Arbeit damit noch einmal verbessern, z.B. ein GUI und andere nette Kleinigkeiten. Ein Feature, welches meiner Meinung nach noch fehlt, ist die Möglichkeit Notizen zu einem Zeitabschnitt hinzuzufügen. Es gibt dafür einen Pull Request, aber er ist noch nicht im Projekt.

Welches Tool benutzt du zur Zeiterfassung?

Kommentar hinzufügen

Der Beitrag Zeiterfassung mit Watson erschien zuerst auf .:zefanjas:..

11. September 2020

Die MZLA Technologies Corporation hat mit Thunderbird 78.2.2 ein Update für seinen Open Source E-Mail-Client veröffentlicht.

Thunderbird 78.2.2 steht ab sofort zum Download bereit. Ein automatisches Update von Thunderbird 68 und älter steht weiterhin nicht zur Verfügung, dieses wird erst in den kommenden Wochen verteilt werden. Nutzer von Thunderbird 78.x erhalten die neue Version jedoch bereits als Update.

Neuerungen von Thunderbird 78.2.2

Mit dem Update hat das Team der MZLA Technologies Corporation die Möglichkeit implementiert, beim Verfassen von E-Mails die Reihenfolge der Empfänger per Drag and Drop zu verschieben.

Die Twitter-Unterstützung in der Chat-Komponente von Thunderbird ist auf Grund einer API-Änderung seitens Twitter schon länger defekt. Mit Thunderbird 78.2.2 wurde Twitter nun vollständig aus der Anwendung entfernt.

Ansonsten ist Thunderbird 78.2.2 wieder randvoll gefüllt mit Fehlerkorrekturen und Verbesserungen unter der Haube, welche sich im Detail in den Release Notes (engl.) nachlesen lassen.

Der Beitrag Thunderbird 78.2.2 veröffentlicht erschien zuerst auf soeren-hentzschel.at.

10. September 2020

Ich muss zur Zeit relativ häufig Images von microSD-Karten anfertigen, welche hauptsächlich mit dem ext4-Dateisystem formatiert sind. Jetzt ist das insgesamt ein eher wenig angenehmer Prozess, weil das Anfertigen eines Images Zeit und Speicherplatz kostet.

Das Zeitproblem bekommt man inden Griff, indem man sich ordentliche microSD-Karten kauft (für Consumer sind SanDisk ganz nett, haben sich auch im Industriebereich für uns bewährt), sowie entsprechende microSD-Kartenleser (auch hier gibt es von SanDisk eine schöne, kleine, portable Lösung: SanDisk MobileMate USB 3.0 Reader (Datenraten >90MB/s sind damit problemlos möglich, für Sie getestet).

Das Speicherplatzproblem bekommt man halbwegs in den Griff, wenn man die Images komprimiert. Ich setze dazu gerne zstd ein, welches sich nach einigen Tests als das effizienteste Tool herausgestellt hat (sowohl was Zeitbedarf als auch Kompressionsrate anbelangt).

Leider beinhalten Images von microSD-Karten oft Daten an Stellen, wo gar keine mehr sein sollten. SSDs „trimmen“ diese Bereiche i.d.R. automatisch, microSD-Karten können das hingegen nicht.

Wer allerdings auf ein Dateisystem der ext-Familie setzt hat Glück - denn genau dafür gibt es zerofree. Kurzgesagt überschreibt zerofree effizient die Bereiche, die Nullen enthalten sollten aber es nicht tun. Dadurch fallen die anschließend angefertigten Images deutlich kleiner aus, als es sonst der Fall wäre. Die Benutzung ist denkbar einfach:

# zerofree -v /dev/sdXY

Danach kann man ein Image anfertigen, auf die genauen Parameter gehe ich hierbei explizit nicht ein:

# dd if=/dev/sdX bs=1M status=none | zstd -z -v --adapt=min=1,max=19 -o microSD.img.zst

Das war's.

9. September 2020

Standardmäßig wird Firefox bereits mit drei Themes ausgeliefert. Ab Firefox 81 kommt noch ein viertes Farbschema dazu: Mit Firefox Alpenglow bringt Mozilla Farbe in den Browser.

Neben dem vorwiegend hellen Theme mit Akzent als Standard-Design und einem komplett hellen sowie einem komplett dunklen Theme wird Firefox standardmäßig bereits mit drei Design-Optionen ausgeliefert. Mit Firefox 81 kommt noch eine vierte Wahlmöglichkeit dazu.

Das neue Theme hört auf den Namen Firefox Alpenglow und ist besonders farbenfroh. Damit hebt es sich ganz bewusst von den drei anderen Themes ab. Dem Nutzer dürfte durch diesen Kontrast zu den anderen Firefox-Themes vor allem die vielfältigen Möglichkeiten der farblichen Anpassung vermittelt werden. Nutzer können über addons.mozilla.org aus tausenden weiteren Themes wählen.

Firefox Alpenglow

Firefox Alpenglow

Firefox Alpenglow kann über die Add-ons-Verwaltung, den Bildschirm zum Anpassen der Browseroberfläche oder für neue Nutzer direkt bei der Ersteinrichtung von Firefox ausgewählt werden.

Firefox Alpenglow

Firefox Alpenglow

Firefox 81 erscheint nach aktueller Planung am 22. September 2020.

Der Beitrag Firefox 81 wird mit zusätzlichem Farbschema ausgeliefert erschien zuerst auf soeren-hentzschel.at.

7. September 2020

Firefox ermöglicht bereits das Hinzufügen von Suchmaschinen entweder über den OpenSearch-Standard, falls von der jeweiligen Website implementiert, via WebExtension oder Unternehmensrichtlinie. Ab Firefox 82 können Nutzer ganz einfach selbst beliebige Suchmaschinen zu Firefox hinzufügen.

Für das Hinzufügen benutzerdefinierter Suchmaschinen in Firefox gibt es mehrere Optionen.

Das eine sind OpenSearch-Suchmaschinen. Voraussetzung hierfür ist, dass die jeweilige Website dies auch anbietet. Die Installation erfolgt ganz einfach über die Adressleiste.

Das andere sind Suchmaschinen-Erweiterungen. Diese sind nicht von der Implementierung auf einer Website abhängig, müssen jedoch auch erst von jemandem erstellt und dann vom Benutzer installiert werden.

Schließlich gibt es noch die Option der Unternehmensrichtlinien. Dieser Weg steht allerdings ausschließlich in Firefox ESR zur Verfügung.

Firefox 82 besitzt einen weiteren Weg, welcher es dem Nutzer ermöglicht, beliebige Suchmaschinen hinzuzufügen. Dazu gibt es in den Such-Einstellungen eine neue Schaltfläche zum Hinzufügen einer Suchmaschine.

Suchmaschine hinzufügen in Firefox 82

In dem sich dann öffnenden Dialog sind drei Felder auszufüllen: Der Name der Suchmaschine, den der Benutzer frei wählen kann, die Such-URL, wobei %s als Platzhalter für den Suchtext verwendet wird, sowie optional ein Alias, welches in die Adressleiste eingegeben werden kann, um den Suchmodus zu aktivieren.

Suchmaschine hinzufügen in Firefox 82

Wurde die Suchmaschine auf diese Weise angelegt, steht diese bei den Suchmaschinen-Icons in der Adressleiste zur Verfügung. Wurde ein Alias vergeben, reicht die Eingabe dieses Kürzels, gefolgt von der Leertaste, und Firefox aktiviert den Suchmodus, der die Suchmaschine in der Adressleiste besonders hervorhebt. Hierbei kommt der zuvor vergebene Name der Suchmaschine zum Einsatz.

Suchmaschine hinzufügen in Firefox 82

In der Nightly-Version von Firefox 82 muss die Neuerung derzeit noch über about:config aktiviert werden. Dazu muss browser.urlbar.update2.engineAliasRefresh als neuer Boolean-Schalter mit dem Wert true angelegt werden.

Firefox 82 erscheint nach aktueller Planung am 20. Oktober 2020.

Der Beitrag Firefox 82 ermöglicht Hinzufügen beliebiger Suchmaschinen erschien zuerst auf soeren-hentzschel.at.

Tracking ist im Internet allgegenwärtig (siehe: Internet - Schutz vor Tracking und Anonymität). Wirklich davor geschützt ist man eigentlich nur mit dem Tor Browser aber bisher konnte man mit einigen Maßnahmen seinen digitalen Fußabdruck verringern. Eine dieser Maßnahmen wird seit einiger Zeit mehr und mehr zu einem Problem.

Ein wichtiger Bestandteil einer Anti-Tracking-Konfiguration war bisher immer die Behandlung von Cookies. Diese eigentlich mal technisch sinnvolle Sache ist inzwischen weitgehend pervertiert und dient zur Überwachung der Nutzer. Zwar wird das so genannte Fingerprinting immer wichtiger (siehe: Fingerabdruck des Browsers), aber Cookies bleiben ein zentraler Bestandteil im Tracking-Baukasten.

Deshalb habe ich immer mit Lösungen gearbeitet die Cookies automatisch löschen. Lediglich wenige definierte Ausnahmen durften bleiben. Entweder am Session-Ende oder erkannte Tracking-Cookies per Zeitintervall (z. B. im Safari mit "Cookie": macOS und Datenschutz Teil II: Automatische Cookie-Löschung). Seit den letzten Urteilen werden die Banner mit Cookie-Abfragen jedoch immer penetranter und erfordern beim Session-Start zusätzliche Klicks.

Bei einigen Banner wie z. B. auf ZEIT ONLINE oder SPIEGEL ist das nicht weiter tragisch, da man nur die Option zwischen "Bezahlen" oder "Überwach mich" hat. Andere Seiten bieten hier difizile Einstellungsmöglichkeiten um dem Tracking jenseits des technisch notwendigen Minimums zu entkommen. Das macht aber natürlich nur Sinn, wenn man die Cookies nach dem Session-Ende nicht sofort löscht, weil man ansonsten täglich mehrfach die Konfigurationen vornehmen muss.

Die Frage angesichts des immer weiter um sich greifenden "Einwilligungs-Wahnsinns" ist nun halt, ob die obligatorische Cookie-Löschung am Session-Ende nicht sogar kontraproduktiv sei könnte und man mit einer differenzierten Konfiguration auf den Seiten mit entsprechender Möglichkeit nicht mehr erreicht.

Davon unbenommen sind natürlich andere Maßnahmen wie z.B. ein wirksamer Inhalte-/Werbungsblocker.

Wie seht ihr das?


Bilder:
Einleitungsbild und Beitragsbild von von 200 Degrees via pixabay

"

3. September 2020