ubuntuusers.de

13. Dezember 2015

Mozilla hat die ersten sieben Open Source-Projekt bekannt gegeben, welche eine finanzielle Förderung durch Mozilla erhalten. Insgesamt schüttet Mozilla dabei 503.000 Dollar aus.

Ende Oktober hatte Mozilla MOSS angekündigt. MOSS steht für Mozilla Open Source Support. Über dieses Programm möchte Mozilla Open Source-Projekte durch finanzielle Zuschüsse fördern. In einer ersten Runde werden sieben Projekte von Mozilla unterstützt. Gemeinsam ist all diesen Produkten, dass sie von Mozilla selbst eingesetzt werden.

Insgesamt steht im Rahmen von MOSS zunächst eine Million Dollar zur Unterstützung von Open Source-Projekten zur Verfügung. Damit sind noch 497.000 Dollar zur Unterstützung weiterer Projekte übrig. Die Bewerbung hierfür ist bereits offen.

Buildbot, 15.000 Dollar

Bei Buildbot handelt es sich um ein Continuous Build & Integration System. Die Förderung soll genutzt werden, um die Bezeichnung „Slave“ aus allen Dokumentationen, APIs und Tests zu entfernen sowie für Verbesserungen, damit Buildbot besser in der Amazon EC2-Cloud funktioniert.

CodeMirror, 20.000 Dollar

CodeMirror ist auf Webtechnologien basierter Quellcode-Editor, welcher in den Entwicklerwerkzeugen von Firefox integriert ist und außerdem als Editor in Mozilla Thimble verwendet wird. Mit der Unterstützung sollen RTL-Sprachen (also Sprachen, in denen von rechts nach links geschrieben wird) sowie komplexe Scripteingaben verbessert werden.

Discourse, 25.000 Dollar

Discourse ist der Name einer Forensoftware, mit welcher unter anderem das Mozilla Community-Forum betrieben wird. Das Ziel hier ist es, Verbesserungen bei den E-Mail-Funktionen zu bringen.

Read the Docs, 48.000 Dollar

Bei Read the Docs handelt es sich um einen Hoster für Dokumentationen, welche online erstellt werden. Die Förderung soll dazu genutzt werden, Read the Docs so zu erweitern, dass Dokumentationen durch Code generiert werden können, um so das Erstellen von Dokumentationen für komplexe Projekte zu erleichtern.

Mercurial, 75.000 Dollar

Mercurial ist ein Versionskontrollsystem, welches ähnlich wie Git intensiv von Mozilla genutzt wird. Die Förderung soll eine bessere Unterstützung für das „blame“-Feature bringen, welches anzeigt, wer zuletzt einen bestimmten Teil des Codes verändert hat, sowie eine bessere Weboberfläche.

Django, 150.000 Dollar

Django ist ein Python-Framework, welches für einige von Mozillas Webseiten genutzt wird. Durch die Förderung soll Django geeignet als Backend für Web-Apps gemacht werden.

Bro, 200.000 Dollar

Bro ist der Name einer Netzwerk-Monitoring-Software. Durch Mozillas Unterstützung soll das Comprehensive Bro Archive Network gebildet werden, ein öffentliches Repository für Module und Plugins für Bro.

Der Beitrag Mozilla investiert 500.000 Dollar in sieben Open Source-Projekte erschien zuerst auf soeren-hentzschel.at.

12. Dezember 2015

[Update 2.3.2016: Aktualisiert mit Ubuntu 16.04 Beta und einem aktuellen Swift-3.0-Snapshot.]

Swift steht für Ubuntu als tar-Archiv unter https://swift.org/download/ zum Download zur Verfügung. Die Installation ist einfach:

sudo apt-get install clang libicu-dev
wget https://swift.org/builds/development/ubuntu1510/swift-DEVELOPMENT-SNAPSHOT-2016-03-01-a/swift-DEVELOPMENT-SNAPSHOT-2016-03-01-a-ubuntu15.10.tar.gz
tar xzf swift-DEV*.tar.gz
export PATH=$(pwd)/swift-DEVELOPMENT-SNAPSHOT-2016-03-01-a/usr/bin/:"${PATH}"
swift -version
  Swift version 3.0-dev (LLVM b361b0fc05, Clang 11493b0f62, Swift 24a0c3de75)
  Target: x86_64-unknown-linux-gnu

Der exakte Name des Download-Links und der Verzeichnisse ändert sich natürlich mit jedem neuen Swift-Snapshot!

Hello World!

Um den Compiler zu testen, speichern Sie den folgenden Hello-World-Einzeiler in der Datei hello-world.swift:

print("Hello World!")

Dieses Programm kompilieren Sie nun mit swiftc und führen es aus:

swiftc hello-world.swift -o hello-world
ls -l hello-world
  -rwxrwxr-x 1 kofler kofler 10112 Dez 12 16:11 hello-world
./hello-world
  Hello World!

Core Libraries nutzen

Grundsätzlich stehen die von OS X oder iOS bekannten Bibliotheken unter Linux nicht zur Verfügung. Apple arbeitet aber an einer Sammlung von Basisklassen, die in den Core Libraries) gebündelt werden. Diese Bibliotheken sollen Klassen aus der Foundation, sowie aus libdispatch und XCTest enthalten. Diese Bibliothek wird selbst in Swift entwickelt und steht bereits in einer ersten, sehr frühen und unvollständigen Version bereits als Open-Source-Code zur Verfügung. Wie weit die Arbeiten vorangeschritten sind, geht aus dieser Status-Seite hervor.

Wenn Sie Swift wie oben beschrieben installiert haben, stehen Ihnen die Core Libraries bereits zur Verfügung. Einen ersten Test können Sie mit diesem Mini-Programm durchführen. Es erzeugt ein NSDate-Objekt mit dem aktuellen Datum, extrahiert daraus Jahr, Monat und Tag und zeigt diese Daten an.

// Datei hello-core.swift
import Foundation
let now = NSDate()
let cal = NSCalendar.currentCalendar()
let comps = cal.components(
  [.Day, .Month, .Year], fromDate: now)
print("Jahr: \(comps!.year)  Monat: \(comps!.month)  Tag: \(comps!.day)")

Hinweis: Die Klassennamen der Core Libraries sollen in naher Zukunft den Prefix NS verlieren. Das obige Beispiel muss dann entsprechend angepasst werden.

So kompilieren Sie das Programm und führen es aus:

swiftc hello-core.swift -o hello-core && ./hello-core
  Jahr: 2015  Monat: 12  Tag: 12

Das Kompilat ist klein, greift aber auf diverse Bibliotheken zurück:

ls -l hello-core
  -rwxrwxr-x 1 kofler kofler 15896 Mär  2 13:18 hello-core
ldd hello-core
  linux-vdso.so.1 =>  (0x00007ffd20bb4000)
  libswiftCore.so => [swift-path]/usr/lib/swift/linux/libswiftCore.so (0x00...)
  libFoundation.so => [swift-path]/usr/lib/swift/linux/libFoundation.so (0x00...)
  libdl.so.2 => /lib/x86_64-linux-gnu/libdl.so.2 (0x00...)
  libpthread.so.0 => /lib/x86_64-linux-gnu/libpthread.so.0 (0x00...)
  libswiftGlibc.so => [swift-path]/usr/lib/swift/linux/libswiftGlibc.so (0x00...)
  libswiftSwiftOnoneSupport.so => [swift-path]/usr/lib/swift/linux/libswiftSwiftOnoneSupport.so (0x00...)
  libstdc++.so.6 => /usr/lib/x86_64-linux-gnu/libstdc++.so.6 (0x00...)
  libm.so.6 => /lib/x86_64-linux-gnu/libm.so.6 (0x00...)
  libgcc_s.so.1 => /lib/x86_64-linux-gnu/libgcc_s.so.1 (0x00...)
  libc.so.6 => /lib/x86_64-linux-gnu/libc.so.6 (0x00...)
  libicuuc.so.55 => /usr/lib/x86_64-linux-gnu/libicuuc.so.55 (0x00...)
  libicui18n.so.55 => /usr/lib/x86_64-linux-gnu/libicui18n.so.55 (0x00...)
  libbsd.so.0 => /lib/x86_64-linux-gnu/libbsd.so.0 (0x00...)
  /lib64/ld-linux-x86-64.so.2 (0x00...)
  libicudata.so.55 => /usr/lib/x86_64-linux-gnu/libicudata.so.55 (0x00...)
  libxml2.so.2 => /usr/lib/x86_64-linux-gnu/libxml2.so.2 (0x00...)
  libz.so.1 => /lib/x86_64-linux-gnu/libz.so.1 (0x00...)
  liblzma.so.5 => /lib/x86_64-linux-gnu/liblzma.so.5 (0x00...)

REPL-Modus

Swift kann auch interativ ausgeführt werden, um Kommandos auszuprobieren (REPL = Read Eval Print Loop, siehe auch meinen schon älteren Blogbeitrag Swift-Scripts, Compiler und REPL). Dazu führen Sie einfach das Kommando swift in einem Terminal aus. Besonders praktisch: Mit der Tabultator-Taste können Sie Klassen- und Methodennamen vervollständigen, wobei die zur Auswahl stehenden Schlüsselwörter angezeigt werden.

Swift interaktiv ausprobieren
Swift interaktiv ausprobieren

Swift ohne Installation ausprobieren

Wer keine Lust hat, Swift herunterzuladen und zu installieren, kann Swift auch im Webbrowser ausprobieren. IBM stellt eine Sandbox zur Verfügung, in der Sie Swift-Code samt Vervollständigung von Schlüsselwörtern und Syntax-Highlighting eingeben und ausprobieren können:

http://swiftlang.ng.bluemix.net/#/repl

Ich muss nicht extra erwähnen, dass diese Sandbox unter Linux löuft, oder?

Swift im Webbrowser ausprobieren
Swift im Webbrowser ausprobieren

Leseempfehlungen

Sobald Sie Bibliotheken von Linux verwenden möchten, wird die Programmierung deutlich komplizierter: Sie müssen sich mit dem Package Manager anfreunden und ein Package definieren, das gewissermaßen die Schnittstelle zur externen Bibliothek herstellt. (Für die glibc ist ein derartiges Package bereits vorinstalliert.) Die Vorgehensweise ist beispielsweise auf den folgenden Seiten beschrieben:

Neues Projekt, neue Probleme. Derzeit bin ich dabei, bestimmte Texte so mit Markdown zu formatieren, dass ich sie mittels pandoc in eine EPUB- sowie eine PDF-Datei umwandeln kann. Da es sich bei den Texten um mehr als 100 Stück handelt brauche ich hierfür eine gewisse Ordnung, sonst verliere ich die Übersicht. Von daher habe ich erste einmal ein Arbeitsverzeichnis angelegt. In diesem sollen dann Unterverzeichnisse von A bis Z angelegt werden in welche dann die Markdowndateien abgespeichert werden. Nur wie lege ich diese jetzt am besten an? Mittels mkdir A, mkdir B, mkdir C? Darauf würde ich gerne verzichten. Also eine Schleife? Das würde mir zumindest einiges an Arbeit ersparen. Die Lösung ist in diesem Fall aber noch einfacher. Das ganze lässt sich sogar mit mkdir direkt lösen. So reicht es aus mkdir {A..Z} auszuführen und schwups hat man Verzeichnisse von A bis Z angelegt. Braucht man Verzeichnisse mit Zahlen nimmt man beispielsweise einfach mkdir {1..10} und erstellt damit Verzeichnisse von 1 bis 10. Das ganze nennt man Brace Expansion. Damit lassen sich auch noch komplexere bzw. andere Sachen anstellen. So kann man beispielsweise durch mv test.{txt,bak} die Datei test.txt in test.bak umbenennen.

11. Dezember 2015

Zum eMail Abrufen auf meinem Mailserver nutze ich Fetchmail. Das Programm ist im Rahmen der Mailserver-Installation mit auf die Festplatte gekommen. Ansonsten kann man es mit

apt-get install fetchmail

schnell nachholen.
Die Einstellungen sind relativ einfach.

Die erste Anlaufstelle um die Zugangsdaten zum bestehenden Mailserver einzugeben ist die Datei:

/etc/fetchmailrc

Sie hat folgenden Aufbau:

server pop3.email.server
proto pop3

user benutzername
pass "kennwort"
to lokalerbenutzer
options ssl sslfingerprint "AA:33:11:44:22:44:F5:0F:CB:83:CC:4B:1D:3F:C9:90"



In der ersten Zeile wird festgelegt, wie der Server heisst bei dem die eMails abgerufen werden. Die zweite Zeile gibt das Abrufprotokoll vor, in diesem Fall POP3.
Hinter "user" und "pass" stehen die Zugangsdaten vom Mailserver. Sollen mehrere eMails abgerufen werden, wiederholt man die letzten 4 Zeilen so oft wie benötigt.
Hinter "to" steht der lokale Benutzer, dem die eMail zugestellt wird.
Die letzte Zeile setzt die Verschlüsselung auf SSL und übergibt den korrekten Fingerprint an den Server.


Um sich den korrekten Fingerprint anzeigen zu lassen, kann man folgenden
Befehl nutzen:


fetchmail --verbose pop3.email.server

Wenn in der Log Datei eine Fehlermeldungs wie diese steht:

Jan 19 18:43:41 server fetchmail[25245]: SSL connection failed.
Jan 19 18:43:41 server fetchmail[25245]: socket error while fetching from info@emailadresse@pop3.mail.server
Jan 19 18:43:41 server fetchmail[25245]: Query status=2 (SOCKET)
Jan 19 18:43:41 server fetchmail[25245]: pop3.mail.server fingerprints

 do not match!

muss man den obigen Befehl auch nutzen um den neuen Fingerprint heraus zu finden.

Weitere interessante Einstellungen findet man in der Datei
/etc/init.d/fetchmail

Hier kann man z.B. festlegen dass Fetchmail als Daemon startet.
Dazu ändert man folgenden Wert auf "yes":

START_DAEMON="no"

Außerdem kann man das Abrufintervall beeinflussen.
Dieser Wert gibt in Sekunden an, wie oft fetchmail nach neuen eMails schaut:

OPTIONS="$OPTIONS -d 120"

Seit heute basiert meine Homepage auf auf dem Flat-File-CMS Yellow.

Ich habe den Umstieg gemacht, da mir WordPress zu groß für eine kleine Webseite mit nur einem Benutzer wurde und Yellow durch seine geringe Größe eine sehr einfache Anpassung an meine Bedürfnisse erlaubt. Natürlich muss man ein paar Abstriche an den Komfort machen und eine Kommentarfunktion existiert in Yellow bisher auch nicht (Was aber für mich nicht weiter schlimm ist).

Der gewaltige Vorteil eines Flat-File-CMS ist, dass alle Daten im einem, von Menschen, lesbaren Format vorliegen und Backups sich auf das Kopieren des Verzeichnis-Baumes an einen beliebigen Ort beschränken.

Ich weiß, dass es auch noch andere Flat-File-CMS gibt (z.B. Grav), aber ich habe Yellow bewusst aus drei Gründen gewählt:

  1. Yellow ist sehr klein (Entpackt etwas mehr als 370kB in ~70 Dateien. Grav hat um die 10MB und ~1700 Dateien).
  2. Man benötigt keinen Kommandozeilenzugriff zur Konfiguration (Bei Grav kommt man früher oder später daran nicht vorbei).
  3. Das Projekt ist noch sehr jung und da ich mich eh mit PHP-Entwicklung beschäftigen wollte, habe ich einen guten Einstieg dafür gefunden.

10. Dezember 2015

Neben der Datenübergabe per http Post können auch Werte aus einer csv Datei gelesen werden. Die Datei kann manuell erstellt werden, oder Sie wird aus einem Ticketsystem generiert und zur Verfügung gestellt. In diesem Beispiel befindet sich die csv Datei in dem Root Verzeichniss des Dashboard.

Aufbau der file.csv(Ticket,Kunde,Störung)

DB-2233,Kunde1,Ausfall Datenbank
AP-1294,Kunde2,schlechte Performance Webservice

Aufbau der jobs/tickets.rb:

require 'csv'
require 'json'

SCHEDULER.every '30s' do

ausgabe = {}
idx = 0
CSV.foreach('file.csv') do |row|
ausgabe[idx] = {:ticket => row[0],:kunde => row[1],:stoerung => row[2]}
idx += 1
end

send_event("majors",{ values: ausgabe.values })

end

Weil es gerade zu der News passt: Mozilla stellt Firefox OS auf Smartphones ein. Das bedeutet implizit, dass auch mein Mozilla Flame nicht weiter mit neuen Versionen versorgt wird.

Im Endeffekt ist das für mich nicht so schlimm – denn seit ca. vier Monaten nutze ich das Firefox-OS-Handy nicht mehr. Die letzte aufgespielte Version 2.5 war so buggy, dass es mich jeden Tag nervte das Gerät zu bedienen. Irgendwann war ich es leid und bestellte mir ein kleineres LG G2 Mini mit Android 4.4.

Für alle, die es nicht wissen: Man kann ein Android-Smartphone sehr gut ohne Google-Konto nutzen! Ich habe alle Google-Dienste soweit möglich deaktiviert, F-Droid aktiviert und dann einen alternative Browser (Firefox) und Mailclient (K9) installiert. Damit lebt es sich sehr gut und ich bin recht glücklich mit der Entscheidung.

Natürlich ist nicht alles super: So löst das Handy trotz Knock-Sperre immer noch Bilder in der Hosentasche aus. Und ich konnte nicht alle Google-Dienste deaktivieren. Von Entfernen kann man gar nicht sprechen.

Einen inoffiziellen Cyanogenmod gibt es zwar, aber zum einen habe ich keine vernünftige Anleitung gefunden, die das Modden von Grund auf erklärt (Cyanogenmod-Anleitungsbeispiel: „2. Go to custom recovery (TWPR prefered).“ ohne weitere Erklärung.), zum anderen ist mir das Handy zu schade, um daraus ggf. einen Briefbeschwerer zu machen.

Das mit Firefox OS finde ich natürlich dennoch schade. Nicht alles war schlecht und einige Ideen gut. Vor allem hätte ein weiterer Anbieter den Markt etwas aufmischen können. So fällt das aber weg und man muss mit Android, iOS, Windows, Ubuntu, Sailfish OS und Tizen leben.

Einige Professoren an meiner Hochschule schützen ihre PDF Skripte mit einem Passwort, sodass sie von fremden Usern nicht geöffnet oder bearbeitet werden können. Da die ständige Passworteingabe im Alltag lästig ist, habe ich mich nach einer Möglichkeit umgesehen, den Passwortschutz zu entfernen – am besten direkt über die Kommandozeile.

Mit dem PDF-Tool qpdf kann der Passwortschutz sehr unkompliziert entfernt werden:

sudo pacman -S qpdf
qpdf --password=geheim --decrypt mitpasswort.pdf ohnepasswort.pdf

Wahrscheinlich bin ich nicht der einzige, der von geschützten PDF-Dateien genervt ist – daher dachte ich, ich schreibe das hier mal auf.

Laptop T500

System:    Host: T500 Kernel: 3.16.0-4-amd64 x86_64 (64 bit gcc: 4.8.4) 
           Desktop: Gnome 3.14.4 (Gtk 2.24.25) dm: gdm3 Distro: Debian GNU/Linux 8 
Machine:   System: LENOVO product: 2241W39 v: ThinkPad T500 Chassis: type: 10
           Mobo: LENOVO model: 2241W39 Bios: LENOVO v: 6FET92WW (3.22 ) date: 12/14/2011
CPU:       Dual core Intel Core2 Duo P8400 (-MCP-) cache: 3072 KB
           flags: (lm nx sse sse2 sse3 sse4_1 ssse3 vmx) bmips: 9043 
           Clock Speeds: 1: 1600 MHz 2: 1600 MHz
Graphics:  Card: Intel Mobile 4 Series Integrated Graphics Controller bus-ID: 00:02.0 chip-ID: 8086:2a42
           Display Server: X.Org 1.16.4 drivers: intel (unloaded: fbdev,vesa) Resolution: 1680x1050@59.98hz
           GLX Renderer: Mesa DRI Mobile Intel GM45 Express GLX Version: 2.1 Mesa 10.3.2 Direct Rendering: Yes
Audio:     Card Intel 82801I (ICH9 Family) HD Audio Controller 
           driver: snd_hda_intel bus-ID: 00:1b.0 chip-ID: 8086:293e 
           Sound: Advanced Linux Sound Architecture v: k3.16.0-4-amd64
Network:   Card-1: Intel Ultimate N WiFi Link 5300 driver: iwlwifi v: in-tree: bus-ID: 03:00.0 chip-ID: 8086:4236
           IF: wlan0 state: up mac: 00:16:ea:b1:89:30
           Card-2: Intel 82567LM Gigabit Network Connection
           driver: e1000e v: 2.3.2-k port: 1840 bus-ID: 00:19.0 chip-ID: 8086:10f5
           IF: eth0 state: down mac: 00:1c:25:96:6f:16
Drives:    HDD Total Size: 628.1GB (25.8% used)
           ID-1: /dev/sda model: SanDisk_SSD_U100 size: 128.0GB serial: 122044401070
           ID-2: /dev/sdb model: WDC_WD5000BPVT size: 500.1GB serial: WD-WX11E91M3840
           Optical: No optical drives detected.
Partition: ID-1: / size: 25G used: 17G (71%) fs: ext4 dev: /dev/dm-0 
           label: N/A uuid: 42dadcbf-c937-4e3e-bf53-f103b7b331b0
           ID-2: /boot size: 240M used: 73M (32%) fs: ext2 dev: /dev/sda1 
           label: N/A uuid: d619dec6-ccca-49a1-9506-62c19a142a5b
           ID-3: /home size: 93G used: 85G (98%) fs: ext4 dev: /dev/dm-3 
           label: N/A uuid: 0d26ecbc-0b3c-4208-aa76-ba3f535d80de
           ID-4: /home/bed/Download size: 149G used: 50G (36%) fs: ext4 dev: /dev/dm-1 
           label: N/A uuid: f0d6de56-608f-49ba-a625-25c2d576a464
Unmounted: ID-1: /dev/sda2 size: 127.76G label: N/A uuid: N/A 
           ID-2: /dev/sda128 size: 0.00G label: N/A uuid: N/A 
           ID-3: /dev/sdb1 size: 500.11G label: N/A uuid: N/A 
           ID-4: /dev/dm-2 size: 161.06G label: N/A uuid: 6b76c4e4-97b9-41da-8e47-8b55014a8e49 
Sensors:   System Temperatures: cpu: 45.0C mobo: 33.0C 
           Fan Speeds (in rpm): cpu: 1864 
Info:      Processes: 288 Uptime: 19 days Memory: 2957.1/7900.0MB 
           Init: systemd v: 215 runlevel: 5 default: 2 Gcc sys: 4.9.2 alt: 4.6/4.7/4.8 
           Client: Shell (bash 4.3.301 running in gnome-terminal-) inxi: 2.1.28 

X200

System:    Host: X200 Kernel: 3.16.0-4-amd64 x86_64 (64 bit gcc: 4.8.4) Console: tty 0 dm: gdm3 
           Distro: Debian GNU/Linux 8 
Machine:   System: LENOVO product: 7459LK9 v: ThinkPad X200 serial: R90XYLN  Chassis: type: 10
           Mobo: LENOVO model: 7459LK9 serial: 1ZGMC9AG27M Bios: LENOVO v: 6DET30WW (1.07 ) date: 09/10/2008
CPU:       Dual core Intel Core2 Duo P8400 (-MCP-) cache: 3072 KB
           flags: (lm nx sse sse2 sse3 sse4_1 ssse3 vmx) bmips: 9043 
           Clock Speeds: 1: 1600 MHz 2: 2267 MHz
Graphics:  Card: Intel Mobile 4 Series Integrated Graphics Controller bus-ID: 00:02.0 chip-ID: 8086:2a42
           Display Server: X.org 1.16.4 drivers: intel (unloaded: fbdev,vesa)
           tty size: 185x52 Advanced Data: N/A for root out of X
Audio:     Card Intel 82801I (ICH9 Family) HD Audio Controller 
           driver: snd_hda_intel bus-ID: 00:1b.0 chip-ID: 8086:293e 
           Sound: Advanced Linux Sound Architecture v: k3.16.0-4-amd64
Network:   Card-1: Intel Ultimate N WiFi Link 5300 driver: iwlwifi v: in-tree: bus-ID: 03:00.0 chip-ID: 8086:4236
           IF: wlan0 state: up mac: 00:21:6a:72:1e:34
           Card-2: Intel 82567LM Gigabit Network Connection
           driver: e1000e v: 2.3.2-k port: 1840 bus-ID: 00:19.0 chip-ID: 8086:10f5
           IF: eth0 state: down mac: 00:1f:16:2d:9e:2b
Drives:    HDD Total Size: 250.1GB (6.8% used)
           ID-1: /dev/sda model: WDC_WD2500BEVS size: 250.1GB serial: WD-WX90A99A4159 temp: 34C
           Optical: No optical drives detected.
Partition: ID-1: / size: 125G used: 11G (10%) fs: ext4 dev: /dev/sda5 
           label: N/A uuid: fd33668e-8f6a-40a2-b8de-0333870d2910
           ID-2: swap-1 size: 5.78GB used: 0.00GB (0%) fs: swap dev: /dev/sda6 
           label: N/A uuid: 34ab4193-f4a8-4d68-8ae0-d92c4e1eeeff
Unmounted: ID-1: /dev/sda1 size: 8.39G fs: NTFS label: System uuid: C018233818232D3A 
           ID-2: /dev/sda2 size: 100.00G fs: NTFS label: Windows uuid: 6052255D522538E4 
Sensors:   System Temperatures: cpu: 38.0C mobo: 32.0C 
           Fan Speeds (in rpm): cpu: N/A fan-1: 2128 
Info:      Processes: 234 Uptime: 10 min Memory: 612.3/2964.6MB 
           Init: systemd v: 215 runlevel: 5 default: 2 Gcc sys: 4.9.2 alt: 4.6/4.8 
           Client: Shell (bash 4.3.301 running in tty 0) inxi: 2.1.28 

VDR

System:    Host: VDR Kernel: 3.2.0-95-generic x86_64 (64 bit gcc: 4.6.3) Desktop: N/A dm: N/A
           Distro: Ubuntu 12.04 precise
Machine:   Mobo: ASRock model: 970 Extreme3 Bios: American Megatrends v: P1.00 date: 09/13/2011
CPU:       Dual core AMD Athlon II X2 270u (-MCP-) cache: 2048 KB
           flags: (lm nx sse sse2 sse3 sse4a svm) bmips: 8034
           clock speeds: min/max: 800/2000 MHz 1: 800 MHz 2: 800 MHz
Memory:    Array-1 capacity: 32 GB devices: 4 EC: None
           Device-1: A1_DIMM0 size: 2 GB speed: 1333 MHz type: DDR3
           manufacturer: Kingston part: 9905402-413.A00LF serial: 8A15395B
           Device-2: A1_DIMM1 size: No Module Installed type: N/A
           Device-3: A1_DIMM2 size: 2 GB speed: 1333 MHz type: DDR3
           manufacturer: Kingston part: 9905402-413.A00LF serial: 7215A95A
           Device-4: A1_DIMM3 size: No Module Installed type: N/A
Graphics:  Card: NVIDIA GT218 [GeForce 210] bus-ID: 01:00.0 chip-ID: 10de:0a65
           Display Server: X.org 1.11.3 driver: N/A tty size: 185x52 Advanced Data: N/A for root
Audio:     Card-1 NVIDIA High Definition Audio Controller
           driver: snd_hda_intel bus-ID: 01:00.1 chip-ID: 10de:0be3
           Card-2 Advanced Micro Devices [AMD/ATI] SBx00 Azalia (Intel HDA)
           driver: snd_hda_intel bus-ID: 00:14.2 chip-ID: 1002:4383
           Sound: Advanced Linux Sound Architecture v: 1.0.24
Network:   Card: Realtek RTL8111/8168/8411 PCI Express Gigabit Ethernet Controller
           driver: r8169 v: 2.3LK-NAPI port: d000 bus-ID: 05:00.0 chip-ID: 10ec:8168
           IF: eth0 state: up speed: 1000 Mbps duplex: full mac: 00:25:22:fa:ff:c0
Drives:    HDD Total Size: 1000.2GB (79.6% used)
           ID-1: /dev/sda model: WDC_WD10EACS size: 1000.2GB serial: WD-WCAU44737837 temp: 46C
           Optical: /dev/sr0 model: N/A rev: N/A dev-links: cdrom,cdrw,dvd
           Features: speed: 24x multisession: yes audio: yes dvd: yes rw: cd-r,cd-rw state: N/A
Partition: ID-1: / size: 913G used: 738G (86%) fs: ext4 dev: /dev/dm-0
           label: N/A uuid: b95fca0c-9047-4cb1-aa6c-5915a0c367a0
           ID-2: /boot size: 228M used: 189M (88%) fs: ext2 dev: /dev/sda1
           label: N/A uuid: 8fb0cabf-4958-415d-a570-22d8ef375a98
           ID-3: swap-1 size: 4.29GB used: 0.00GB (0%) fs: swap dev: /dev/dm-1
           label: N/A uuid: ba409a64-972a-49e5-a158-9a25345f1d07
RAID:      System: supported: N/A
           No RAID devices: /proc/mdstat, md_mod kernel module present
           Unused Devices: none
Unmounted: ID-1: /dev/sda5 size: 999.95G label: N/A uuid: N/A
Sensors:   System Temperatures: cpu: 37.0C mobo: 46.0C
           Fan Speeds (in rpm): cpu: N/A fan-1: 0 fan-2: 0 fan-3: 0 fan-4: 0 fan-5: 0
Info:      Processes: 130 Uptime: 8:35 Memory: 327.5/3950.7MB
           Init: Upstart v: 1.5 runlevel: 2 default: 2 Gcc sys: 4.6.3
           Client: Shell (bash 4.2.251 running in sudo) inxi: 2.2.31 

"Meine Hardware" vollständig lesen

9. Dezember 2015

Das Thunderbird-Projekt erhält Unterstützung durch die Mozilla Foundation, um mittelfristig auf eigenen Beinen stehen zu können. Derweil hat Thunderbird einen neuen Nutzer-Rekord erreicht.

Die Entscheidung von Mozilla, die Hauptverantwortung für Thunderbird an die Community zu übertragen, ist nun schon ein paar Jahre her. Nach anfänglichen Problemen mit viel Stillstand konnte man mit Thunderbird 38 im Sommer wieder einen relativ umfangreichen Release (unter anderem mit der Integration der Kalender-Erweiterung Lightning) veröffentlichen. Auch strukturell hat sich im letzten Jahr einiges getan. Damit Thunderbird aber auch langfristig eine gute Zukunft hat, sind weitreichendere Änderungen notwendig.

Damit Thunderbird auf wirklich eigenen Beinen stehen kann, muss das Projekt in der Lage sein, eigene Einnahmen zu generieren. Bislang bestand diese Möglichkeit nicht. Dank der zumindest temporär zugesicherten Unterstützung durch die Mozilla Foundation wird das Thunderbird-Projekt ab 2016 endlich Spenden akzepetieren können. Langfristig soll Thunderbird nicht mehr durch Firefox-Einnahmen finanziert werden. Außerdem soll herausgefunden werden, ob Mozilla auch auf Dauer das perfekte Zuhause für Thunderbird ist oder nicht.

Neben dem finanziellen gibt es auch einen technischen Aspekt. Thunderbird und Firefox sind technisch eng verzahnt, was einen erwähnenswerten Mehraufwand sowohl für Firefox als auch für Thunderbird verursacht. Darum ist es das Ziel, die Release-Infrastruktur für Thunderbird unabhängig von der von Firefox zu machen, wofür Mozilla bereits Hilfe angeboten hat. Langfristig ist davon auszugehen, dass als Folge der rapiden Firefox-Entwicklung (e10s, XUL-Deprecation, Servo) die technische Basis von Firefox und Thunderbird noch stärker auseinandergehen wird.

Nutzerzahl nimmt weiter zu

Das Thunderbird-Projekt konnte außerdem einen neuen Nutzer-Rekord vermelden. Demnach wurden am 30. November erstmals in der Thunderbird-Geschichte 10 Millionen Active Daily Inquiries (ADI) erreicht. ADI steht für die Anzahl der Pings, welche die Mozilla-Server beim täglichen Plugin-Blocklist-Update empfangen. Dies ist nicht dasselbe wie die Anzahl aktiver Nutzer, da nicht jeder täglich Thunderbird nutzt und einige Installationen hinter Firewalls sind. Die Anzahl aktiver Nutzer wird typischerweise als das 2,5-fache der ADI geschätzt, womit weltweit 25 Millionen aktive Thunderbird-Nutzer geschätzt werden.

Thunderbird ADI Dezember 2015

Der Beitrag Thunderbird erhält Unterstützung durch Mozilla Foundation erschien zuerst auf soeren-hentzschel.at.

8. Dezember 2015

Auf vielen unixoiden Systemen gibt es den Texteditor nano. Im Standardmodus ist die Anzeige der Zeilennummerierung unter nano deaktiviert. Möchte man dies ändern so muss der Parameter -c beim Aufruf des Editors angetragen werden:

nano -c config.cfg
nano mit aktivierter Anzeige der Zeilennummerierung

nano mit aktivierter Anzeige der Zeilennummerierung

Damit zeigt nano im unteren Bereich unter anderem die Zeilennummer an, so das man eine bestimmte Zeile bei Fehlern schnell finden kann.

7. Dezember 2015

Mit Hilfe des Programms tttool lassen sich, zwar mit etwas Aufwand aber auf recht einfache Art und Weise eigene Produkte für den tiptoi-Stift von Ravensburger erstellen. Der Artikel bietet einen ersten Überblick und eine Installationsanleitung für Ubuntu-User…

Was ist dieses tiptoi-Ding?

tiptoi-hacking

tiptoi-Hacking

Zunächst einmal für die, die das Gerät nicht kennen: Der tiptoi ist ein Stift von Ravensburger, der hauptsächlich für den Einsatz im Kinderzimmer konzipiert ist. Dieser Stift verfügt, vereinfacht gesagt, über ein optisches Lesegerät, einen Lautsprecher und einen Flashspeicher.

Mit Hilfe des Lesegeräts in der Spitze des Stiftes können Punktraster (OIDs = optical IDs) aus speziellen Büchern und von speziellen Objekten (z.B. Tierfiguren) abgelesen werden. Mit bloßem Auge sind diese Punktraster dabei kaum zu sehen und in den Büchern beispielsweise über Bilder gelegt.
Tippt man also in einem Buch auf einen Vogel, der auf einem Baum sitzt, zwitschert es aus dem Lautsprecher. Oder es kommt eine Erklärung, welcher Vogel das ist und wie er lebt. Oder das Lied „Alle Vögel sind schon da“. Oder es könnte auch „This is a bird“ zu hören sein, sofern es sich um ein Buch für den ersten Kontakt mit der englischen Sprache handelt.

Um den Stift mit dem entsprechenden Buch oder Objekt benutzen zu können, muss die Inhaltsdatei (.gme-Datei) auf den Flash-Speicher des Stiftes kopiert werden. Diese Datei enthält alle OIDs, alle Sounds und die Zuordnung dazwischen.
Außerdem kann auch etwas Programmlogik enthalten sein, denn es gibt auch Brettspiele für den tiptoi und in den Büchern sind oft auch kleinere Spielinhalte zu finden.

Und wie jetzt hacken?

Gemeint ist natürlich, eigene Inhalte für den tiptoi-Stift zu erstellen. Dazu sind zwei Teile notwendig:

  1. Das Programm erstellen, also die .gme-Datei. Es muss natürlich die Datei für das Produkt erzeugt werden, und somit womöglich auch Soundfiles.
  2. Das Drucken der OID. Die zu der .gme-Datei gehörenden OIDs müssen erstellt, gedruckt und ggfs. auf das Objekt (z.B. ein Plastiktierchen) aufgeklebt werden.

Für beides kann das Programm tttool (Open Source) des Karlsruher Entropia e.V. verwendet werden. Zunächst muss die Quelldatei im YAML-Format erzeugt werden. Darin steht was auszuführen ist, wenn eine bestimmte OID gescannt wurde. Diese .yaml-Datei kann dann zu einer .gme-Datei umgewandelt werden.

tiptoi-hacking-eigene-inhalte

Eigene Produkte: „Wie geht es dir heute?“ und Duplo-Giraffe mit OID

Aus der .yaml-Datei können mit dem Tool außerdem die Anschalt-OID und alle übrigen OIDs extrahiert und dafür jeweils eine Grafikdatei erzeugt werden. Diese Grafiken, die Punkraster, müssen dann „nur noch“ ausgedruckt werden.
Das kann mitunter zum kniffligsten Arbeitsschritt werden, denn das Punktraster darf nicht verzerrt werden und es muss natürlich mit höchstmöglicher Auflösung bestmöglich auf Papier gebracht werden. Je nach Druckermodell muss man etwas mit den Einstellungen experimentieren – oder der eigene Drucker ist vielleicht sogar ungeeignet.

Bevor ihr jetzt loslegt, beachtet bitte den obligatorischen Hinweis, dass ihr beim Hacken das Risiko eines Defektes selbst tragt!

Nähere Informationen zum Funktionsumfang und zur Bedienung bietet die deutschsprachige Seite zum Projekt. Dort sind im Übrigen auch die Informationen zur Installation zu finden. Ich habe sie im Folgenden speziell aus der Ubuntu-Sicht und zum Teil etwas ausführlicher aufgeführt:

tttools kompilieren

Um tttools unter Linux benutzen zu können, muss man es selbst aus den aktuellen Quellen bauen. Ein fertiger Build liegt derzeit nur für Windows vor. Die Kompilation ist allerdings nicht sonderlich aufwendig. Etwas mehr Aufwand entsteht natürlich, wenn man das Programm auf einem separaten System (z.B. eine speziell dafür eingerichtete Virtual Machine) durchführen möchte, um nicht jede Menge Pakete installiert zu haben, die man im Anschluss nicht mehr benötigt.

Um das Programm zu bauen, wird auf einem frisch aufgesetzten Ubuntu 15.10 zunächst einmal ein Git-Client benötigt, mit dessen Hilfe die aktuellen Quellen aus dem Projekt-Repository bei GitHub bezogen werden können:

sudo apt-get install git

Mit dem Git-Kommando clone werden dann die Quellen heruntergeladen:

cd ~
git clone https://github.com/entropia/tip-toi-reveng.git tttool
cd tttool

Da das Programm in der Sprache Haskell entwickelt wurde, muss natürlich die Haskell-Plattform installiert werden (bei einem „nackten“ 15.10 bedeutet das einen Download von ca. 70MB und einer Mehrbelegung auf der HDD von rund 700MB):

sudo apt-get install haskell-platform

Mit Hilfe des Haskell-Tools cabal können dann ganz einfach die Projekt-Abhängigkeiten installiert werden:

cabal update
cabal install --only-dependencies

Bei dem zweiten dieser beiden Befehle muss man zwingend in dem Verzeichnis stehen, in das man die tttool-Quellen heruntergeladen hat – lt. o.g. Kommando also das tttool-Verzeichnis.
Außerdem wird es bei diesem Aufruf vermutlich zu folgender Fehlermeldung kommen:

cabal: The following packages are likely to be broken by the reinstalls:
network-uri-2.6.0.3
HTTP-4000.2.20
Use --force-reinstalls if you want to install anyway.

Das heißt der Befehl muss einfach noch einmal mit dem genannten Parameter wiederholt werden. Benutzt man kein temporäres Build-System, sollte man vorher aber eine Sandbox initialisieren, damit die Pakete darin installiert werden (und somit die Pakete global nicht in Mitleidenschaft geraten). Also erst:

cabal sandbox init

Und anschließend dann:

cabal install --only-dependencies --force-reinstalls

Nun kann der eigentliche Build – der Kompilierungslauf – gestartet werden:

cabal install --bindir=.

Ist der Buildlauf erfolgreich durchgelaufen, findet sich im aktuellen Verzeichnis dann das tttool-Binary (ca. 14 MB groß). Das kann nun auf einen anderen Rechner (mit demselben Ubuntu-Release am besten) kopiert werden.

Zusätzliche Pakete installieren

Zusätzlich wird ggfs. das Paket sox (Sound Exchange) benötigt. Grundsätzlich meldet das Tool aber, wenn ein benötigtes Paket fehlt.

Wer sich, z.B. bei den ersten Tests, nicht die Mühe machen möchte, Soundfiles zu produzieren, sollte außerdem die folgenden beiden Pakete installieren:

  • libttspico-utils (SVOX Pico Software Speech Synthesizer)
  • vorbis-tools (Werkzeuge für die Verarbeitung von ogg-Sounddateien)

Damit kann man in seinen YAML-Quelldateien einfach einen Text hinterlegen, der dann per Sprachausgabe generiert wird. Natürlich werden auch hierbei Sounddateien produziert, das funktioniert dann aber eben ohne weiteren Aufwand.

Selbstverständlich müssen diese Pakete auf dem System installiert werden, auf dem tttool ausgeführt werden soll, also nicht unbedingt dort wo kompiliert wurde!

Ein Tipp für den OID-Druck

Wie schon erwähnt, kann das Ausdrucken der Codes einige Anläufe kosten. In meinem Fall ging es noch nicht einmal darum, dass ich Codes über Bilder legen wollte. Mir reicht es eigentlich (erst einmal), die Punktraster auf dem blanken Papier zu haben. Trotzdem hatte ich erst einmal meine Schwierigkeiten. Mit dem Versuchsdrucker hatte ich nicht die Möglichkeit, in 1200 DPI zu drucken. 600 DPI waren das Maximum, und es das Ergebnis konnte der Stift leider erst einmal nicht lesen. Das Erhöhen des Kontrastes funktionierte leider auch nicht.

Der entscheidende Punkt für mich war letztendlich, die Codes mit doppelt so großen Pixeln zu erzeugen. Das geht, indem man dem oid-code-Aufruf einen entsprechenden Parameter anhängt:

tttool oid-code -d 600d tester.yaml

Das d bei der Auflösung (hier 600 DPI) löst die Verdoppelung der Pixel aus. Genauso wäre natürlich auch 1200d möglich.

Und wozu jetzt das Ganze?!

Denkbar sind unzählige großartige Anwendungen:

  • Personalisierte Produkte („Hey Kevin Ben Liam, lass uns zusammen spielen!„).
  • Eigene Figuren mit Soundfiles verknüpfen (z.B. Tierfiguren von Playmobil, Lego Duplo o.ä.).
  • Eigene Brettspiele erstellen.
  • Exotischere Ideen: Ein Bastler namens Pronwan hat beispielsweise den ersten Teil von Monkey Island 3 als… „Point and Tip“-Adventure umgesetzt. Es gibt aber auch schon Sequencer, Taschenrechner, …
  • Eine tiptoi-Schnitzeljagd für den Kindergeburtstag oder eine aufgemotzte Geocaching-Tour. Dabei müssen an den Stationen natürlich verschiedene Rätsel gelöst werden.

Schaut euch einfach mal auf den o.g. Seiten rund um das Projekt inspirieren.

So, sollte mich jemand suchen, ich will mal eine eigene Schnitzeljagd in Angriff nehmen… 🙂

Aufgrund meiner Redaktions- und Open-Source-Tätigkeit habe ich mit zahlreichen deutschen Buchverlagen zu tun: Rheinwerk, mitp, Hanser, O'Reilly, Wiley-VCH und auch Open Source Press. Ich hatte im Juli noch Kontakt mit der Pressesprecherin Gerlinde Regensburger, daher überrascht mich die aktuelle Pressemitteilung sehr: Open Source Press stellt zum Ende des Jahres sein operatives Geschäft ein.

Ich finde es schade, einen bereits seit 12 Jahren bestehenden Verlag, gehen zu sehen. Sicherlich hat sich das Umfeld geändert, wie Konsumenten heute Bücher lesen, aber ich hätte nicht gedacht, dass dies einen Verlag zur Aufgabe zwingt. Zumal der Name Open Source Press nicht von ungefähr kam. Schön ist, dass der Verlag mit der Schließung alle Verwertungsrechte an die Autoren zurückgibt.

Ich wünsche allen Noch-Mitarbeitern bei Open Source Press alles Beste für die Zukunft. Ggf. laufen wir uns ja erneut über den Weg ...

Mit Firefox Hello besitzt Firefox eine direkt im Browser integrierte Möglichkeit zur Videotelefonie. Mozilla speckt diese noch relativ junge Funktion von Firefox ab und setzt den Fokus auf das gemeinsame Betrachten von Webinhalten.

Firefox Hello erlaubt die Kommunikation mit anderen Menschen per Sprache und Bild, ohne dass hierfür eine Drittanbieteranwendung wie Skype oder ein zusätzliches Plugin notwendig wäre. Möglich ist dies über die Webtechnologie WebRTC. In den letzten Monaten hat Firefox Hello einige Verbesserungen und neue Funktionen wie beispielsweise einen Text-Chat erhalten, nun setzt Mozilla den Fokus auf einen sehr spezifischen Anwendungsfall und reduziert gleichzeitig den Funktionsumfang von Firefox Hello.

Die Kontaktaufnahme über Firefox Hello erfolgt bisher auf eine von zwei Möglichkeiten: entweder anonym, indem ein Link an den Gesprächspartner gesendet wird, welcher darüber der Konversation beitreten kann, oder aber ganz klassisch über ein Benutzerkonto, wie man es auch von anderen Diensten kennt. Im Falle von Firefox Hello ist es der Firefox Account, der auch für die Synchronisation von Firefox-Daten verwendet wird.

Kontakte können aus Google importiert werden, es kann eine Telefonnummer hinterlegt werden (Firefox Hello gibt es nämlich auch als App für Firefox OS), Benutzerbilder kommen über Gravatar, sofern der Nutzer diese Funktion aktiviert hat.

Firefox Hello in Firefox 43

Firefox Hello in Firefox 43

In Firefox 44 streicht Mozilla das Kontakte-Feature komplett. Übrig bleibt damit nur die anonyme Kontaktaufnahme über das Versenden eines Links. Ebenfalls streicht Mozilla in Firefox 44 die Option, den eigenen Status auf nicht verfügbar zu stellen, was ohne Kontakte-Funktion auch nicht mehr wirklich viel Sinn gehabt hätte.

Firefox Hello in Firefox 45

Eine weitere große Änderung kommt dann mit Firefox 45. Bisher konnte das Teilen von Tabs optional dazu geschaltet werden. Mit Firefox 45 wird genau das der Fokus von Firefox Hello. Eine Einladung zu einer Hello-Konversation ist dann automatisch gleichbedeutend mit dem Teilen der Tabs. Video-, Sprach- und Text-Chat gibt es weiterhin, aber immer in Kombination mit dem Tab-Sharing, welches allerdings auch pausiert werden kann. Aktuelle Mockups bestätigen den neuen Fokus, denn dort ist explizit von „Firefox Hello Co-Browsing“ die Rede [1], [2].

Firefox Hello in Firefox 45

Schlussbemerkung

Aus welchen Gründen sich Mozilla so entschieden hat, ist unklar. Im Falle des Kontakte-Features wäre vorstellbar, dass nur wenige Nutzer davon Gebrauch gemacht haben. Der Fokus auf das Co-Browsing ließe sich damit begründen, dass es bereits viele Kommunikationsdienste gibt, welche von den Nutzern benutzt werden, und dieser Fokus Firefox Hello erst eine Aufgabe gibt, welche Mozillas Dienst von diesen anderen Diensten unterscheidet, Firefox Hello so also eher einen Mehrwert für Nutzer bieten kann als wenn es nur ein weiterer gewöhnlicher Kommunikationsdienst wäre. Beides sind aber nur Mutmaßungen und müssen nichts mit Mozillas Entscheidungen zu tun haben.

Der Beitrag Firefox Hello: keine Kontakte mehr, Fokus auf Co-Browsing erschien zuerst auf soeren-hentzschel.at.

6. Dezember 2015

Firefox Hello ist ab Firefox 45 ein System-Add-on. Als Teil des Go Faster-Programms entkoppelt Mozilla einzelne Funktionen vom Firefox-Core und integriert diese als gebündelte Add-ons. Als nächstes folgt die Entkoppelung der Pocket-Integration.

Im Juli hatte Mozilla angekündigt, Features als Add-ons auszuliefern, nämlich als sogenannte System-Add-ons. Diese lassen sich zwar nicht über den Add-on Manager deinstallieren, bieten durch ihre Form der Integration als Add-on aber andere Vorteile. Durch die Entkoppelung vom Firefox-Core können Verbesserungen unabhängig von regulären Firefox-Updates und damit schneller ausgeliefert werden. Kritische Bugfixes könnten den Nutzer innerhalb von Minuten statt von Tagen erreichen wie Dave Camp, seines Zeichens Director of Engineerings von Firefox, erklärte. Auch macht es diese neue Infrastruktur einfacher, Features zum Testen nur an einen Teil der Nutzer auszuliefern. Denkbar ist außerdem, auch wenn es nicht explizit genannt worden ist, dass es das für Firefox-Derivate vereinfacht, den Browser nur mit den gewünschten Funktionen auszuliefern.

Wer eine Nightly-Version von Firefox 45 nutzt, hat Firefox Hello bereits als ein solches System-Add-on integriert. Im Add-on Manager taucht es nicht auf, doch gibt es dafür zwei andere Belege. Zum einen wird Firefox Hello als Add-on unter about:support aufgelistet.

Firefox Hello System Add-on

Zum anderen befindet sich im Installationsverzeichnis von Firefox ein neuer Ordner /browser/features/, in welchem sich die Add-on-Datei befindet.

Firefox Hello System Add-on

Das nächste Feature, welches vom Firefox-Core entkoppelt und zu einem System-Add-on gemacht werden wird, ist die Integration von Pocket. Entsprechende Patches existieren bereits.

Der Beitrag Firefox 45: Firefox Hello ist nun ein System-Add-on erschien zuerst auf soeren-hentzschel.at.

Wenn ich in meinen FeedReader blicke, tauchen dort viele Beiträge zu Let’s Encrypt auf. Seit Donnerstag befindet sich Let’s Encrypt in der offenen Beta Phase und nun kann jeder ohne vorherige Freischaltung die kostenlosen SSL Zertifikate beantragen. Das habe ich natürlich auch getan.

Viele meiner Seiten oder Dienste waren zwar auch schon vorher SSL-verschlüsselt erreichbar, aber meistens habe ich dafür selbstsignierte Zertifkate bzw. eine selbstsignierte Certificate Authority verwendet. Für meine ownCloud Installation hatte ich mir sogar mal ein Zertifikat gekauft, da auch andere die Cloud nutzen und ich so ohne große Erklärungen ownCloud Links versenden konnte.

Zur Verwendung von Let’s Encrypt brauche ich nicht mehr viel sagen, das haben schon Thomas Leister, Christoph Langner oder andere getan. Auch Kritik wird geäußert, da der Let’s Encrypt Client verhältnismäßig aufgebläht ist und das Erstellen eines CSRs (Zertifikatsantrag) schon ewig mit openssl auf der Konsole bestens funktioniert. Let’s Encrypt möchte diesen Prozess aber vereinfachen und sogar die Installation des Zertifikates vereinfachen und sogar automatisieren.

Ich habe meine Zertifikate mit Let’s Encrypt mit meinem Arch Linux Desktop im „Manual Mode“ erstellt und per Hand auf die Server verteilt. Das ist mir lieber, als dass ich die Software auf jeden Server installiere. Handarbeit ist eh notwendig, da ich DANE einsetze und die Records eh anpassen musste.

Leider können nur Zertifikate für 10 Subdomains / Host-Records einer Domain beantragt werden. Das habe ich für die 10 wichtigsten getan, die übrigen 15 kann ich hoffentlich bald nachholen. Bisher gibt es eine entsprechende Fehlermeldung, falls man versucht, mehr Zertifikate zu beantragen:

Error: urn:acme:error:rateLimited :: There were too many requests of a given type :: Error creating new cert :: Too many certificates already issued for: finnchristiansen.de

Die Zertifikate sind 90 Tage gültig, so dass ich mir eine Erinnerung im Kalender hinterlegt habe, damit ich die Zertifikate erneuern kann. Bis dahin: Viel Spaß beim Erstellen und Einbauen der Zertifikate.

Beitragsbild-Quelle: LetsEncrypt.orgCreative Commons Attribution 3.0 License.

freiesMagazin 12/2015 Titelseite

Heute ist die Dezemberausgabe von freiesMagazin erschienen und bringt viele spannende Artikel aus den Bereichen Linux und Open Source mit.

Inhalt der Ausgabe 12/2015

  • Ubuntu und Kubuntu 15.10
  • Der November im Kernelrückblick
  • Thruk – Besser überwachen
  • MegaFont NEXT – Schriften auch für Linux
  • Ubucon 2015 – Willkommen zurück in Berlin!
  • Rezension: Seven More Languages in Seven Weeks
  • Rezension: Programmieren lernen mit Python
  • Leserbriefe und Veranstaltungen

Downloads

Unter der Adresse http://freiesmagazin.de/mobil/ findet man immer die aktuelle und alle bisher erschienenen HTML- und EPUB-Ausgaben. Auf der Magazin-Seite können die letzten drei Ausgaben von freiesMagazin abgerufen werden, ältere Ausgaben findet man im Archiv.

Kontakt

Wer jeden Monat an die neue Ausgabe erinnert werden will, kann auch den RSS-Feed abonnieren. Leserbriefe mit Lob, Kritik, Anregungen oder Fragen und neue Artikelvorschläge können an die Redaktion geschickt werden.

5. Dezember 2015

Es ist vollbracht. Fryboyter.de läuft nun dank Let’s Encrypt mit https. Die Anleitung von Uberspace der ich gestern bereits einen Artikel gewidmet habe, hat einwandfrei funktioniert. Danach war allerdings noch die eine oder andere Anpassung nötig. Hauptsächlich an Wordpress.

Als erstes habe ich im Backend von Wordpress unter den allgemeinen Einstellungen die Wordpress- sowie Website-Adresse von http://fryboyter.de auf https://fryboyter.de geändert. Danach lies sich schon einmal die Seite an sich verschlüsselt aufrufen. Aber irgend etwas hat nicht gepasst.

Ich markiere alle externen Links mit einem kleinen Symbol wie ich hier schon beschrieben habe. Da die Seite nun per https aufgerufen wird, hat das ganze nun auch alle internen Link gekennzeichnet. Also schnell die Ausnahme von der Kennzeichnung auf https://fryboyter.de geändert. Soweit so gut. Piwik wurde auch noch unverschlüsselt eingebunden. Also auch hier schnell den Tracking-Code auf https geändert, welcher bei mir in der Datei footer.php eingetragen ist.

War es das? Leider nein. Leider war bei alle Grafiken die ich über die Mediathek von Wordpress eingebunden habe noch http eingetragen. Warum wurde das nicht bei der Änderung in den allgemeinen Einstellungen mit geändert? Eine globale Änderung der Mediathek-Links über das Backend ist scheinbar auch nicht vorgesehen. Püh… Was nun? Ich habe mich dann kurzerhand einfach mal mit der Datenbank verbunden und mir die diversen Tabellen angesehen. Dabei ist mir aufgefallen, dass ich in einigen Artikeln auch noch auf andere Artikel verwiesen habe. Natürlich per http://. Ja leck mich doch. Also habe ich mir eine SQl-Anweisung gebaut, die nach http://fryboyter.de sucht und alle Treffer in der Datenbank durch https://fryboyter.de ersetzt. Diese werde ich an dieser Stelle erst mal nicht veröffentlichen. Nicht dass ich hier irgendwo Mist gebaut habe. Zudem sollte es mit diesem Tool wohl auch einfacher gehen. Da es quelloffen ist, sollte es auch keine Hintertürem haben oder Zugangsdaten abgreifen. Meine Hand lege ich aber definitiv nichts ins Feuer dafür. Das Teil habe ich natürlich erst hinterher gefunden und daher in keinster Weise getestet.

Nun aber, oder? Nicht ganz. Fryboyter.de ist weiterhin per http erreichbar. Also noch schnell die htaccess-Datei für Wordpress angepasst, dass immer die Seite per https aufgerufen wird. Hier habe ich mich einfach im Blog von Überspace bedient und die “schickere” Variante gewählt. Auch wenn diese wohl bei älteren Browsern Probleme macht. Da hier aber hauptsächlich Besucher mit aktuellen Versionen aufschlagen sollte es nicht wirklich ein Problem sein.

Das sollte es dann aber wirklich gewesen sein. Wenn ich doch irgendwo etwas übersehen habe, wäre ich über einen Hinweis nicht unglücklich.

Abschließen kann ich nur feststellen dass das Beantragen und Einbauen des Zertifikats in deutlich weniger als 5 Minuten erledigt war. Auch das Scharfschalten ging ratz fatz. Die ganzen Anpassungen an der Seite an sich haben dann aber doch länger gedauert. Vor allem der Mist mit der Mediathek und den Links in den Artikeln…

Kubuntu ist das älteste offizielle Ubuntu-Derivat, bereits mit der zweiten Ubuntu-Version wurde die offizielle KDE-Variante veröffentlicht. Bis heute ist Kubuntu der wichtigste Ubuntu-Ableger, jedenfalls gemessen an den Zahlen des Popularity Contest. Das Verhältnis zwischen Kubuntu und Canonical als treibender Kraft hinter dem offizielle Hauptderivat Ubuntu war zwar nie leicht, hat sich im letzten Jahr jedoch katastrophal entwickelt und Kubuntu in eine tiefe Krise gestürzt.

Die letzten beiden Kubuntu-Versionen 15.10 und 15.04 blieben qualitativ deutlich hinter den Standards zurück, die Kubuntu selbst mit der letzten LTS 14.04, aber auch anderen Versionen gesetzt hat. Es wäre leicht diese Probleme KDE anzulasten, das durch den Übergang zur neuen Version 5 den Distributoren eine Herkulesaufgabe aufbürdet hat. (Kritik an Plasma 5 siehe: Teil I, Teil II., Teil III.) Das ist aber bestenfalls ein Teil der Wahrheit über den aktuellen Zustand von Kubuntu.

Erster Bruch

Kubuntu war immer das ungeliebte Stiefkind der Ubuntu-Distribution, auch wenn dieser Umstand stets geleugnet wurde. Das kann nach über 10 Jahren Ubuntu-Geschichte so bilanziert werden. Die Existenz von Kubuntu lief den Bemühungen von Canonical entgegen "den einen Linux-Desktop" auszuliefern. Nicht umsonst findet sich auf der offiziellen Ubuntu-Homepage kaum ein Hinweis auf die Derivate, deren erstes eben Kubuntu war. Die Existenz von Kubuntu gründete sich in dem grundlegenden Bedürfnis der Linux-Geimeinschaft nach Vielfalt. Jeder Versuch eine Monokultur durchzusetzen wurde bisher mit gegenläufigen Tendenzen begegnet.

Der erste offene Bruch erfolgte mit der Ankündigung, dass Kubuntu-Versionen nach 12.04 keinen offiziellen Status mehr haben würde. KDE wurde bei Ubuntu aus main verdrängt und nach universe verlagert. Über die Motivation hinter dieser Entscheidung wurde in der Community viel spekuliert. Sofern die Absicht darin bestand, die Bedeutung der Derivate zugunsten der Hauptdistribution zurückzudrängen, war die Entscheidung ein Fehlschlag. Kubuntu sackte nicht auf den Status eines normalen Derivats ab, sondern fand mit Blue Systems einen neuen Sponsor, der mehrere Entwickler hauptberuflich an Kubuntu arbeiten ließ. Sichtbare Auswirkungen hatte dies z.B. bei der Supportdauer. Kubuntu garantierte für seine erste eigene LTS-Version 5 Jahre Support - genau wie Canonical für Ubuntu. Normale Derivate ohne großen Sponsor wie Xubuntu oder Ubuntu MATE konnten jedoch lediglich 3 Jahre bieten.

Die Entscheidung Kubuntu den offiziellen Status zu nehmen führte jedoch auch zu einer größeren Distanz vom Hauptprojekt. Kubuntu orientierte sich mehr zu KDE und Debian hin, die Position als Ubuntu-Derivat wird auf der Homepage eher beiläufig erwähnt.

kubuntu homepageScreenshot: Kubuntu Homepage

Gleichzeitig übten führende Kubuntu-Entwickler immer deutlichere Kritik an der Art und Weise wie Ubuntu entwickelt wird. Ausgangspunkt des Streits war der Umgang mit den Spenden der Community an Ubuntu und deren - nach Meinung einiger Kubuntu-Entwickler - intransparente Verteilung. Diese anhaltende Kritik gipfelte im Frühjahr 2015 in der Entscheidung des Ubuntu Community Council den Rücktritt des Kubuntu-"Chefentwicklers" Jonathan Riddell zu fordern (den Verlauf kann man hier nachlesen). Diese Entscheidung führte zu heftiger Kritik in der Community. Es ging letztlich um nicht weniger als die Art und Weise wie Ubuntu entwickelt wird, wie viel Unabhängigkeit die Derivate haben und damit letztlich auch um die Frage, ob Ubuntu ein Communityprojekt ist oder eine Unternehmens-Distribution einer Firma. Ein Zankapfel den auch schon andere Projekte im Linux-Umfeld ausfechten mussten.

Abgänge und ein Neuanfang?

Die Entwicklungsphase von Kubuntu 15.10 kann als Hängepartie gedeutet werden. Trotz der Umstimmigkeiten im Sommer änderte sich das Personaltableau von Kubuntu kaum. Der Schock kam püntlich zum Release von 15.10 mit der Rücktrittserklärung von Jonathan Riddell als Releasemanager von Kubuntu. Dem folgten scheinbar eine Reihe weiterer führender Kubuntu-Entwickler, auch wenn es dazu keine offiziellen Verlautbarungen gab. Kubuntu befindet sich damit in einer tiefen Krise, wie man auch in einer offiziellen Konferenz der verbliebenen Entwickler zur Entwicklung von Kubuntu 16.04 sehen kann.

Kubuntu muss nun erstmals von einer Entwicklergemeinschaft entwickelt werden, die vollständig aus Ehrenamtlichen besteht. Welche Auswirkungen das auf den LTS-Charakter der kommenden Version haben wird ist noch nicht absehbar. Zwar werden auch die anderen Derivate von ehrenamtlichen Entwicklergemeinschaften getragen, aber weder Xfce, noch MATE werden derart aktiv entwickelt wie KDE Plasma. Ob das verblieben Personal hier ausreicht eine qualitativ hochwertige Distribution, auf dem Niveau früherer Versionen, auszuliefern, ist zur Zeit noch nicht absehbar.

Kubuntu lehnt sich nun noch stärker an Debian an, was aber auch zu Problemen führt, weil man keinen Einfluss auf Ubuntu Core hat. Zudem stellt sich in dieser Situation die Frage wozu es einen Debian-Klon Kubuntu braucht. Weiterhin ist die Frage, ob Kubuntu unter den gegenwärtigen Bedingungen mit dem beschleunigten Entwicklungszyklus von KDE mithalten kann. Die Anwender merken schon seit einiger Zeit eine deutlich verzögerte Auslieferung von Updates und auch die Kubuntu-PPA's werden nur noch schleppend aktualisiert.

Kubuntu ist zweifelsohne in der Krise. Die Zukunftsaussichten sind ungewiss, aber man sollte Projekte auch nicht totsagen, bevor sie nicht begraben sind. Schon gar nicht in der Welt der freien Software, wo freiwillige Helfer viel bewegen können.

Kubuntu ist das älteste offizielle Ubuntu-Derivat, bereits mit der zweiten Ubuntu-Version wurde die offizielle KDE-Variante veröffentlicht. Bis heute ist Kubuntu der wichtigste Ubuntu-Ableger, jedenfalls gemessen an den Zahlen des Popularity Contest. Das Verhältnis zwischen Kubuntu und Canonical als treibender Kraft hinter dem offizielle Hauptderivat Ubuntu war zwar nie leicht, hat sich im letzten Jahr jedoch katastrophal entwickelt und Kubuntu in eine tiefe Krise gestürzt.

Die letzten beiden Kubuntu-Versionen 15.10 und 15.04 blieben qualitativ deutlich hinter den Standards zurück, die Kubuntu selbst mit der letzten LTS 14.04, aber auch anderen Versionen gesetzt hat. Es wäre leicht diese Probleme KDE anzulasten, das durch den Übergang zur neuen Version 5 den Distributoren eine Herkulesaufgabe aufbürdet hat. (Kritik an Plasma 5 siehe: Teil I, Teil II., Teil III.) Das ist aber bestenfalls ein Teil der Wahrheit über den aktuellen Zustand von Kubuntu.

Erster Bruch

Kubuntu war immer das ungeliebte Stiefkind der Ubuntu-Distribution, auch wenn dieser Umstand stets geleugnet wurde. Das kann nach über 10 Jahren Ubuntu-Geschichte so bilanziert werden. Die Existenz von Kubuntu lief den Bemühungen von Canonical entgegen "den einen Linux-Desktop" auszuliefern. Nicht umsonst findet sich auf der offiziellen Ubuntu-Homepage kaum ein Hinweis auf die Derivate, deren erstes eben Kubuntu war. Die Existenz von Kubuntu gründete sich in dem grundlegenden Bedürfnis der Linux-Geimeinschaft nach Vielfalt. Jeder Versuch eine Monokultur durchzusetzen wurde bisher mit gegenläufigen Tendenzen begegnet.

Der erste offene Bruch erfolgte mit der Ankündigung, dass Kubuntu-Versionen nach 12.04 keinen offiziellen Status mehr haben würde. KDE wurde bei Ubuntu aus main verdrängt und nach universe verlagert. Über die Motivation hinter dieser Entscheidung wurde in der Community viel spekuliert. Sofern die Absicht darin bestand, die Bedeutung der Derivate zugunsten der Hauptdistribution zurückzudrängen, war die Entscheidung ein Fehlschlag. Kubuntu sackte nicht auf den Status eines normalen Derivats ab, sondern fand mit Blue Systems einen neuen Sponsor, der mehrere Entwickler hauptberuflich an Kubuntu arbeiten ließ. Sichtbare Auswirkungen hatte dies z.B. bei der Supportdauer. Kubuntu garantierte für seine erste eigene LTS-Version 5 Jahre Support - genau wie Canonical für Ubuntu. Normale Derivate ohne großen Sponsor wie Xubuntu oder Ubuntu MATE konnten jedoch lediglich 3 Jahre bieten.

Die Entscheidung Kubuntu den offiziellen Status zu nehmen führte jedoch auch zu einer größeren Distanz vom Hauptprojekt. Kubuntu orientierte sich mehr zu KDE und Debian hin, die Position als Ubuntu-Derivat wird auf der Homepage eher beiläufig erwähnt.

kubuntu homepageScreenshot: Kubuntu Homepage

Gleichzeitig übten führende Kubuntu-Entwickler immer deutlichere Kritik an der Art und Weise wie Ubuntu entwickelt wird. Ausgangspunkt des Streits war der Umgang mit den Spenden der Community an Ubuntu und deren - nach Meinung einiger Kubuntu-Entwickler - intransparente Verteilung. Diese anhaltende Kritik gipfelte im Frühjahr 2015 in der Entscheidung des Ubuntu Community Council den Rücktritt des Kubuntu-"Chefentwicklers" Jonathan Riddell zu fordern (den Verlauf kann man hier nachlesen). Diese Entscheidung führte zu heftiger Kritik in der Community. Es ging letztlich um nicht weniger als die Art und Weise wie Ubuntu entwickelt wird, wie viel Unabhängigkeit die Derivate haben und damit letztlich auch um die Frage, ob Ubuntu ein Communityprojekt ist oder eine Unternehmens-Distribution einer Firma. Ein Zankapfel den auch schon andere Projekte im Linux-Umfeld ausfechten mussten.

Abgänge und ein Neuanfang?

Die Entwicklungsphase von Kubuntu 15.10 kann als Hängepartie gedeutet werden. Trotz der Umstimmigkeiten im Sommer änderte sich das Personaltableau von Kubuntu kaum. Der Schock kam püntlich zum Release von 15.10 mit der Rücktrittserklärung von Jonathan Riddell als Releasemanager von Kubuntu. Dem folgten scheinbar eine Reihe weiterer führender Kubuntu-Entwickler, auch wenn es dazu keine offiziellen Verlautbarungen gab. Kubuntu befindet sich damit in einer tiefen Krise, wie man auch in einer offiziellen Konferenz der verbliebenen Entwickler zur Entwicklung von Kubuntu 16.04 sehen kann.

Kubuntu muss nun erstmals von einer Entwicklergemeinschaft entwickelt werden, die vollständig aus Ehrenamtlichen besteht. Welche Auswirkungen das auf den LTS-Charakter der kommenden Version haben wird ist noch nicht absehbar. Zwar werden auch die anderen Derivate von ehrenamtlichen Entwicklergemeinschaften getragen, aber weder Xfce, noch MATE werden derart aktiv entwickelt wie KDE Plasma. Ob das verblieben Personal hier ausreicht eine qualitativ hochwertige Distribution, auf dem Niveau früherer Versionen, auszuliefern, ist zur Zeit noch nicht absehbar.

Kubuntu lehnt sich nun noch stärker an Debian an, was aber auch zu Problemen führt, weil man keinen Einfluss auf Ubuntu Core hat. Zudem stellt sich in dieser Situation die Frage wozu es einen Debian-Klon Kubuntu braucht. Weiterhin ist die Frage, ob Kubuntu unter den gegenwärtigen Bedingungen mit dem beschleunigten Entwicklungszyklus von KDE mithalten kann. Die Anwender merken schon seit einiger Zeit eine deutlich verzögerte Auslieferung von Updates und auch die Kubuntu-PPA's werden nur noch schleppend aktualisiert.

Kubuntu ist zweifelsohne in der Krise. Die Zukunftsaussichten sind ungewiss, aber man sollte Projekte auch nicht totsagen, bevor sie nicht begraben sind. Schon gar nicht in der Welt der freien Software, wo freiwillige Helfer viel bewegen können.

Im privaten Umfeld nutze ich ausschließlich freie Software und komme damit sehr gut zurecht. Bei WLAN- oder Grafikkartentreibern habe ich früher manchmal noch zu den proprietären Treibern gegriffen, welche beispielsweise unter Ubuntu automatisch erkannt und einfach installiert werden können. Das ist zwar praktisch und funktioniert in der Regel sehr gut, aber ich setze lieber auf die freien Lösungen und habe damit eignetlich keine Probleme. Lediglich die freien Radeon Treiber für ATI Grafikkarten können zusammen mit der GNOME Shell ein paar Probleme bereiten, die aber leicht behoben werden können.

„Ein paar Probleme“ ist übertrieben, es handelt es eigentlich nur um ein Problem. Die GNOME Shell läuft nicht wirklich flüssig, wenn beispielsweise das Aktivitäten-Menü geöffnet wird. Falls man sich unsicher ist, welchen Treiber man nutzt, kann das schnell mit lsmod überprüft werden:

# Wird der freie Treiber "radeon" verwendet wird dieser hier angezeigt:
lsmod | grep radeon
# Im Falle des proprietären Treibers wird dieser hier angezeigt:
lsmod | grep fglrx

Das Problem scheint wohl auch mit dem proprietären Treiber auftreten zu können, was ich aber nicht bestätigen kann, da ich ihn bereits Jahre nicht mehr genutzt habe.

Ich habe zu diesem Problem etwas auf LinuxQuestions.org, im Arch Linux Wiki zum proprietären Treiber und nochmal im Arch Linux Wiki zum freien Treiber gefunden.

Generell scheint das deaktivieren der VSYNC / VBLANK Option das Problem zu lösen. Eigentlich dient diese Option u.a. zur Verhinderung von Streifenbildung beim Verschieben von Fenstern, aber das Deaktivieren scheint sich bei mir nicht negativ auszuwirken. Nach ein wenig Herumprobieren haben sich folgende Einstellungen als deutliche Verbesserung herausgestellt:

In der

/etc/environment
  folgende 2 Zeilen einfügen:
export CLUTTER_VBLANK=none
export vblank_mode=0

Zusätzlich habe innerhalb der Device-Section meiner xorg.conf die Zeile

Option "SwapbuffersWait" "off"
 eingefügt, so dass diese nun so aussieht:
Section "Device"
	Identifier  "Radeon"
	Driver	"radeon"
	Option	"SWcursor"              "off" #software cursor might be necessary on some rare occasions, hence set off by default
	Option	"EnablePageFlip"        "on"  #supported on all R/RV/RS4xx and older hardware, and set on by default
	Option	"AccelMethod"           "EXA" #valid options are XAA, EXA and Glamor. Default value varies per-GPU.
	Option	"RenderAccel"           "on"  #enabled by default on all radeon hardware
	Option	"ColorTiling"           "on"  #enabled by default on RV300 and later radeon cards
	Option	"EXAVSync"              "on" #default is off, otherwise on. Only works if EXA activated
	Option	"EXAPixmaps"            "on"  #when on icreases 2D performance, but may also cause artifacts on some old cards. Only works if EXA activated
	Option	"AccelDFS"              "on"  #default is off, read the radeon manpage for more information
    Option  "SwapbuffersWait"       "off"
EndSection

Nach einem Neustart läuft die GNOME Shell deutlich flüssiger und bisher konnte ich keine negativen Auswirkungen feststellen.

Ich weiß nicht, ob es mit dem NVIDIA Treiber ähnliche Probleme gibt oder wie der aktuelle Stand des proprietären ATI Treibers ist. Inzwischen scheint es ja keinen Catalyst Treiber mehr zu geben, dieser wurde scheinbar in Crimson umbenannt. 176 MB für einen Grafikkarten Treiber und einer überflüssigen Software kommen für mich jedenfalls nicht in Frage.

Mozilla hat beschlossen, die gesponsorten Kacheln auf der Seite, die standardmäßig beim Öffnen eines neuen Tabs erscheint, nicht fortzuführen und in Zukunft wieder komplett auf Werbung innerhalb von Firefox zu verzichten.

Wer einen neuen Tab in Firefox öffnet, sieht standardmäßig eine gewisse Anzahl an Kacheln mit Vorschaubildern von Webseiten. Dabei handelt es sich üblicherweise um bereits vom Nutzer besuchte Webseiten. Neue Nutzer sehen hier von Mozilla vordefinierte Kacheln, überwiegend für Mozilla-eigene Seiten, manche Kachel ist aber auch gesponsort.

Wie Mozilla nun bekannt gegeben hat, wird man in Zukunft keine Werbung mehr innerhalb von Firefox anzeigen. Einerseits betrachtet man das Experiment als erfolgreich, weil Mozilla damit bewiesen habe, dass Werbung möglich ist, welche die Privatsphäre der Nutzer respektiert. Auch ist man der Meinung, dass Werbung in Firefox ein gutes Geschäft sein kann. Allerdings ist man zu dem Schluss gekommen, dass es derzeit nicht das richtige Geschäft für Mozilla ist. Stattdessen möchte man sich auf die Kernerlebnisse für die Nutzer fokussieren und wie Nutzer neue Inhalte entdecken können, welche für sie relevant sind. Um dies richtig zu machen, wird man in Zukunft auf Werbung verzichten. Noch bestehende Vereinbarungen wird man natürlich noch erfüllen, so dass die Anzahl der gesponsorten Kacheln im Laufe der nächsten Monate schrittweise sinken wird, bis es schließlich keine Werbung mehr in Firefox gibt.

Mozilla hatte die gesponsorten Kacheln im November 2014 mit Firefox 33.1 eingeführt – also in dem Monat, in welchem der Suchmaschinen-Vertrag mit Google ausgelaufen war. Insofern ist es sehr gut vorstellbar, dass durch eine Reduzierung der Abhängigkeit von Suchmaschinen eine weitere finanzielle Sicherheit geschaffen werden sollte. Vor wenigen Tagen hat Mozilla seinen Finanzbericht für das Jahr 2014 veröffentlicht. In diesem Zusammenhang hatte Mozillas Chief Financial Officer Jim Cook angedeutet, dass die finanzielle Situation für Mozilla mit den neuen Suchmaschinen-Vereinbarungen noch besser aussehen soll, was die Entscheidung gegen Werbung in Firefox mit Sicherheit nicht schwerer gemacht haben wird.

Der Beitrag Mozilla wird keine Werbung mehr in Firefox anzeigen erschien zuerst auf soeren-hentzschel.at.

4. Dezember 2015

Seit gestern kann sich Hinz und Kunz Zertifikate bei Let’s Encrypt ausstellen lassen. Da ich ja beim Webspace-Anbieter Uberspace bin, bin ich mir recht sicher dass es auch bei mir irgendwie klappen sollte. Nur wie? Als erstes habe ich mir mal die offizielle Dokumentation angesehen. Hätte ich mir schon fast schenken können. Aber nicht weil diese für Tonne ist.

Denn Jonas von Uberspace hat heute einen Artikel im Uberspace-Blog veröffentlicht in dem eigentlich alles genau erklärt wird. Getestet habe ich das ganze bisher noch nicht aber wenn man sich das ganze so durchliest dürfte der Spass keine 5 Minuten dauern. Lediglich für das automatisierte Erneuern der Zertifikate alle 90 Tage hat das Uberspace-Team noch keine offizielle Lösung. Aber das bin ich mir recht sicher, dass da noch etwas kommen wird. Zur Not würde mir das Abfeuern von ein paar Befehlen alle X Tage aber auch nicht die Laune verderben.

Man kriegt ja die unterschiedlichen Mails, darunter persönliche, berufliche, Werbe, informative und Spammails. Was ich mir immer gewünscht habe, war ein Sortiersystem, wonach ich entsprechende Emails gleich wegsortieren kann, so dass ich nur die sehe, die ich auch gerade wirklich sehen will.

Mit zwei  1 Addon für Thunderbird habe ich meinen Traum wahr gemacht. Ging auch ganz einfach.

Nachdem man beide Addons installiert hat, erstellt man in Thunderbird einen neuen Ordner un bennent ihn zum Beispiel “Posteingang 2″.

Dann öffnet man das Addon Manually Sort Foders im Addon Menü und stellt im jeweiligen Konto “benutzerdefinierte Sortierfunktion” ein und schiebt den “Posteingang 2″ unter den standardmäßigen Posteingang.

Schliesslich erstellt man mit quickFilters der integrierten Filterfunktion einen neuen Filter, in dem man im “Vom:” Filter  angibt: “nicht in meinem Adressbuch", wählt das entsprechende Adressbuch aus und gibt als auszuführende Aktion ein “Verschieben der Nachricht in:” “Posteingang2″.

Stellt sicher, dass diese Aktion immer nach “Junk Erkennung” (oben) durchgeführt wird, damit die Spammail auch rausgefiltert wird.

Und schon habt ihr einen Posteingang, in dem nur Emails ankommen, von Leuten, die in eurem Adressbuch vorhanden sind. Alle anderen landen in “Posteingang 2″.

Das könnt ihr natürlich auch weiter für berufliche, oder informative (Werbemails, Einkaufsbestätigungen, usw)  machen, bis ihr zufrieden seit.

Update 05.12.2015

Das Addon quickFilters braucht man nicht. Die integrierte Filterfunktion macht genau die gleiche Arbeit. (Danke Irene / Kommentar)

 

 

Man kriegt ja die unterschiedlichen Mails, darunter persönliche, berufliche, Werbe, informative und Spammails. Was ich mir immer gewünscht habe, war ein Sortiersystem, wonach ich entsprechende Emails gleich wegsortieren kann, so dass ich nur die sehe, die ich auch gerade wirklich sehen will.

Mit zwei  1 Addon für Thunderbird habe ich meinen Traum wahr gemacht. Ging auch ganz einfach.

Nachdem man beide Addons installiert hat, erstellt man in Thunderbird einen neuen Ordner un bennent ihn zum Beispiel “Posteingang 2″.

Dann öffnet man das Addon Manually Sort Foders im Addon Menü und stellt im jeweiligen Konto “benutzerdefinierte Sortierfunktion” ein und schiebt den “Posteingang 2″ unter den standardmäßigen Posteingang.

Schliesslich erstellt man mit quickFilters der integrierten Filterfunktion einen neuen Filter, in dem man im “Vom:” Filter  angibt: “nicht in meinem Adressbuch", wählt das entsprechende Adressbuch aus und gibt als auszuführende Aktion ein “Verschieben der Nachricht in:” “Posteingang2″.

Stellt sicher, dass diese Aktion immer nach “Junk Erkennung” (oben) durchgeführt wird, damit die Spammail auch rausgefiltert wird.

Und schon habt ihr einen Posteingang, in dem nur Emails ankommen, von Leuten, die in eurem Adressbuch vorhanden sind. Alle anderen landen in “Posteingang 2″.

Das könnt ihr natürlich auch weiter für berufliche, oder informative (Werbemails, Einkaufsbestätigungen, usw)  machen, bis ihr zufrieden seit.

Update 05.12.2015

Das Addon quickFilters braucht man nicht. Die integrierte Filterfunktion macht genau die gleiche Arbeit. (Danke Irene / Kommentar)