ubuntuusers.de

6. Dezember 2015

Wenn ich in meinen FeedReader blicke, tauchen dort viele Beiträge zu Let’s Encrypt auf. Seit Donnerstag befindet sich Let’s Encrypt in der offenen Beta Phase und nun kann jeder ohne vorherige Freischaltung die kostenlosen SSL Zertifikate beantragen. Das habe ich natürlich auch getan.

Viele meiner Seiten oder Dienste waren zwar auch schon vorher SSL-verschlüsselt erreichbar, aber meistens habe ich dafür selbstsignierte Zertifkate bzw. eine selbstsignierte Certificate Authority verwendet. Für meine ownCloud Installation hatte ich mir sogar mal ein Zertifikat gekauft, da auch andere die Cloud nutzen und ich so ohne große Erklärungen ownCloud Links versenden konnte.

Zur Verwendung von Let’s Encrypt brauche ich nicht mehr viel sagen, das haben schon Thomas Leister, Christoph Langner oder andere getan. Auch Kritik wird geäußert, da der Let’s Encrypt Client verhältnismäßig aufgebläht ist und das Erstellen eines CSRs (Zertifikatsantrag) schon ewig mit openssl auf der Konsole bestens funktioniert. Let’s Encrypt möchte diesen Prozess aber vereinfachen und sogar die Installation des Zertifikates vereinfachen und sogar automatisieren.

Ich habe meine Zertifikate mit Let’s Encrypt mit meinem Arch Linux Desktop im „Manual Mode“ erstellt und per Hand auf die Server verteilt. Das ist mir lieber, als dass ich die Software auf jeden Server installiere. Handarbeit ist eh notwendig, da ich DANE einsetze und die Records eh anpassen musste.

Leider können nur Zertifikate für 10 Subdomains / Host-Records einer Domain beantragt werden. Das habe ich für die 10 wichtigsten getan, die übrigen 15 kann ich hoffentlich bald nachholen. Bisher gibt es eine entsprechende Fehlermeldung, falls man versucht, mehr Zertifikate zu beantragen:

Error: urn:acme:error:rateLimited :: There were too many requests of a given type :: Error creating new cert :: Too many certificates already issued for: finnchristiansen.de

Die Zertifikate sind 90 Tage gültig, so dass ich mir eine Erinnerung im Kalender hinterlegt habe, damit ich die Zertifikate erneuern kann. Bis dahin: Viel Spaß beim Erstellen und Einbauen der Zertifikate.

Beitragsbild-Quelle: LetsEncrypt.orgCreative Commons Attribution 3.0 License.

freiesMagazin 12/2015 Titelseite

Heute ist die Dezemberausgabe von freiesMagazin erschienen und bringt viele spannende Artikel aus den Bereichen Linux und Open Source mit.

Inhalt der Ausgabe 12/2015

  • Ubuntu und Kubuntu 15.10
  • Der November im Kernelrückblick
  • Thruk – Besser überwachen
  • MegaFont NEXT – Schriften auch für Linux
  • Ubucon 2015 – Willkommen zurück in Berlin!
  • Rezension: Seven More Languages in Seven Weeks
  • Rezension: Programmieren lernen mit Python
  • Leserbriefe und Veranstaltungen

Downloads

Unter der Adresse http://freiesmagazin.de/mobil/ findet man immer die aktuelle und alle bisher erschienenen HTML- und EPUB-Ausgaben. Auf der Magazin-Seite können die letzten drei Ausgaben von freiesMagazin abgerufen werden, ältere Ausgaben findet man im Archiv.

Kontakt

Wer jeden Monat an die neue Ausgabe erinnert werden will, kann auch den RSS-Feed abonnieren. Leserbriefe mit Lob, Kritik, Anregungen oder Fragen und neue Artikelvorschläge können an die Redaktion geschickt werden.

5. Dezember 2015

Es ist vollbracht. Fryboyter.de läuft nun dank Let’s Encrypt mit https. Die Anleitung von Uberspace der ich gestern bereits einen Artikel gewidmet habe, hat einwandfrei funktioniert. Danach war allerdings noch die eine oder andere Anpassung nötig. Hauptsächlich an Wordpress.

Als erstes habe ich im Backend von Wordpress unter den allgemeinen Einstellungen die Wordpress- sowie Website-Adresse von http://fryboyter.de auf https://fryboyter.de geändert. Danach lies sich schon einmal die Seite an sich verschlüsselt aufrufen. Aber irgend etwas hat nicht gepasst.

Ich markiere alle externen Links mit einem kleinen Symbol wie ich hier schon beschrieben habe. Da die Seite nun per https aufgerufen wird, hat das ganze nun auch alle internen Link gekennzeichnet. Also schnell die Ausnahme von der Kennzeichnung auf https://fryboyter.de geändert. Soweit so gut. Piwik wurde auch noch unverschlüsselt eingebunden. Also auch hier schnell den Tracking-Code auf https geändert, welcher bei mir in der Datei footer.php eingetragen ist.

War es das? Leider nein. Leider war bei alle Grafiken die ich über die Mediathek von Wordpress eingebunden habe noch http eingetragen. Warum wurde das nicht bei der Änderung in den allgemeinen Einstellungen mit geändert? Eine globale Änderung der Mediathek-Links über das Backend ist scheinbar auch nicht vorgesehen. Püh… Was nun? Ich habe mich dann kurzerhand einfach mal mit der Datenbank verbunden und mir die diversen Tabellen angesehen. Dabei ist mir aufgefallen, dass ich in einigen Artikeln auch noch auf andere Artikel verwiesen habe. Natürlich per http://. Ja leck mich doch. Also habe ich mir eine SQl-Anweisung gebaut, die nach http://fryboyter.de sucht und alle Treffer in der Datenbank durch https://fryboyter.de ersetzt. Diese werde ich an dieser Stelle erst mal nicht veröffentlichen. Nicht dass ich hier irgendwo Mist gebaut habe. Zudem sollte es mit diesem Tool wohl auch einfacher gehen. Da es quelloffen ist, sollte es auch keine Hintertürem haben oder Zugangsdaten abgreifen. Meine Hand lege ich aber definitiv nichts ins Feuer dafür. Das Teil habe ich natürlich erst hinterher gefunden und daher in keinster Weise getestet.

Nun aber, oder? Nicht ganz. Fryboyter.de ist weiterhin per http erreichbar. Also noch schnell die htaccess-Datei für Wordpress angepasst, dass immer die Seite per https aufgerufen wird. Hier habe ich mich einfach im Blog von Überspace bedient und die “schickere” Variante gewählt. Auch wenn diese wohl bei älteren Browsern Probleme macht. Da hier aber hauptsächlich Besucher mit aktuellen Versionen aufschlagen sollte es nicht wirklich ein Problem sein.

Das sollte es dann aber wirklich gewesen sein. Wenn ich doch irgendwo etwas übersehen habe, wäre ich über einen Hinweis nicht unglücklich.

Abschließen kann ich nur feststellen dass das Beantragen und Einbauen des Zertifikats in deutlich weniger als 5 Minuten erledigt war. Auch das Scharfschalten ging ratz fatz. Die ganzen Anpassungen an der Seite an sich haben dann aber doch länger gedauert. Vor allem der Mist mit der Mediathek und den Links in den Artikeln…

Kubuntu ist das älteste offizielle Ubuntu-Derivat, bereits mit der zweiten Ubuntu-Version wurde die offizielle KDE-Variante veröffentlicht. Bis heute ist Kubuntu der wichtigste Ubuntu-Ableger, jedenfalls gemessen an den Zahlen des Popularity Contest. Das Verhältnis zwischen Kubuntu und Canonical als treibender Kraft hinter dem offizielle Hauptderivat Ubuntu war zwar nie leicht, hat sich im letzten Jahr jedoch katastrophal entwickelt und Kubuntu in eine tiefe Krise gestürzt.

Die letzten beiden Kubuntu-Versionen 15.10 und 15.04 blieben qualitativ deutlich hinter den Standards zurück, die Kubuntu selbst mit der letzten LTS 14.04, aber auch anderen Versionen gesetzt hat. Es wäre leicht diese Probleme KDE anzulasten, das durch den Übergang zur neuen Version 5 den Distributoren eine Herkulesaufgabe aufbürdet hat. (Kritik an Plasma 5 siehe: Teil I, Teil II., Teil III.) Das ist aber bestenfalls ein Teil der Wahrheit über den aktuellen Zustand von Kubuntu.

Erster Bruch

Kubuntu war immer das ungeliebte Stiefkind der Ubuntu-Distribution, auch wenn dieser Umstand stets geleugnet wurde. Das kann nach über 10 Jahren Ubuntu-Geschichte so bilanziert werden. Die Existenz von Kubuntu lief den Bemühungen von Canonical entgegen "den einen Linux-Desktop" auszuliefern. Nicht umsonst findet sich auf der offiziellen Ubuntu-Homepage kaum ein Hinweis auf die Derivate, deren erstes eben Kubuntu war. Die Existenz von Kubuntu gründete sich in dem grundlegenden Bedürfnis der Linux-Geimeinschaft nach Vielfalt. Jeder Versuch eine Monokultur durchzusetzen wurde bisher mit gegenläufigen Tendenzen begegnet.

Der erste offene Bruch erfolgte mit der Ankündigung, dass Kubuntu-Versionen nach 12.04 keinen offiziellen Status mehr haben würde. KDE wurde bei Ubuntu aus main verdrängt und nach universe verlagert. Über die Motivation hinter dieser Entscheidung wurde in der Community viel spekuliert. Sofern die Absicht darin bestand, die Bedeutung der Derivate zugunsten der Hauptdistribution zurückzudrängen, war die Entscheidung ein Fehlschlag. Kubuntu sackte nicht auf den Status eines normalen Derivats ab, sondern fand mit Blue Systems einen neuen Sponsor, der mehrere Entwickler hauptberuflich an Kubuntu arbeiten ließ. Sichtbare Auswirkungen hatte dies z.B. bei der Supportdauer. Kubuntu garantierte für seine erste eigene LTS-Version 5 Jahre Support - genau wie Canonical für Ubuntu. Normale Derivate ohne großen Sponsor wie Xubuntu oder Ubuntu MATE konnten jedoch lediglich 3 Jahre bieten.

Die Entscheidung Kubuntu den offiziellen Status zu nehmen führte jedoch auch zu einer größeren Distanz vom Hauptprojekt. Kubuntu orientierte sich mehr zu KDE und Debian hin, die Position als Ubuntu-Derivat wird auf der Homepage eher beiläufig erwähnt.

kubuntu homepageScreenshot: Kubuntu Homepage

Gleichzeitig übten führende Kubuntu-Entwickler immer deutlichere Kritik an der Art und Weise wie Ubuntu entwickelt wird. Ausgangspunkt des Streits war der Umgang mit den Spenden der Community an Ubuntu und deren - nach Meinung einiger Kubuntu-Entwickler - intransparente Verteilung. Diese anhaltende Kritik gipfelte im Frühjahr 2015 in der Entscheidung des Ubuntu Community Council den Rücktritt des Kubuntu-"Chefentwicklers" Jonathan Riddell zu fordern (den Verlauf kann man hier nachlesen). Diese Entscheidung führte zu heftiger Kritik in der Community. Es ging letztlich um nicht weniger als die Art und Weise wie Ubuntu entwickelt wird, wie viel Unabhängigkeit die Derivate haben und damit letztlich auch um die Frage, ob Ubuntu ein Communityprojekt ist oder eine Unternehmens-Distribution einer Firma. Ein Zankapfel den auch schon andere Projekte im Linux-Umfeld ausfechten mussten.

Abgänge und ein Neuanfang?

Die Entwicklungsphase von Kubuntu 15.10 kann als Hängepartie gedeutet werden. Trotz der Umstimmigkeiten im Sommer änderte sich das Personaltableau von Kubuntu kaum. Der Schock kam püntlich zum Release von 15.10 mit der Rücktrittserklärung von Jonathan Riddell als Releasemanager von Kubuntu. Dem folgten scheinbar eine Reihe weiterer führender Kubuntu-Entwickler, auch wenn es dazu keine offiziellen Verlautbarungen gab. Kubuntu befindet sich damit in einer tiefen Krise, wie man auch in einer offiziellen Konferenz der verbliebenen Entwickler zur Entwicklung von Kubuntu 16.04 sehen kann.

Kubuntu muss nun erstmals von einer Entwicklergemeinschaft entwickelt werden, die vollständig aus Ehrenamtlichen besteht. Welche Auswirkungen das auf den LTS-Charakter der kommenden Version haben wird ist noch nicht absehbar. Zwar werden auch die anderen Derivate von ehrenamtlichen Entwicklergemeinschaften getragen, aber weder Xfce, noch MATE werden derart aktiv entwickelt wie KDE Plasma. Ob das verblieben Personal hier ausreicht eine qualitativ hochwertige Distribution, auf dem Niveau früherer Versionen, auszuliefern, ist zur Zeit noch nicht absehbar.

Kubuntu lehnt sich nun noch stärker an Debian an, was aber auch zu Problemen führt, weil man keinen Einfluss auf Ubuntu Core hat. Zudem stellt sich in dieser Situation die Frage wozu es einen Debian-Klon Kubuntu braucht. Weiterhin ist die Frage, ob Kubuntu unter den gegenwärtigen Bedingungen mit dem beschleunigten Entwicklungszyklus von KDE mithalten kann. Die Anwender merken schon seit einiger Zeit eine deutlich verzögerte Auslieferung von Updates und auch die Kubuntu-PPA's werden nur noch schleppend aktualisiert.

Kubuntu ist zweifelsohne in der Krise. Die Zukunftsaussichten sind ungewiss, aber man sollte Projekte auch nicht totsagen, bevor sie nicht begraben sind. Schon gar nicht in der Welt der freien Software, wo freiwillige Helfer viel bewegen können.

Kubuntu ist das älteste offizielle Ubuntu-Derivat, bereits mit der zweiten Ubuntu-Version wurde die offizielle KDE-Variante veröffentlicht. Bis heute ist Kubuntu der wichtigste Ubuntu-Ableger, jedenfalls gemessen an den Zahlen des Popularity Contest. Das Verhältnis zwischen Kubuntu und Canonical als treibender Kraft hinter dem offizielle Hauptderivat Ubuntu war zwar nie leicht, hat sich im letzten Jahr jedoch katastrophal entwickelt und Kubuntu in eine tiefe Krise gestürzt.

Die letzten beiden Kubuntu-Versionen 15.10 und 15.04 blieben qualitativ deutlich hinter den Standards zurück, die Kubuntu selbst mit der letzten LTS 14.04, aber auch anderen Versionen gesetzt hat. Es wäre leicht diese Probleme KDE anzulasten, das durch den Übergang zur neuen Version 5 den Distributoren eine Herkulesaufgabe aufbürdet hat. (Kritik an Plasma 5 siehe: Teil I, Teil II., Teil III.) Das ist aber bestenfalls ein Teil der Wahrheit über den aktuellen Zustand von Kubuntu.

Erster Bruch

Kubuntu war immer das ungeliebte Stiefkind der Ubuntu-Distribution, auch wenn dieser Umstand stets geleugnet wurde. Das kann nach über 10 Jahren Ubuntu-Geschichte so bilanziert werden. Die Existenz von Kubuntu lief den Bemühungen von Canonical entgegen "den einen Linux-Desktop" auszuliefern. Nicht umsonst findet sich auf der offiziellen Ubuntu-Homepage kaum ein Hinweis auf die Derivate, deren erstes eben Kubuntu war. Die Existenz von Kubuntu gründete sich in dem grundlegenden Bedürfnis der Linux-Geimeinschaft nach Vielfalt. Jeder Versuch eine Monokultur durchzusetzen wurde bisher mit gegenläufigen Tendenzen begegnet.

Der erste offene Bruch erfolgte mit der Ankündigung, dass Kubuntu-Versionen nach 12.04 keinen offiziellen Status mehr haben würde. KDE wurde bei Ubuntu aus main verdrängt und nach universe verlagert. Über die Motivation hinter dieser Entscheidung wurde in der Community viel spekuliert. Sofern die Absicht darin bestand, die Bedeutung der Derivate zugunsten der Hauptdistribution zurückzudrängen, war die Entscheidung ein Fehlschlag. Kubuntu sackte nicht auf den Status eines normalen Derivats ab, sondern fand mit Blue Systems einen neuen Sponsor, der mehrere Entwickler hauptberuflich an Kubuntu arbeiten ließ. Sichtbare Auswirkungen hatte dies z.B. bei der Supportdauer. Kubuntu garantierte für seine erste eigene LTS-Version 5 Jahre Support - genau wie Canonical für Ubuntu. Normale Derivate ohne großen Sponsor wie Xubuntu oder Ubuntu MATE konnten jedoch lediglich 3 Jahre bieten.

Die Entscheidung Kubuntu den offiziellen Status zu nehmen führte jedoch auch zu einer größeren Distanz vom Hauptprojekt. Kubuntu orientierte sich mehr zu KDE und Debian hin, die Position als Ubuntu-Derivat wird auf der Homepage eher beiläufig erwähnt.

kubuntu homepageScreenshot: Kubuntu Homepage

Gleichzeitig übten führende Kubuntu-Entwickler immer deutlichere Kritik an der Art und Weise wie Ubuntu entwickelt wird. Ausgangspunkt des Streits war der Umgang mit den Spenden der Community an Ubuntu und deren - nach Meinung einiger Kubuntu-Entwickler - intransparente Verteilung. Diese anhaltende Kritik gipfelte im Frühjahr 2015 in der Entscheidung des Ubuntu Community Council den Rücktritt des Kubuntu-"Chefentwicklers" Jonathan Riddell zu fordern (den Verlauf kann man hier nachlesen). Diese Entscheidung führte zu heftiger Kritik in der Community. Es ging letztlich um nicht weniger als die Art und Weise wie Ubuntu entwickelt wird, wie viel Unabhängigkeit die Derivate haben und damit letztlich auch um die Frage, ob Ubuntu ein Communityprojekt ist oder eine Unternehmens-Distribution einer Firma. Ein Zankapfel den auch schon andere Projekte im Linux-Umfeld ausfechten mussten.

Abgänge und ein Neuanfang?

Die Entwicklungsphase von Kubuntu 15.10 kann als Hängepartie gedeutet werden. Trotz der Umstimmigkeiten im Sommer änderte sich das Personaltableau von Kubuntu kaum. Der Schock kam püntlich zum Release von 15.10 mit der Rücktrittserklärung von Jonathan Riddell als Releasemanager von Kubuntu. Dem folgten scheinbar eine Reihe weiterer führender Kubuntu-Entwickler, auch wenn es dazu keine offiziellen Verlautbarungen gab. Kubuntu befindet sich damit in einer tiefen Krise, wie man auch in einer offiziellen Konferenz der verbliebenen Entwickler zur Entwicklung von Kubuntu 16.04 sehen kann.

Kubuntu muss nun erstmals von einer Entwicklergemeinschaft entwickelt werden, die vollständig aus Ehrenamtlichen besteht. Welche Auswirkungen das auf den LTS-Charakter der kommenden Version haben wird ist noch nicht absehbar. Zwar werden auch die anderen Derivate von ehrenamtlichen Entwicklergemeinschaften getragen, aber weder Xfce, noch MATE werden derart aktiv entwickelt wie KDE Plasma. Ob das verblieben Personal hier ausreicht eine qualitativ hochwertige Distribution, auf dem Niveau früherer Versionen, auszuliefern, ist zur Zeit noch nicht absehbar.

Kubuntu lehnt sich nun noch stärker an Debian an, was aber auch zu Problemen führt, weil man keinen Einfluss auf Ubuntu Core hat. Zudem stellt sich in dieser Situation die Frage wozu es einen Debian-Klon Kubuntu braucht. Weiterhin ist die Frage, ob Kubuntu unter den gegenwärtigen Bedingungen mit dem beschleunigten Entwicklungszyklus von KDE mithalten kann. Die Anwender merken schon seit einiger Zeit eine deutlich verzögerte Auslieferung von Updates und auch die Kubuntu-PPA's werden nur noch schleppend aktualisiert.

Kubuntu ist zweifelsohne in der Krise. Die Zukunftsaussichten sind ungewiss, aber man sollte Projekte auch nicht totsagen, bevor sie nicht begraben sind. Schon gar nicht in der Welt der freien Software, wo freiwillige Helfer viel bewegen können.

Im privaten Umfeld nutze ich ausschließlich freie Software und komme damit sehr gut zurecht. Bei WLAN- oder Grafikkartentreibern habe ich früher manchmal noch zu den proprietären Treibern gegriffen, welche beispielsweise unter Ubuntu automatisch erkannt und einfach installiert werden können. Das ist zwar praktisch und funktioniert in der Regel sehr gut, aber ich setze lieber auf die freien Lösungen und habe damit eignetlich keine Probleme. Lediglich die freien Radeon Treiber für ATI Grafikkarten können zusammen mit der GNOME Shell ein paar Probleme bereiten, die aber leicht behoben werden können.

„Ein paar Probleme“ ist übertrieben, es handelt es eigentlich nur um ein Problem. Die GNOME Shell läuft nicht wirklich flüssig, wenn beispielsweise das Aktivitäten-Menü geöffnet wird. Falls man sich unsicher ist, welchen Treiber man nutzt, kann das schnell mit lsmod überprüft werden:

# Wird der freie Treiber "radeon" verwendet wird dieser hier angezeigt:
lsmod | grep radeon
# Im Falle des proprietären Treibers wird dieser hier angezeigt:
lsmod | grep fglrx

Das Problem scheint wohl auch mit dem proprietären Treiber auftreten zu können, was ich aber nicht bestätigen kann, da ich ihn bereits Jahre nicht mehr genutzt habe.

Ich habe zu diesem Problem etwas auf LinuxQuestions.org, im Arch Linux Wiki zum proprietären Treiber und nochmal im Arch Linux Wiki zum freien Treiber gefunden.

Generell scheint das deaktivieren der VSYNC / VBLANK Option das Problem zu lösen. Eigentlich dient diese Option u.a. zur Verhinderung von Streifenbildung beim Verschieben von Fenstern, aber das Deaktivieren scheint sich bei mir nicht negativ auszuwirken. Nach ein wenig Herumprobieren haben sich folgende Einstellungen als deutliche Verbesserung herausgestellt:

In der

/etc/environment
  folgende 2 Zeilen einfügen:
export CLUTTER_VBLANK=none
export vblank_mode=0

Zusätzlich habe innerhalb der Device-Section meiner xorg.conf die Zeile

Option "SwapbuffersWait" "off"
 eingefügt, so dass diese nun so aussieht:
Section "Device"
	Identifier  "Radeon"
	Driver	"radeon"
	Option	"SWcursor"              "off" #software cursor might be necessary on some rare occasions, hence set off by default
	Option	"EnablePageFlip"        "on"  #supported on all R/RV/RS4xx and older hardware, and set on by default
	Option	"AccelMethod"           "EXA" #valid options are XAA, EXA and Glamor. Default value varies per-GPU.
	Option	"RenderAccel"           "on"  #enabled by default on all radeon hardware
	Option	"ColorTiling"           "on"  #enabled by default on RV300 and later radeon cards
	Option	"EXAVSync"              "on" #default is off, otherwise on. Only works if EXA activated
	Option	"EXAPixmaps"            "on"  #when on icreases 2D performance, but may also cause artifacts on some old cards. Only works if EXA activated
	Option	"AccelDFS"              "on"  #default is off, read the radeon manpage for more information
    Option  "SwapbuffersWait"       "off"
EndSection

Nach einem Neustart läuft die GNOME Shell deutlich flüssiger und bisher konnte ich keine negativen Auswirkungen feststellen.

Ich weiß nicht, ob es mit dem NVIDIA Treiber ähnliche Probleme gibt oder wie der aktuelle Stand des proprietären ATI Treibers ist. Inzwischen scheint es ja keinen Catalyst Treiber mehr zu geben, dieser wurde scheinbar in Crimson umbenannt. 176 MB für einen Grafikkarten Treiber und einer überflüssigen Software kommen für mich jedenfalls nicht in Frage.

Mozilla hat beschlossen, die gesponsorten Kacheln auf der Seite, die standardmäßig beim Öffnen eines neuen Tabs erscheint, nicht fortzuführen und in Zukunft wieder komplett auf Werbung innerhalb von Firefox zu verzichten.

Wer einen neuen Tab in Firefox öffnet, sieht standardmäßig eine gewisse Anzahl an Kacheln mit Vorschaubildern von Webseiten. Dabei handelt es sich üblicherweise um bereits vom Nutzer besuchte Webseiten. Neue Nutzer sehen hier von Mozilla vordefinierte Kacheln, überwiegend für Mozilla-eigene Seiten, manche Kachel ist aber auch gesponsort.

Wie Mozilla nun bekannt gegeben hat, wird man in Zukunft keine Werbung mehr innerhalb von Firefox anzeigen. Einerseits betrachtet man das Experiment als erfolgreich, weil Mozilla damit bewiesen habe, dass Werbung möglich ist, welche die Privatsphäre der Nutzer respektiert. Auch ist man der Meinung, dass Werbung in Firefox ein gutes Geschäft sein kann. Allerdings ist man zu dem Schluss gekommen, dass es derzeit nicht das richtige Geschäft für Mozilla ist. Stattdessen möchte man sich auf die Kernerlebnisse für die Nutzer fokussieren und wie Nutzer neue Inhalte entdecken können, welche für sie relevant sind. Um dies richtig zu machen, wird man in Zukunft auf Werbung verzichten. Noch bestehende Vereinbarungen wird man natürlich noch erfüllen, so dass die Anzahl der gesponsorten Kacheln im Laufe der nächsten Monate schrittweise sinken wird, bis es schließlich keine Werbung mehr in Firefox gibt.

Mozilla hatte die gesponsorten Kacheln im November 2014 mit Firefox 33.1 eingeführt – also in dem Monat, in welchem der Suchmaschinen-Vertrag mit Google ausgelaufen war. Insofern ist es sehr gut vorstellbar, dass durch eine Reduzierung der Abhängigkeit von Suchmaschinen eine weitere finanzielle Sicherheit geschaffen werden sollte. Vor wenigen Tagen hat Mozilla seinen Finanzbericht für das Jahr 2014 veröffentlicht. In diesem Zusammenhang hatte Mozillas Chief Financial Officer Jim Cook angedeutet, dass die finanzielle Situation für Mozilla mit den neuen Suchmaschinen-Vereinbarungen noch besser aussehen soll, was die Entscheidung gegen Werbung in Firefox mit Sicherheit nicht schwerer gemacht haben wird.

Der Beitrag Mozilla wird keine Werbung mehr in Firefox anzeigen erschien zuerst auf soeren-hentzschel.at.

4. Dezember 2015

Seit gestern kann sich Hinz und Kunz Zertifikate bei Let’s Encrypt ausstellen lassen. Da ich ja beim Webspace-Anbieter Uberspace bin, bin ich mir recht sicher dass es auch bei mir irgendwie klappen sollte. Nur wie? Als erstes habe ich mir mal die offizielle Dokumentation angesehen. Hätte ich mir schon fast schenken können. Aber nicht weil diese für Tonne ist.

Denn Jonas von Uberspace hat heute einen Artikel im Uberspace-Blog veröffentlicht in dem eigentlich alles genau erklärt wird. Getestet habe ich das ganze bisher noch nicht aber wenn man sich das ganze so durchliest dürfte der Spass keine 5 Minuten dauern. Lediglich für das automatisierte Erneuern der Zertifikate alle 90 Tage hat das Uberspace-Team noch keine offizielle Lösung. Aber das bin ich mir recht sicher, dass da noch etwas kommen wird. Zur Not würde mir das Abfeuern von ein paar Befehlen alle X Tage aber auch nicht die Laune verderben.

Man kriegt ja die unterschiedlichen Mails, darunter persönliche, berufliche, Werbe, informative und Spammails. Was ich mir immer gewünscht habe, war ein Sortiersystem, wonach ich entsprechende Emails gleich wegsortieren kann, so dass ich nur die sehe, die ich auch gerade wirklich sehen will.

Mit zwei  1 Addon für Thunderbird habe ich meinen Traum wahr gemacht. Ging auch ganz einfach.

Nachdem man beide Addons installiert hat, erstellt man in Thunderbird einen neuen Ordner un bennent ihn zum Beispiel “Posteingang 2″.

Dann öffnet man das Addon Manually Sort Foders im Addon Menü und stellt im jeweiligen Konto “benutzerdefinierte Sortierfunktion” ein und schiebt den “Posteingang 2″ unter den standardmäßigen Posteingang.

Schliesslich erstellt man mit quickFilters der integrierten Filterfunktion einen neuen Filter, in dem man im “Vom:” Filter  angibt: “nicht in meinem Adressbuch", wählt das entsprechende Adressbuch aus und gibt als auszuführende Aktion ein “Verschieben der Nachricht in:” “Posteingang2″.

Stellt sicher, dass diese Aktion immer nach “Junk Erkennung” (oben) durchgeführt wird, damit die Spammail auch rausgefiltert wird.

Und schon habt ihr einen Posteingang, in dem nur Emails ankommen, von Leuten, die in eurem Adressbuch vorhanden sind. Alle anderen landen in “Posteingang 2″.

Das könnt ihr natürlich auch weiter für berufliche, oder informative (Werbemails, Einkaufsbestätigungen, usw)  machen, bis ihr zufrieden seit.

Update 05.12.2015

Das Addon quickFilters braucht man nicht. Die integrierte Filterfunktion macht genau die gleiche Arbeit. (Danke Irene / Kommentar)

 

 

Man kriegt ja die unterschiedlichen Mails, darunter persönliche, berufliche, Werbe, informative und Spammails. Was ich mir immer gewünscht habe, war ein Sortiersystem, wonach ich entsprechende Emails gleich wegsortieren kann, so dass ich nur die sehe, die ich auch gerade wirklich sehen will.

Mit zwei  1 Addon für Thunderbird habe ich meinen Traum wahr gemacht. Ging auch ganz einfach.

Nachdem man beide Addons installiert hat, erstellt man in Thunderbird einen neuen Ordner un bennent ihn zum Beispiel “Posteingang 2″.

Dann öffnet man das Addon Manually Sort Foders im Addon Menü und stellt im jeweiligen Konto “benutzerdefinierte Sortierfunktion” ein und schiebt den “Posteingang 2″ unter den standardmäßigen Posteingang.

Schliesslich erstellt man mit quickFilters der integrierten Filterfunktion einen neuen Filter, in dem man im “Vom:” Filter  angibt: “nicht in meinem Adressbuch", wählt das entsprechende Adressbuch aus und gibt als auszuführende Aktion ein “Verschieben der Nachricht in:” “Posteingang2″.

Stellt sicher, dass diese Aktion immer nach “Junk Erkennung” (oben) durchgeführt wird, damit die Spammail auch rausgefiltert wird.

Und schon habt ihr einen Posteingang, in dem nur Emails ankommen, von Leuten, die in eurem Adressbuch vorhanden sind. Alle anderen landen in “Posteingang 2″.

Das könnt ihr natürlich auch weiter für berufliche, oder informative (Werbemails, Einkaufsbestätigungen, usw)  machen, bis ihr zufrieden seit.

Update 05.12.2015

Das Addon quickFilters braucht man nicht. Die integrierte Filterfunktion macht genau die gleiche Arbeit. (Danke Irene / Kommentar)

 

 

Man kriegt ja die unterschiedlichen Mails, darunter persönliche, berufliche, Werbe, informative und Spammails. Was ich mir immer gewünscht habe, war ein Sortiersystem, wonach ich entsprechende Emails gleich wegsortieren kann, so dass ich nur die sehe, die ich auch gerade wirklich sehen will.

Mit zwei  1 Addon für Thunderbird habe ich meinen Traum wahr gemacht. Ging auch ganz einfach.

Nachdem man beide Addons installiert hat, erstellt man in Thunderbird einen neuen Ordner un bennent ihn zum Beispiel “Posteingang 2″.

Dann öffnet man das Addon Manually Sort Foders im Addon Menü und stellt im jeweiligen Konto “benutzerdefinierte Sortierfunktion” ein und schiebt den “Posteingang 2″ unter den standardmäßigen Posteingang.

Schliesslich erstellt man mit quickFilters der integrierten Filterfunktion einen neuen Filter, in dem man im “Vom:” Filter  angibt: “nicht in meinem Adressbuch", wählt das entsprechende Adressbuch aus und gibt als auszuführende Aktion ein “Verschieben der Nachricht in:” “Posteingang2″.

Stellt sicher, dass diese Aktion immer nach “Junk Erkennung” (oben) durchgeführt wird, damit die Spammail auch rausgefiltert wird.

Und schon habt ihr einen Posteingang, in dem nur Emails ankommen, von Leuten, die in eurem Adressbuch vorhanden sind. Alle anderen landen in “Posteingang 2″.

Das könnt ihr natürlich auch weiter für berufliche, oder informative (Werbemails, Einkaufsbestätigungen, usw)  machen, bis ihr zufrieden seit.

Update 05.12.2015

Das Addon quickFilters braucht man nicht. Die integrierte Filterfunktion macht genau die gleiche Arbeit. (Danke Irene / Kommentar)

 

 

Kennt ihr das auch, ihr bekommt eine Email, eine Nachricht im Messenger eures Vertrauens mit dem Inhalt “Hey schau mal” und einen Link zu einer Webseite? Naja, manchmal kommt nur einen Link an und ihr denkt “Was ist das?”

Wer einigermassen sicherheitsbetont denkt. sollte nicht auf den Link klicken, auch wenn es von einer vertrauten Person kommt. Denn man weiss ja nie, ob diese Person nicht irgendjemandem auf dem Leim gegangen ist. Oder ob der Account gehackt ist, oder ob sich ein Virus des Emailprogramms, oder des Messengers dieser Person bemächtigt hat.

Also fragt man nach, was das ist, was man da bekommen hat. Vielleicht bekommt man dann eine entsprechende Antwort mit Erklärung oder eventuell gar keine Antwort. 

Ich finde ja sowas recht nervig und ich kenne einige, denen es ähnlich geht. Daher haben wir uns darauf geeinigt, dass wenn wir uns was schicken, dass wir auch dazu schreiben, was das ist und eventuell sogar, warum wir das schicken. Wir wollen ja, dass unsere Freunde auch das Gefühl haben, dass wir an sie denken und etwas mit ihnen teilen wollen und nicht nur ein Teil einer “Fire and forget Teilen” Aktion geworden sind.

Social Networks haben ja genau diese Eigenschaft. Man teil, man retweetet und  es ist im Endeffekt egal, wer das liest, oder wer sich dafür interessiert, oder wer einfach nur drauf klickt. Die Überraschung wird schon folgen.

Da mittlerweile so viele Informationen von allen Seiten auf einen einprasseln, bekomme ich von meinen Freunden nur noch qualifizierte Informationen, die mich freuen, Zeit sparen und ich schon direkt beim Erhalt der Nachricht entscheiden kann, ob ich drauf klicke, oder nicht.

Meine Freunde reduzieren die Informationsflut und ich tue das Gleiche für sie.

 

Kennt ihr das auch, ihr bekommt eine Email, eine Nachricht im Messenger eures Vertrauens mit dem Inhalt “Hey schau mal” und einen Link zu einer Webseite? Naja, manchmal kommt nur einen Link an und ihr denkt “Was ist das?”

Wer einigermassen sicherheitsbetont denkt. sollte nicht auf den Link klicken, auch wenn es von einer vertrauten Person kommt. Denn man weiss ja nie, ob diese Person nicht irgendjemandem auf dem Leim gegangen ist. Oder ob der Account gehackt ist, oder ob sich ein Virus des Emailprogramms, oder des Messengers dieser Person bemächtigt hat.

Also fragt man nach, was das ist, was man da bekommen hat. Vielleicht bekommt man dann eine entsprechende Antwort mit Erklärung oder eventuell gar keine Antwort. 

Ich finde ja sowas recht nervig und ich kenne einige, denen es ähnlich geht. Daher haben wir uns darauf geeinigt, dass wenn wir uns was schicken, dass wir auch dazu schreiben, was das ist und eventuell sogar, warum wir das schicken. Wir wollen ja, dass unsere Freunde auch das Gefühl haben, dass wir an sie denken und etwas mit ihnen teilen wollen und nicht nur ein Teil einer “Fire and forget Teilen” Aktion geworden sind.

Social Networks haben ja genau diese Eigenschaft. Man teil, man retweetet und  es ist im Endeffekt egal, wer das liest, oder wer sich dafür interessiert, oder wer einfach nur drauf klickt. Die Überraschung wird schon folgen.

Da mittlerweile so viele Informationen von allen Seiten auf einen einprasseln, bekomme ich von meinen Freunden nur noch qualifizierte Informationen, die mich freuen, Zeit sparen und ich schon direkt beim Erhalt der Nachricht entscheiden kann, ob ich drauf klicke, oder nicht.

Meine Freunde reduzieren die Informationsflut und ich tue das Gleiche für sie.

 

Kennt ihr das auch, ihr bekommt eine Email, eine Nachricht im Messenger eures Vertrauens mit dem Inhalt “Hey schau mal” und einen Link zu einer Webseite? Naja, manchmal kommt nur einen Link an und ihr denkt “Was ist das?”

Wer einigermassen sicherheitsbetont denkt. sollte nicht auf den Link klicken, auch wenn es von einer vertrauten Person kommt. Denn man weiss ja nie, ob diese Person nicht irgendjemandem auf dem Leim gegangen ist. Oder ob der Account gehackt ist, oder ob sich ein Virus des Emailprogramms, oder des Messengers dieser Person bemächtigt hat.

Also fragt man nach, was das ist, was man da bekommen hat. Vielleicht bekommt man dann eine entsprechende Antwort mit Erklärung oder eventuell gar keine Antwort. 

Ich finde ja sowas recht nervig und ich kenne einige, denen es ähnlich geht. Daher haben wir uns darauf geeinigt, dass wenn wir uns was schicken, dass wir auch dazu schreiben, was das ist und eventuell sogar, warum wir das schicken. Wir wollen ja, dass unsere Freunde auch das Gefühl haben, dass wir an sie denken und etwas mit ihnen teilen wollen und nicht nur ein Teil einer “Fire and forget Teilen” Aktion geworden sind.

Social Networks haben ja genau diese Eigenschaft. Man teil, man retweetet und  es ist im Endeffekt egal, wer das liest, oder wer sich dafür interessiert, oder wer einfach nur drauf klickt. Die Überraschung wird schon folgen.

Da mittlerweile so viele Informationen von allen Seiten auf einen einprasseln, bekomme ich von meinen Freunden nur noch qualifizierte Informationen, die mich freuen, Zeit sparen und ich schon direkt beim Erhalt der Nachricht entscheiden kann, ob ich drauf klicke, oder nicht.

Meine Freunde reduzieren die Informationsflut und ich tue das Gleiche für sie.

 

Vor eineinhalb Jahren hat Apple die Programmiersprache Swift vorgestellt. Wie man es sich von einer neuen Sprache erwartet, ist Swift modern und vereint in sich viele (die besten?) Features aus diversen anderen Programmiersprachen, kombiniert mit ein paar eigenen Ideen.

Wie jede neue Sprache leidet Swift noch unter einigen Kinderkrankheiten. Die größte besteht darin, dass die Sprache work in progress ist. Wer immer sich auf Swift einlässt, muss damit rechnen, dass sein Code schon mit der nächsten Swift-Version an neue Syntaxregeln oder veränderte Standardbibliotheken angepasst werden muss. (In der Apple-eigenen Entwicklungsumgebung Xcode funktioniert das zum Glück weitgehend automatisch.)

Trotz dieser Einschränkung ist Swift durchaus schon praxistauglich und wird bereits intensiv genutzt. Der Grund dafür ist leicht erklärt: Wer native Apps für iOS, OS X, die Apple Watch etc. programmieren will, hat nur die Wahl zwischen Objective C (uralt mit steinzeitlicher und abschreckender Syntax) und Swift. Apple erklärt dezidiert, die Zukunft heißt Swift. Da fällt die Entscheidung nicht schwer …

Swift ist jetzt ein Open-Source-Projekt

Gestern hat Swift eine Ankündigung vom vergangenen Sommer wahrgemacht: Swift wurde zusammen mit diversen Tools als Open-Source-Code freigegeben. Das Projekt wird auf GitHub gehostet, es gibt öffentliche Mailing-Listen und einen öffentlichen Bug-Tracker.

Was aus Linux-Sicht eine Selbstverständlichkeit ist, ist für Apple durchaus ein Paradigmenwechsel. Wenig andere IT-Firmen betreiben einen derartigen Aufwand, neue Entwicklungen so lang wie möglich geheim zu halten. Zumindest für Swift ist dies nun nicht mehr möglich.

Braucht Linux noch eine Programmiersprache?

Interessanterweise bevorzugt Apples Open-Source-Strategie Linux. Linux wird von Anfang an offiziell unterstützt, für Ubuntu gibt es sogar fertige Binärpakete. Apple stellt es der Community frei, auch Windows-Versionen von Swift zu entwickeln, engagiert sich dafür aber nicht selbst.

Da freut sich die Linux-Gemeinde aber, dass ihr noch eine Programmiersprache zur Verfügung steht!? Sie hat ja schon Erfahrung damit, nachdem Sun Java zum Open-Source-Projekt machte und später Microsoft auch C# und einen Teil des .NET-Frameworks freigab. Ein Blick auf Java und C# zeigt aber auch, dass die Begeisterung nicht grenzenlos ist:

  • Java im Webbrowser ist ein endloses Sicherheitsproblem und wie Flash im Aussterben begriffen. Auch zur Entwicklung von Desktop-Programmen (GUIs) hat sich Java nicht recht durchsetzen können, generell nicht, und noch weniger unter Linux. Ausgesprochen wichtig ist Java aber für den Server-Einsatz (J2EE) sowie zur Programmierung von Android-Apps. Praktisch ist Java natürlich auch für den Unterricht. Noch immer gilt Java (zumindest im deutschen Sprachraum) als die erste Programmiersprache. Praktisch also, dass Java auch unter Linux zur Verfügung steht.
  • C# und Mono wurden vorübergehend von einigen Gnome-Programmen genutzt. Die anfängliche Begeisterung ist mittlerweile aber verflogen. Heute ist C# unter Linux primär am (Web-)Server relevant, um ASP.NET auch unter Linux auszuführen.

Warum zeigt die Linux-Community nicht mit mehr Freude an so tollen und ausgereiften Programmiersprachen wie Java oder C#, die mit immensem (Kosten-)Aufwand von Firmen wie Oracle oder Microsoft vorangetrieben werden?

Vielleicht liegt es ganz einfach daran, dass es schon genug ausgezeichnete Programmiersprachen gibt. Die Linux-Kernelentwicklung wird bei C bleiben, die Anwendungsentwicklung für KDE und Gnome funktioniert mit C++ bzw. C. passabel, diverse Scripts lassen sich in der Bash oder, viel besser, mit Python entwicklen. Und für nahezu jede Spezialaufgabe stehen diverse weitere Programmiersprachen zur Auswahl.

Und jetzt kommt also Swift — und Sie spüren sicher schon meine Skepsis: Was bietet Swift, was Linux nicht ohnedies schon hat? Gegenwärtig nichts. In der aktuellen Form können Sie mit Swift unter Linux nicht viel mehr anfangen, als Algorithmen zu entwickeln. Interessant vielleicht für Unterricht und Lehre, aber nicht darüber hinaus.

Die Anbindung an das Linux-Umfeld, beispielsweise in Form einer GTK-Bibliothek, fehlt noch vollständig. Im Apple-Mikrokosmos stehen Swift-Programmierern unzählige Bibliotheken zur Auswahl; diese Bibliotheken sind aber nicht Teil der Open-Source-Strategie. Einzig die Foundation-Bibliothek, eine Art Standardbibliothek für recht elementare Aufgaben, soll unter Swift neu implementiert und ebenfalls als Open-Source-Code freigegeben werden.

Kurzum, ich bezweifle, dass Swift unter Linux auf Anhieb zum großen Erfolg wird. Vielleicht aber auf längere Sicht, denn …

Braucht Apple Linux?

Eine absurde Frage. Apple ist erfolgreich wie nie zuvor und schwimmt im Geld.

Aber auch im Apple-Kosmos gibt es schwarze Löcher. Eines ist die Server-Seite. Apple betreibt Server-Farmen in der Liga von Google und Amazon. Es ist wenig bekannt, welche Hard- und Software dabei eingesetzt wird. theRegister hat 2011 darüber spekuliert, es wäre eine Mischung aus Microsoft Azure und Amazon Services. Äußerst unwahrscheinlich ist auf jeden Fall, dass Apple eigene Hardware und OS X einsetzt. Apple hat den Server-Bereich in den letzten Jahren immer mehr vernachlässigt. So schön MacBooks, iMacs etc. sind — für das Rechenzentrum sind sie nicht konzipiert.

Die ganze schöne App(le)-Welt setzt eine solide dahinterliegende Server-Infrastruktur voraus. Und für App-Entwickler wäre es natürlich eine feine Sache, den Client (die App) und die Server-Seite (die Cloud) in der gleichen Programmiersprache entwickeln zu können. Wenn sich Swift unter Linux etabliert, wäre das möglich. Aus meiner Sicht liegt hier das größte Potential, die größte Chance für Swift unter Linux. Also Swift als Puzzleteil für eine Apple-Cloud unter Linux.

Ein zweiter Aspekt ist der Einsatz von Swift in Schulen, Universitäten — ein Segment, in dem Apple (zumindest in den USA) stark vertreten ist. Swift verkörpert moderne Sprachkonzepte und wäre insofern eine attraktive Wahl für den Unterricht. Aber solange Swift Apple-only ist (bzw. war), ist diese Option nicht praxistauglich. Keine Schule, keine Uni kann erwarten, dass jeder Schüler/Student Apple-Geräte nutzt. Gelingt es Swift aber, den Apple-Kosmos zu verlassen, dann hätte Swift als Unterrichtssprache eine reelle Chance. (Persönlich finde ich ja Python wegen seiner Einfachheit noch erheblich attraktiver, zumindest als erste Programmiersprache, aber sei’s drum.)

Fazit

In jedem Fall ist die Freigabe von Swift eine weitere Bestätigung für die Open-Source-Idee. Welche Strategien und Pläne Apple für Swift hat, darüber kann man (so wie ich) nur spekulieren. Langfristig könnte Swift aber zu einem durchaus interessanten Angebot selbst für eingefleischte Linux-Entwickler werden.

Für Anfänger stellen komplexere Terminalbefehle wie cat /var/log/bla.log | tail | grep -E "\d{4}" böhmische Dörfer dar.

Die Webseite explainshell.com bietet eine interessante Idee, sich die Terminalbefehle erklären zu lassen.

Auch recht komplexe Befehle werden ausführlich erklärt.

Zum Erklären benutzt der Dienst die Manpages der jeweiligen Programme. Standardwerkzeuge, die man nahezu in jeder Linux-Distribution findet, sind im Dienst enthalten.

Ich würde gerade Anfängern, die gern Befehle aus Tutorials ungeprüft ausführen, empfehlen, sich Befehle einfach mal damit erklären zu lassen.

Übrigens: Mein Beispiel erklärt explainshell.com so.

explainshell.com selbst ist Open Source (GPL), der Quelltext steht auf GitHub zur Verfügung.


Beitragsbild: https://stocksnap.io/photo/N8ZLL50G1A

Screenshot: explainshell.com, 04.12.2015 09:50.

 

In MariaDB gibt es das Authentifizierungs-Plugin unix_socket (Dokumentation). Heute bin ich das erste Mal darüber gestolpert, weil dieses Plugin bei einer MariaDB-Installation unter Ubuntu 15.10 standardmäßig aktiv ist.

An sich ist das eine feine Sache: Solange Sie als root bzw. mit sudo arbeiten, können Sie sich ohne Passwort beim MySQL-Server anmelden:

sudo mysql -u root
  Welcome to the MariaDB monitor.  Commands end with ; or \g.
  Your MariaDB connection id is 60
MariaDB [(none)]> status;
  Current user:     root@localhost
  ...

Wenn Sie gerade nicht root sind, scheitert der Login.

mysql -u root
  ERROR 1698 (28000): Access denied for user 'root'@'localhost'

Insofern ist MariaDB nun auch ohne Passwort abgesichert. Probleme treten nur dann auf, wenn Sie MariaDB auch dann administrieren möchten, ohne unter Linux als root oder mit sudo zu arbeiten.

MariaDB-root-Passwort setzen

Erfahrene Benutzer werden sagen: Kein Problem, es muss in der mysql.user-Datenbank eben ein Passwort für root definiert werden.

sudo mysql -u root
MariaDB [(none)]> update mysql.user set password=password('geheim') where user='root';
MariaDB [(none)]> flush privileges;

Von nun an müssen Sie sich wieder, wie in der Vergangenheit üblich , mit einem Passwort authentifizieren:

sudo mysql -u root -p
Enter password: *******

MySQL-Login als gewöhnlicher Benutzer

Das Problem ist nur: Wenn Sie unter Linux nicht als root eingeloggt sind bzw. sudo nicht verwenden, funktioniert der Login weiterhin nicht.

mysql -u root -p
Enter password: ******
ERROR 1698 (28000): Access denied for user 'root'@'localhost'

MariaDB führt jetzt nämlich zwei Authentifizierungsverfahren parallel aus: Der DB-Server überprüft, ob Sie als Linux-Benutzer root-Rechte haben UND ob Sie das korrekte Passwort angeben. Das Passwort alleine reicht nicht mehr.

Wenn sich MariaDB so verhalten soll wie früher, d.h., dass Sie sich nach einer Passwort-Angabe auch als gewöhnlicher Benutzer als MariaDB-root anmelden können, dann müssen Sie das unix_socket-Plugin deaktivieren. Werfen Sie zuerst einen Blick in die Tabelle mysql.user

sudo mysql -u root -p
  Enter password: *******
select user,host,password,plugin from mysql.user;
  +------+-----------+------------------------+-------------+
  | user | host      | password               | plugin      |
  +------+-----------+------------------------+-------------+
  | root | localhost | *geheimerhashcode      | unix_socket |
  | root | e320      | *geheimerhashcode      | unix_socket |
  | root | 127.0.0.1 | *geheimerhashcode      | unix_socket |
  | root | ::1       | *geheimerhashcode      | unix_socket |
  +------+-----------+------------------------+-------------+

… und setzen Sie die plugin-Spalte dann auf '':

update mysql.user set plugin='' where user='root';
flush privileges;

Von nun an funktioniert der Login wieder wie in der Vergangenheit.

Hier möchte ich mal eine handvoll Programme zeigen, die ich nach einer Ubuntu Installation als erstes aufspiele. Obwohl die Grundinstallation schon alles dabei hat, was man zum "Leben" benötigt, gibt es ein paar Tools auf die ich ungern verzichten möchte.

Daher ist mein erster Schritt nach der Installation:

sudo apt-get install mc joe gimp htop screen bluefish build-essential wine vlc

Ich möchte kurz die Programme beschreiben.....

Mit dem Programm "mc" habe ich einen Dateimanager auf der Shell um schnell Dateien zu kopieren, aber auch um auf SSH oder FTP Freigaben zugreifen zu können.
Die Bedienung erfolgt im "Norton Commander" Stil und ist vor allem älteren PC Nutzern sicher noch sehr vertraut.
Dazu kann es noch prima mit gepackten Dateien umgehen.


Joe ist einer der ersten Texteditoren mit denen ich unter Linux in Kontakt kam. Seine Bedienung ist an Wordstar und Turbo Pascal angelehnt, und man kann mit ihm sehr schnell in Text arbeiten.
Für mich ist joe auf jedem System zur Bearbeitung von Einstellungsdateien unverzichtbar.
Auch wenn nano auf Ubuntu immer da ist, ein joe darf nicht fehlen.




Gimp als Bildbearbeitung ist unter älteren Ubuntu Versionen noch dabei, seit 10.04 leider nicht mehr. Daher... der erste Schritt ist es zu installieren.
"htop" als Monitoring Programm ist eine prima Ergänzung zu dem normalen "top" und liefert noch mehr Informationen. Auch auf dieses Programm greife ich sehr gerne und oft zurück. Der Terminalmultiplexer Screen wird von mir etwas missbraucht um ssh-Verbindungen aktiv zu halten. Das heißt ich starte Programme in Screen und kann das Terminal schließen, die Programme laufen weiter.
Bluefish ist ein sehr guter HTML Editor mit Syntax-Highlighting. Auch er gehört zur normalen Installation für mich einfach dazu.
Build-essentials ist sehr nützlich, weil es den C++ Compiler mit allen nötigen Abhängigkeiten einspielt. Es kann niemals schaden, einen C Compiler bereit zu haben.
Wine ist sehr nützlich für Windows Programme, auf die man doch immer wieder mal stößt. Selbst Spiele wie "Age of Empires" sind damit lauffähig. Und zum Schluss kommt vlc, der "Video Lan Client" als universelles Abspielprogramm mit auf das System.


Unter dem Namen Electrolysis, kurz: e10s, arbeitet Mozilla bereits seit einiger Zeit an einer Multiprozessarchitektur für Firefox. Bis zu einer standardmäßigen Aktivierung in einer finalen Version von Firefox dauert es noch etwas. Dieser Artikel soll einen Ausblick auf die kommenden Phasen der Aktivierung geben.

Wann erscheint Firefox mit Multiprozessarchitektur? Die kurze Antwort darauf ist: es gibt noch keinen zuverlässigen Termin, der genannt werden könnte. In einer längeren Antwort lassen sich aber die nächsten geplanten Phasen betrachten. Natürlich stellen diese Phasen alle nur aktuelle Planungen dar und können sich im Laufe der kommenden Wochen und Monate wieder ändern.

Jede Firefox-Version durchläuft vier Phasen: Nightly, Aurora (Developer Edition), Beta und schließlich Final. In der Nightly-Version sowie Developer Edition ist e10s bereits standardmäßig aktiviert. Die Beta-Version von Firefox 43 ist seit letzter Woche technisch gesehen in der Lage, e10s zu nutzen. Dies sollte Voraussetzung für ein Telemetrie-Experiment sein, um e10s standardmäßig für einen kleinen Teil der Beta-Population zu aktivieren. Aufgrund von Verzögerungen wurde das Telemetrie-Experiment auf Firefox 44 verschoben und soll nun mit der ersten Beta-Version von Firefox 44 stattfinden, welche am 16. Dezember veröffentlicht werden wird. Im Rahmen dieses Telemetrie-Experiments soll e10s für 7,5 Prozent der Beta-Nutzer aktiviert werden. In der Betaversion von Firefox 45 soll e10s dann für alle Nutzer ohne Add-ons, die außerdem keine a11y-Tools wie Screenreader verwenden, standardmäßig aktiviert werden.

Angepeilt für die standardmäßige Aktivierung von e10s in einer finalen Version von Firefox wird derzeit Version 46, welche voraussichtlich am 19. April 2016 erscheinen wird – zunächst allerdings nur für Nutzer, welche keine Add-ons installiert haben, und dann schrittweise für Nutzer mit kompatiblen Add-ons bis es schließlich für alle Nutzer aktiviert werden wird.

Der Beitrag Wann erscheint Firefox mit Multiprozessarchitektur? erschien zuerst auf soeren-hentzschel.at.

3. Dezember 2015

Let’s Encrypt ist eine von unter anderem Mozilla, der Electronic Frontier Foundation (EFF), Cisco, Akamai und IdenTrust gegründete Certificate Authority (CA). Die Liste der Unterstützer ist in den letzten Wochen größer geworden. Heute kann das Projekt neben Facebook als neustem Gold-Sponsor auch den Start der öffentlichen Betaphase bekannt geben.

Nach über 26.000 ausgestellten Zertifikaten in der limitierten Betaphase startet nun die öffentliche Beta. Ab sofort gibt es kostenlose Zertifikate von Let’s Encrypt für jeden und ohne Einladung. Damit ist nun der perfekte Zeitpunkt gekommen, um die eigene Webseite von HTTP auf HTTPS umzustellen, falls noch nicht geschehen. Über mögliche technische Probleme informiert die Status-Seite, sofern es denn welche gibt.

In der Zwischenzeit wurde auch die Liste der Sponsoren länger, Facebook konnte heute als neuster Unterstützer bekannt gegeben werden. Die vollständige Liste besteht aus Mozilla, Akamai, Cisco und der Electronic Frontier Foundation (Platinum-Sponsoren), IdenTrust, Internet Society und Facebook (Gold-Sponsoren) sowie aus Automattic, American Library Association, Shopify, cyon, KeyCDN, Infomaniak und Hostpoint (Silber-Sponsoren). Die Kategorisierung richtet sich nach der Höhe der finanziellen Unterstützung.

PS: Dieser Blog läuft bereits seit Version 1.0.2 der Seite mit einem Zertifikat von Let’s Encrypt. </div>
                <div class= Permalink

Das Let’s Encrypt Projekt hat einen neuen Sponsor an Land gezogen: Facebook. Sehr schön! Je mehr und bedeutender die Sponsoren, desto bedeutender ist Let’s Encrypt als Projekt. Mit dem heutigen Tag beginnt übrigens die Public Beta Phase, d.h. Let’s Encrypt-Zertifikate sind nun für jeden frei verfügbar und müssen nicht mehr vorher für eine Domain freigeschaltet werden.

Es geht voran. :)

Für den verschlüsselnde Messenger Signal, welcher aus Textsecure und Redphone hervorgegangen ist, gibt es demnächst einen Desktop Client. Am 2. Dezember ist der Betatest hierfür gestartet. Das Chrome Plugin erlaubt es, zunächst nur Android Nutzer*innen, den Account vom Smartphone mit dem Desktop zu verbinden und die Signal Unterhaltungen auf dem Computer Desktop (weiter) zu führen. Signal unabhängig vom Smartphone und ohne verknüpfte Telefonnummer gibt es wohl nicht.

Um am Betatest teilnehmen zu können ist ein Google Account notwendig, warum auch immer. Über folgenden Link http://l.aunch.us/4j1L6 , oder aber einfach über den Link im Artikel auf der Homepage von Whispersystems ist es möglich sich für die Beta anzumelden.

(Anmeldungen über den Link erhöhen wohl meine Chancen am Betatest teilzunehmen  http://l.aunch.us/4j1L6)

 

2. Dezember 2015

Auf dem Rootserver gibt es ab- und zu mal Panik, weil wieder mal eine Sicherheitslücke in einer Applikation (meist Joomla) oder in einem unscheinbaren plugin ausgenutzt wurde. Meist liegen das Eindringdatum und das aktive ausnutzen als Botserver, Spamschleuder, what ever sehr weit auseinander.

Das manuelle Auffinden der kompromittierten Datei, bzw. des Webs ist nicht ganz ohne. Man muss evtl. ganz schön kramen.

Da wir auf unserem Server eigentlich nur Bekannte haben, ist der Versuch verständlich ein betroffenes Web zu "reparieren" und keine Rücksicherung zu machen.

Doch hier muss man sich im Klaren sein, dass es die durchaus hohe Wahrscheinlichkeit gibt, dass man die Bereinigung nicht vollständig geschafft hat.

Nun bin ich vor knapp einem halben Jahr auf maldet gestoßen. Das kleine tool scannt seit dem inkrementell alle WEB Dateien und schickt gefundene verseuchte Dateien in die Quarantäne.

Benutzt wird der ohnehin installierte clamav Virenscanner. Maldet bringt seine eigenen Signaturen mit, die automatisch aktuell gehalten werden.

Einmal habe ich schon durch maldet einen Einbruch erkannt, bevor der Erfolg an zahlende Auftraggeber weitergegeben wurde.

https://www.rfxn.com/projects/linux-malware-detect/ Installiert habe ich es in /usr/local/bin, nach Anleitung im Paket.

Für Jessie muss man noch die init.d Datei ein wenig anpassen.


#!/usr/bin/env bash
### BEGIN INIT INFO
# Provides: maldet
# Required-Start:
# Required-Stop:
# Default-Start: 2 3 4 5
# Default-Stop: 0 1 6
# Description: Linux Malware Detect file monitoring
# processname: maldet
# chkconfig: 345 70 30
### END INIT INFO

Ein grep -b1 'scan report saved' /usr/local/maldetect/logs/event_log
ergibt z.B.
5446-Dec 16 00:06:13 rootgemeinschaft maldet(23642): {scan} scan completed on /var/www/: files 47554, malware hits 0, cleaned hits 0, time 3068s
5586:Dec 16 00:06:13 rootgemeinschaft maldet(23642): {scan} scan report saved, to view run: maldet --report 151215-2315.23642
5707-Dec 16 06:30:12 rootgemeinschaft maldet(26094): {update} checking for available updates...
Und hier noch ein logratotate Eintrag
cat /etc/logrotate.d/maldet 
/usr/local/maldetect/logs/event_log {
        weekly
        missingok
        rotate 4
        compress
        delaycompress
        notifempty
        create 640 root adm
}
/usr/local/maldetect/logs/clamscan_log {
        weekly
        missingok
        rotate 4
        compress
        delaycompress
        notifempty
        create 640 root adm
        postrotate /sbin/service clamscan restart
        endscript
}
/usr/local/maldetect/logs/inotify_log {
        weekly
        missingok
        rotate 4
        compress
        delaycompress
        notifempty
        create 640 root adm
        postrotate /sbin/service maldet restart
        endscript
}

In Certificate Pinning mit NGINX habe ich das „Public Key Pinning for HTTP“1 und dessen Einrichtung mit dem Webserver NGINX2 beschrieben. Im vorliegenden Artikel beschreibe ich, wie man den Pinning-Test im Firefox auch bei Installation einer lokalen Root-CA aktiviert.

Schmidt schreibt in seinem Artikel3, dass Firefox in der Standardeinstellung sämtliche Pinning-Tests deaktiviert, wenn nachträglich ein Root-CA-Zertifikat auf dem System installiert wurde. Um die Pinning-Tests auch in diesem Fall zu erzwingen ist der unten genannte Parameter auf der Seite „about:config“ auf den Wert „2“ zu setzen.

security.cert_pinning.enforcement_level

Dieser Parameter kann die folgenden Werte annehmen:

  • 0 -> Schaltet die Pin-Prüfung komplett ab.
  • 1 -> Standardwert; Führt Pin-Prüfung durch, solange keine lokale Root-CA im Spiel ist.
  • 2 -> Strict; Erzwingt die Pin-Prüfung in jedem Fall.

Update vom 08.12.2015
Wie ich bei meinen Tests am vergangenen Wochenende herausgefunden habe, muss noch ein weiterer Parameter in der Firefox-Konfiguration angepasst werden, um das Public-Key-Pinning im Firefox bei Existenz eines Root CA Zertifikats zu aktivieren.

security.cert_pinning.process_headers_from_non_builtin_roots;true

Wir oben genannter Parameter auf „true“ gesetzt, führt der Firefox den Pinning Test auch durch, wenn zusätzliche Root-Zertifikate auf dem System installiert wurden.

Einen ausführlichen Bericht zum Thema findet ihr auch in „Certificate_Pinning_mit_NGINX (PDF)„.

  1. RFC 7469
  2. Ubuntuusers.de-Wiki-Artikel zu NGINX
  3. Schmidt, Jürgen: Festgenagelte Zertifikate: TLS wird sicherer durch Certificate Pinning, in: c’t magazin für computer technik, Nr. 23, 17.10.2015, Seite 120-121

Nach wie vor bietet die MATE-Variante von Ubuntu die beste Unterstützung für den Raspberry Pi. Vorausgesetzt wird die Version 2 mit einer ARMv7-CPU. Die älteren Modelle, aber auch das neue Zero-Modell enthalten dagegen ein System-on-a-Chip mit ARMv6-Architektur, das nicht kompatibel zu Ubuntu ist.

Die Hardware-Unterstützung für den Raspberry Pi hat sich in der aktuellen Version stark gegenüber Ubuntu MATE 15.04 verbessert. Einzig raspi-config oder ein vergleichbares Konfigurationswerkzeug fehlt noch.

Installation

Zur Installation laden Sie das MATE-Image von https://ubuntu-mate.org herunter, dekomprimieren es mit bunzip2 und übertragen es auf eine leere, zumindest 4 GByte große SD-Karte.

Beim ersten Start erscheint ein Installationsassistent, in dem Sie die gewünschte Sprache, die Zeitzone, das Tastaturlayout und schließlich den Rechnernamen und Ihre Account-Daten einstellen. Die nachfolgenden, automatisch ausgeführten Konfigurationsarbeiten dauern ein paar Minuten.

Danach erscheint direkt die Login-Box, die in den MATE-Desktop führt und bei Linux-Veteranen Erinnerungen an das Gnome-2-Zeitalter weckt. Der Desktop sieht gut aus und lässt sich einfach bedienen. Insgesamt ist die Oberfläche aber schwerfälliger als unter Raspbian, das stärker auf bestmögliche Performance optimiert ist.

Der MATE-Desktop von Ubuntu MATE 15.10 auf einem Raspberry Pi 2
Der MATE-Desktop von Ubuntu MATE 15.10 auf einem Raspberry Pi 2

SD-Karte vollständig nutzen

Egal, wie groß die SD-Karte ist, Ubuntu MATE nutzt anfänglich nur knapp die ersten 4 GByte. Um die ganze Karte zu nutzen, müssen Sie die zweite Partition der SD-Karten löschen und dann neu erstellen, wobei der Startsektor gleich bleiben muss. Das folgende Listing illustriert die Vorgehensweise. Die Eingaben sind mit <---- markiert.

sudo fdisk /dev/mmcblk0
  Welcome to fdisk (util-linux 2.26.2).
Command (m for help): p <----
  Disk /dev/mmcblk0: 7,4 GiB, 7969177600 bytes, 15564800 sectors
  Units: sectors of 1 * 512 = 512 bytes
  Sector size (logical/physical): 512 bytes / 512 bytes
  I/O size (minimum/optimal): 512 bytes / 512 bytes
  Disklabel type: dos
  Disk identifier: 0x6daf3206
  Device         Boot  Start     End Sectors  Size Id Type
  /dev/mmcblk0p1 *      2048  133119  131072   64M  c W95 FAT32 (LBA)
  /dev/mmcblk0p2      133120 7679999 7546880  3,6G 83 Linux

Command (m for help): d  <----
Partition number (1,2, default 2): 2 <----
Partition 2 has been deleted.

Command (m for help): n <----
Partition type
   p   primary (1 primary, 0 extended, 3 free)
   e   extended (container for logical partitions)
Select (default p): p <----
Partition number (2-4, default 2): 2 <----
First sector (133120-15564799, default 133120): <---- (einfach Return drücken)
Last sector, +sectors or +size{K,M,G,T,P} (133120-15564799, 
  default 15564799):  <----  (einfach Return drücken)
Created a new partition 2 of type 'Linux' and of size 7,4 GiB.

Command (m for help): p <----
  Disk /dev/mmcblk0: 7,4 GiB, 7969177600 bytes, 15564800 sectors
  ...
  Device         Boot  Start      End  Sectors  Size Id Type
  /dev/mmcblk0p1 *      2048   133119   131072   64M  c W95 FAT32 (LBA)
  /dev/mmcblk0p2      133120 15564799 15431680  7,4G 83 Linux

Command (m for help): w  <----
  The partition table has been altered.
  Calling ioctl() to re-read partition table.
  Re-reading the partition table failed.: Device or resource busy
  The kernel still uses the old table. The new table will be used
  at the next reboot or after you run partprobe(8) or kpartx(8).

Nach einem Neustart müssen Sie auch das Dateisystem an die vergrößerte Partition anpassen:

sudo reboot
sudo resize2fs /dev/mmcblk0p2

Neu in Ubuntu MATE 15.10

Im Vergleich zu MATE 15.04 gibt es natürlich die üblichen Versions-Updates, auf die ich hier nicht eingehe. (Eine Zusammenstellung der wichtigsten Versionsnummern von Ubuntu 15.10 finden Sie hier.) Davon abgesehen gibt es aber einige Raspberry-Pi-spezifische Neuerungen, die durchaus von Interesse sind:

  • Ubuntu MATE verwendet jetzt so wie aktuelle Raspbian-Versionen Kernel Device Trees. Zur Nutzung spezieller Hardware-Komponenten oder -Funktionen muss wie in Raspbian /boot/config.txt geändert werden. Details sind in der Datei /boot/overlays/README ausführlich beschrieben.
  • Das neue Kommando raspi-gpio aus dem gleichnamigen Paket bietet eine unkomplizierte Möglichkeit, GPIOs auszulesen bzw. zu verändern. Es gibt zwar keine man-Seite, dafür liefert raspi-gpio einen recht ausführlichen Hilfetext. Die GPIOs werden in der Broadcom-Nomenklatur adressiert, nicht über Pin-Nummern! Das Kommando muss mit root-Rechten (mit sudo) ausgeführt werden.

  • Das RPi.GPIO-Modul zur Python-Programmierung ist jetzt standardmäßig für die Pyhton-Versionen 2 und 3 installiert. Anders als unter Raspbian erfordert die Nutzung der RPi.GPIO-Funktionen aber weiterhin root-Rechte.

  • Auch die wiringpi-Bibliothek samt dem Kommando gpio ist standardmäßig installiert. Dieses Kommando kann die GPIO-Funktionen auch ohne root-Rechte steuern.

  • Der SSH-Server ist standardmäßig installiert und aktiv.

Unterschiede zu Raspbian

Vom Desktop einmal abgesehen gibt es einige weitere grundlegende Unterschiede zwischen Raspbian und Ubuntu MATE:

  • Die Konfigurationshilfe raspi-config steht nicht zur Verfügung, weder als Kommando noch als grafische Benutzeroberfläche. Zur Konfiguration ist daher mehr Handarbeit und Know-how erforderlich.

  • Die Ausführung von sudo erfordert die Angabe des Login-Passworts. Wenn Sie das stört, können Sie /etc/sudoers entsprechend anpassen. Sicherer ist aber definitiv der Ansatz von Ubuntu!

  • Die Pakete für Mathematica und die Wolfram Language stehen nicht zur Verfügung.