Anwendungen
Portal
Forum
Wiki
Ikhaya
Planet
Mehr
Anmelden

27. Juni 2015

Pi: HAVP installieren

Permalink canox.net

Hier zeige ich euch wie ihr HAVP (HTTP AntiVirus Proxy) auf eurem Raspberry Pi, Banana Pi und Banana Pro installiert:

sudo su

nano /etc/apt/sources.list

Ersetzt dort wheezy mit jessie. (Wenn ihr das nächste Mal apt-get upgrade eingebt oder ihr ein automatisches Upgrade eingerichtet habt wird dann euet Pi auf Debian 8 Jessie aktualisiert was sehr lange dauern kann.)

apt-get update

apt-get install clamav

apt-get install havp

Konfigurationsdatei ändern:

nano /etc/havp/havp.config

26. Juni 2015

Programmiersprache: Rust 1.1 und Rust 1.2 Beta stehen bereit

Permalink Sören Hentzschel

Rust ist eine neue Programmiersprache, in welcher die ebenfalls sich in Entwicklung befindliche neue Rendering-Engine von Mozilla geschrieben wird, die auf den Namen Servo hört. Sechs Wochen nach der Fertigstellung von Rust 1.0 stehen nun Rust 1.1 und Rust 1.2 Beta bereit.

Für die neue Programmiersprache Rust, in welcher auch Mozillas neue Engine Servo entwickelt wird, wurde ein Release-Zyklus versprochen, den man ähnlich auch von Firefox kennt: alle sechs Wochen erscheint eine neue Version und gleichzeitig eine erste Betaversion des Nachfolgers der neuen Version. Erwartungsgemäß wurde nun also, sechs Wochen nach Erscheinen von Rust 1.0, die Verfügbarkeit von Rust 1.1 und Rust 1.2 Beta angekündigt.

Rust 1.1

Hervorgehoben in der Ankündigung werden die schnelleren Kompilierzeiten. So soll Rust 1.1 hierbei eine Verbesserung um 32 Prozent gegenüber Rust 1.0 vorweisen können. Ein weiterer Schwerpunkt lag bei der Ausgabe von Fehlermeldungen beim Kompilieren. Über das Flag –explain stehen für viele Fälle ausführlichere Informationen zur Verfügung. Neue std::fs-APIs erweitern die Schnittstellen für den Zugriff auf das Dateisystem, womit es nun beispielsweise möglich ist, den Rust Paketmanager Cargo mit Rust zu kompilieren. Weitere Neuerungen sind den Release Notes zu entnehmen.

Rust 1.2 Beta

Auch in Rust 1.2 wird wieder an der Performance-Schraube gedreht: Benchmarks zeigen eine weitere Verbesserung der Kompilierzeit um noch einmal 30 Prozent gegenüber Rust 1.1. Parallel Codegen, noch nicht standardmäßig aktiviert, kann außerdem die Erstellung großer Builds im Debugmodus beschleunigen, hier werden 33 Prozent als erste Zahl auf einem System mit Vier-Kern-CPU genannt. Cargo hat ebenfalls Performance-Verbesserungen erhalten. Außerdem erhält Rust 1.2 eine erste Unterstützung für Microsoft Visual C (MSVC).

Portal Stories: Mel auf Linux

Permalink Fury's - Blog

lg

Bild: http://www.portalstories.com/

Am 25.06.2015 wurde ein Portal Stories: Mel freigegeben. Dabei handelt es sich um einen Mod für Portal 2, der das Spiel um einige Karten erweitert. Rein von der Storyline ist das Spiel im Jahr 1952 angesiedelt und somit doch recht am Anfang der Portal Geschichte. Die Wahrscheinlichkeit, auf GlaDOS zu treffen, stufe ich somit doch als recht gering ein. Insgesamt soll der Mod 20 Karten mit einer gesamten Spielzeit von 12 Stunden bieten.

Portal 2 muss installiert sein. Sonst könnte Dir das nachfolgend beschriebene Prozedere blühen:

(Selbstgemachte) technische Hürden

Ich hatte, schlau wie ich bin, Portal Stories: Mel vor Portal 2 installiert. Ich  habe die Vermutung, dass dies ein Problem verursacht. Dabei hat man einen Silent Crash ohne Fehlermeldung von Portal Stories: Mel.

Startet man Portal Stories: Mel (portal2_linux.sh) hingegen über die Shell, erhält man wichtige Erkenntnisse zur Fehlerfindung, welche unter anderem auf Fehlende Daten von Portal 2 hindeuten. Ich nehme daher an, dass dieses Problem nur dann auftritt, wenn  Portal 2 nach Portal Stories: Mel installier wurde. Aber es lässt sich beheben:

Zunächst sollte man den Pfad ermitteln. Das kann man über die Spieleigenschaften tun und die lokalen Spieldateien durchsuchen und den Pfad kopieren. Dies muss man für Portal 2 und Portal Stories: Mel tun.

In einem Terminal muss man nun die Bibliotheken (*.so.*) aus Portal 2’s /bin/ Ordner in den Ordner /bin/ von Portal Stories: Mel kopieren.

Natürlich kann man das auch über einen Dateimanager tun.

In meinem Falle liegen die Steam-Spiele in ~/.local/share/Steam/steamapps/common/, der Pfad musst Du gemäß deiner Konfiguration anpassen.

cp ~/.local/share/Steam/steamapps/common/Portal\ 2/bin/*.so.* ~/.local/share/Steam/steamapps/common/Portal\ Stories\ Mel/bin/

Falls das Spiel nun immer noch nicht starten sollte, müssen über die Paketverwaltung noch Pakete installiert werden.

Solltest du dich auf einem 64-Bit System befinden, musst du zuerst die 32-Bit Pakete zur Paketverwaltung hinzufügen (ich verwende Kubuntu, auf anderen Distributionen muss dies höchstwahrscheinlich auch sinngemäß durchgeführt werden):

dpkg --add-architecture i386
apt-get update

Folgende Pakete könnten fehlen. Am besten einzeln installieren und testen.

libuuid1:i386
libtcmalloc-minimal4:i386
libuuid:i386

Zum Spiel

Das Spiel selbst basiert auf der Source Engine und macht auf meinen ersten Blick einen doch sehr hochwertigen Eindruck. Insgesamt fühlt sich Portal Stories: Mel eher wie ein DLC als ein Mod an.

Man erkennt, dass manche Animationen und oder Charaktere offensichtlich aus Half Life 2 stammen und das die Engine schon etwas betagt ist, aber das tut dem ganzen keinen Abbruch. Das Spiel selbst läuft sauber auf 60 FPS (war auch zu erwarten).

Ich gebe mit den Screenshots nur einige Eindrücke zum Spiel. Am besten Du spielst es selbst, ich will nur ungern spoilern.

Portal Stories: Mel macht einen sehr "retailigen" Eindruck Zum ersten mal sieht man Menschen in Portal. Dieser hier schnarcht jedoch ein wenig. Jedes Schild hat eine Geschichte Ich habe Durst. Zeit für eine Aperture Cola! Das Spiel beginnt im Zug. Ja mei, bin ich in City 17?? Leider kann man nicht über den Zaun springen und testen, was sich unterwasser verbirgt.

25. Juni 2015

Firefox: Standard-Suchmaschine in Sekundenschnelle ändern & weitere Effizienz-Tipps

Permalink Sören Hentzschel

Mit Firefox 36 hat Mozilla die alte Suchleiste durch eine neue Suchleiste ersetzt, welche vor allem die häufige Verwendung verschiedener Suchmaschinen verbessern soll. Das Ändern der Standard-Suchmaschine ist auf den ersten Blick umständlicher geworden. Was vielen nicht bekannt ist: Tastatur-Befehle erlauben eine extrem effiziente Benutzung der neuen Suchleiste. Damit ist auch das Ändern der Standard-Suchmaschine kein großer Aufwand.

Wer die von Firefox verwendete Standard-Suchmaschine ändern möchte, kann dies über die Firefox-Einstellungen im Reiter Suche machen. Aber es geht auch einfacher; bei fokussierter Suchleiste kann ganz einfach bei gedrückter Strg-Taste (OS X: Cmd) mit den Pfeiltasten die Standard-Suchmaschine geändert werden.

Doch das ist nicht das einzige nützliche Tastatur-Kommando: wird stattdessen die Alt-Taste gedrückt gehalten, kann die Suchmaschine für die aktuelle Suche ohne Verwendung der Maus geändert werden. Dies hat dann keine Auswirkungen auf die Standard-Suchmaschine. Wird keine weitere Taste gedrückt, navigiert man mit den Pfeiltasten in den Suchvorschlägen respektive der Suchchronik. Und wer diese Tipps anwendet, will möglicherweise auch gleich die Suchleiste mit der Tastatur fokussieren, so dass die Maus überhaupt nicht mehr benötigt wird. Das geht über die Tastenkombination Strg + K (OS X: Cmd + K). Dies funktioniert sogar, wenn die Suchleiste im Firefox-Menü und nicht in der Navigationssymbolleiste ist. In dem Fall öffnet Firefox das Menü und fokussiert dann das Suchfeld.

Mit diesen Tipps sollte sich die Suchleiste von Firefox deutlich effizienter nutzen lassen.

Pro-Tipps: über die Einstellungen kann die Reihenfolge der Suchmaschinen, wie sie in der Suchleiste erscheinen, angepasst werden, dies geschieht ganz einfach per Drag and Drop. Wird der Haken bei einer Suchmaschine entfernt, erscheint diese nicht länger im Suchfeld. Suchmaschinen können hier aber auch komplett entfernt werden. Per Doppelklick in die entsprechende Spalte können für jede Suchmaschine Schlüsselwörter vergeben werden. Auf diese Weise können verschiedene Suchmaschinen auch in der Adressleiste benutzt werden. Beispielsweise führt bei „y“ als Schlüsselwort für Yahoo! die Eingabe von „y firefox“ zu einer „firefox“-Suche auf Yahoo!. Live-Suchvorschläge im Suchfeld können ebenfalls hier deaktiviert werden, falls nicht erwünscht.

Video Hands on bq Aquaris E5 Ubuntu Edition

Permalink svij | Blog

Gestern habe ich mein insgesamt drittes Ubuntu Phone bekommen. Das Marketing-Team von bq war so nett und hat mir für zwei Wochen das bq Aquaris E5 Ubuntu Edition überlassen, was ich testen kann.

Wie auch beim Meizu MX4 habe ich ein kurzes Video aufgenommen, wo ich im wesentlichen die Unterschiede zum Schwester-Modell dem Aquaris E4.5 aufzeige. Ein ausführliches Review folgt natürlich auch noch.

Das Video habe ich auf YouTube hochgeladen und lässt sich hier ansehen

Remote Desktop für Android

Permalink Intux

Vor einer ganzen Weile fiel mir auf, dass ich mit Microsoft Remote Desktop nicht mehr auf meinen Raspberry Pi zugreifen kann. Bisher hatte ich noch keine passende Alternative hierfür gefunden. Gestern bin ich dann jedoch über aRDP Free (aRDP: Secure RDP Client) in Google Play gestolpert. Die App macht genau das was man von ihr erwartet.

news-526

Viel Spaß!

24. Juni 2015

Mozilla möchte es einfacher machen, Chrome-Erweiterungen für Firefox zu portieren

Permalink Sören Hentzschel

Von den relevanten Browsern besitzt Firefox das wohl mächtigste Erweiterungssystem. Entwickler von Add-ons können nahezu jeden Aspekt von Firefox verändern. Doch heißt das nicht automatisch, dass jedes Add-on, welches für andere Browser existiert, auch für Firefox existiert. Um es Entwicklern von Add-ons einfacher zu machen, hat sich Mozilla die Chrome Extension API vorgenommen und erweitert Firefox um fehlende Schnittstellen.

Unter den Abhängigkeiten des Meta-Tickets mit dem Titel „Parity with Chrome extension API“ in Mozillas Bugtracker sind in den letzten Wochen mehrere Patches in Firefox gelandet, welche Entwicklern von Add-ons zugute kommen sollen. Die Idee ist einfach: Erweiterungen für Googles Browser Chrome sollen mit möglichst wenig Aufwand für Firefox portiert werden können. Hierfür ist es naheliegenderweise sinnvoll, möglichst ähnliche Schnittstellen zu besitzen.

Mozilla-Entwickler Erik Vold hat vor wenigen Wochen mit „Chrome Tailor“ außerdem ein experimentelles Tool auf GitHub veröffentlicht, welches aus Chrome-Erweiterungen Add-ons für Firefox machen soll. Welche Chrome-APIs unterstützt werden, kann der Information im Repository entnommen werden.

Pi: eigenen Bootscreen

Permalink canox.net

Jede Linux-Distribution hat mittlerweile einen eigenen Bootscreen.  Bei Raspbian und Bananian werden die ausgeführten Skripte angezeigt. Dies könnt ihr ändern. In diesem Beitrag zeige ich euch wie es funktioniert.

sudo apt-get install fbi -y

Als nächstes benötigt ihr das Bild das angezeigt werden soll. Die Abmessung 1920×1080 ist von Vorteil. Entweder könnt ihr das Bild mit wget runterladen oder ihr ladet es über SFTP auf euren Pi.

Wichtig: Das Bild sollte im PNG-Format vorliegen und splash heißen. Also splash.png

nano /etc/init.d/asplashscreen

Dort einfügen:

#! /bin/sh
### BEGIN INIT INFO
# Provides:          asplashscreen
# Required-Start:
# Required-Stop:
# Should-Start:      
# Default-Start:     S
# Default-Stop:
# Short-Description: Show custom splashscreen
# Description:       Show custom splashscreen
### END INIT INFO


do_start () {

    /usr/bin/fbi -T 1 -noverbose -a /etc/splash.png    
    exit 0
}

case "$1" in
  start|"")
    do_start
    ;;
  restart|reload|force-reload)
    echo "Error: argument '$1' not supported" >&2
    exit 3
    ;;
  stop)
    # No-op
    ;;
  status)
    exit 0
    ;;
  *)
    echo "Usage: asplashscreen [start|stop]" >&2
    exit 3
    ;;
esac

:

Mit Strg+O, Enter und Strg+X speichert ihr die Datei.

chmod a+x /etc/init.d/asplashscreen 

insserv /etc/init.d/asplashscreen

Anschließend einfach den Pi neustarten und den Bootscreen bewundern.

sudo reboot

23. Juni 2015

Webinterface von ejabberd ..... Unfassbar

Permalink Erfahrungen mit Ubuntu

Unfassbar..... mein ejabberd Server hat ein Webinterface und ich habe es erst nach Jahren entdeckt.
Bisher habe ich mich immer mit dem ejabberdctl auf der Shell rumgequält.
Ist ja auch einfach, einfach eine ssh Verbindung und los gehts.
Aber das ist das Webinterface gar nicht kannte .... ist schon Krass.

Für alle Unwissenden wie ich:
ipadresse:5280/admin
und schon kann man sich anmelden. Als name den kompletten
Jabber Name angeben. Also z.b. gnude@gnude.no-ip.biz und dann das passende
Kennwort. Ein einfaches "admin" reicht nicht.

Die 100 Punkte Herausforderung

Permalink Kaffeeringe

Langsame Webseiten nerven. Menschen bevorzugen schnelle Webseiten, deswegen tut Google das auch. Wer seine wertvollen Inhalte nicht durch technische Probleme abgewertet sehen will, sollte sich um die Performance seiner Seite kümmern. Google Pagespeed Insights gibt dazu wichtige Tipps. Wer alle umsetzt bekommt 100 Punkte — gar nicht so einfach.

Google Pagespeed Insights analysiert Deine Webseite und zeigt Dir, welche Probleme du beseitigen musst. Das Tool unterscheidet dabei drei Faktoren: Die Performance auf mobilen und auf Desktop Geräten und die Nutzererfahrung auf mobilen Geräten.

Fit fürs Smartphone

Mein altes Layout stammte aus dem Sommer 2012. Das hatte ich damals komplett selbst erstellt. Keine Frameworks. Jedes Stück HTML, jede CSS-Formatierung waren von mir. Es war aber nicht responsiv — es hat sich nicht automatisch angepasst, wenn man es auf einem Smartphone aufgerufen hat. Das nachzurüsten wäre kompliziert geworden. Zeit für einen neuen Anfang.

Ich mag das Material Design der aktuellen Google-Produkte. Mit materialize.css gibt es ein CSS-Framework, das viel Arbeit abnimmt: Zum einen hilft es responsive Webseiten zu bauen. Zum anderen sehen die nach Material Design aus. Für eine simple Version eines WordPress-Themes habe ich mit materialize.css ein paar Minuten gebraucht.

Dann kam der Feinschliff: materialize.css bietet einige Hilfs-CSS-Klassen, mit denen man Elemente je nach Größe des Bildschirms verstecken kann. Alles was nicht unbedingt nötig ist, habe ich verschwinden lassen für Besucher mit Smartphones. Die Schriftarten musste ich teilweise schrumpfen lassen, damit sie das Layout nicht auf kleinen Bildschirmen auseinander drücken.

Am Ende brachte das die erste „100“ im Insights-Test: 100/100 Punkte für die mobile Nutzererfahrung.

WordPress Beine machen

Zwei Plugins sorgen dafür, dass die Seite so flott läuft: W3 Total Cache und Above The Fold Optimization.

  1. W3 Total Cache bringt den größten Schub in der Performance: Ich habe den Page Cache, die Minify-Funktion für HTML, CSS und JavaScript sowie Object– und Browser-Cache aktiviert. Wie Du das Plugin für Deinen Server am besten einstellst, müsstest Du selbst recherchieren. Für Google Pagespeed Insights genügend die Standard-Einstellungen.
  2. An dieser Stelle hatte ich schon 85 Punkte im mobilen Bereich und über 90 im Desktop-Bereich. Nur ein Problem war da noch: Das „Above the Fold“-Problem. Google schlägt vor, das CSS  am Ende der Seite zu laden. Mit einem Tag an der richtigen Stelle kannst Du das einfach umsetzen. Das sieht aber scheiße aus: Erst lädt die Seite komplett ohne CSS und schaltet dann sichtbar um auf das korrekte Layout. Eine Zwickmühle: Um möglichst wenige Dateien zu laden, wird das gesamte CSS in einer Datei kombiniert. Wenn man es dann aber zum Schluss lädt, ist es schnell — sieht aber scheiße aus.
    Eine Lösung bietet das „Above The Fold Optimization“-Plugin. Es teilt das CSS wieder auf: Dann gibt es einen „kritischen“ Teil, der den Großteil der Seite formatiert und den Rest. Der Rest wird am Ende der Seite als externe Datei geladen. Der kritische Teil wird direkt im HTML der Seite integriert! Ja genau, das ist genau das, was Du Dir früher abgewöhnt hast, um Struktur und Formatierung der Seite zu trennen. Aus Performance-Gründen tut man das nun wieder.
    „Above The Fold Optimization“ verlinkt ein Tool, das das kritische CSS extrahiert. Dort gibt man die URL der Seite an und kopiert das CSS aus der Datei ein, die „W3 Total Cache“ erzeugt hat. Das Ergebnis kopierst Du nun in das große Feld in „Above the Fold Optimization“.
    Wenn die Seite nun lädt, bekommt der Browser schon einmal die wichtigsten CSS-Formatierungen im Header und der Übergang zur fertigen Darstellung ist wesentlich flüssiger.

Grundsätzlich funktioniert nun alles. Ich bekomme 100 Punkte in allen drei Tests. Noch immer springen einige Element. Da muss ich noch ein paar CSS-Anweisungen in das Feld von Above-the-Folds kopieren. Soweit ich das verstanden habe, sorgt „W3 Total Cache“ dafür, dass die CSS-Anweisungen nicht noch einmal in der Datei auftauchen, die nachgeladen wird.

Einiges bleibt zu tun

Performance ist natürlich nur ein Aspekt einer guten Internetseite. Wichtig finde ich, dass die Texte gut zu lesen sind. Immerhin besteht die Seite nur aus Texten.

Es fehlen noch einige Elemente. In der mobilen Version fehlt ein Link zurück zur Startseite. Die Suchfunktion ist schon wieder rausgeflogen (Christof, ich hab Dich nicht vergessen!). Und die Links zu meine Social-Network-Profilen fehlen noch. Insgesamt könnte es noch ein wenig runder aussehen. Aber erst einmal geht es. Fällt Dir noch etwas auf?

Kernel 4.0 auf dem Raspberry Pi

Permalink Michael Koflers Blog

Seit vorgestern steht die Kernel-Version 4.0 als rpi-update für Raspbian zur Verfügung. Damit ist die Umstellung von Raspbian auf den Kernel 4.0 ein Kinderspiel.

Vorweg einige warnende Worte: Jede neue Kernel-Version bringt nicht nur Verbesserungen und neue Hardware-Treiber mit sich, sondern unter Umständen auch Probleme und Inkompatibilitäten. Wenn Ihr Raspberry Pi also klaglos läuft, ist ein Kernel-Update nicht erforderlich. Bei meinen Tests sind keine Problem aufgetreten, und auch im Raspberry-Pi-Forum gab es bisher keine Klagen.

Kernel- und Firmware-Version feststellen

Vor dem Update schadet es nicht, die aktuelle Kernel- und Firmware-Update festzustellen:

uname -a
  Linux pi2 3.18.11-v7+ #781 SMP PREEMPT 
  Tue Apr 21 18:07:59 BST 2015 armv7l GNU/Linux
vcgencmd version
  Apr 21 2015 14:42:19 
  Copyright (c) 2012 Broadcom
  version 2d5ad04b63af4233440c3f7c8587108223201102 
    (clean) (release)

rpi-update

Kernel-Updates können nicht wie andere Updates mit apt-get durchgeführt werden. apt-get dist-upgrade aktualisiert zwar die komplette Raspbian-Distribution — aber mit zwei Ausnahmen: Nicht berücksichtigt werden der Kernel und die Firmware des Raspberry Pi! Für Kernel-Updates müssen Sie stattdessen das Spezialkommando rpi-update verwenden, dessen Ausgaben hier in etwas gekürzter Form wiedergegeben sind:

sudo rpi-update
   Raspberry Pi firmware updater by Hexxeh, enhanced by AndrewS
   Performing self-update ...
   Backing up files (this will take a few minutes)
     firmware, modules  3.18.11-v7+
   WARNING: This update bumps to rpi-4.0.y linux tree
     Be aware there could be compatibility issues with some 
     drivers. Discussion here:
     https://www.raspberrypi.org/forums/viewtopic.php?f=29&t=113753
   Would you like to proceed? (y/N) y
   Downloading specific firmware revision ...
   Updating firmware and kernel modules
   depmod 4.0.5+, depmod 4.0.5-v7+
   Updating VideoCore libraries, HardFP libraries, SDK
   Running ldconfig
   Storing current firmware revision
   Deleting downloaded files, syncing changes to disk
   If no errors appeared, your firmware was successfully updated 
   to 7c75bc049eef5c351a23919f65060b0e1a4a2181
   A reboot is needed to activate the new firmware
reboot

rpi-update lädt die gerade aktuelle Firmware- und Kernelversion herunter und installiert die Dateien in die Verzeichnisse /boot und /lib/modules/n.n. Vorher wird der ursprüngliche Inhalt von /boot nach /boot.bak kopiert, sodass Sie ein Backup der bisherigen Kernel- und Firmware-Version haben. Wenn Sie das Update rückgängig machen möchten, kopieren Sie alle Dateien von /boot.bak nach /boot — einmal vorausgesetzt, es gibt nach dem Update keine Bootprobleme.

Nach dem Neustart können Sie sich vergewissern, dass nun wirklich Kernel 4.0 läuft:

uname -a
  Linux pi2 4.0.5-v7+ #797 SMP PREEMPT 
  Sat Jun 20 02:03:05 BST 2015 armv7l GNU/Linux
vcgencmd version
  Jun 22 2015 20:09:57 
  Copyright (c) 2012 Broadcom
  version f6fc02bbbe78132c0328c1f74b66876d8988e1a3
  (clean) (release)

openSUSE:42 - Frische Ideen für den Gecko

Permalink (Mer)Curius

Die traditionsreiche Linux-Distribution mit dem charakteristischen Chamäleon als Logo galt lange Zeit als die Linux-Distribution für den Desktop. Doch diese Zeiten sind lange vorbei. Zwischenzeitlich kam Ubuntu und vereinfachte den Zugang zum Debian-Universum für Desktopnutzer und auch das ist schon wieder Schnee von Gestern. Heute gilt Linux Mint als am häufigsten eingesetzte Distribution. Was passiert mit einer Distribution, die ihre Position als "die" Desktopdistribution sicherlich eingebüßt hat, aber dennoch keineswegs tot ist, das lässt sich zur Zeit bei openSUSE beobachten. Jede Krise birgt eine Chance zur grundsätzlichen Verbesserung.

opensuse startscreen

Ein Blick zurück

SuSE und später dann openSUSE waren lange Zeit tonangebend auf dem sehr kleinen und noch sehr jungen Linuxdesktop-Markt. Debian war für einen Laien quasi nicht zu installieren, selbst erfahrene Debian-Nutzer kopierten ihre Installationen auf die neuen Geräte, anstatt neu zu installieren. Dann kam Ubuntu und revolutionierte den Desktopbereich. Linux galt nun als einfach zu installieren und noch einfacher zu verwalten. Reduktion ist bis heute in einigen Entwicklergemeinschaften äußerst angesagt - vor allem im GNOME-Umfeld. Anstelle dem Nutzer viele Optionen zu bieten, sollte alles gut vorkonfiguriert sein und nur absolut essenzielle Optionen geboten werden (was das ist, darüber wird bis heute gestritten).

openSUSE mit YaST und der komplexen, aber gut funktionierenden, Installationsroutine passte da nicht mehr so rechts ins Bild. Zudem setze man bis auf eine kurze Zwischenphase immer primär auf KDE, ein Desktop, der seit 2007 auch nicht gerade durch wachsende Marktanteile bekannt wurde. Das Projekt verlor nicht rapide an Nutzern und im Gegensatz zu Mandrake/Mandriva (noch so ein Dinosaurier...) musste man auch nicht mit finanziellen Schwierigkeiten kämpfen, schließlich ist SUSE Linux im Unternehmensbereich immer noch sehr erfolgreich. Dennoch lässt sich nicht wegdiskutieren, dass openSUSE nur noch im oberen Mittelfeld mitschwimmt. Die Resonanz in den Medien ließ nach und neue Versionen begeisterten vor allem die Stammnutzer.

Das ist sicherlich auch dem enorm schlechten Marketing rund um SUSE geschuldet. Man konnte nicht nur dem Shitstorm (obwohl es das Wort damals noch nicht in dem Sinne gab) rund um die Novell-Microsoft Partnerschaft wenig entgegen setzen, sondern kommunizierte auch sonst wenig nach außen. Während jeder Schluckauf jede Beta und jedes Luftschloss von Canonical den IT-Portalen eine Newsmeldung wert ist, wurde die Entwicklung bei SUSE gar nicht mehr begleitet.

Der status quo

openSUSE besteht zur Zeit im wesentlichen aus drei Hauptprojekten, die nicht alle gänzlich offiziellen Charakter haben, aber das Bild bestimmen. Erstens wäre da die traditionelle Stable-Variante der Distribution, die zur Zeit in Version 13.2 vorliegt und im letzten Herbst erschien (Ausführlicher Test hier im Blog). Diese erschien bisher ca. alle 8 Monate und es werden immer der aktuelle und der vorherige Release mit Updates versorgt. Das entspricht guten 1,5 Jahren Support für jede openSUSE-Version. Hinzu kommt ein LTS-Zweig, genannt Evergreen, bei dem einige Veröffentlichungen über den offiziellen Supportzeitraum hinaus gepflegt werden. Als dritter Zweig kam im Herbst 2014 Factory/Tumbleweed hinzu.

Umstrukturierungen

Diese Zweig war das erste Ergebnis der openSUSE-Umstruktierung. Das Ziel war es aus dem bestehenden Factory-Zweig eine nutzbare eigene Version zu machen und die Kräfte mit dem von Greg Kroah-Hartman gegründeten Tumbleweed Projekt zu bündeln. Dieses war bis dahin ein Zusatz zur bestehenden jeweiligen stabilen Version, womit einige Teile der Paketquellen "ins rollen" gebracht werden konnte. Zusammen mit Factory sollte das neue Tumbleweed eine vollständige RR-Distribution sein. Damit sollte den Forderungen nach aktuellerer Software nachgekommen und werden und einem, in Teilen der Linux-Gemeinschaft vorhandenden Trend, hin zu RR-Distributionen Genüge getan werden. Hinzu kam die Hoffnung, dass ein derartig stabilisierter Factory-Zweig eine leichtere Veröffentlichungsphase ermöglichen würde.

Der Probleme im Stable-Zweig von openSUSE waren zu diesem Zeitpunkt bereits offensichtlich geworden. OpenSUSE hatte schon im Vorfeld des Releases von 13.2 Schwierigkeiten in der Organisationsstruktur. OpenSUSE 13.2 wurde deshalb vom Sommer auf den Herbst verschoben. Über die Hintergründe gibt es zwei verschiedene Versionen. Die einen behaupten, dass die Mitarbeit der Community an openSUSE mehr und mehr eingebrochen ist, weshalb immer mehr bei den Angestellten von SUSE hängen bleibt. Stephan Kulow, der lange Zeit Release-Manager von openSUSE war, sprach hingegen von zu viel Erfolg. Im speziellen würden zu viel Sourcecode aus unterschiedlichen Quellen openSUSE erreichen.

Trotz dieser Probleme veröffentlichte man noch einmal eine stabile Version und zeigte damit wozu das openSUSE-Projekt fähig ist. Die Version 13.2 ist keineswegs eine Distributionsversion auf Abruf, sondern ein Release, dass mit Btrfs und XFS als Standard-Dateisystemen, dem portierten YaST2 sowie wicked als neuem Netzwerkdienst innovativ ist und gleichzeitig bewährt-stabile Desktopumgebungen ausliefert. Auch die Pflege der Version seit November illustriert die Stärken von openSUSE. Getreu dem "laissez-faire" Modell, das den Nutzen für die Anwender über die starre Befolgung von Regeln stellt, kombiniert man die stabile Basis mit Aktualisierungen im Desktopbereich, sofern man glaubt, dass die Anwender davon profitieren. Wichtige KDE-Software wurde somit seit November 2014 ein gutes halbes Dutzend mal aktualisiert.

Nach der Version 13.2 wurde es aber dennoch ziemlich ruhig um den stabilen Zweig. Ähnlich wie Fedora vor einiger Zeit nimmt man sich bei openSUSE die Zeit um die Releasestruktur den neuen Anforderungen und Möglichkeiten anzupassen. Etwas, dass durchaus auch anderen Distributionen, wie z.B. Ubuntu, gut tun würde, wenn man die "bahnbrechenden Neuerungen" der letzten Halbjahres-Veröffentlichungen (STS) betrachtet.

Ausblick

Diese stetige Aktualisierung auf einer stabilen Basis ist zwar deshalb wohl eher dem Umstand geschuldet, das seit 13.2 keine neue Version angekündigt wurde und die im November 2014 ausgelieferten Desktopumgebungen Upstream eher behutsam (von KDE Plasma 5 abgesehen, das aber nur als Vorschau enthalten ist) entwickelt wurden, wirft aber ein Schlaglicht auf das was geplant wird.

Die Firma SUSE hat nämlich beschlossen den Quellcode von SUSE Linux Enterprise in das OBS (openSUSE Build Service) zu überführen. Das ermöglicht es den openSUSE Entwicklern den stabilen Releasezweig auf SLED 12 aufzubauen. Diese Entwicklungsrichtung firmiert zur Zeit unter dem Entwicklungsnamen openSUSE:42 um den Bruch zum bisherigen System deutlich zu machen. Im Rahmen dieser Diskussion löste sich auch ein wenig das Rätsel um die Frage ob es nun zu wenig oder zu viele Mitarbeitende an der Distribution gibt. Es scheint nämlich so zu sein, dass im Desktopbereich viel beigetragen wird, aber bei den wichtigen Basispaketen wie dem Kernel etc. pp. zu wenig Arbeitskraft vorhanden ist.

Dieser Mangel soll durch den Rückgriff auf die SLED 12 Basis behoben werden. Diese Entwicklung bedeutet allerdings keineswegs, dass openSUSE zu einem SLED-Klon wie CentOS für RHEL wird. Dazu ist - wie die Entwickler in der Diskussion zu recht anmerken - der Umfang der Paketquellen zu unterschiedlich. Vieles von dem was openSUSE-Nutzer von ihrer Distribution erwarten (KDE als Desktop zum Beispiel) ist in SLED nicht (mehr) enthalten. Ein openSUSE-Release wird deshalb voraussichtlich eine Komposition aus SLED-Basis und Komponenten aus Tumbleweed/Factory. Der OBS macht es möglich.

Bis es soweit ist müssen, aber noch viele Fragen geklärt werden. Eines der Hauptprobleme dürfte die Hardwareunterstützung sein. Noch ist SLED 12 verhältnismäßig jung, aber mit zunehmendem Alter der Basis dürfte die Hardwareunterstützung im Consumer-Bereich schwieriger werden, da Rückportierungen der Firma SUSE für die Unternehmenskunden selbstverständlich vor allem Business-Hardware im Blick haben. Ebenso gibt es grundsätzliche Bedenken, dass man die bisherige Nutzerschaft mit einem solchen Schritt verprellen könnte.

Fazit

Seit einiger Zeit ist bei den wichtigen Linuxdistributionen viel Bewegung in die Releasestruktur gekommen. Debian hat mit oldoldstable eine LTS-Variante eingeführt, Fedora vergangenes Jahr mit der Aufteilung in Workstation, Server und Cloud eine grundlegende Umstrukturierung vorgenommen und openSUSE entschließt sich nun zum grundsätzlichen Bruch mit bisherigen Entwicklungsmodellen, die über Jahrzehnte gewachsen sind. Anstelle einer stabilen, aber nur ca. 18 Monate gepflegten Version, wird es zukünftig neben dem - Tumbleweed genannten - RR-Zweig eine stabile Version auf SLED-Basis entstehen. Ob diese möglicherweise ähnlich erfolgreich wird wie andere Langzeitdistributionen wird sich zeigen, wenn Veröffentlichungszyklen und Supportdauer feststehen.

Es ist aber allemal erfrischend zu sehen, dass sich viele Distributoren Gedanken über die Stärken ihrer Distribution machen, anstatt von Fernsehern und Smartphones zu träumen und ansonsten nichts zu veröffentlichen.

openSUSE:42 - Frische Ideen für das Chamäleon

Permalink (Mer)Curius

Die traditionsreiche Linux-Distribution mit dem charakteristischen Chamäleon als Logo galt lange Zeit als die Linux-Distribution für den Desktop. Doch diese Zeiten sind lange vorbei. Zwischenzeitlich kam Ubuntu und vereinfachte den Zugang zum Debian-Universum für Desktopnutzer und auch das ist schon wieder Schnee von Gestern. Heute gilt Linux Mint als am häufigsten eingesetzte Distribution. Was passiert mit einer Distribution, die ihre Position als "die" Desktopdistribution sicherlich eingebüßt hat, aber dennoch keineswegs tot ist - das lässt sich zur Zeit bei openSUSE beobachten. Jede Krise birgt eine Chance zur grundsätzlichen Verbesserung.

opensuse startscreen

Ein Blick zurück

SuSE und später dann openSUSE waren lange Zeit tonangebend auf dem sehr kleinen und noch sehr jungen Linuxdesktop-Markt. Debian war für einen Laien quasi nicht zu installieren, selbst erfahrene Debian-Nutzer kopierten ihre Installationen auf die neuen Geräte, anstatt neu zu installieren. Dann kam Ubuntu und revolutionierte den Desktopbereich. Linux galt nun als einfach zu installieren und noch einfacher zu verwalten. Reduktion ist bis heute in einigen Entwicklergemeinschaften äußerst angesagt - vor allem im GNOME-Umfeld. Anstelle dem Nutzer viele Optionen zu bieten, sollte alles gut vorkonfiguriert sein und nur absolut essenzielle Optionen geboten werden (was das ist, darüber wird bis heute gestritten).

openSUSE mit YaST und der komplexen, aber gut funktionierenden, Installationsroutine passte da nicht mehr so rechts ins Bild. Zudem setze man bis auf eine kurze Zwischenphase immer primär auf KDE, ein Desktop, der seit 2007 auch nicht gerade durch wachsende Marktanteile bekannt wurde. Das Projekt verlor nicht rapide an Nutzern und im Gegensatz zu Mandrake/Mandriva (noch so ein Dinosaurier...) musste man auch nicht mit finanziellen Schwierigkeiten kämpfen, schließlich ist SUSE Linux im Unternehmensbereich immer noch sehr erfolgreich. Dennoch lässt sich nicht wegdiskutieren, dass openSUSE nur noch im oberen Mittelfeld mitschwimmt. Die Resonanz in den Medien ließ nach und neue Versionen begeisterten vor allem die Stammnutzer.

Das ist sicherlich auch dem enorm schlechten Marketing rund um SUSE geschuldet. Man konnte nicht nur dem Shitstorm (obwohl es das Wort damals noch nicht in dem Sinne gab) rund um die Novell-Microsoft Partnerschaft wenig entgegen setzen, sondern kommunizierte auch sonst wenig nach außen. Während jeder Schluckauf jede Beta und jedes Luftschloss von Canonical den IT-Portalen eine Newsmeldung wert ist, wurde die Entwicklung bei SUSE gar nicht mehr begleitet.

Der status quo

openSUSE besteht zur Zeit im wesentlichen aus drei Hauptprojekten, die nicht alle gänzlich offiziellen Charakter haben, aber das Bild bestimmen. Erstens wäre da die traditionelle Stable-Variante der Distribution, die zur Zeit in Version 13.2 vorliegt und im letzten Herbst erschien (Ausführlicher Test hier im Blog). Diese erschien bisher ca. alle 8 Monate und es werden immer der aktuelle und der vorherige Release mit Updates versorgt. Das entspricht guten 1,5 Jahren Support für jede openSUSE-Version. Hinzu kommt ein LTS-Zweig, genannt Evergreen, bei dem einige Veröffentlichungen über den offiziellen Supportzeitraum hinaus gepflegt werden. Als dritter Zweig kam im Herbst 2014 Factory/Tumbleweed hinzu.

Umstrukturierungen

Diese Zweig war das erste Ergebnis der openSUSE-Umstruktierung. Das Ziel war es aus dem bestehenden Factory-Zweig eine nutzbare eigene Version zu machen und die Kräfte mit dem von Greg Kroah-Hartman gegründeten Tumbleweed Projekt zu bündeln. Dieses war bis dahin ein Zusatz zur bestehenden jeweiligen stabilen Version, womit einige Teile der Paketquellen "ins rollen" gebracht werden konnte. Zusammen mit Factory sollte das neue Tumbleweed eine vollständige RR-Distribution sein. Damit sollte den Forderungen nach aktuellerer Software nachgekommen und werden und einem, in Teilen der Linux-Gemeinschaft vorhandenden Trend, hin zu RR-Distributionen Genüge getan werden. Hinzu kam die Hoffnung, dass ein derartig stabilisierter Factory-Zweig eine leichtere Veröffentlichungsphase ermöglichen würde.

Der Probleme im Stable-Zweig von openSUSE waren zu diesem Zeitpunkt bereits offensichtlich geworden. OpenSUSE hatte schon im Vorfeld des Releases von 13.2 Schwierigkeiten in der Organisationsstruktur. OpenSUSE 13.2 wurde deshalb vom Sommer auf den Herbst verschoben. Über die Hintergründe gibt es zwei verschiedene Versionen. Die einen behaupten, dass die Mitarbeit der Community an openSUSE mehr und mehr eingebrochen ist, weshalb immer mehr bei den Angestellten von SUSE hängen bleibt. Stephan Kulow, der lange Zeit Release-Manager von openSUSE war, sprach hingegen von zu viel Erfolg. Im speziellen würden zu viel Sourcecode aus unterschiedlichen Quellen openSUSE erreichen.

Trotz dieser Probleme veröffentlichte man noch einmal eine stabile Version und zeigte damit wozu das openSUSE-Projekt fähig ist. Die Version 13.2 ist keineswegs eine Distributionsversion auf Abruf, sondern ein Release, dass mit Btrfs und XFS als Standard-Dateisystemen, dem portierten YaST2 sowie wicked als neuem Netzwerkdienst innovativ ist und gleichzeitig bewährt-stabile Desktopumgebungen ausliefert. Auch die Pflege der Version seit November illustriert die Stärken von openSUSE. Getreu dem "laissez-faire" Modell, das den Nutzen für die Anwender über die starre Befolgung von Regeln stellt, kombiniert man die stabile Basis mit Aktualisierungen im Desktopbereich, sofern man glaubt, dass die Anwender davon profitieren. Wichtige KDE-Software wurde somit seit November 2014 ein gutes halbes Dutzend mal aktualisiert.

Nach der Version 13.2 wurde es aber dennoch ziemlich ruhig um den stabilen Zweig. Ähnlich wie Fedora vor einiger Zeit nimmt man sich bei openSUSE die Zeit um die Releasestruktur den neuen Anforderungen und Möglichkeiten anzupassen. Etwas, dass durchaus auch anderen Distributionen, wie z.B. Ubuntu, gut tun würde, wenn man die "bahnbrechenden Neuerungen" der letzten Halbjahres-Veröffentlichungen (STS) betrachtet.

Ausblick

Diese stetige Aktualisierung auf einer stabilen Basis ist zwar deshalb wohl eher dem Umstand geschuldet, das seit 13.2 keine neue Version angekündigt wurde und die im November 2014 ausgelieferten Desktopumgebungen Upstream eher behutsam (von KDE Plasma 5 abgesehen, das aber nur als Vorschau enthalten ist) entwickelt wurden, wirft aber ein Schlaglicht auf das was geplant wird.

Die Firma SUSE hat nämlich beschlossen den Quellcode von SUSE Linux Enterprise in das OBS (openSUSE Build Service) zu überführen. Das ermöglicht es den openSUSE Entwicklern den stabilen Releasezweig auf SLED 12 aufzubauen. Diese Entwicklungsrichtung firmiert zur Zeit unter dem Entwicklungsnamen openSUSE:42 um den Bruch zum bisherigen System deutlich zu machen. Im Rahmen dieser Diskussion löste sich auch ein wenig das Rätsel um die Frage ob es nun zu wenig oder zu viele Mitarbeitende an der Distribution gibt. Es scheint nämlich so zu sein, dass im Desktopbereich viel beigetragen wird, aber bei den wichtigen Basispaketen wie dem Kernel etc. pp. zu wenig Arbeitskraft vorhanden ist.

Dieser Mangel soll durch den Rückgriff auf die SLED 12 Basis behoben werden. Diese Entwicklung bedeutet allerdings keineswegs, dass openSUSE zu einem SLED-Klon wie CentOS für RHEL wird. Dazu ist - wie die Entwickler in der Diskussion zu recht anmerken - der Umfang der Paketquellen zu unterschiedlich. Vieles von dem was openSUSE-Nutzer von ihrer Distribution erwarten (KDE als Desktop zum Beispiel) ist in SLED nicht (mehr) enthalten. Ein openSUSE-Release wird deshalb voraussichtlich eine Komposition aus SLED-Basis und Komponenten aus Tumbleweed/Factory. Der OBS macht es möglich.

Bis es soweit ist müssen, aber noch viele Fragen geklärt werden. Eines der Hauptprobleme dürfte die Hardwareunterstützung sein. Noch ist SLED 12 verhältnismäßig jung, aber mit zunehmendem Alter der Basis dürfte die Hardwareunterstützung im Consumer-Bereich schwieriger werden, da Rückportierungen der Firma SUSE für die Unternehmenskunden selbstverständlich vor allem Business-Hardware im Blick haben. Ebenso gibt es grundsätzliche Bedenken, dass man die bisherige Nutzerschaft mit einem solchen Schritt verprellen könnte.

Fazit

Seit einiger Zeit ist bei den wichtigen Linuxdistributionen viel Bewegung in die Releasestruktur gekommen. Debian hat mit oldoldstable eine LTS-Variante eingeführt, Fedora vergangenes Jahr mit der Aufteilung in Workstation, Server und Cloud eine grundlegende Umstrukturierung vorgenommen und openSUSE entschließt sich nun zum grundsätzlichen Bruch mit bisherigen Entwicklungsmodellen, die über Jahrzehnte gewachsen sind. Anstelle einer stabilen, aber nur ca. 18 Monate gepflegten Version, wird es zukünftig neben dem - Tumbleweed genannten - RR-Zweig eine stabile Version auf SLED-Basis entstehen. Ob diese möglicherweise ähnlich erfolgreich wird wie andere Langzeitdistributionen wird sich zeigen, wenn Veröffentlichungszyklen und Supportdauer feststehen.

Es ist aber allemal erfrischend zu sehen, dass sich viele Distributoren Gedanken über die Stärken ihrer Distribution machen, anstatt von Fernsehern und Smartphones zu träumen und ansonsten nichts zu veröffentlichen.

Raspberry Pi Gehäuse

Permalink Intux

case2-500x334

Quelle: https://www.raspberrypi.org/

Gerade habe ich gelesen, dass es nun ein offizielles Gehäuse für den Raspberry Pi 2, sowie für das Modell B+ geben soll. Das Case wurde von der Raspberry Pi Foundation zusammen mit dem Unternehmen Kinneir Dufort entwickelt. In diversen Shops soll es schon erhältlich sein.

Ich bin gespannt und werde es mir auf jeden Fall bestellen.

Weitere Informationen findet man auf raspberrypi.org.

Raspberry Pi – Einstieg und User Guide

Permalink Intux

978-3-8266-9522-3

Heute möchte ich das Buch „Raspberry Pi – Einstieg und User Guide“ vorstellen. Ich hatte das Glück das Buch in meinem Jahresurlaub zu lesen.

Ich kann mich noch erinnern, wie mich die ersten Artikel über den RasPi genervt hatten. Zum einen lag es daran, dass man das Gefühl hatte es gibt in der Linux-Community nur noch ein Thema, den Raspberry Pi. Zum anderen hatte ich keine Ahnung wovon die Leute da schreiben. Die Neugier war jedoch zu groß sich dieser Sache zu entziehen, also bestellte ich im Herbst 2012 meinen ersten Einplatinencomputer – das Modell B. Ich arbeitete brav Tutorials ab und begann mit Raspbmc, auf Basis des XBMC-Mediacenters. Später ließ ich ownCloud und WordPress auf dem Gerät laufen. Ich beschäftigte mich mit der RasPi-Cam und Temperatur-Monitoring, mit Hilfe eines externen Sensors. Die Möglichkeiten des Raspberry Pi sind fast unbegrenzt. So war dann mein letztes kleines Projekt ein Ambilight-Clone für meinen Flatscreen. Mittlerweile habe ich drei dieser Minicomputer im produktiven Einsatz.

Das Buch „Raspberry Pi – Einstieg und User Guide“ greift hier einige dieser Themen auf und ist auch im Nachhinein sehr schön zu lesen, da ich ja das ein oder andere Projekt schon verwirklichen konnte. Es gliedert sich in die vier Teile:

  • Inbetriebnahme des Boards
  • Der Raspberry Pi als Mediacenter, Arbeitsgerät und Websever
  • Programmierung und Hardware-Hacking
  • Anhänge

Besonders interessant ist die Einleitung von Eben Upton dem Mitbegründer und Geschäftsführer der Raspberry Pi Foundation. Wusstet ihr z.B woher der Name Raspberry Pi kommt? Viele Hardware-Firmen tragen Namen von Früchten. So kam es zur Himbeere. Wobei Pi hier für die Programmiersprache Python steht. Das Projekt hätte dabei aber fast den Namen ABC Micro erhalten. Ob der Pi dann einen ähnlichen Siegeszug gestartet hätte, weiß man nicht. Ein Wunsch von Upten war, dass jedes Jahr mindestens 1000 weitere Leute an britischen Universitäten Informatik studieren. Dieser Wunsch trieb ihn von Anfang an, bei der Umsetzung des Raspberry Pi Projektes.

Das Buch „Raspberry Pi – Einstieg und User Guide“ mit 288 Seiten ist 2013 in der 1. Auflage im mitp-Verlag erschienen, lange bevor der Raspberry Pi 2 das Licht der Welt erblickte. Trotz alledem sind alle Beispiele von der Erstellung des eigenen Webservers bis hin zur Programmierung in Python auf das aktuelle Modell anwendbar.

Einige Scripts stehen auch bei diesem Buch wieder zum Download bereit.

Leseproben und Downloads

Fazit:

Das Buch „Raspberry Pi – Einstieg und User Guide“ ist ein guter Begleiter im Umgang mit dem Pi, um die ersten Erfahrungen mit dem Einplatinencomputer zu sammeln. Auch für diejenigen, die den Minicomputer schon etwas länger einsetzen, ist das Buch zum Nachschlagen sehr empfehlenswert.

Mozilla, Google & Microsoft arbeiten gemeinsam an Binärformat für das Web

Permalink Sören Hentzschel

Mozilla, Google und Microsoft kooperieren bei der Entwicklung eines Binärformats für das Web, welches deutliche Geschwindigkeitsvorteile gegenüber JavaScript verspricht. Noch steht WebAssembly, kurz: wasm, aber ganz am Anfang.

Mozilla, Google und Microsoft haben in den letzten Jahren enorme Fortschritte im Bereich der JavaScript-Performance gemacht. Doch schnell ist nicht schnell genug, vor allem wenn es um komplexere Anwendungen als einfache Webseiten geht. Aus diesem Grund haben sich Googles Experten für V8 und Portable Native Client (PNaCl), Entwickler von Microsoft sowie Mozillas Spezialisten für asm.js und Emscripten zusammengetan, um einen neuen Standard zu schaffen, der JavaScript ergänzen soll: WebAssembly, oder kurz wasm.

Ähnlich wie bei Mozillas asm.js oder Googles PNaCl ist WebAssembly das Resultat kompilierten Codes. Zunächst wird vorrangig auf C und C++ abgezielt, später sollen weitere Sprachen unterstützt werden. Das Projekt steckt noch relativ am Anfang und es ist noch unklar, wann mit einer nativen Unterstützung in den gängigen Browsern zu rechnen ist. Bis dahin soll eine Polyfill-Bibliothek WebAssembly kompatibel zu aktuellen Browsern machen, welche den wasm-Code in JavaScript konvertiert. Erste Experimente mit einem Polyfill-Prototyp zeigen eine Verbesserung der Performance um den Faktor 23 für das Dekodieren des Binärformats gegenüber dem Parsen der entprechenden asm.js-Quelle. Die Entwicklung kann von Interessierten über GitHub verfolgt werden, wo auch eine FAQ-Seite bereitsteht, welche wichtige Fragen zu diesem Thema ausführlich beantwortet. Unter anderem wird dort die Frage nach einer Quelltextansicht, die sich unweigerlich in Anbetracht der Tatsache stellt, dass es sich bei WebAssembly um ein Binärformat handelt, bejaht. Eine andere Wiki-Seite zeigt mögliche Anwendungsfälle für WebAssembly. Weitere Informationen gibt es in im Blog von Mozilla-Gründer und JavaScript-Erfinder Brendan Eich sowie im Blog von Mozilla-Entwickler Luke Wagner.

22. Juni 2015

[nginx] und php

Permalink itbasic

Für viele Webseiten oder Anwendungen wie WordPress, Joomla sowie Contao wird php benötigt. Von Haus aus kann nginx nur html oder Bilddateien ausgeben, damit php Seiten dargestellt werden wird php-fpm benötigt.

Zunächst wird php-fpm unter dem root Benutzer installiert:
yum install php-fpm

Nach der Installation habe ich in der /etc/php.ini folgende Anpassung vorgenommen:
cgi.fix_pathinfo=0

Für die php Konfiguration der www.seite1.de wurde die Datei /etc/php-fpm.d/seite1.conf angelegt.

[seite1]
listen = /var/run/php-fpm/seite1.sock
listen.owner = nginx
listen.group = nginx
listen.mode = 0660
user = seite1
group = seite1
pm = dynamic
pm.max_children = 10
pm.start_servers = 1
pm.min_spare_servers = 1
pm.max_spare_servers = 3
pm.max_requests = 500
chdir = /var/vhost/seite1/www/
php_admin_value[open_basedir] = /var/vhosts/seite1/www:/var/vhosts/seite1/temp
php_admin_value[upload_tmp_dir] = /var/vhosts/seite1/temp

Zum Schluss die folgenden Zeilen dem Server-Block in der Datei /etc/nginx/conf.d/seite1.conf hinzufügen.
location ~ \.php$ {
try_files $uri =404;
fastcgi_split_path_info ^(.+\.php)(/.+)$;
fastcgi_index index.php;
fastcgi_pass unix:/var/run/php-fpm/seite1.sock;
fastcgi_param SCRIPT_FILENAME
$document_root$fastcgi_script_name;
include fastcgi_params;
}

Gestartet wird php-fpm über systemctl start php-fpm.service bzw über systemctl stop php-fpm.service gestoppt.

Arch Linux: PHP aktivieren

Permalink canox.net

In diesem Beitrag zeige ich euch wie ihr PHP unter Arch Linux auf eurem Raspberry Pi und Banana Pi aktiviert.

pacman -S apache php php-apache

nano /etc/httpd/conf/httpd.conf

Kommentiert folgende Zeile mit # aus:

LoadModule mpm_event_module modules/mod_mpm_event.so

und fügt unter der eben auskommentierte Zeile folgendes ein:

LoadModule mpm_prefork_module modules/mod_mpm_prefork.so

Unter folgender Zeile:

LoadModule dir_module modules/mod_dir.so

einfügen:

LoadModule php5_module modules/libphp5.so

Am Ende der Include Liste einfügen:

Include conf/extra/php5_module.conf

Mit Strg+O , Enter und Strg+X speichert ihr die Datei.

systemctl restart httpd.service

nano /srv/http/test.php

Dort einfügen:

phpinfo(); ?>

Mit Strg+O , Enter und Strg+X speichert ihr die Datei.

Gebt nun in eurem Webbrowser ein: http://ip-eures-pi/test.php

Quelle: wiki.archlinux.org

21. Juni 2015

Video Hands on Meizu MX4 Ubuntu Edition

Permalink svij | Blog

Ich bin nun seit wenigen Tagen im Besitz des „Meizu MX4 Ubuntu Edition“, also nach dem „bq Aquaris E4.5“ das zweite Ubuntu Phone, welches allerdings zum jetzigen Zeitpunkt noch nicht käuflich erwerbbar ist.

Heute habe ich ein kurzes Video aufgenommen, in dem ich ein wenig auf die Hardware und die Besonderheiten des Telefons eingehe. Obwohl ich eigentlich nicht dachte, dass das Video lang wird, ist es mit fast 7 Minuten doch länger als ich ursprünglich geplant hatte.

Das Video habe ich auf YouTube hochgeladen und lässt sich hier ansehen.

Ein ausführlicher Test-Bericht folgt im Laufe der nächsten Wochen.

Kurztipp: In VIM trotz aktivierter Maus per Rechtsklick kopieren

Permalink Finns Blog

Wenn das genutze Terminal es unterstützt, kann auch im Texteditor VIM die Maussteuerung genutzt werden, um zur angeklickten Stelle zu springen und dort in den Einfügemodus zu gelangen. Ein kleiner Nachteil dieser Lösung ist, dass man markierten Text dann nicht mehr mit einem Rechtsklick oder Mittelklick kopieren kann.

So ist es beispielsweise auch bei amix vimrc der Fall, dass die Maussteuerung in der basic.vim mit

set mouse=a
aktiviert ist. Wenn man diese Funktion nicht entfernen oder wieder überschreiben möchte, muss man lediglich die Shift- bzw. Umschalttaste gedrückt halten, während man den zu kopierenden Text kopiert. Dies sorgt dafür, dass VIM nicht in den visuellen Modus springt, sondern stattdessen im normalen Modus verbleibt.

Tvheadend Server automatisch herunterfahren und wieder aufwachen

Permalink Finns Blog

Nachdem ich nun seit Kurzem wieder über einen Tvheadend Server verfüge, nutze ich diesen hauptsächlich zum Aufnehmen einiger Sendungen. Ich schaue kaum Fernsehen und daher muss der Tvheadend Server auch nicht permanent laufen. Ich habe ein kleines Script gebastelt, welches sich darum kümmert.

Das Script ist in Python geschrieben und wird regelmäßig per Cronjob ausgeführt. Wenn keine Clients verbunden sind und keine Aufnahmen anstehen, fährt es den Server herunter. Falls Aufnahmen geplant sind, wird die Startzeit der ersten Aufnahme abzüglich ein paar Minuten als Wakeup-Zeit gespeichert und der Server fährt herunter.

Falls keine Aufnahmen geplant sind, wird Heruntergefahren und vorher eine Wakeup-Zeit 24 Stunden später gesetzt. Das sorgt dafür, dass der Server täglich ein wenig läuft, um z.B. die EPG Informationen zu aktualisieren. Falls in den nächsten Minuten eine Aufnahme ansteht, wird das Herunterfahren nicht ausgeführt, da es sich nicht lohnen würde.

Außerdem fährt das Script den Server nicht herunter, falls man gerade per SSH verbunden ist. Von Solchen Scripten gibt es zwar schon einige, aber ein eigenes ist manchmal schneller geschrieben, als dass man ein für einen selbst pefekt passenden gefunden hat. Für Interessierte habe ich das Script tvh-auto-power.py bei GitHub veröffentlicht. Ein bisschen Readme ist auch enthalten, eine Authentifizierung kann ebenfalls verwendet werden. Viel Spaß damit.

Mount & Blade: Warband

Permalink onli blogging

Nachdem Shadow Warrior fertig war ist mir Mount & Blade: Warband in meiner Linux-Steambibliothek aufgefallen. Das habe ich vor langer Zeit schonmal unter Windows gespielt, aber nie drüber geschrieben. Daher gibt es jetzt hier die wahrscheinlich verspäteste aller Kurzreviews des Spiels.

Das wichtigste zuerst: Es läuft gut unter Linux. Weder stürzt es dauernd ab, noch gibt es Grafikfehler, noch ist die Performance schlecht. Die einzige echte technische Macke ist die absurd lange Ladezeit beim Starten des Spiels, während das Laden des Speicherstandes danach schnell genug funktioniert.

Die zweite Macke ist der Mod-Support, der unter Linux nicht existiert. Für Warband gibt es eine Reihe von Mods, die das Spiel verbessern und insbesondere interessant wären, weil sie die Bedienungsmacken ausbessern. Leider startet das Spiel bei mir nicht mehr, sobald ein Mod aktiviert ist.

Im Vanilla-Spiel selbst ist alles wie unter Windows: Man erstellt sich einen Protagonist, kann dann auf der Weltkarte umherreisen, Soldaten und Gefährten anwerben, Handeln, Echtzeit-Schlachten gegen andere Soldatengruppen schlagen, Burgen belagern, einnehmen und verteidigen. In meiner letzten Spielesession habe ich mich in das Sultanat eingeheiratet und darf jetzt Feste veranstalten (Woohaa!), wobei ich nicht weiß, was mir das bringen wird (Hmpf!).

Generell ist das eines der Probleme des Spiels: Es erschlägt einen anfangs und es ist nicht klar, was man tun kann und soll. Hat man wie ich alle Serienteile schonmal gespielt, ist das natürlich kein Problem mehr. Andererseits kam ich bisher immer an den Punkt, an dem es dann auch gut war – Schlachten geschlagen, Burgen eingenommen, voller Geldbeutel und nichts mehr, was mir in annehmbarer Zeit erreichbar schien. Allerdings behauptet Steam, dass ich Warband damals unter Windows schon 40h gespielt habe, es hat mich also eine Weile unterhalten.

Kann man die Grafik hübsch nennen? Wirklich nicht, das Spiel hat sein Alter und war nie schön. Aber sie funktioniert ausreichend gut, sodass Schlachten immer noch Spaß machen und die sichtbaren Änderungen der neue Ausrüstung mich erfreuen.

Fazit: Wer das Spiel verpasste, für den ist die Linuxversion eine gute Gelegenheit um es nachzuholen. Warband ist der beste Teil der Serie, und das Konzept der offenen Welt mit den Auswirkungen des eigenen Handelns plus cooler Echtzeitschlachten wurde meines Wissens nirgends nochmal umgesetzt – Mount & Blade ist etwas besonderes. Und bei Steam gerade im Sonderangebot.

Humble Weekly Bundle: cats! Cats! CATS!

Permalink deesaster.org

Diese Woche gibt es im Humble Weekly Bundle extrem viel „Cat Content“, da jedes Spiel in irgendeiner Art und Weise mit den kleinen, haarigen Fellknäuel zu tun hat. Immerhin fünf der sechs Spiele sind für Linux erhältlich, davon aber nur drei DRM-frei. Jeder kann den Preis selbst bestimmen und in variablen Anteilen auf die Entwicklerstudios, die Humble-Anbieter und die Chariy-Organisationen World Land Trust und AbleGamers verteilen.

Humble Weekly Bundle: cats! Cats! CATS!

Die Spiele im Detail

Schrödinger's Cat and the Raiders of the Lost Quark ist, wie man am Titel erkennt, ein unernstes Jump'n'Run-Puzzle-Spiel, bei der man sich als Schrödingers Katze in der Physik-Welt bewegt. Das Spiel gibt es nur für Steam.

Pix the Cat erinnert ein bisschen an Pac-Man, wenn man sich das Video anschaut. Eier einsammeln und Entenküken produzieren, die man dann ... hm, wieder abschießt? Naja, immerhin sieht es süß aus. Der Nostalagie-Modus im Stile der 20er Jahre Comic hat auch was. Das Spiel gibt es nur für Steam.

Den Unterwasser-Arcade-Shooter Aqua Kitty - Milk Mine Defender gibt es nur für Windows.

Wer mehr als den aktuellen Durchschnitt (derzeit ca. 4 US-Dollar) bezahlt, erhält das sehr gute Action-Rollenspiel Torchlight II von Runic Games. Im Diablo-Stil klickt man sich durch Horden an Monstern und Gegner in Wäldern, Dungeons und Tälern. Dort erfüllt man verschiedene Aufträge für NPCs und ist dabei nicht auf die Standard-Klassen aus anderen Action-RPGs angewiesen, sondern kann auch als Ingenieur den (recht großen= Schraubenschlüssel schwingen. Die Grafik des Spiels sieht sehr gut aus, die deutsche Sprachausgabe und die deutschen Texte sind ebenfalls gut. Das Spiel gibt es für 32- und 64-Bit.

Daneben gibt es noch das Puzzle-Spiel Mousecraft. Als Wissenschaftler-Katze Schrödinger versucht man seine Labormäuse durch teilweise gefährliche Level zu manövrieren, damit diese an den Käse kommen. Der Spiel erinnert natürlich an Lemmings, wobei man hier eher das Level mit Tetris-Steinen verändert anstatt den Mäusen besondere Fähigkeiten zu geben. Es sind eben Mäuse und keine Lemminge!

Torchlight II
Torchlight II
MouseCraft
MouseCraft

Ab 10 US-Dollar gibt es das Spiel Hot Tin Roof: The Cat That Wore A Fedora dazu. Der Titel ist angelehnt an den Film Die Katze auf dem heißen Blechdach, im Spiel übernimmt man die Rolle von Investigator Jones (bzw. Investigatorin, um genau zu sein), die zusammen mit ihrer Katze Franky im Adventure-Stil einen Kriminalfall lösen soll.

Zum Schluss gibt es noch ab 25-US-Dollar ein Katzenshirt dazu.

Hot Tin Roof
Hot Tin Roof

Zu allen Spielen außer Schrödinger's Cat and the Raiders of the Lost Quark gibt es den Soundtrack als MP3 und als verlustloses FLAC-Format zum Download.

Bundle erwerben

Die Spiele stehen nach dem Kauf für Linux teilweise als Direkt-Download oder BitTorrent-Link zur Verfügung. Ebenso gibt es für alle Spiele Steam-Keys.

Bezahlen kann man wie immer über Kreditkarte, Paypal, Amazon Payments oder Bitcoin. Das Angebot besteht noch bis zum 25. Juni 2015.

Achtung: Vor dem Kauf sollte man zu allen Spielen die Systemvoraussetzung für Linux lesen.

Meine Meinung

Das beste Spiel aus dem Bundle ist für mich Torchlight II, welches aber bereits im Humble Indie Bundle 14 enthalten war. So gesehen gibt es für Linux-Spieler, die DRM-freie Spiele mögen, nur zwei neue Spiele.

MouseCraft ist ganz nett, aber mir fehlt die Besonderheit und der Witz. Lemmings mit Tetris zu mischen ist für mich nicht so innovativ, dass ich das Spiel lange spielen würde. Und Hot Tin Roof spielte sich erst einmal ganz gut, nach einer halben Stunde merkte man dann aber kleinere Nervigkeiten wie z.B. dass Dialogoptionen immer wieder aufs Neue angeboten werden ohne Mehrwert zu haben. Zusätzlich gibt es bei mir im Spiel an bestimmten Stellen seltsame Geräusche, wo ich nicht weiß, ob das gewollt oder ein Bug ist.

Zu den anderen Spielen kann ich ohne Steam und ohne Windows nichts sagen, mit hätte vom Video her aber maximal noch Schrödinger's Cat and the Raiders of the Lost Quark gefallen.

20. Juni 2015

Google Music Manager öffnet sich nicht unter Linux

Permalink thomas-leister.de

Für den Download meiner bei Google Music erstandenen Musik nutze ich den Google Music Downloader. Man kann die MP3s zwar auch einzeln als MP3-Datei herunterladen – das geht aber nur 2x bei jedem Titel. Mit dem Downloader kann man seine MP3s so oft downloaden wie man will. Gut, dass Google auch eine Linux-Version seines Music Managers (oder eigentlich: -Downloaders) bereitstellt.

Unter Arch Linux kann man den Manager aus dem AUR installieren:

yaourt -S google-musicmanager

Mein Problem war, dass ich nach der Installation und der Verbindung mit meinem Google Konto den Manager nicht öffnen konnte. Nach einem Klick auf das Tray-Icon für den Manager passierte nichts. Den Kommentaren zum AUR Paket konnte ich entnehmen, dass das ein bekannter Bug sei, den man aber relativ einfach beheben kann. Dazu muss man jedoch zuerst einmal seine Google Music Manager Einstellungen zurücksetzen:

rm -r ~/.config/google-musicmanager

Danach startet man den Music Manager und richtet ihn wie gewohnt ein – allerdings mit einer wichtigen Änderung: Man weist dem Manager einen Upload-Ordner zu. Auch, wenn man die Funktion nicht nutzen will. Der Ordner kann natürlich leer bleiben. Wichtig ist nur, dass man dem Manager einen Pfad zu einem Uploadverzeichnis übergibt, denn dann lässt sich der Manager später tadellos über das Tray-Icon öffnen.

Den Upload-Ordner kann man nach einem ersten erfolgreichen Start dann übrigens wieder aus den Einstellungen nehmen und löschen.