ubuntuusers.de

19. Februar 2013

menzer.net 19. Februar 2013 23:13

Linux 3.8

Wie angekündigt gab es nach -rc7 keine weitere Entwicklerversion mehr - La voilà: Linux 3.8

Wer das Release am Wochenende erwartet hatte, wurde enttäuscht. Torvalds wartete noch auf die Bestätigung eines Patches, erklärte er in seiner Freigabe-Mail, was die Final-Version etwas verzögerte. Die Änderungen gegenüber 3.7-rc7 fallen recht gering aus, am aufwändigsten war noch die Beseitigung eines Problems beim Kompilieren, der durch mehrfache Verwendung eines Bezeichners auftrat. Dieser wurde nun im Bereich der Multiprozessor-Architektur Tile entfernt, um das Ärgernis zu beheben.

Doch nun zum großen Bild des neuesten Linux-Kernels: Im Vorfeld wurde bereits der Wegfall der Unterstützung für 386-Prozessoren diskutiert (Commit: „Nuke 386-DX/SX support“). Dies wurde auch umgesetzt, sodass Nutzer solcher Hardware von Linux 3.8 Abstand halten sollten.

Eine echte Neuerung ist F2FS. Dieses Dateisystem ist speziell für den Einsatz auf Flsh-Speichern wie zum Beispiel Solid State Drives (SSD) vorgesehen. Im Gegensatz zu bisherigen Flash-Dateisystemen wie zum Beispiel Logfs oder UBIFS, berücksichtigt F2FS jedoch den Flash Translation Layer, eine Zwischenschicht mit deren Hilfe SSDs sich dem System als normale Blockorientierte Speichergeräte darstellen.

Bleiben wir bei den Dateisystemen. Ext4 zählt zwar schon fünf Jahre, aber Verbesserungen sind immer wieder drin. So wurde nun die Möglichkeit geschaffen, sehr kleine Dateien in Inodes zu speichern. Normalerweise finden sich hier nur Metadaten zu Dateien, die dann in Speicherblöcken abgelegt zu finden sind. Diese Neuerung spart ein wenig Plattenplatz - typischerweise belegt ein Block 4 KB, egal wie groß die darin hinterlegten Daten sind - bringt vor allem jedoch ein Geschwindigkeitsvorteil, da die kleinen Datenmengen direkt aus dem Inode geliefert werden können, ohne dass das Dateisystem noch nach dem richtigen Block suchen muss.

Btrfs wurde um eine Funktion erweitert, mit der Datenträger ausgetauscht werden können. Bislang bestand zwar die Möglichkeit, ein neues Gerät zum Dateisystem hinzuzufügen und dann ein bestehendes wieder zu löschen, doch nahm dieser Vorgang viel Zeit in Anspruch. Die neue replace-Funktion kann während des Betriebs genutzt werden, es ist nicht notwendig, das Dateisystem auszuhängen.

So, den Rest hebe ich mir für die kommende Ausgabe von freiesMagazin auf.

Die kleine Statistik:

Commits geänderte Dateien eingefügte Zeilen gelöschte Zeilen Datum Tage *
3.8-rc1 11 737 10 482 554 790 340 624 21.12.2012 11
3.8-rc2 131 195 1935 1290 02.01.2013 12
3.8-rc3 379 1405 7995 7845 10.01.2013 8
3.8-rc4 357 355 9997 2258 17.01.2013 7
3.8-rc5 310 249 2102 1268 25.01.2013 7
3.8-rc6 277 249 2130 1217 01.02.2013 7
3.8-rc7 229 198 1675 1055 08.02.2013 7
3.8 98 86 971 853 18.02.2013 10

* Tage seit dem letzten rc/Release

Version Commits geänderte Dateien eingefügte Zeilen gelöschte Zeilen Datum Tage *
3.0 9843 7946 554 267 440 894 22.07.2011 64
3.1 9380 9181 726 251 602 017 24.10.2011 94
3.2 12 695 12 608 1 645 447 1 417 264 04.01.2012 72
3.3 11 416 10 698 599 885 432 464 18.03.2012 74
3.4 11 829 11 086 576 155 358 368 20.05.2012 63
3.5 11 771 9 631 623 283 410 763 21.07.2012 62
3.6 11 129 8 296 528 478 256 828 30.09.2012 71
3.7 13 004 15 886 1 570 793 1 247 129 10.12.2012 71
3.8 13 525 11 701 577 870 352 685 18.02.2013 70

* Tage seit dem letzten Release

Quellen:

Der Countdown auf Ubuntu.com ist abgelaufen und herausgekommen ist TADAAAA: Eine Ubuntu-Version für Tablets.

Cannonical will Ubuntu für Tablets auf dem Mobile World Congress vom 25.2 bis 28.2.2013 vorstellen.
Meiner Meinung nach interessante Besonderheiten der Tablet-Version:
  • Mehrere Nutzerkonten (ähnlich wie unter Android seit Version 4.2 "Jelly Bean")
  • Ein Gast-Account
  • "Side Stage": Ein an der rechten Bildschirmseite ausklappbarer Bereich, in dem für Smartphones gedachte Apps parallel zum restlichen Bildschirminhalt laufen können
  • Desktop Convergence (die Möglichkeit auf leistungsfähigen Tablets die Desktop-Version von Ubuntu mit den entsprechenden normalen Desktop-Applikationen laufen zu lassen)

Aber seht selbst ;-) :


Link für die Planet-Leser

Was ich vor allem sehr interessant finde: In dem Video wird erwähnt, dass auf Ubuntu im "Desktop-Modus" Windows-Apps als Thin Client-Anwendung laufen können sollen. Dies würde es Unternehmen ermöglichen Ubuntu zu nutzen aber andererseits nicht auf Business-Software wie Microsoft-Office verzichten zu müssen, die als zusätzlicher Pluspunkt auf einem zentralen Server gewartet werden könnte.

Es gibt bereits einige Spekulationen über die Leistungsdaten eines möglichen Ubuntu-Tablets statt aber es steht noch nicht fest welche Partner aus der Mobilfunkindustrie Cannonical ins Boot holen will und wie ein Tablet mit Ubuntu dann genau aussehen wird.

Wie ist eure Meinung zum neuen Ubuntu für Tablets? Würdet ihr euch ein Ubuntu-Tablet kaufen?

Der Countdown auf Ubuntu.com ist abgelaufen und herausgekommen ist TADAAAA: Eine Ubuntu-Version für Tablets.

Cannonical will Ubuntu für Tablets auf dem Mobile World Congress vom 25.2 bis 28.2.2013 vorstellen.
Meiner Meinung nach interessante Besonderheiten der Tablet-Version:
  • Mehrere Nutzerkonten (ähnlich wie unter Android seit Version 4.2 "Jelly Bean")
  • Ein Gast-Account
  • "Side Stage": Ein an der rechten Bildschirmseite ausklappbarer Bereich, in dem für Smartphones gedachte Apps parallel zum restlichen Bildschirminhalt laufen können
  • Desktop Convergence (die Möglichkeit auf leistungsfähigen Tablets die Desktop-Version von Ubuntu mit den entsprechenden normalen Desktop-Applikationen laufen zu lassen)

Aber seht selbst ;-) :


Link für die Planet-Leser

Was ich vor allem sehr interessant finde: In dem Video wird erwähnt, dass auf Ubuntu im "Desktop-Modus" Windows-Apps als Thin Client-Anwendung laufen können sollen. Dies würde es Unternehmen ermöglichen Ubuntu zu nutzen aber andererseits nicht auf Business-Software wie Microsoft-Office verzichten zu müssen, die als zusätzlicher Pluspunkt auf einem zentralen Server gewartet werden könnte.

Es gibt bereits einige Spekulationen über die Leistungsdaten eines möglichen Ubuntu-Tablets statt aber es steht noch nicht fest welche Partner aus der Mobilfunkindustrie Cannonical ins Boot holen will und wie ein Tablet mit Ubuntu dann genau aussehen wird.

Wie ist eure Meinung zum neuen Ubuntu für Tablets? Würdet ihr euch ein Ubuntu-Tablet kaufen?

Firefox 19 ist da! Nachdem Mozillas integrierte Lösung zum Betrachten von PDF-Dateien in den letzten Monaten viele Verbesserungen erhalten hat, wird dieser mit Firefox 19 standardmäßig aktiviert sein. Damit können PDF-Dateien ohne installiertes Browser-Plugin direkt in Firefox betrachtet werden. Gesammelte Telemetrie-Daten können ab sofort direkt im Browser über about:telemetry angesehen werden.

Weitere Neuerungen & Download

Diese und noch einige weitere Neuerungen bietet Firefox 19. Einen kompletten und detaillierten Überblick bietet der dazugehörige Aurora-Artikel. Firefox 19 kann hier heruntergeladen werden.

Vor kurzem gab es die Meldung, dass die Sendung Spacenight des Bayerischen Fernsehens eingestellt werden soll, weil die GEMA-Gebühren zu hoch sein und die Sendung sich so nicht mehr finanzieren kann.

Jetzt wird berichtet, dass die Sendung vermutlich mit Freier Musik fortgeführt wird. Die verwendete Musik soll von diversen Netlabels stammen und Creative-Commons-Lizenzen unterliegen.

Damit wäre die Sendung gerettet, die teuren GEZ-Gebühren würden nicht an die GEMA umverteilt werden und zusätzlich löst man sich damit von der GEMA, da CC-Lizenzen und GEMA unvereinbar sind. Ggf. muss sich der BR dann damit herumschlagen, der GEMA vor Gericht aufgrund der GEMA-Vermutung zu beweisen, dass die CC-Musik tatsächlich nicht den Verwertungsrechten der GEMA unterliegt, aber das wäre dann ein sinnvollere Geldinvestition als der GEMA direkt das Geld zu geben.

via Linux-Magazin

Seit fast einem Jahr habe ich nun ein Lenovo x220 als Arbeitsgerät für unterwegs. Bei der Installation habe ich gleich auf den neuen Standard UEFI gesetzt, und so die typische Sache mit dem MBR gespart. Ich finde den MBR zwar an sich nicht schlimm, aber UEFI hat vom Konzept her den Vorteil einen solchen nicht zu benötigen. Was nicht benötigt wird kann auch nicht kaputt gehen ;-)

UEFI Grundlagen

Fangen wir also mal mit den UEFI Grundlagen an. Das Booten bei UEFI erfordert nicht mehr länger einen Bootsektor am Anfang der Platte oder Partition, sondern eine gesonderte Partition welche wir nachfolgend ESP (EFI System Partition) nennen werden. Auch die Partitionierung unterschiedet sich, das "gute" alte MSDOS Format mit seiner Begrenzung auf 2 TB ersetzen wir durch das moderne GUID, welches auch bei Platten mit wesentlich mehr als 2 TB keine Probleme hat.

Jetzt wissen wir also das wir eine spezielle Partition (ESP) benötigen, und das wir unsere klassische Partitionierung auch nicht mehr benötigen. Das bedeutet auch das wir unsere Standardtools wie fdisk, cfdisk und Co nicht mehr benötigen. Wer bisher schon parted verwendet bekommt von der ganzen Aktion nicht so viel mit, es funktioniert einfach, sogar mit den gleichen Befehlen. Die ESP Partition hat noch eine Besonderheit, zum einen muss diese eine ganz bestimmte ID haben (C12A7328-F81F-11D2-BA4B-00A0C93EC93B), und zum anderen ein FAT Dateisystem, FAT32 bietet sich an und wird von jedem Betriebssystem unterstützt.

Grundlegend haben wir jetzt alles wichtige erwähnt, wir haben die Partitionierung erwähnt und auch das wir hierbei eine besondere Partition beachten müssen. Doch dem aufmerksamen Leser wird aufgefallen sein das noch etwas fehlt: Der Bootloader

Jetzt kommt die letzte Besonderheit, und zwar die Art wie UEFI nach diesem Bootloader den wir benötigen sucht. Eigentlich sucht UEFI nicht nach einem Bootloader sondern nach einer sog. UEFI Binary. Also einem Programm das einer bestimmten Spezifikation entspricht, wir selbst ignorieren das einfach und nennen dieses Konstrukt weiterhin Bootloader. Erwähnt sei noch das es Alternativ zu einem Bootloader wie gummiboot oder grub2 auch z.B. eine UEFI Shell und einiges andere gibt.

Viele Wege führen nach Rom, aber nur 2 Wege führen den UEFI zu diesem Binary / Bootloader:

  1. Standardpfad auf der ersten FAT Partition bzw. ESP
  2. Eintrag im NVRAM vom System welcher genau sagt wo zu suchen ist
Der erste Weg ist für Wechselmedien gedacht, der zweite Weg für eine feste Installation. Die erste Möglichkeit sucht einfach unter /EFI/boot/bootx64.efi auf der oben genannten Partition und startet das Ding. Der andere Weg hat den Vorteil das pro Medium mehrere Bootloader / Betriebssysteme verwendet werden können, d.h. Windows und Linux (oder auch mehrere Linux Distributionen) können sich selbst beliebige Bootloader anlegen und dem UEFI / NVRAM einfach sagen wo dieser zu finden ist.

Die Installation eines Bootloaders besteht also bei einem fest installiertem System aus 2 Schritten, zuerst muss das UEFI Binary / Bootloader auf die ESP kopiert werden, im Anschluss muss im NVRAM vom System auch noch hinterlegt werden wo genau dieser Bootloader zu finden ist. Das ganze passiert auf einem UEFI fähigem System bei der Installation, ist für den Anwender also unsichtbar. Ein überschreiben vom MBR durch dieses Randgruppenbetriebssystem von Microsoft ist also unwahrscheinlich.

Mit den Grundlagen sind wir also im groben durch, der Grundlegende Ablauf ist uns bekannt.

UEFI Bootloader

Jetzt sind wir bei dem Teil mit dem Bootloader, wir haben hier relativ viel Auswahl:

  • gummiboot
  • grub2
  • Linux Kernel
Wir fangen mal von hinten an, zuerst also der Linux Kernel, dieser kann seit einiger Zeit so gebaut werden das er sich direkt als UEFI Binary ausgibt. Setzt man nun noch mit z.B. rdev die entsprechenden Parameter und kommt ohne Initrd aus benötigt man nichtmal mehr einen Bootloader. In der Praxis wird man dies nicht vorfinden da die Initialisierung von RAID, LVM und LUKS ohne Initrd eher hässlich bis unmöglich sein dürfte.

Der nächste Kandidat auf der Liste wäre grub2, wir kennen und fürchten ihn schon, es handelt sich dabei um die neue und noch aufgeblähtere Version von grub. Dieses mal erzeugen die meisten Distributionen durch eine Vielzahl an Scripts und Konfigurationsdateien eine grub.cfg, das UEFI Binary wird nochmal extra mit einem anderen Befehl angelegt und bringt einige MiB auf die Waage. Hat man mehrere Distributionen auf der Platte werden sich diese gerne gegenseitig die grub.cfg überschreiben und das jeweils zuletzt installierte oder aktualisierte Linux wird booten. Sicherlich, grub2 hat auch Vorteile wie eingebauten Support für RAIDs, LVM und eine tolle Shell. In der Praxis bleiben 90% der Funktionen auf der Strecke und machen das ganze Konstrukt nur fehleranfällig und langsam. Hier wären wir beim nächsten Punkt, auf einigen Systemen kann sich grub2 abhängig von der Partitionierung nicht installieren, Problem ist das unser Image von grub2 so groß ist das es nicht in den freien Bereich zwischen MBR und 1. Partition passt, es gibt einen extra Partitionstypen um dieses Problem zu umgehen (kein Witz). Neuere Distributionen lassen an der entsprechenden Stelle einfach ein wenig Platz, dann klappt das auch. Unter UEFI haben wir dieses Problem dank ESP nicht, wir müssen uns also nur noch mit der grub.cfg ärgern und nicht mehr mit einem zu fettem Bootloader.

Zuletzt kommt noch unser neuer Bootloader gummiboot, dieser hat bei weitem nicht so viele Features wie grub2 und kann abgesehen von UEFI auch nichts. Eine Installation auf wechselnden (UEFI / BIOS) Systemen ist also nicht möglich. Der Vorteil ist aber hier die Einfachheit, zum einen ist die Konfiguration sehr einfach da z.B. nicht erst ein Image vom Bootloader gebaut werden muss, zum anderen ist auch der Rest der Konfiguration sehr minimal gehalten. Auch die Installation mehrerer Linux Distributionen ist für gummiboot kein Problem, den jede Distribution kann innerhalb einer definierten Verzeichnisstruktur eigene Konfigurationsdateien für Kernel und Initrd anlegen.

Fazit

Der gummiboot befolgt strikt das KISS-Prinzip und kommt mit einer sehr minimalen Konfiguration aus (ca. 6 Zeilen in 2 Textdateien statt 143 in einer Datei) und deckt nichts außer die Grundfunktionen die man benötigt ab. Dazu kommt eine sehr einfache Installation (ab dem nächsten Release) und wenig Wartungsaufwand für Multi-Distri-User. Der Aufmerksame Leser wird gemerkt haben das sich dieser Artikel nur auf 64-Bit bezieht, Pfadangaben sind für 32-Bit Systeme anzupassen wobei man dort kaum UEFI verwenden dürfte.

Seit fast einem Jahr habe ich nun ein Lenovo x220 als Arbeitsgerät für unterwegs. Bei der Installation habe ich gleich auf den neuen Standard UEFI gesetzt, und so die typische Sache mit dem MBR gespart. Ich finde den MBR zwar an sich nicht schlimm, aber UEFI hat vom Konzept her den Vorteil einen solchen nicht zu benötigen. Was nicht benötigt wird kann auch nicht kaputt gehen ;-)

UEFI Grundlagen

Fangen wir also mal mit den UEFI Grundlagen an. Das Booten bei UEFI erfordert nicht mehr länger einen Bootsektor am Anfang der Platte oder Partition, sondern eine gesonderte Partition welche wir nachfolgend ESP (EFI System Partition) nennen werden. Auch die Partitionierung unterschiedet sich, das "gute" alte MSDOS Format mit seiner Begrenzung auf 2 TB ersetzen wir durch das moderne GUID, welches auch bei Platten mit wesentlich mehr als 2 TB keine Probleme hat.

Jetzt wissen wir also das wir eine spezielle Partition (ESP) benötigen, und das wir unsere klassische Partitionierung auch nicht mehr benötigen. Das bedeutet auch das wir unsere Standardtools wie fdisk, cfdisk und Co nicht mehr benötigen. Wer bisher schon parted verwendet bekommt von der ganzen Aktion nicht so viel mit, es funktioniert einfach, sogar mit den gleichen Befehlen. Die ESP Partition hat noch eine Besonderheit, zum einen muss diese eine ganz bestimmte ID haben (C12A7328-F81F-11D2-BA4B-00A0C93EC93B), und zum anderen ein FAT Dateisystem, FAT32 bietet sich an und wird von jedem Betriebssystem unterstützt.

Grundlegend haben wir jetzt alles wichtige erwähnt, wir haben die Partitionierung erwähnt und auch das wir hierbei eine besondere Partition beachten müssen. Doch dem aufmerksamen Leser wird aufgefallen sein das noch etwas fehlt: Der Bootloader

Jetzt kommt die letzte Besonderheit, und zwar die Art wie UEFI nach diesem Bootloader den wir benötigen sucht. Eigentlich sucht UEFI nicht nach einem Bootloader sondern nach einer sog. UEFI Binary. Also einem Programm das einer bestimmten Spezifikation entspricht, wir selbst ignorieren das einfach und nennen dieses Konstrukt weiterhin Bootloader. Erwähnt sei noch das es Alternativ zu einem Bootloader wie gummiboot oder grub2 auch z.B. eine UEFI Shell und einiges andere gibt.

Viele Wege führen nach Rom, aber nur 2 Wege führen den UEFI zu diesem Binary / Bootloader:

  1. Standardpfad auf der ersten FAT Partition bzw. ESP
  2. Eintrag im NVRAM vom System welcher genau sagt wo zu suchen ist
Der erste Weg ist für Wechselmedien gedacht, der zweite Weg für eine feste Installation. Die erste Möglichkeit sucht einfach unter /EFI/boot/bootx64.efi auf der oben genannten Partition und startet das Ding. Der andere Weg hat den Vorteil das pro Medium mehrere Bootloader / Betriebssysteme verwendet werden können, d.h. Windows und Linux (oder auch mehrere Linux Distributionen) können sich selbst beliebige Bootloader anlegen und dem UEFI / NVRAM einfach sagen wo dieser zu finden ist.

Die Installation eines Bootloaders besteht also bei einem fest installiertem System aus 2 Schritten, zuerst muss das UEFI Binary / Bootloader auf die ESP kopiert werden, im Anschluss muss im NVRAM vom System auch noch hinterlegt werden wo genau dieser Bootloader zu finden ist. Das ganze passiert auf einem UEFI fähigem System bei der Installation, ist für den Anwender also unsichtbar. Ein überschreiben vom MBR durch dieses Randgruppenbetriebssystem von Microsoft ist also unwahrscheinlich.

Mit den Grundlagen sind wir also im groben durch, der Grundlegende Ablauf ist uns bekannt.

UEFI Bootloader

Jetzt sind wir bei dem Teil mit dem Bootloader, wir haben hier relativ viel Auswahl:

  • gummiboot
  • grub2
  • Linux Kernel
Wir fangen mal von hinten an, zuerst also der Linux Kernel, dieser kann seit einiger Zeit so gebaut werden das er sich direkt als UEFI Binary ausgibt. Setzt man nun noch mit z.B. rdev die entsprechenden Parameter und kommt ohne Initrd aus benötigt man nichtmal mehr einen Bootloader. In der Praxis wird man dies nicht vorfinden da die Initialisierung von RAID, LVM und LUKS ohne Initrd eher hässlich bis unmöglich sein dürfte.

Der nächste Kandidat auf der Liste wäre grub2, wir kennen und fürchten ihn schon, es handelt sich dabei um die neue und noch aufgeblähtere Version von grub. Dieses mal erzeugen die meisten Distributionen durch eine Vielzahl an Scripts und Konfigurationsdateien eine grub.cfg, das UEFI Binary wird nochmal extra mit einem anderen Befehl angelegt und bringt einige MiB auf die Waage. Hat man mehrere Distributionen auf der Platte werden sich diese gerne gegenseitig die grub.cfg überschreiben und das jeweils zuletzt installierte oder aktualisierte Linux wird booten. Sicherlich, grub2 hat auch Vorteile wie eingebauten Support für RAIDs, LVM und eine tolle Shell. In der Praxis bleiben 90% der Funktionen auf der Strecke und machen das ganze Konstrukt nur fehleranfällig und langsam. Hier wären wir beim nächsten Punkt, auf einigen Systemen kann sich grub2 abhängig von der Partitionierung nicht installieren, Problem ist das unser Image von grub2 so groß ist das es nicht in den freien Bereich zwischen MBR und 1. Partition passt, es gibt einen extra Partitionstypen um dieses Problem zu umgehen (kein Witz). Neuere Distributionen lassen an der entsprechenden Stelle einfach ein wenig Platz, dann klappt das auch. Unter UEFI haben wir dieses Problem dank ESP nicht, wir müssen uns also nur noch mit der grub.cfg ärgern und nicht mehr mit einem zu fettem Bootloader.

Zuletzt kommt noch unser neuer Bootloader gummiboot, dieser hat bei weitem nicht so viele Features wie grub2 und kann abgesehen von UEFI auch nichts. Eine Installation auf wechselnden (UEFI / BIOS) Systemen ist also nicht möglich. Der Vorteil ist aber hier die Einfachheit, zum einen ist die Konfiguration sehr einfach da z.B. nicht erst ein Image vom Bootloader gebaut werden muss, zum anderen ist auch der Rest der Konfiguration sehr minimal gehalten. Auch die Installation mehrerer Linux Distributionen ist für gummiboot kein Problem, den jede Distribution kann innerhalb einer definierten Verzeichnisstruktur eigene Konfigurationsdateien für Kernel und Initrd anlegen.

Fazit

Der gummiboot befolgt strikt das KISS-Prinzip und kommt mit einer sehr minimalen Konfiguration aus (ca. 6 Zeilen in 2 Textdateien statt 143 in einer Datei) und deckt nichts außer die Grundfunktionen die man benötigt ab. Dazu kommt eine sehr einfache Installation (ab dem nächsten Release) und wenig Wartungsaufwand für Multi-Distri-User. Der Aufmerksame Leser wird gemerkt haben das sich dieser Artikel nur auf 64-Bit bezieht, Pfadangaben sind für 32-Bit Systeme anzupassen wobei man dort kaum UEFI verwenden dürfte.

David Herman, Luke Wagner und Alon Zakai (Entwickler von Emscripten) von Mozilla haben mit asm.js ein JavaScript-Subset entwickelt, welches nahezu die Performance von nativ geschriebenen Code erreichen soll. Mit OdinMonkey arbeitet man außerdem daran, einen entsprechenden Compiler in Firefox zu integrieren.

asm.js ist für Code ausgelegt, welcher über Compiler wie Emscripten oder Mandreel in JavaScript übersetzt worden ist, und soll die Ausführung von JavaScript spürbar beschleunigen können. Es handelt sich dabei um ein Subset von JavaScript, womit ein asm.js geschriebener Code auch von JavaScript-Engines ausgeführt werden kann, welche asm.js nicht unterstützen. Dafür optimierte Engines sollen allerdings JavaScript deutlich schneller ausführen und entsprechender Code ungefähr halb so schnell wie in C oder C++ geschriebener Code sein, womit die JavaScript-Performance vergleichbar mit C# respektive Java sein soll.  Bei Mozillas BananaBread-Demo konnte bereits jetzt eine Performance-Verbesserung von zwei- bis viermal gegenüber Mozillas SpiderMonkey ohne asm.js-Unterstützung beziehungsweise Googles V8-Engine erreicht werden.

Benchmark-Quelle: kripken.github.com

Unter dem Namen OdinMonkey läuft die Entwicklung und Integration eines entsprechenden Compilers in Firefox. Technisch Interessierten sei dieser Artikel empfohlen, welcher technische Details erklärt.

Jonas hat vor einigen Tagen sein Nexus 4 vorgestellt, also stelle ich das Galaxy Nexus vor. Ich nutze dieses Smartphone schon eine Weile, allerdings fehlt mir der „persönliche“ Vergleich zu älteren Smartphones.

Technische Daten

Galaxy Nexus

Galaxy Nexus

Das Galaxy Nexus wird von Samsung hergestellt und ist als Teil der Nexus-Serie auch ein Teil der „Google-Handys“. Vertrieben wird es mittlerweile seit über zwei Jahren, muss sich mit seinen Leistungsdaten aber auch heute nicht verstecken. Der Prozessor ist ein Dual Core 1,5 GHz ARM, der auf 1,2 GHz heruntergetaktet wurde. Als Arbeitsspeicher ist 1 GB verbaut. Neben den standard-Techniken (Mobilfunk, WLAN, Blutooth etc.) verfügt es auch über einen NFC-Sensor.

Die Hauptkamera hat eine Auflösung von 5 Megapixeln, die Frontkamera hat stolze 1,3 Megapixel. Das Display ist mit 4,65″ sehr groß und übersichtlich, frisst aber auch einiges an Akku. Die Auflösung beträgt 1280×720 Pixel.

Intern sind 16 GB Speicherplatz verfügbar. Leider lässt sich dieser nicht über zusätzliche Speichermedien erweitern.

Im Gegensatz zu seinem Nachfolger, dem Nexus 4 (hergestellt von LG), kann man am Galaxy Nexus die Rückseite demontieren. Dies ermöglicht einen Akkutausch. Gerade bei modernen Geräten gilt der Akku als Schwachstelle, deswegen ist ein wechselbarer Akku von Vorteil (Stichwort: geplante Obsoleszenz).

Durch seine unebene, gewollt raue Oberfläche auf der Rückseite, liegt das Handy trotz seiner Größe gut in der Hand. Ist es vollständig montiert, sieht es edel und hochwertig aus, öffnet man jedoch die Abdeckung hinten, zweifelt man an der Stabilität des Deckels. Dennoch gibt es an der Verarbeitung des Telefons nichts auszusetzen.

Software

Das Galaxy Nexus gilt als Vorzeigehandy für Android 4.x und wird mit dieser Version auch ausgeliefert. Als offizielles Google Handy wird es auch als eines der ersten Geräte mit neuen Android-Versionen ausgestattet. Diese Upgrades auf höhere Versionen (aktuell bis Android 4.2.2 Jelly Bean) werden als Systemupgrade selbstständig angeboten (sind aber optional). Es läuft auffällig stabil, bisher hatte ich nur einen einzigen Absturz.

Eine ganz nützliche Funktion, die das Handy anbietet, ist „Face Unlock“. Um das Handy zu entsperren, muss man kein Muster eingeben, man kann dazu einfach in die Frontkamera sehen. Wenn man der Besitzer ist, wird das Handy selbstständig entsperrt. Das funktioniert überraschend gut und auch sehr schnell! Das „trainieren“ des Handys dauert ca. eine Minute (dazu filmt man lediglich sein Gesicht), das entsperren passiert ein wenigen Sekunden (teilweise sogar innerhalb einer Sekunde).

Canonical, die Firma hinter Ubuntu, entwickelt gerade das Ubuntu Phone. Als Arbeitsgerät wird dort ebenfalls das Galaxy Nexus verwendet (wie in etlichen Promotion-Videos zu sehen ist). Wie nun bekannt wurde, werden am 21. Februar 2013 die ersten Images für Anwender freigegeben. Das Galaxy Nexus und das Nexus 4 erhalten die beste Unterstützung.

Fazit

Preislich gesehen ist das Smartphone gut aufgestellt. Die Technik ist besser als die vom iPhone 4S, wobei es das gleiche Alter und um Welten günstiger ist. Durch die Verbindung zu Google ist es stets auf dem aktuellsten Stand, was die Android-Versionen angeht.

Das Galaxy Nexus ist also trotz des unglaublich hohen Alters von über 14 Monaten weiterhin ein gutes Smartphone, das sich auch heute noch sehen lassen kann. Die Hardware ist noch kokurrenzfähig und die Software auf dem aktuellsten Stand. Abzüge bekommt es bei mir, weil der Speicherplatz nicht erweiterbar ist.

Wer also ein günstiges Android-Smartphone haben möchte, kommt hier voll auf seine Kosten.

Plugins zu Entwickeln für das Monitoring-System Nagios ist mit ein kleinwenig Scripting-Erfahrung kein grosses Problem mehr, wenn man weiss, wo man was ablegen soll. An folgendem Beispiel möchte ich die 3 einfachen Schritte festhalten. So stand ich letzthin vor der Aufgabe die Zeit zu messen, wie lange es braucht, um eine Seite innerhalb eines per Eingabeformular geschützten Bereiches, zu erreichen. Eigentlich gut möglich via CURL – habe ich mir gedacht! Es gibt ja Optionen wie –form oder –data, doch die scheinen auf das ASP.NET und Telerik-spezifische Formular nicht anzuspringen. Also muss der Weg über ein Cookie her mit der Option –cookie.

Doch wie sieht das Plugin nun aus?`

Von Aussen soll dem Plugin ein Cookie, eine URL und die Zeitgrenzen für eine Warnung und einen Error zum abfragen übergeben werden. Wer Scripten kann weiss natürlich das dazu die Variablen $1 – $4 genutzt werden. So kommen wir mal zu einer kleinen Überprüfung und der Übergabe an CURL:

if [ $# -lt 4 ]; then
        echo "Please use check_site COOKIE URL WARNING ERROR"
        exit 2
fi

warning=$(($3*1000))
error=$(($4*1000))

curl --cookie "ATUH=$1" "$2" -s > /tmp/store.tmp

Doch jetzt soll ja auch noch die Zeit gemessen werden. Also speichern wir vor und nach dem Abrufen der Seite jeweils einen Timestamp:

first=`echo $(($(date +%s%N)/1000000))`
warning=$(($3*1000))
error=$(($4*1000))

curl --cookie ".AUTH=$1" "$2" -s > /tmp/store.tmp

last=`echo $(($(date +%s%N)/1000000))`
need=$(($last-$first))

Und damit hat man schon fast die ganze Arbeit gemacht. Nun noch ein bisschen querchecken und die passenden Ergebnisse ausgeben:

if [ $need -gt $error  ]; then
        echo "needed `bc -l <<< "scale=3; $need/1000"` seconds for a response"
        exit 2
fi

if [ $need -gt $warning  ]; then
        echo "needed `bc -l <<< "scale=3; $need/1000"` seconds for a response"
        exit 1
fi

echo "needed `bc -l <<< "scale=3; $need/1000"` seconds for a response"
exit 0

Wer auch weiss, was im Report drin sein sollte und das auf ein bestimmtes Keyword prüfen möchte, um sicher zu gehen, der kann noch folgendes Schnipsel einfügen, natürlich vor allen anderen Überprüfungen:

if [ `cat /tmp/$id |grep KEYWORD |wc -l` -lt 1  ]; then
        echo "Unknown Error"
        exit 2
fi

Nun wenn man das Plugin im Ordner libexec abgelegt und ausführbar gemacht hat, kann man einen Eintrag in der Datei commands.cfg anlegen:

#check response time for a response report
define command {
        command_name check_site
        command_line $USER1$/check_site $ARG1$
}

Und als letzer Schritt, ganz wie man es bereits kennt, die Einträge in der hosts.cfg anlegen.

18. Februar 2013

Zum Glück ist es unter Linux nicht so weit gekommen wie unter Windows, dass man nach der Installation erstmal Unmengen nutzloser Software von der Platte und aus dem Autostart schmeißen muss. Nichtsdestotrotz gibt es auch für Ubuntu ein paar Handgriffe, die einen Geschwindigkeitsvorteil bringen können.

Preload installieren

Preload läd oft genutzte Programme automatisch in den Cache, sodass sie nach dem Start schneller gestartet werden können. Es lernt selbstständig und wurde auf einigen Seiten empfohlen:

sudo apt-get install preload

Swappiness einstellen (reduzieren)

Die Einstellung der Swappiness regelt, ob und wie viele eurer Prozesse aus dem Arbeitsspeicher auf die Swap-Partition ausgelagert werden (siehe Swap). Wenn das System nicht zu wenig Arbeitsspeicher (ab 2-3GB) besitzt, kann man die Swappiness reduzieren und somit verhindern, dass der Arbeitsspeicher nicht voll ausgenutzt wird und das System durch ständiges Auslagern auf und Nachladen von der Festplatte verlangsamt wird.

Wer vielleicht mit exotischer Software, die Unmengen Arbeitsspeicher braucht, arbeitet, sollte da vielleicht etwas überlegen, in Foren ist man sich keineswegs einig über eine “richtige” Einstellung, aber da ich hauptsächlich eher kleinere Programme wie Firefox, Thunderbird, LibreOffice und andere Dokumente öffne, ist es für den Alltag von Vorteil, wenn diese Programme größtenteils im Hauptspeicher gehalten werden.

Man bearbeitet die Konfigurationsdatei mit:

gksudo gedit /etc/sysctl.conf

Und fügt, sofern noch nicht vorhanden, die Zeile ein:

vm.swappiness=10

Ein Wert von 0 bedeutet, dass erst ausgelagert wird, wenn der Arbeitsspeicher komplett voll ist, ein Wert von 100 bedeutet, dass sofort ausgelagert wird. Standardmäßig steht der Wert auf 60 und man kann auch selbst etwas probieren und ihn testweise auf z.B. 20 stellen – je nach Nutzungsverhalten und Größe des Speichers. Ein weiterer Vorteil hierbei ist auch, dass ein Laptop, der durch weniger Auslagern weniger Festplattenzugriffe durchführen muss, eine etwas längere Akkulaufzeit bekommt.

Temporäre Dateien in den RAM speichern

Wenn die temporären Daten direkt im Arbeitsspeicher bleiben, können die Programme, die sie benötigen, schneller auf sie zugreifen und verursachen so ebenfalls keine Festplattenzugriffe. Außerdem ist der Ordner /tmp so nach jedem Booten automatisch geleert.

Ich habe vorsorglich alle bisherigen temporären Dateien von der Festplatte gelöscht und dann die fstab z.B. mit dem Befehl geöffnet:

sudo rm -rf /tmp/*
gksudo gedit /etc/fstab

Und fügt die Zeilen am Ende ein:

# /tmp in Arbeitsspeicher auslagern
tmpfs /tmp tmpfs defaults,noexec,nosuid,size=15% 0 0

Somit sind 15% des Arbeitsspeichers (man kann den Wert je nach Bedarf anpassen) für die temporären Dateien reserviert. Das heißt zwar, dass weniger Speicher für Programme verfügbar ist, dafür werden die Lese- und Schreibzugriffe auf temporäre Dateien beschleunigt und die Festplatte wird nicht beansprucht.

Wenn man diesen Tipp befolgt, sollte man auch unbedingt folgende zwei Zeilen in die /etc/apt/apt.conf einfügen:

DPkg::Pre-Invoke{“mount -o remount,exec /tmp”;};
DPkg::Post-Invoke {“mount -o remount /tmp”;};

Das bewirkt, dass /tmp während Installationsvorgänge exec gemounted wird und nach Abschluss wieder noexec gemounted wird. Das beugt Fehlern während der Ausführung von apt vor.

Datei-Zugriffszeiten nicht protokollieren

Auf ext3- und ext4-Partitionen werden die Zeiten des Dateizugriffs in der Inodetabelle gespeichert, was bei jedem Dateizugriff zu zusätzlicher Festplattenaktivität führt. Die reinen Zugriffszeiten benötige ich aber nicht und habe die Protokollierung der Zugriffszeiten deaktiviert, um einerseits wieder einen Funken Performance und auch etwas mehr Akkulaufzeit herauszuholen.

Die Einstellungen werden auch in der fstab gespeichert, die man z.B. mit diesem Befehl öffnen kann:

gksudo gedit /etc/fstab

Nun kann man die entsprechende Option bei allen ext3- und ext4-Partitionen hinzufügen, so wird aus:

UUID=149fcd6d-g34f-4823-a2gz-7123ac88e2fb /boot ext4 defaults 0 2

dann die Zeile:

UUID=149fcd6d-g34f-4823-a2gz-7123ac88e2fb /boot ext4 defaults,noatime 0 2

Ich habe bisher keine negativen Auswirkungen (Synchronisation etc.), die das Protokollieren der Zugriffszeiten notwendig machen würde, finden können.

Siehe auch:

17. Februar 2013

Da waren’s nur noch 3. Nachdem bislang der Internet Explorer, Mozilla, Opera und Safari/Chrome jeweils mit eigenen Rendering-Engines für die Diversität im Internet sorgten, wird es künftig nur noch drei nennenswerte Techniken zur Anzeige von Webseiten geben.

Natürlich ist die Überschrift falsch – nicht Opera stirbt, sondern seine Rendering-Engine Presto. Opera wird in Zukunft die von Apples Safari und Googles Chrome (oder auch KDEs Konqueror) bekannte Webkit-Engine nutzen. „Och nö“, das wird die erste Reaktion von Opera-Fans sein, die den flinken und innovativen Browser schätzen und nun schon sein tatsächliches Ende kommen sehen. Doch der Verzicht auf eine eigene Hintergrundtechnik könnte auch eine echte Chance für den Opera-Browser darstellen.

Och nö ...

Flurbereinigung könnte man das auch nennen. Einstmals gab es nur zwei große Webtechniken, die miteinander konkurrierten: Trident im Internet Explorer und Gecko in Netscape, später Mozilla und noch später Firefox. Operas Presto gab es seit 2003, davor war Opera jedoch auch schon mit einer eigenen Engine vertreten. Nennenswerten Einfluss hatte Presto jedoch nie erzielt in seiner 10-jährigen Existenz, erst mit Apples Umschwenken vom Internet Explorer auf den eigenen Browser Safari, und damit der starken Verbreitung der ursprünglich von KDE entwickelten KHTML-Technik, wurde eine starke dritte Plattform im Netz etabliert. Die Opera-Engine war das fünfte Rad am Wagen in der Webentwicklungswelt. Wenn Seitenanbieter ihre Webseiten in Browsern prüften, dann gehörte Opera meist nicht dazu. Damit auch Opera-Nutzer wenigstens auf die großen, populären Seiten ohne Darstellungsfehler zugreifen konnten, musste Opera tricksen und die Seiten beim Laden teils mit eigenen Korrekturen manipulieren.

Drei statt vier

Nun aber wird Webkit also endgültig den dritten Platz von Presto übernehmen, dieser inzwischen Vierte im Bunde wird eingestellt. Opera gibt damit ein Stück Identität auf, ein Stück Originalität und Unverwechselbarkeit. Opera verabschiedet sich damit als originärer Hersteller von Anzeige-Technik für Webinhalte. Opera wird künftig nur noch den Stellenwert einer Browservariante haben, also etwa wie sich Seamonkey zu Firefox verhält. Statt Opera wird man bald auch Chrome einsetzen können, ohne Unterschiede in der Darstellung zu bemerken.

Doch das ist keine Katastrophe, im Gegenteil. Denn der Opera-Marktanteil war seit jeher in der Regel maximal im niedrigen einstelligen Prozentbereich. Opera war und ist ein Browser für Liebhaber, für ambitionierte Power-User – und selbst die waren mit der Darstellungsleistung des Browsers oft alles andere als zufrieden. Was nun zunächst wie ein Ausverkauf des eigenen Tafelsilbers wirkt, das Verzichten auf den Kern seiner Existenz, kann auch eine Chance für Opera sein. Denn die Darstellungsfehler in Opera auf Feld-Wald-und-Wiesen-Webseiten kamen dadurch zustande, dass der Browser nicht weit genug verbreitet war.

Pragmatismus und Stärken

Opera krankte in der Vergangenheit immer daran, dass es Darstellungsfehler gab, weil Opera die Webseiten zwar vorbildlich äußerst standardkonform interpretierte, aber kaum ein Webentwickler seine Seiten auf Opera hin testete. Vor allem auch Operas Javascript-Interpreter sorgte für Abweichungen. Ein Verzicht auf die eigene Darstellungstechnik, die sich in knapp 20 Jahren nie wirklich hat durchsetzen können, erscheint daher als die pragmatischste Lösung. Wie sich das in Zukunft auch auf die Oberfläche und die Funktionen von Opera auswirken wird, wird sich noch zeigen müssen. Im Idealfall werden Opera-Nutzer von der Umstellung gar nichts bemerken – außer, dass die Schwierigkeiten mit der Anzeige von Webseiten schlagartig abnehmen.

Opera wird sich auf das konzentrieren, womit sie wirklich punkten können: das Programm an sich, mit einem hochflexiblen User-Interface und allen Modulen, die es für eine Desktop-Internet-Suite braucht, inklusive E-Mailprogramm und RSS-Reader. Wenn Opera künftig neben Apple und Google auch in der Weiterentwicklung von Webkit mitmischt, dann stärkt das die Webkit-Sparte. Andererseits bleibt es eine Bankrotterklärung, es ist ein Bruch mit dem, was den Browser bislang ausmachte: Innovation und Eigenentwicklungen, Trendsetzer auch bei der Implementierung von Webentwicklungen. Aber für die Pleite der eigenen Anzeigetechnik ist nicht Opera verantwortlich – die beste, innovativste oder auch standardkonformste Webseitendarstellung ist nichts wert, wenn sie von niemandem genutzt wird.

Vertauschte Rollen

Opera wird es auch weiterhin geben, aber streng genommen nur als Oberfläche. Der eigentliche Browser, der Teil, der die Webseiten darstellt, wird künftig identisch mit dem von Safari oder Chrome sein. Es bleiben damit also nur noch drei unterschiedliche Wege über, wie Webseiten in Zukunft auf den Bildschirm kommen: Microsofts Trident, Mozillas Gecko – und eben Webkit in Opera, Safari, Chrome & Co.


heute unvorstellbar, damals normal: Opera 6 mit großflächigem Werbefenster für wechselnde Anzeigen.

Jedoch gerade für die glühenden Anhänger wird Opera künftig nur noch ein halber Browser sein, eine Hülle für eine woanders entwickelte Technik. Doch Opera hat man nicht wegen seiner HTML-Engine benutzt, sondern trotz dieser (die eben oft für Probleme sorgte); der Grund, Opera zu benutzen, lag vor allem in dessen pfiffigen Funktionen der Oberfläche. Die vielen Möglichkeiten der Konfiguration, und das alles ohne eine einzige Erweiterung dazuinstallieren zu müssen. Für die Anwender ist es also zunächst ein Gewinn, wenn künftig eine weiter verbreitete Engine die Anzeige der Webseiten in Opera übernimmt. Auch für Webentwickler wird es leichter, weil eine Engine zum Testen wegfällt. Aber für das Web als solches ist es ein herber Verlust, ein Stück technische Vielfalt verschwindet und das Internet wird wieder ein bisschen homogener, mit der Gefahr der Entwicklung zur Monokultur. Man stelle sich nur einmal das Szenario vor, Mozilla würde auch auf Webkit setzen: damit hätte man dann unversehens den alten Browserkrieg wieder, diesmal mit getauschten Rollen: Google/Apple gegen Microsoft.

Schönste Ironie an der Geschichte: Opera, der Kommerz-Browser schlechthin, Closed-Source-Software, der früher nur gegen Geld zu haben war bzw. später alternativ dauerhaft großflächige Werbung einblendete, dieser Browser wird im Kern in Zukunft aus Open-Source-Technik bestehen.

Es war gerade bei freiesMagazin zu lesen, der sechste Programmierwettberb ist zu Ende. Mein Rechner freut sich auf eine Abkühlung, nachdem er jetzt schon 14 Tage auf 100% Last läuft. Dummerweise braucht mein eigener Bot noch etwas Zeit, so wird er vermutlich erst am Dienstag oder Mittwoch fertig werden.

Insgesamt hat der Wettbewerb wieder viel Spaß gemacht. 20 Teilnehmer sind eine sehr gute Zahl. Nicht zu wenig, als dass die ganze Arbeit der Spiele-Engine und GUI umsonst war, aber auch nicht zu viele, als dass die Betreuung und Tests zu aufwändig wären. (Mein Rechner arbeitet ja von alleine vor sich hin.) Ich bin auch gespannt auf die Lösungen der drei ersten Plätze, die im nächsten Magazin vorgestellt werden sollen. Mein Bot erreicht schätzungsweise den 7. oder 8. Platz, wenn er eingereiht werden würde. Ich könnte also etwas lernen …

Ich habe noch keine Idee, was ich dieses Jahr als Wettbewerb nehmen könnte. Brettspiele als Vorlage habe ich ja genug, aber es soll ja auch noch einigermaßen schnell machbar sein, weswegen die Regeln nicht zu kompliziert sein dürfen. "Robo Rally" und "Die Verbotene Insel" waren zwei sehr gute Ausgangspunkte, mal schauen, ob ich wieder so etwas in dieser Richtung finde. Im Kopf springt mir ja eine ganz andere Idee umher, aber da muss ich erst mal schauen, ob ich das geordnet bekomme. (Kleiner Hinweis: Es wäre wieder ein Spieler vs. Spieler-Wettbewerb.)

gitolite hat einen eingebauten Mechanismus sich selbst zu replizieren. Finde aber unschön dass ich dafür einen zweiten gitolite betreiben und neue Repos auf beiden Systemen anlegen muss.

Wie also das Backup realisieren. rsync für git ist in an so vielen Stellen eine Verschwendung von Ressourcen, Zeit und Funktionalität. Macht einfach keinen Sinn.

Wer sich schonmal mit

ssh git@git.example.com 

auf seinen Server verbunden hat weiss aber, dass bei vorhandenem Public Key alle für diesen User verfügbaren Repositories ausgespuckt werden. Mit diesem Feature kann man sich den Slave einfach selber bauen.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
#!/bin/bash 

MASTER="git@git.example.com"
BASEDIR="/data/gitslave/"

for repo in $(ssh $MASTER | grep '^ R' | awk '{print $3}') ; do
  if [ -d $BASEDIR/$repo ]; then
    cd $BASEDIR/$repo
    for rbranch in $(git branch -a | grep -v '^*\ master\|HEAD\ -' | awk -F/ '{print $3}'); do  
      git checkout $rbranch
      git pull origin $rbranch
    done
    cd -
  else
    git clone $MASTER:$repo $BASEDIR/$repo
  fi
done  &>/dev/null

Das Skript clont eigenständig alle Remote Branches und neue Repositories. Relativ pragmatischer Ansatz. Der Übersichtlichkeit halber, habe ich die logger Commands jetzt weggelassen.

Wems gefällt darfs behalten.

Flow
Genre Spiele
Preis kostenlos
Homepage Flow

Diese App der Woche ist ein Denk-Spiel welches für Android, Windows 8 und iOS verfügbar ist

Installation

Die Installation ist unter den verschiedenen Plattformen relativ einfach, da das Spiel in den App-Stores vorhanden ist. Unter Windows 8 beispielsweise einfach in der Kategorie Spiele nach Flow suchen und das Spiel installieren. Gestartet wird es dann wie alle Programme unter Windows 8 durch klicken der entsprechenden Kachel. Zumindest unter Windows und Android ist das Spiel kostenlos und mit Werbung.

Flow

Flow

Benutzung

Das Spielprinzip ist eigentlich ganz simpel. In einem quadratischen Raster sind verschiedene Paare von gleichfarbigen Punkten gemalt. diese muss man dann miteinander verbinden, und zwar so, dass sich keine Linien kreuzen oder überschneiden und dass das komplette Raster mit Linien bedeckt ist. Solange das Raster noch 5×5 Felder groß ist, und es nur 4 verschiedene Farben gibt, ist das alles kein Problem, aber je größer das Raster wird und je mehr Farben dazukommen, umso schwieriger wird es.

Flow mit Brücken

Flow mit Brücken

Fazit

Ein nettes Spiel für zwischendurch, welches sowohl einfach Level die man ohne groß zu überlegen lösen kann, als auch schwierige, für die man schon einmal mehrere Minuten brauchen kann, hat. Die Bedienung ist klar auf einem Touch-Screen ausgelegt, aber auch mit einer Maus (unter Windows 8) zu bedienen. Das Spiel gibt es als Variante, in der es zusätzlich noch Brücken im Spiel gibt, die man in die Lösung mit einbauen muss.

16. Februar 2013

Ein Gastbeitrag von Gregor Atzbach von atzba.ch

Ich bin ja ein Freund des klassischen alten Ubuntu, so wie es früher vor Unity mal aussah. Heute habe ich einen neuen Linux-Desktop namens MATE entdeckt und eingerichtet.

ubuntu-mit-mate

Man installiert zuerst den MATE-Desktop.

Im Fall von Ubuntu 12.04, wenn du eine andere Version hast, musst du die Paketquelle entsprechend ändern.

sudo add-apt-repository 'deb http://packages.mate-desktop.org/repo/ubuntu precise main'

sudo apt-get update

sudo apt-get install mate-archive-keyring

sudo apt-get update

sudo apt-get install mate-core

sudo apt-get install mate-desktop-environment

Nach der Installation kann man sich abmelden und mit dem MATE Desktop einloggen. Vorsicht, das sieht extrem hässlich aus, deshalb machen wir mit den nächsten Schritten weiter.

sudo add-apt-repository ppa:noobslab/themes

sudo apt-get update

sudo apt-get install ambiance-dark

wget http://vkebab.tk/data/light-themes-mate-12.04-all.deb

sudo dpkg -i light-themes-mate-12.04-all.deb

So, nun können wir das Design auswählen. Wir klicken dazu mit der rechten Maustaste auf den Desktop und wählen “Hintergund ändern”, im oberen Reiter wählen wir “Thema”.

Wir wählen das Thema: “Ambiance”, anschließend wechselt sich das Aussehen, allerdings mit noch einigen Schönheitsfehlern. Bei mir war die obere Leiste teilweise noch hell. Um diese Fehler zu korrigieren klicken wir auf die Schaltfläche “Anpassen” und wählen einige Sachen aus. Im Reiter “Fensterinhalt” sowie dem Reiter “Fensterrahmen” klicken wir auf “Ambiance-MATE”, bzw. “Ambiance-dark” Je nach Geschmack. Wenn die Symbole von Ubuntu noch nicht passen, kann man diese im Reiter “Symbole” auswählen.

Nun fehlen noch die Schriftarten. Bevor Canonical den bekloppten Unity Desktop herausgebracht hat, haben sie eine Schriftart namens “Ubuntu” in das System integriert. Wenn du gerade auf einem Ubuntu arbeitest hast du diese Schrift wahrscheinlich installiert, ansonsten kannst du sie dir hier herunterladen.

Nachdem man die Schrift installiert hat, stellen wir diese als Systemschriftart ein. Dafür klicken wir in den “Erscheinungsbild-Einstellungen” auf den oberen Reiter “Schriftarten”. Dort sind bereits Schriftarten ausgewählt, man ändert diese mit einem Klick auf die Schriftart. Die Einstellung unter der Spalte “Stil” merkt man sich am besten bevor man die Schriftart ändert, um sie anschließend wieder auszuwählen.

Wer jetzt noch die alten Standardhintergrundbilder haben möchte, findet hier eine ganz nette Übersicht darüber.

UPDATE:

Das Design von Ubuntu 9.10 kann man sich ebenfalls noch nachinstallieren

sudo apt-get install human-theme human-icon-theme

So, jetzt fühlt es sich wieder wie früher an. Das Tolle an MATE ist, daß dies noch weiterentwickelt wird und es dafür – im Gegensatz zur alten Gnome Version – noch Sicherheitsupdates gibt.

Artikel bei atzba.ch

Lautsprecher

Der Raspberry Pi hat leider keinen besonders guten Soundchip. Ich hab nicht so viel Ahnung davon, aber der analoge Ausgang ist wohl auch nicht so toll. Das ist wohl einer der Gründe dafür, dass der Sound beim Wechsel von einem MP3 zum nächsten bei MPD immer knackt. Zum Einschlafen taugt der Raspi so nicht. Mit ein paar einfachen Einstellungen kann man das Knacken aber loswerden.

Offenbar knackt der Sound, weil sich das Soundsystem (ALSA) immer kurz aus– und einschaltet, wenn das erste MP3 zu ende ist und das nächste abgespielt werden soll. Wenn man diese Lücke schließen könnte, müsste das Knacken auch verschwinden, dachte ich mir. Ich hab das Knacken zwis­chen den Tracks bei MPD damit tatsächlich weg bekom­men. Dazu habe ich in der /etc/mpd.conf den Gapless-Modus eingeschal­tet, den Buffer auf 4096 ver­dop­pelt und buffer_before_play auf 10% gestellt. So ist immer genügend MP3 vorhanden, um einen störungsfreien Sound zu gewährleisten.

Der HDMI–Ausgang soll wohl besser sein und wer prinzipiell einen besseren Sound haben möchte, sollte sich eine USB–Soundkarte zulegen. Da gibt es eine Reihe Geräte, die erwiesenermaßen funktionieren.

Unter der IP 84.200.213.109 steht seit einigen Tagen ein Usenet-Server zum diskutieren (nicht zum Downloaden) bereit. Schwerpunkt ist im Grunde (Arch-)Linux. Folgende Gruppen sind derzeit vorhanden:

  • admin.news.groups: Alles Rund um den den Server. Z. B. um neue Gruppen vorzuschlagen.

  • alt.nerd: Für Dinge rund um dien IRC-Server irc.malte-bublitz.de

  • alt.nerd.themenabend: Planung für eventuell stattfindenden Themenabende

  • comp.os.linux: Für das ganze Linux-Gedöns

  • comp.os.linux.archlinux: Für Arch Linux im Speziellen

  • comp.os.bsd: Für die BSDler unter uns

Das ganze ist nicht auf meinem Mist gewachsen sondern auf dem von Malte Bublitz. Ich rühre hier nur etwas die Werbetrommel, da ich es interessant finde abseits von Foren diskutieren zu können. Oldschool sozusagen. Bisher ist es noch etwas leer, wie man sieht, aber vielleicht ändert es sich ja.

Der Server ist nun unter nntp.flying-sheep.de erreichbar.

Möchte man über seine Ein- und Ausgaben buchführen, dann erleichtert einem eine Finanzverwaltungssoftware wie GnuCash das Verwalten ganz ungemein.

Ist man jedoch unterwegs ist eine solche Software viel zu komplex und ein Notebook unnötig groß. Hat man jedoch ein Smartphone mit dem Betriebssystem Android dann kann man GnuCash verwenden. Nun, genauer: GnuCash für Android (wobei das für Android nicht teil des Namens ist).

Dabei handelt es sich um eine ganz einfache Anwendung die nicht zwingend an GnuCash gebunden ist. Es handelt sich viel mehr um ein Notizbuch für Ein- und Ausgaben, welches ins OFX-Format (Open Financial Exchange) exportiert. Das heißt jede Software die dieses Format importieren kann, kann mit GnuCash (für Android) verwendet werden.

Ein einfacher Notizblock ist die Anwendung jedoch nicht mehr, mittlerweile kann die mobile Version des buchhaltenden GNUs auch Doppelte Buchführung.

Neue Buchung Übersicht über Buchungen Widget

Um Buchungen nicht doppelt zu importieren merkt sich die Anwendungen welche Buchungen seit dem letzten Export durchgeführt wurden und exportiert standardmäßig nur diese. Es besteht auch die Möglichkeit Buchungen nach dem Export automatisch löschen zu lassen.

Die Software ist unter der Apache2.0 Lizenz veröffentlicht und ist im F-Droid-Repository sowie Google Play zu finden.

Weiterführende Links

Ich nutze auf meinem Nexus 4 nicht die Standard-ROM, mit der das Smartphone ausgeliefert wird. Zwar ist auch diese sehr flüssig und lässt sich schon sehr weit an die eigenen Bedürfnisse anpassen, wie jedes Android, aber mir persönlich reicht das noch nicht aus. Ich habe auf meinen vorherigen Android-Smartphones meistens Cyanogenmod genutzt, bis ich vor gar nicht allzu langer Zeit auf Paranoid Android gestoßen bin.

Der Android-Stock-Browser im Tabletmodus

Paranoid Android bietet einige einzigartige Funktionen. Als erstes ist hier die “Hybrid-Engine” zu nennen. Mit dieser ist es möglich, ausgewählte Apps, aber auch das gesamte System, im Tablet-Modus laufen zu lassen. Dies kann bei Smartphones mit größerem Display durchaus sinnvoll sein. So wird aus dem – meiner Meinung nach schlechtem – Android-Stock-Browser plötzlich eine richtig ergonomische App. So ist plötzlich sehr komfortables Tabbed-Browsing möglich. Auch die Oberfläche eines Phablets wie dem Nexus 7 mag so manchem auf seinem Smartphone gefallen.

Als nächstes bietet Paranoid Android ein Feature namens “Per-App-Color”, das die Navigationsleiste (bei Nexus-Geräten) sowie die Statusbar (bei allen Geräten (inoffizelle Versionen)) den Farben der aktuell im Vordergrund laufenden App anpassen kann. Diese Feature lässt sich außerdem für jede einzelne App separat einstellen. Meiner Meinung nach ist das eine echte Killer-Funktion! Sowas ist gibt es bei keiner anderen ROM!

PIE

Das dritte und wirklich beste Feature ist PIE. PIE ersetzt die Navigationsleiste zum Beispiel dann, wenn man die Expand-Desktop-Funktion nutzt, also die eigentlich Navigationsleiste und die Statusbar ausblendet, und erlaubt dann dennoch noch die Bedienung. Das ist insbesondere dann praktisch, wenn man Spiele im Vollbild ohne Navigationsleiste ausführen möchte.

Neben diesen drei Killer-Funktionen besitzt Paranoid auch noch etliche andere Funktionen. Angefangen bei Musikkontrolle über Lautstärketasten, Themes oder einer verbesserten Energiesteuerung ist es auch möglich, bei einzelnen Apps die Navigationsleiste auszublenden (Per-App-Expand) oder die Buttons in der Navigationsleiste zu ändern.

Trotz der vielen, vielen Funktionen wirkt Paranoid Android dennoch nicht so überladen wie viele andere Custom-ROMs. Es wird meiner Meinung nach nur das mitgeliefert, was der “Normalo” braucht. Wer wirklich jedes kleinste Detail anpassen möchte, sollte aber lieber bei den alten Bekannten wie Cyanogenmod bleiben. Diese bieten doch noch einige Detaileinstellungen mehr.

 Bilder im Überblick

Per-App-Color auf dem Homescreen Der Android-Stock-Browser im Tabletmodus PIE Facebook mit Per-App-Colors

Links

Für viele andere Geräte gibt es eine inoffizielle Version von Paranoid Android. Diese sind in der Regel bei Android-Hilfe.de zu finden.

 

Auch wenn es jetzt einen Steam-Client für Linux gibt, muss Steam ja trotzdem nicht die ganze Zeit im Hintergrund laufen und so auf dem Arbeitsrechner an die mögliche Ablenkung erinnern. Dabei ist die Software mehr als eine Spieleplattform, es ist auch ein Kommunikationsmedium durch die Freundesliste und den integriertem Chat. Wäre natürlich toll, das immer zur Verfügung zu haben, um auch den steamnutzenden Jabber- und ICQ-Verweigerer erreichen zu können….

pidgin-opensteamworks macht genau das möglich, indem es den Steam-Chat in Pidgin einbaut. Früher musste dafür der Steam-Client im Hintergrund laufen, was das Plugin relativ nutzlos machte, dem ist nicht mehr so.

Von der Downloadseite die libsteam-1.1.so (oder libsteam64-1.1.so auf 64-bit-Systemen) und die icons.zip herunterladen. Die Icons entpacken nach /usr/share/pixmaps/pidgin/protocols/, die libsteam-1.1.so nach /usr/lib/pidgin/ verschieben. Pidgin neustarten und ein Konto anlegen, nach dem per Mail verschickten Steam-Guard-Code wird beim ersten Einloggen gefragt.

Macht einen hervorragenden ersten Eindruck.

Noch gut 11 Tage lang gibt es bei Groupees ein neues “Be Mine” Paket-Angebot – das “Be Mine Anniversary” Bundle. Unter den zahlreichen Spielen finden sich auch drei für Linux-User und etwas Musik.

Zeitgleich (allerdings nur noch ca. 4 Tage lang) gibt es das Valentines Bundle 2.0 bei Indie-Royale – mit Serious Sam 3: BFE für Linux…

groupees-bmaDie Groupees-Bundles funktionieren ähnlich wie die Humble Bundles. Allerdings gibt es hier Mindestpreise bzw. im unteren Bereich Festpreise. So gibt es die Möglichkeit $1, $5 oder $25 – oder beliebig viel mehr zu bezahlen. Ein fester Teil der Erlöse wird an wohltätige Organisationen (diesmal Charity Water und Child’s Play) gespendet.
Käufer, die ausschließlich an den Linux-Spielen interessiert sind, müssen beim Be Mine Anniversary Bundle nicht mehr als den $1-Mindestpreis bezahlen.

indieroyalevalentines2-logoBei Indie Royale ist der Modus etwas anders. Hier ist der Mindestpreis immer etwas höher – gerade, als ich das hier schreibe, liegt er bei 4,47€. Er sinkt allerdings, und das ist das interessante daran, je mehr die Käufer im bezahlen.

Wie gewohnt gehe ich hier nur auf die Linux-Spiele ein und verlinke, wenn möglich direkt mit den Spiele-Homepages (teilweise auch zu Steam oder Desura, wenn keine Homepage auffindbar war).

Eschalon: Book II (Groupees)

eschalon-book2-01Eschalon ist ein klassisches Rollenspiel, optisch in diagonaler Draufsicht gestaltet. Wie gewohnt wird zu Beginn erst einmal ein Charakter gestaltet – man spielt nicht mit einer Gruppe, sondern nur mit einer Person – und diesem Fertigkeiten gegeben.
In einem rundenbasierten Spielsystem kann man dann eine große Welt (Karte liegt als PDF bei) erkunden und muss dabei Quests erledigen, also Aufgaben lösen. Wie restriktiv dabei die Regeln sein sollen, kann bei Spielstart festgelegt werden. Was nicht unbedingt bei jedem Rollenspiel der fall ist: wer tot ist, ist tot – wohl dem der einen Spielstand gespeichert hat.
Das Spiel macht einen sehr guten Eindruck, zumindest was die Optik, die Steuerung und das Spielsystem angeht. Was die Quests betrifft kann ich nach dem kurzen Anspielen nicht wirklich etwas sagen.

Das Archiv wird nach dem Download einfach entpackt und schon kann das Spiel gespielt werden. Eine Installation findet also nicht statt.

Livalink (Groupees)

livalinkZunächst einmal macht Livalink optisch und von der Steuerung her den Eindruck eines First-Person-Shooters. Das Spielprinzip ähnelt allerdings eher einem Tower-Defense. Es gibt zwei Umgebungen zur Auswahl, in denen man sich dann Wellen von Angreifern zur Wehr setzen muss. Ich werde vermutlich nicht viel Zeit mit dem Spiel verbringen, aber die Mischung finde ich doch sehr interessant.

Es sei darauf hingewiesen, dass man als Linux-User hier nur einen Desura-Key bekommt. Weder ein direkter Download noch ein Key für Steam werden für das Spiel im Bundle angeboten. Wer es also spielen will, der muss sich Desura bzw. Desurium installieren.

iBomber Defense Pacific (Groupees)

ibomberdefensepacific-01Ein klassisches Tower-Defense-Spiel mit militärischem Thema und recht ansprechender Optik ist iBomber Defense Pacific. Wie der Name ja schon vermuten lässt geht es um kriegerische Auseinandersetzungen im Pazifik, und – wie sollte es anders sein – heißt der Gegner Japan.

Das Download-Paket bietet zwei .rpm- und zwei .deb-Pakete (32- und 64-bit), wobei natürlich letztere, in Abhängigkeit der Rechner-Architektur, zur Installation in Ubuntu verwendet werden.

Serious Sam 3: BFE (Indie Royale)

serioussam3-01Hierzu gibt es erst einmal keine eigenen Worte und Screenshots meinerseits, da der Download wohl noch eine Weile laufen wird :) (einen Screenshot habe ich mittlerweile nachgetragen). Allerdings denke ich auch nicht unbedingt, dass man den USK18-Titel großartig vorstellen muss, da es (oder zumindest die Reihe) ohnehin den meisten bekannt sein dürfte.
Wer dennoch Informationen braucht, bekommt die auf der Informationsseite zum Spiel bei Steam.

So viel kann ich aber sagen: auch hier ist kein Direct-Download möglich. Indie Royal bietet ausschließlich einen Steam-Key.

 


Für den (Mindest-)Preis ist das Groupees-Bundle unschlagbar. Man bekommt (als Linux-User) drei Spiele, mit denen man sich gut einige Zeit lang beschäftigen kann.
Wichtig ist noch ein Hinweis: zu den anderen Spielen sind teilweise Linux-Ports angekündigt. Allerdings ist nicht davon auszugehen, dass man als Käufer der BMA-Bundles diese dann auch erhält. Meine Vermutung basiert auf der Tatsache, dass ich schon einmal ein Groupees-Bundle mit einem Spiel gekauft habe, für das es auch eine Linux-Version gibt. Auf Anfragen hin wurde mir zwar geschrieben, dass ich einen Key bekommen werde, das ist aber leider nie passiert. Keine weitere Reaktion… Also: damit besser nicht rechnen!
Übrigens gibt es derzeit noch ein Bundle mit Chiptune-Musik – da lohnt es sich ggfs. auch mal reinzuhören…

Das Bündel von IndieRoyale punktet dabei vor allem dadurch, dass es sich bei Serious Sam nicht gerade um einen kleinen Indie-Titel handelt. Und immerhin muss man derzeit für das Spiel alleine fast das Doppelte rechnen.