ubuntuusers.de

22. Februar 2013

21. Februar 2013

Picasa³

Neulich hat sich die Datenbank meiner Picasa3 Installation verabschiedet. Äußerst ärgerlich ist das, denn da steckte eine Menge Arbeit drin. Und dann kam einfach eine Fehlermeldung, nach der Picasa nicht in der Lage war, eine bestimmte Datei zu öffnen. Mehrere Hilfe-Gruppen im Internet empfehlen, Picasa neu zu installieren. Ich wollte aber meine Datenbank nicht verlieren. Und so habe ich einen anderen Weg gefunden.

In der Log-Datei stand: „thumbs2_index.db,CBlockFile=837,err=2,errno=2,oserr=0″ — Also habe ich mich auf die Suche nach dieser Datei gemacht. Sie liegt unter C:\Users\USERNAME\AppData\Local\Google\Picasa2\db3 — Das Verzeichnis „AppData” ist unsichtbar. Man muss erst in den Ordnereinstellung einrichten, dass auch versteckte Dateien angezeigt werden, um es aufzurufen.

Ich habe dann die Datei „thumbs2_index.db” einfach in „BACKUP thumbs2_index.db” umbenannt — das ist vielleicht besser als löschen. Picasa startet dann wieder und soweit ich das sehe, sind alle Daten noch vorhanden. Nach und nach aktualisiert Picasa dann die Miniaturansichten. Man kann aber die ganze Zeit damit arbeiten.

Mein Experiment mit IPv6 geht weiter. Zumindest unter Archlinux habe ich das Problem das bei Nutzung des NetworkManager die Privacy Extension welche ich via /etc/sysctl.conf aktiviert habe nicht greift bzw. überschrieben wird.

Zeitlich bin ich nich dazu gekommen die Fehlerquelle zu Suchen, aber zumindest ein Workaround hätte ich erstmal. Konkret legen wir unter /etc/NetworkManager/dispatcher.d ein Shellscript mit folgendem Inhalt an:

#!/bin/bash

if [ $2 == "up" ]; then
sysctl -w net.ipv6.conf.$1.use_tempaddr=2 > /dev/null
fi

Die Datei nennen wir z.B. 01ipv6-privacy, und muss den Eigentümer und Gruppe root haben, sowie von diesem auch ausführbar sein. Ist das erledigt führt NetworkManager dieses Script bei jeder Änderung der Verbindung aus und setzt so für das genutzte Interface die Privacy Extensions auf aktiv.

Mein Experiment mit IPv6 geht weiter. Zumindest unter Archlinux habe ich das Problem das bei Nutzung des NetworkManager die Privacy Extension welche ich via /etc/sysctl.conf aktiviert habe nicht greift bzw. überschrieben wird.

Zeitlich bin ich nich dazu gekommen die Fehlerquelle zu Suchen, aber zumindest ein Workaround hätte ich erstmal. Konkret legen wir unter /etc/NetworkManager/dispatcher.d ein Shellscript mit folgendem Inhalt an:

#!/bin/bash

if [ $2 == "up" ]; then
sysctl -w net.ipv6.conf.$1.use_tempaddr=2 > /dev/null
fi

Die Datei nennen wir z.B. 01ipv6-privacy, und muss den Eigentümer und Gruppe root haben, sowie von diesem auch ausführbar sein. Ist das erledigt führt NetworkManager dieses Script bei jeder Änderung der Verbindung aus und setzt so für das genutzte Interface die Privacy Extensions auf aktiv.

20. Februar 2013

VisibleTweets.com

Ich bin Twitterwall-Skeptiker. Das ist so, seit auf dem PolitCamp 2009 die Teilnehmerinnen und Teilnehmer einer Diskussionsrunde ständig mit verdrehten Köpfen auf die Leinwand hinter sich starrten, um zu erfahren, worüber das Publikum gerade lachte. Richtig eingesetzt, kann eine Twitterwall aber tatsächlich etwas bringen.

Eigentlich ist eine Twitterwall bei jeder Veranstaltung Pflicht, bei der es ein offizielles Hashtag gibt. Und das sollte es geben, wenn die Veranstaltung relevant für mehr Menschen als ihre Teilnehmerinnen und Teilnehmer ist — Wenn es zum Beispiel einen Livestream gibt oder genügend Menschen mit Twitteraccount erwartet werden. Dann sollte die „virtuelle” Welt irgendwie in der „realen” Welt sichtbar gemacht werden, damit die Trennung zwischen Netz und Saal überwunden wird.

Die Deko-Twitterwall

Nun gibt es verschiedene Szenarien: Beim BarCamp Kiel haben wir immer eine Twitterwall im Foyer. Da laufen die Tweets nur so durch und die Wall dient eigentlich nur dem visuellen Nachweis, dass die Leute im Netz mitbekommen, dass das BarCamp stattfindet. Für solche Fälle muss nicht jeder Tweet chronologisch aufgeführt werden. Die Twitterwall muss dekorativ sein und einen Eindruck vermitteln, dass auf Twitter etwas passiert.

Für solche Fälle finde ich visibletweets.com sehr schön. Die verschiedenen Animationen werden angenehm abwechslungsreich dargestellt und hin und wieder wird ein Tweet hervorgehoben. Allerdings kann man bis auf die Animation nichts auswählen. Keine Hintergrundbilder, Logos oder Farben oder so. Schade finde ich auch, dass aus eingebundenen Fotos (Twitpic, Instagram & Co.) nichts gemacht wird.

Die Twitterwall als externer Input

Wenn man eine Twitterwall in einer Veranstaltung wirklich dafür nutzen möchte, dass Leute über das Internet Fragen oder Kommentare einreichen können, müsste das kontrollierter ablaufen. Eigentlich sollte die dann fest gesteuert durch eine Person funktionieren. Diese Person sollte gezielt einzelne Tweets heraus greifen und groß darstellen können. Dafür ist mir aber keine Twitterwall-Software bekannt. Die Twitterwall muss dann so eingerichtet werden, dass sowohl die Diskussionsteilnehmer als auch die Zuschauer sehen können, was passiert. Unkontrollierte Twitterwalls zerstören den Diskussionsfluss und lenken ab.

Nun gab es ziemlichen Wirbel um die Eventpages bei Twitter. Kritisiert wurden vor allem die Whitelists. Meine Erfahrung vom letzten BarCamp Kiel ist aber, dass ein halbwegs beliebtes Hashtag sofort zugespamt wird. Und wenn man nicht die ganze Zeit jemanden hat, der das moderieren kann, dann ist eine Whitelist schon einmal eine gute Basis. Beim BarCamp würde ich dann alle angemeldeten Teilnehmerinnen und Teilnehmer auf diese Whitelist setzen. Und dann könnte man lieber hin und wieder Leute zusätzlich freischalten. Aber auch das habe ich noch bei keiner Twitterwall-Software gesehen und ich habe keine Ahnung, wie man an eine Eventpage kommt.

Ich frag Dich!

Welche Twitterwall-Lösungen sollte ich mir mal anschauen? Gibt es solche spezielle Twitterwalls mit Moderationslösung? Oder wie könnte man so etwas einfach lösen? Ich suche die beste Twitterwall der Welt.

Links

Die Planung zur Ubucon 2013, die im Oktober in Heidelberg stattfinden soll, läuft zwar im Hintergrund, aber ein paar Dinge fehlen noch.

Vor allem Plakate und Flyer müssen erstellt und gedruckt werden, sodass diese zum einen in Heidelberg, aber auch auf anderen Linux-Messen gezeigt und verteilt werden können, um Werbung für die Ubucon 2013 zu machen. Letztes Jahr wurde dies versäumt bzw. zu spät umgesetzt und der Fehler soll nicht wiederholt werden.

Wer sich also mit dem Erstellen von Plaketen und Flyern auskennt, Interesse und Zeit hat und sich bei der Ubucon 2013 unsterblich machen will (naja, beinahe zumindest), sollte sich möglichst schnell unter helfer@ubucon.de melden.

Die Flyer und Plakate von 2011 und 2012 können über Launchpad mit Hilfe von Bazaar heruntergeladen werden. Diese können als Vorlage dienen – müssen es aber nicht.

Forensic Recovery Of Scrambled Telephones, oder kurz auch FROST genannt, beschreibt eine Methode, wie fast jedes Android-Phone geknackt werden kann. Und das inklusive allen verschlüsselten Daten, welche sich auf dem Phone befinden. Alles was man braucht ist physikalischen Zugriff und einen Gefrierschrank. Genau, ein Gefrierschrank: FROST-Methode am Beispiel eines Galaxy Nexus

Und da beschweren sich alle immer, beim iPhone könne man den Akku nicht herausnehmen </div>
                <div class= Permalink

Mist. Total verpennt, dass heute ja der zweite Mojam beginnt. Zur Erinnerung: letztes Jahr arbeiteten verschiedene Entwicklerstudios an drei Spielen, deren Genre zuvor per Voting bestimmt wurde. Das ganze wurde live im Internet gestreamt. So gab es sehr interessante Eindrücke und Einblicke vom Entwicklungsprozess.
Nun hat Mojang, die Firma die sowohl hinter Minecraft steht, als auch Initiator des Mojams ist, die zweite Aktion dieser Art gestartet…

Updates

Update #9, [23.02@21:50] – Es geht dem Ende zu. Ludosity haben eine aktuelle Version ihres “Space Hunk” in den Downloadbereich gebracht – mit dem Hinweis, dass es mit Wine funktioniert. Das kann ich soweit bestätigen, allerdings bekomme ich keinen Sound. Das Spiel gefällt mir eigentlich ganz gut – es können nun auch Items eingesammelt werden, um spezielle Attacken auszulösen. Mit im Download-Paket enthalten sind übrigens die Sound- und Musik-Files und ein paar Fan-Art-Bilder. Außerdem hat jeder Charakter spezielle Fähigkeiten. Noch zwei Stunden… Stand aktuell: $423,000.

Update #8, [23.02@14:22] – Die letzten 10 Stunden laufen. Wie letztes Jahr auch, gab es in den Livestreams ein paar Unterhaltungseinlagen und zudem hat Mojang sein “Scrolls” vorgestellt. Für den Fall, dass $500,000 erreicht werden würden, ist angekündigt, dass Notch seinen Bart abrasiert – vor der Kamera. Derzeitiger Stand sind rund $391,000 im Topf. Das Spiel bei Grapefrukt hat in der Zwischenzeit einen Namen bekommen: “Tektonik”. Das Space-Kloppspiel in Retro-Optik von Ludosity wurde um einige Feinheiten erweitert. So gibt es jetzt rund zehn verschiedene Spieler-Charaktere zur Auswahl. Zu erwähnen ist außerdem noch, dass es noch eine Parallel-Veranstaltung (ebenfalls for Charity) für alle Minecraft-Liebhaber (und alle, die morgen nicht wissen, was sie ohne die Mojam-Livestreams machen sollen) gibt: den Minecraft Marathon.

Update #7, [22.02] – im Downloadbereich gibt es nun auch eine erste, lauffähige Demo von “Space Hunk” (Ludosity). Es ist lt. Ludosity “windows only for now” – was das “for now” heißt wird man abwarten müssen (naja gut, es wird außerdem sicher nur eine Mac-Version geben). Eine Taste zum Feuern bietet das Spiel noch nicht, stattdessen gibt’s Dauerfeuer. Auch kann die Keule noch nicht geschwungen werden – ich meine aber das mal im Stream gesehen zu haben… Es verbleiben gut 36 Stunden Mojam – knapp $311,000 sind bereits zusammengekommen, nicht zuletzt durch den edlen, anonymen Spender, der $100,000 locker gemacht hat…

Update #6, [22.02] – es tut sich was im Downloadbereich – wenn auch nicht viel. Wolfire hat dort einen neuen Link bereitgestellt für den derzeitigen Entwicklungsstand des Spiels (das mit der Eishöhle). Das Spiel von Grapefrukt wird ein Puzzler werden, das mit Haxe programmiert wird. Ludosity nennt ihr spiel “Space Hunk”. Zwei Kraftprotze mit langen blonden Haaren und Oberlippenbart liefern sich da einen Spacefight – mit einer Art Gummi an ein Raumschiff gebunden können sie den Gegner entweder mit dem Baseballschläger treffen oder das Raumschiff schleudert den eigenen Held einfach gegen den anderen…

Update #5, [21.02] – es gibt weitere Informationen zu den Spielen von Mojang. Das Spiel der Zebra-Gruppe nennt ihr Spiel “Battle Toads” – weil man da Kröten bekämpft. Man spielt ein französisches Mädchen auf einem französischen Raumschiff, das von mutierten “Raumpiratenkröten” befallen ist. Die Hippos basteln an einem Shoot’em Up, mit einer Themen-Mischung zwischen Pizza und Space. Man fliegt über eine riesige “Nuklear-Pizza” und muss diese gegen Aliens verteidigen. Und die Giraffs haben ein Kettenreaktions-Shooter mit nuklearen Kätzchen als Ziel, sind aber noch nicht so sehr fortgeschritten. Ich denke, jetzt ist alles klar, oder?! :)

Update #4, [21.02] – beim Mojang-Team “Cyborg Hippo” kann man zeitweilig mal Spielszenen sehen, in denen der Spieler-Charakter auf einer überdimensionalen Pizza von einigen Gegnern verfolgt wird. Bei Vlambeer wird derweil an Grafiken für Waffen gearbeitet, die aufgesammelt werden können. Und bei Ludosity sieht man größtenteils die Umgebung Game Maker 7.0 – das lässt leider vermuten, dass das Ludosity-Spiel nicht Linux-fähig sein wird (zumindest nicht nativ).
Zwischenzeitlich hat übrigens auch ein Entwickler-Team aus UK namens Red Coin Games angefragt, ob sie auch noch etwas beisteuern dürfen – die Antwort von Notch und Co. steht noch aus…

Update #3, [21.02] – Jeb (Mojang) hat nun einen eigenen Stream. Und bei Wolfire werden schon erste Demos angeboten: zum einen die Menüsteuerung (eher uninteressant, aber man sieht, dass Multiplayer über Netzwerk möglich sein wird!) und zum anderen, kann man in First-Person-Perspektive durch eine dunkle Eishöhle laufen – man strahlt dabei ständig mit einem Laser oder so – tolle Lichteffekte. Beides läuft auf der Unity-Engine und man benötigt (solange es noch Web-Demos sind) den Unity-Webplayer, den es unter Linux derzeit m.W. leider noch nicht gibt. :(

Update #2, [20.02] – Nun stehen auch fest, an welcher Art Spiele die anderen Gruppen arbeiten: Wolfire hat das Thema “Nuclear Endless War”, Vlambeer gibt “Wasteland Kings” an und Ludosity “Interplanetary Void”. Außerdem gibt es noch zwei weitere Livestreams: einen von Pietepit (Vlambeer) und einen vom Team Grapefrukt. Bei Vlambeer sieht man übrigens schon zeitweise etwas, das wie der Ansatz eines Spiels aussieht…

Gleich das erste Update (20.02@19:07) – Es gibt drei weitere Livestreams: einen von David Rosen (Wolfire), der (zumindest momentan) zeigt, wie er mit der Unity-Engine tüftelt, einen von Aubrey Serr (Wolfire), der für die grafische Arbeit mit der Adobe Suite zuständig ist und einen aus dem Hause Vlambeer, der neben einem Screencast auch ein Kamera-Livebild zeigt.

Originalartikel…

mojam_mojangcomVerfolgen kann man die Geschehnisse über die Homepage der Humble Bundles – dort wird ein Livestream gezeigt. Ob es, wie letztes Mal, noch weitere Livestreams gibt, werde ich mal noch recherchieren. So ziemlich alle Updates werde ich hier im Artikel an- bzw. einfügen, um keine Artikelflut zu erzeugen.

Beteiligt am Mojam sind diesmal noch mehr Spieleschmieden: Mojam, Oxeye und Wolfire (das sind die drei, die auch schon 2012 mit von der Partie waren) – und außerdem: Vlambeer, Grapefrukt und Ludosity.

Und was soll das Ganze? Für die Macher ist es Fun und harte Arbeit zugleich. Interessierte können über (nicht für!) das Projekt spenden. Alle Einnahmen werden an wohltätige Organisationen (Block by Block oder Electronic Frontier Foundation) weitergegeben.

Mal sehen, was das diesmalige Ergebnis ist. Vom letzten ist nur eines der drei Spiele wirklich nennenswert gewesen: Catacomb Snatch. Das war allerdings eine tolle Umsetzung der Voting-Vorgaben und wurde, nach Freigabe der Quellen, von der Fan-Gemeinde liebevoll weiterentwickelt.
Das Voting bei Mojang bestand diesmal nicht aus Genres, sondern aus inspirierenden Stichwörtern. Ganz vorne lieg: “Nuclear”, gefolgt von “French”, “Endless” und “War”. Dadurch kamen bei Mojang jetzt drei Entwickler-Teams zustande:

  • “Striped Zebra” arbeitet an einem “French Nuclear Spaceship Game”
  • “Giraff Macka” wird ein Spiel rund um “Endless Nuclear Kittens” bauen
  • und “Cyborg Hippo” möchte ein Spiel mit Thema “Nuclear Pizza War” zaubern

Woran die anderen Firmen arbeiten ist derzeit noch nicht bekannt.

Wenn versenden von emails mit ssl gesichert funktionieren soll, dann muss bei ISPConfig 3.046 der smtps Dienst erst aktiviert werden.

Vorbereitet ist es schon, nur auskommentiert
#/etc/postfix/master.cf
smtps     inet  n       -       -       -       -       smtpd
  -o syslog_name=postfix/smtps
  -o smtpd_tls_wrappermode=yes
  -o smtpd_sasl_auth_enable=yes
  -o smtpd_client_restrictions=permit_sasl_authenticated,reject
  -o milter_macro_daemon_name=ORIGINATING

Aller Wahrscheinlichkeit nach wird es dann aber nach dem neustart von postfix noch nicht gehen, denn in ISPConfig ist eine Firewall, die den Port 993 sperrt. nmap eigener Server muss also das hier zeigen. Dann gehts smile
993/tcp   open   imaps

Mozilla hat mit Thunderbird 17.0.3 sowie Thunderbird ESR 17.0.3 planmäßig Sicherheits- und Fehlerbehebungsupdates für den freien E-Mail-Client veröffentlicht.

Thunderbird 17.0.3 respektive sein ESR-Pendant schließen insgesamt acht Sicherheitslücken. Davon werden vier als kritisch, zwei als hoch und zwei als moderat eingestuft. Ein Update auf die neuste Version ist damit jedem Nutzer von Mozillas E-Mail-Client dringend empfohlen.

Abgesehen von den geschlossenen Sicherheitslücken behebt Version 17.0.3 das Problem, dass Dateianhänge unter Umständen nicht aus dem Fenster zum Verfassen von Nachrichten mit der Tastatur entfernt werden konnten. Ebenfalls behoben wurde die fälschlicherweise über dem Nachrichtentext platzierte Signatur, wenn das Fenster zum Verfassen einer neuen Nachricht über einen mailto-Link mit body-Parameter aufgerufen wurde und die Singatur-Position auf über dem zitierten Text eingestellt war.

Thunderbird 17.0.3 kann hier heruntergeladen werden. Der nächste Major-Release von Thunderbird wird mit Thunderbird 24 erst am Ende des Jahres erscheinen. Bis dahin wird Thunderbird nur noch Sicherheits-Aktualisierungen erhalten.

Mozilla hat mit Thunderbird 17.0.3 sowie Thunderbird ESR 17.0.3 planmäßig Sicherheits- und Fehlerbehebungsupdates für den freien E-Mail-Client veröffentlicht.

Thunderbird 17.0.3 respektive sein ESR-Pendant schließen insgesamt sechs Sicherheitslücken. Davon werden drei als kritisch, zwei als hoch und eine als moderat eingestuft. Ein Update auf die neuste Version ist damit jedem Nutzer von Mozillas E-Mail-Client dringend empfohlen.

Abgesehen von den geschlossenen Sicherheitslücken behebt Version 17.0.3 das Problem, dass Dateianhänge unter Umständen nicht aus dem Fenster zum Verfassen von Nachrichten mit der Tastatur entfernt werden konnten. Ebenfalls behoben wurde die fälschlicherweise über dem Nachrichtentext platzierte Signatur, wenn das Fenster zum Verfassen einer neuen Nachricht über einen mailto-Link mit body-Parameter aufgerufen wurde und die Singatur-Position auf über dem zitierten Text eingestellt war.

Thunderbird 17.0.3 kann hier heruntergeladen werden. Der nächste Major-Release von Thunderbird wird mit Thunderbird 24 erst am Ende des Jahres erscheinen. Bis dahin wird Thunderbird nur noch Sicherheits-Aktualisierungen erhalten.

Der Beitrag Mozilla veröffentlicht Thunderbird 17.0.3 erschien zuerst auf soeren-hentzschel.at.

19. Februar 2013

menzer.net 19. Februar 2013 23:13

Linux 3.8

Wie angekündigt gab es nach -rc7 keine weitere Entwicklerversion mehr - La voilà: Linux 3.8

Wer das Release am Wochenende erwartet hatte, wurde enttäuscht. Torvalds wartete noch auf die Bestätigung eines Patches, erklärte er in seiner Freigabe-Mail, was die Final-Version etwas verzögerte. Die Änderungen gegenüber 3.7-rc7 fallen recht gering aus, am aufwändigsten war noch die Beseitigung eines Problems beim Kompilieren, der durch mehrfache Verwendung eines Bezeichners auftrat. Dieser wurde nun im Bereich der Multiprozessor-Architektur Tile entfernt, um das Ärgernis zu beheben.

Doch nun zum großen Bild des neuesten Linux-Kernels: Im Vorfeld wurde bereits der Wegfall der Unterstützung für 386-Prozessoren diskutiert (Commit: „Nuke 386-DX/SX support“). Dies wurde auch umgesetzt, sodass Nutzer solcher Hardware von Linux 3.8 Abstand halten sollten.

Eine echte Neuerung ist F2FS. Dieses Dateisystem ist speziell für den Einsatz auf Flsh-Speichern wie zum Beispiel Solid State Drives (SSD) vorgesehen. Im Gegensatz zu bisherigen Flash-Dateisystemen wie zum Beispiel Logfs oder UBIFS, berücksichtigt F2FS jedoch den Flash Translation Layer, eine Zwischenschicht mit deren Hilfe SSDs sich dem System als normale Blockorientierte Speichergeräte darstellen.

Bleiben wir bei den Dateisystemen. Ext4 zählt zwar schon fünf Jahre, aber Verbesserungen sind immer wieder drin. So wurde nun die Möglichkeit geschaffen, sehr kleine Dateien in Inodes zu speichern. Normalerweise finden sich hier nur Metadaten zu Dateien, die dann in Speicherblöcken abgelegt zu finden sind. Diese Neuerung spart ein wenig Plattenplatz - typischerweise belegt ein Block 4 KB, egal wie groß die darin hinterlegten Daten sind - bringt vor allem jedoch ein Geschwindigkeitsvorteil, da die kleinen Datenmengen direkt aus dem Inode geliefert werden können, ohne dass das Dateisystem noch nach dem richtigen Block suchen muss.

Btrfs wurde um eine Funktion erweitert, mit der Datenträger ausgetauscht werden können. Bislang bestand zwar die Möglichkeit, ein neues Gerät zum Dateisystem hinzuzufügen und dann ein bestehendes wieder zu löschen, doch nahm dieser Vorgang viel Zeit in Anspruch. Die neue replace-Funktion kann während des Betriebs genutzt werden, es ist nicht notwendig, das Dateisystem auszuhängen.

So, den Rest hebe ich mir für die kommende Ausgabe von freiesMagazin auf.

Die kleine Statistik:

Commits geänderte Dateien eingefügte Zeilen gelöschte Zeilen Datum Tage *
3.8-rc1 11 737 10 482 554 790 340 624 21.12.2012 11
3.8-rc2 131 195 1935 1290 02.01.2013 12
3.8-rc3 379 1405 7995 7845 10.01.2013 8
3.8-rc4 357 355 9997 2258 17.01.2013 7
3.8-rc5 310 249 2102 1268 25.01.2013 7
3.8-rc6 277 249 2130 1217 01.02.2013 7
3.8-rc7 229 198 1675 1055 08.02.2013 7
3.8 98 86 971 853 18.02.2013 10

* Tage seit dem letzten rc/Release

Version Commits geänderte Dateien eingefügte Zeilen gelöschte Zeilen Datum Tage *
3.0 9843 7946 554 267 440 894 22.07.2011 64
3.1 9380 9181 726 251 602 017 24.10.2011 94
3.2 12 695 12 608 1 645 447 1 417 264 04.01.2012 72
3.3 11 416 10 698 599 885 432 464 18.03.2012 74
3.4 11 829 11 086 576 155 358 368 20.05.2012 63
3.5 11 771 9 631 623 283 410 763 21.07.2012 62
3.6 11 129 8 296 528 478 256 828 30.09.2012 71
3.7 13 004 15 886 1 570 793 1 247 129 10.12.2012 71
3.8 13 525 11 701 577 870 352 685 18.02.2013 70

* Tage seit dem letzten Release

Quellen:

Der Countdown auf Ubuntu.com ist abgelaufen und herausgekommen ist TADAAAA: Eine Ubuntu-Version für Tablets.

Cannonical will Ubuntu für Tablets auf dem Mobile World Congress vom 25.2 bis 28.2.2013 vorstellen.
Meiner Meinung nach interessante Besonderheiten der Tablet-Version:
  • Mehrere Nutzerkonten (ähnlich wie unter Android seit Version 4.2 "Jelly Bean")
  • Ein Gast-Account
  • "Side Stage": Ein an der rechten Bildschirmseite ausklappbarer Bereich, in dem für Smartphones gedachte Apps parallel zum restlichen Bildschirminhalt laufen können
  • Desktop Convergence (die Möglichkeit auf leistungsfähigen Tablets die Desktop-Version von Ubuntu mit den entsprechenden normalen Desktop-Applikationen laufen zu lassen)

Aber seht selbst ;-) :


Link für die Planet-Leser

Was ich vor allem sehr interessant finde: In dem Video wird erwähnt, dass auf Ubuntu im "Desktop-Modus" Windows-Apps als Thin Client-Anwendung laufen können sollen. Dies würde es Unternehmen ermöglichen Ubuntu zu nutzen aber andererseits nicht auf Business-Software wie Microsoft-Office verzichten zu müssen, die als zusätzlicher Pluspunkt auf einem zentralen Server gewartet werden könnte.

Es gibt bereits einige Spekulationen über die Leistungsdaten eines möglichen Ubuntu-Tablets statt aber es steht noch nicht fest welche Partner aus der Mobilfunkindustrie Cannonical ins Boot holen will und wie ein Tablet mit Ubuntu dann genau aussehen wird.

Wie ist eure Meinung zum neuen Ubuntu für Tablets? Würdet ihr euch ein Ubuntu-Tablet kaufen?

Der Countdown auf Ubuntu.com ist abgelaufen und herausgekommen ist TADAAAA: Eine Ubuntu-Version für Tablets.

Cannonical will Ubuntu für Tablets auf dem Mobile World Congress vom 25.2 bis 28.2.2013 vorstellen.
Meiner Meinung nach interessante Besonderheiten der Tablet-Version:
  • Mehrere Nutzerkonten (ähnlich wie unter Android seit Version 4.2 "Jelly Bean")
  • Ein Gast-Account
  • "Side Stage": Ein an der rechten Bildschirmseite ausklappbarer Bereich, in dem für Smartphones gedachte Apps parallel zum restlichen Bildschirminhalt laufen können
  • Desktop Convergence (die Möglichkeit auf leistungsfähigen Tablets die Desktop-Version von Ubuntu mit den entsprechenden normalen Desktop-Applikationen laufen zu lassen)

Aber seht selbst ;-) :


Link für die Planet-Leser

Was ich vor allem sehr interessant finde: In dem Video wird erwähnt, dass auf Ubuntu im "Desktop-Modus" Windows-Apps als Thin Client-Anwendung laufen können sollen. Dies würde es Unternehmen ermöglichen Ubuntu zu nutzen aber andererseits nicht auf Business-Software wie Microsoft-Office verzichten zu müssen, die als zusätzlicher Pluspunkt auf einem zentralen Server gewartet werden könnte.

Es gibt bereits einige Spekulationen über die Leistungsdaten eines möglichen Ubuntu-Tablets statt aber es steht noch nicht fest welche Partner aus der Mobilfunkindustrie Cannonical ins Boot holen will und wie ein Tablet mit Ubuntu dann genau aussehen wird.

Wie ist eure Meinung zum neuen Ubuntu für Tablets? Würdet ihr euch ein Ubuntu-Tablet kaufen?

Firefox 19 ist da! Nachdem Mozillas integrierte Lösung zum Betrachten von PDF-Dateien in den letzten Monaten viele Verbesserungen erhalten hat, wird dieser mit Firefox 19 standardmäßig aktiviert sein. Damit können PDF-Dateien ohne installiertes Browser-Plugin direkt in Firefox betrachtet werden. Gesammelte Telemetrie-Daten können ab sofort direkt im Browser über about:telemetry angesehen werden.

Weitere Neuerungen & Download

Diese und noch einige weitere Neuerungen bietet Firefox 19. Einen kompletten und detaillierten Überblick bietet der dazugehörige Aurora-Artikel. Firefox 19 kann hier heruntergeladen werden.

Vor kurzem gab es die Meldung, dass die Sendung Spacenight des Bayerischen Fernsehens eingestellt werden soll, weil die GEMA-Gebühren zu hoch sein und die Sendung sich so nicht mehr finanzieren kann.

Jetzt wird berichtet, dass die Sendung vermutlich mit Freier Musik fortgeführt wird. Die verwendete Musik soll von diversen Netlabels stammen und Creative-Commons-Lizenzen unterliegen.

Damit wäre die Sendung gerettet, die teuren GEZ-Gebühren würden nicht an die GEMA umverteilt werden und zusätzlich löst man sich damit von der GEMA, da CC-Lizenzen und GEMA unvereinbar sind. Ggf. muss sich der BR dann damit herumschlagen, der GEMA vor Gericht aufgrund der GEMA-Vermutung zu beweisen, dass die CC-Musik tatsächlich nicht den Verwertungsrechten der GEMA unterliegt, aber das wäre dann ein sinnvollere Geldinvestition als der GEMA direkt das Geld zu geben.

via Linux-Magazin

Seit fast einem Jahr habe ich nun ein Lenovo x220 als Arbeitsgerät für unterwegs. Bei der Installation habe ich gleich auf den neuen Standard UEFI gesetzt, und so die typische Sache mit dem MBR gespart. Ich finde den MBR zwar an sich nicht schlimm, aber UEFI hat vom Konzept her den Vorteil einen solchen nicht zu benötigen. Was nicht benötigt wird kann auch nicht kaputt gehen ;-)

UEFI Grundlagen

Fangen wir also mal mit den UEFI Grundlagen an. Das Booten bei UEFI erfordert nicht mehr länger einen Bootsektor am Anfang der Platte oder Partition, sondern eine gesonderte Partition welche wir nachfolgend ESP (EFI System Partition) nennen werden. Auch die Partitionierung unterschiedet sich, das "gute" alte MSDOS Format mit seiner Begrenzung auf 2 TB ersetzen wir durch das moderne GUID, welches auch bei Platten mit wesentlich mehr als 2 TB keine Probleme hat.

Jetzt wissen wir also das wir eine spezielle Partition (ESP) benötigen, und das wir unsere klassische Partitionierung auch nicht mehr benötigen. Das bedeutet auch das wir unsere Standardtools wie fdisk, cfdisk und Co nicht mehr benötigen. Wer bisher schon parted verwendet bekommt von der ganzen Aktion nicht so viel mit, es funktioniert einfach, sogar mit den gleichen Befehlen. Die ESP Partition hat noch eine Besonderheit, zum einen muss diese eine ganz bestimmte ID haben (C12A7328-F81F-11D2-BA4B-00A0C93EC93B), und zum anderen ein FAT Dateisystem, FAT32 bietet sich an und wird von jedem Betriebssystem unterstützt.

Grundlegend haben wir jetzt alles wichtige erwähnt, wir haben die Partitionierung erwähnt und auch das wir hierbei eine besondere Partition beachten müssen. Doch dem aufmerksamen Leser wird aufgefallen sein das noch etwas fehlt: Der Bootloader

Jetzt kommt die letzte Besonderheit, und zwar die Art wie UEFI nach diesem Bootloader den wir benötigen sucht. Eigentlich sucht UEFI nicht nach einem Bootloader sondern nach einer sog. UEFI Binary. Also einem Programm das einer bestimmten Spezifikation entspricht, wir selbst ignorieren das einfach und nennen dieses Konstrukt weiterhin Bootloader. Erwähnt sei noch das es Alternativ zu einem Bootloader wie gummiboot oder grub2 auch z.B. eine UEFI Shell und einiges andere gibt.

Viele Wege führen nach Rom, aber nur 2 Wege führen den UEFI zu diesem Binary / Bootloader:

  1. Standardpfad auf der ersten FAT Partition bzw. ESP
  2. Eintrag im NVRAM vom System welcher genau sagt wo zu suchen ist
Der erste Weg ist für Wechselmedien gedacht, der zweite Weg für eine feste Installation. Die erste Möglichkeit sucht einfach unter /EFI/boot/bootx64.efi auf der oben genannten Partition und startet das Ding. Der andere Weg hat den Vorteil das pro Medium mehrere Bootloader / Betriebssysteme verwendet werden können, d.h. Windows und Linux (oder auch mehrere Linux Distributionen) können sich selbst beliebige Bootloader anlegen und dem UEFI / NVRAM einfach sagen wo dieser zu finden ist.

Die Installation eines Bootloaders besteht also bei einem fest installiertem System aus 2 Schritten, zuerst muss das UEFI Binary / Bootloader auf die ESP kopiert werden, im Anschluss muss im NVRAM vom System auch noch hinterlegt werden wo genau dieser Bootloader zu finden ist. Das ganze passiert auf einem UEFI fähigem System bei der Installation, ist für den Anwender also unsichtbar. Ein überschreiben vom MBR durch dieses Randgruppenbetriebssystem von Microsoft ist also unwahrscheinlich.

Mit den Grundlagen sind wir also im groben durch, der Grundlegende Ablauf ist uns bekannt.

UEFI Bootloader

Jetzt sind wir bei dem Teil mit dem Bootloader, wir haben hier relativ viel Auswahl:

  • gummiboot
  • grub2
  • Linux Kernel
Wir fangen mal von hinten an, zuerst also der Linux Kernel, dieser kann seit einiger Zeit so gebaut werden das er sich direkt als UEFI Binary ausgibt. Setzt man nun noch mit z.B. rdev die entsprechenden Parameter und kommt ohne Initrd aus benötigt man nichtmal mehr einen Bootloader. In der Praxis wird man dies nicht vorfinden da die Initialisierung von RAID, LVM und LUKS ohne Initrd eher hässlich bis unmöglich sein dürfte.

Der nächste Kandidat auf der Liste wäre grub2, wir kennen und fürchten ihn schon, es handelt sich dabei um die neue und noch aufgeblähtere Version von grub. Dieses mal erzeugen die meisten Distributionen durch eine Vielzahl an Scripts und Konfigurationsdateien eine grub.cfg, das UEFI Binary wird nochmal extra mit einem anderen Befehl angelegt und bringt einige MiB auf die Waage. Hat man mehrere Distributionen auf der Platte werden sich diese gerne gegenseitig die grub.cfg überschreiben und das jeweils zuletzt installierte oder aktualisierte Linux wird booten. Sicherlich, grub2 hat auch Vorteile wie eingebauten Support für RAIDs, LVM und eine tolle Shell. In der Praxis bleiben 90% der Funktionen auf der Strecke und machen das ganze Konstrukt nur fehleranfällig und langsam. Hier wären wir beim nächsten Punkt, auf einigen Systemen kann sich grub2 abhängig von der Partitionierung nicht installieren, Problem ist das unser Image von grub2 so groß ist das es nicht in den freien Bereich zwischen MBR und 1. Partition passt, es gibt einen extra Partitionstypen um dieses Problem zu umgehen (kein Witz). Neuere Distributionen lassen an der entsprechenden Stelle einfach ein wenig Platz, dann klappt das auch. Unter UEFI haben wir dieses Problem dank ESP nicht, wir müssen uns also nur noch mit der grub.cfg ärgern und nicht mehr mit einem zu fettem Bootloader.

Zuletzt kommt noch unser neuer Bootloader gummiboot, dieser hat bei weitem nicht so viele Features wie grub2 und kann abgesehen von UEFI auch nichts. Eine Installation auf wechselnden (UEFI / BIOS) Systemen ist also nicht möglich. Der Vorteil ist aber hier die Einfachheit, zum einen ist die Konfiguration sehr einfach da z.B. nicht erst ein Image vom Bootloader gebaut werden muss, zum anderen ist auch der Rest der Konfiguration sehr minimal gehalten. Auch die Installation mehrerer Linux Distributionen ist für gummiboot kein Problem, den jede Distribution kann innerhalb einer definierten Verzeichnisstruktur eigene Konfigurationsdateien für Kernel und Initrd anlegen.

Fazit

Der gummiboot befolgt strikt das KISS-Prinzip und kommt mit einer sehr minimalen Konfiguration aus (ca. 6 Zeilen in 2 Textdateien statt 143 in einer Datei) und deckt nichts außer die Grundfunktionen die man benötigt ab. Dazu kommt eine sehr einfache Installation (ab dem nächsten Release) und wenig Wartungsaufwand für Multi-Distri-User. Der Aufmerksame Leser wird gemerkt haben das sich dieser Artikel nur auf 64-Bit bezieht, Pfadangaben sind für 32-Bit Systeme anzupassen wobei man dort kaum UEFI verwenden dürfte.

Seit fast einem Jahr habe ich nun ein Lenovo x220 als Arbeitsgerät für unterwegs. Bei der Installation habe ich gleich auf den neuen Standard UEFI gesetzt, und so die typische Sache mit dem MBR gespart. Ich finde den MBR zwar an sich nicht schlimm, aber UEFI hat vom Konzept her den Vorteil einen solchen nicht zu benötigen. Was nicht benötigt wird kann auch nicht kaputt gehen ;-)

UEFI Grundlagen

Fangen wir also mal mit den UEFI Grundlagen an. Das Booten bei UEFI erfordert nicht mehr länger einen Bootsektor am Anfang der Platte oder Partition, sondern eine gesonderte Partition welche wir nachfolgend ESP (EFI System Partition) nennen werden. Auch die Partitionierung unterschiedet sich, das "gute" alte MSDOS Format mit seiner Begrenzung auf 2 TB ersetzen wir durch das moderne GUID, welches auch bei Platten mit wesentlich mehr als 2 TB keine Probleme hat.

Jetzt wissen wir also das wir eine spezielle Partition (ESP) benötigen, und das wir unsere klassische Partitionierung auch nicht mehr benötigen. Das bedeutet auch das wir unsere Standardtools wie fdisk, cfdisk und Co nicht mehr benötigen. Wer bisher schon parted verwendet bekommt von der ganzen Aktion nicht so viel mit, es funktioniert einfach, sogar mit den gleichen Befehlen. Die ESP Partition hat noch eine Besonderheit, zum einen muss diese eine ganz bestimmte ID haben (C12A7328-F81F-11D2-BA4B-00A0C93EC93B), und zum anderen ein FAT Dateisystem, FAT32 bietet sich an und wird von jedem Betriebssystem unterstützt.

Grundlegend haben wir jetzt alles wichtige erwähnt, wir haben die Partitionierung erwähnt und auch das wir hierbei eine besondere Partition beachten müssen. Doch dem aufmerksamen Leser wird aufgefallen sein das noch etwas fehlt: Der Bootloader

Jetzt kommt die letzte Besonderheit, und zwar die Art wie UEFI nach diesem Bootloader den wir benötigen sucht. Eigentlich sucht UEFI nicht nach einem Bootloader sondern nach einer sog. UEFI Binary. Also einem Programm das einer bestimmten Spezifikation entspricht, wir selbst ignorieren das einfach und nennen dieses Konstrukt weiterhin Bootloader. Erwähnt sei noch das es Alternativ zu einem Bootloader wie gummiboot oder grub2 auch z.B. eine UEFI Shell und einiges andere gibt.

Viele Wege führen nach Rom, aber nur 2 Wege führen den UEFI zu diesem Binary / Bootloader:

  1. Standardpfad auf der ersten FAT Partition bzw. ESP
  2. Eintrag im NVRAM vom System welcher genau sagt wo zu suchen ist
Der erste Weg ist für Wechselmedien gedacht, der zweite Weg für eine feste Installation. Die erste Möglichkeit sucht einfach unter /EFI/boot/bootx64.efi auf der oben genannten Partition und startet das Ding. Der andere Weg hat den Vorteil das pro Medium mehrere Bootloader / Betriebssysteme verwendet werden können, d.h. Windows und Linux (oder auch mehrere Linux Distributionen) können sich selbst beliebige Bootloader anlegen und dem UEFI / NVRAM einfach sagen wo dieser zu finden ist.

Die Installation eines Bootloaders besteht also bei einem fest installiertem System aus 2 Schritten, zuerst muss das UEFI Binary / Bootloader auf die ESP kopiert werden, im Anschluss muss im NVRAM vom System auch noch hinterlegt werden wo genau dieser Bootloader zu finden ist. Das ganze passiert auf einem UEFI fähigem System bei der Installation, ist für den Anwender also unsichtbar. Ein überschreiben vom MBR durch dieses Randgruppenbetriebssystem von Microsoft ist also unwahrscheinlich.

Mit den Grundlagen sind wir also im groben durch, der Grundlegende Ablauf ist uns bekannt.

UEFI Bootloader

Jetzt sind wir bei dem Teil mit dem Bootloader, wir haben hier relativ viel Auswahl:

  • gummiboot
  • grub2
  • Linux Kernel
Wir fangen mal von hinten an, zuerst also der Linux Kernel, dieser kann seit einiger Zeit so gebaut werden das er sich direkt als UEFI Binary ausgibt. Setzt man nun noch mit z.B. rdev die entsprechenden Parameter und kommt ohne Initrd aus benötigt man nichtmal mehr einen Bootloader. In der Praxis wird man dies nicht vorfinden da die Initialisierung von RAID, LVM und LUKS ohne Initrd eher hässlich bis unmöglich sein dürfte.

Der nächste Kandidat auf der Liste wäre grub2, wir kennen und fürchten ihn schon, es handelt sich dabei um die neue und noch aufgeblähtere Version von grub. Dieses mal erzeugen die meisten Distributionen durch eine Vielzahl an Scripts und Konfigurationsdateien eine grub.cfg, das UEFI Binary wird nochmal extra mit einem anderen Befehl angelegt und bringt einige MiB auf die Waage. Hat man mehrere Distributionen auf der Platte werden sich diese gerne gegenseitig die grub.cfg überschreiben und das jeweils zuletzt installierte oder aktualisierte Linux wird booten. Sicherlich, grub2 hat auch Vorteile wie eingebauten Support für RAIDs, LVM und eine tolle Shell. In der Praxis bleiben 90% der Funktionen auf der Strecke und machen das ganze Konstrukt nur fehleranfällig und langsam. Hier wären wir beim nächsten Punkt, auf einigen Systemen kann sich grub2 abhängig von der Partitionierung nicht installieren, Problem ist das unser Image von grub2 so groß ist das es nicht in den freien Bereich zwischen MBR und 1. Partition passt, es gibt einen extra Partitionstypen um dieses Problem zu umgehen (kein Witz). Neuere Distributionen lassen an der entsprechenden Stelle einfach ein wenig Platz, dann klappt das auch. Unter UEFI haben wir dieses Problem dank ESP nicht, wir müssen uns also nur noch mit der grub.cfg ärgern und nicht mehr mit einem zu fettem Bootloader.

Zuletzt kommt noch unser neuer Bootloader gummiboot, dieser hat bei weitem nicht so viele Features wie grub2 und kann abgesehen von UEFI auch nichts. Eine Installation auf wechselnden (UEFI / BIOS) Systemen ist also nicht möglich. Der Vorteil ist aber hier die Einfachheit, zum einen ist die Konfiguration sehr einfach da z.B. nicht erst ein Image vom Bootloader gebaut werden muss, zum anderen ist auch der Rest der Konfiguration sehr minimal gehalten. Auch die Installation mehrerer Linux Distributionen ist für gummiboot kein Problem, den jede Distribution kann innerhalb einer definierten Verzeichnisstruktur eigene Konfigurationsdateien für Kernel und Initrd anlegen.

Fazit

Der gummiboot befolgt strikt das KISS-Prinzip und kommt mit einer sehr minimalen Konfiguration aus (ca. 6 Zeilen in 2 Textdateien statt 143 in einer Datei) und deckt nichts außer die Grundfunktionen die man benötigt ab. Dazu kommt eine sehr einfache Installation (ab dem nächsten Release) und wenig Wartungsaufwand für Multi-Distri-User. Der Aufmerksame Leser wird gemerkt haben das sich dieser Artikel nur auf 64-Bit bezieht, Pfadangaben sind für 32-Bit Systeme anzupassen wobei man dort kaum UEFI verwenden dürfte.

David Herman, Luke Wagner und Alon Zakai (Entwickler von Emscripten) von Mozilla haben mit asm.js ein JavaScript-Subset entwickelt, welches nahezu die Performance von nativ geschriebenen Code erreichen soll. Mit OdinMonkey arbeitet man außerdem daran, einen entsprechenden Compiler in Firefox zu integrieren.

asm.js ist für Code ausgelegt, welcher über Compiler wie Emscripten oder Mandreel in JavaScript übersetzt worden ist, und soll die Ausführung von JavaScript spürbar beschleunigen können. Es handelt sich dabei um ein Subset von JavaScript, womit ein asm.js geschriebener Code auch von JavaScript-Engines ausgeführt werden kann, welche asm.js nicht unterstützen. Dafür optimierte Engines sollen allerdings JavaScript deutlich schneller ausführen und entsprechender Code ungefähr halb so schnell wie in C oder C++ geschriebener Code sein, womit die JavaScript-Performance vergleichbar mit C# respektive Java sein soll.  Bei Mozillas BananaBread-Demo konnte bereits jetzt eine Performance-Verbesserung von zwei- bis viermal gegenüber Mozillas SpiderMonkey ohne asm.js-Unterstützung beziehungsweise Googles V8-Engine erreicht werden.

Benchmark-Quelle: kripken.github.com

Unter dem Namen OdinMonkey läuft die Entwicklung und Integration eines entsprechenden Compilers in Firefox. Technisch Interessierten sei dieser Artikel empfohlen, welcher technische Details erklärt.

Jonas hat vor einigen Tagen sein Nexus 4 vorgestellt, also stelle ich das Galaxy Nexus vor. Ich nutze dieses Smartphone schon eine Weile, allerdings fehlt mir der „persönliche“ Vergleich zu älteren Smartphones.

Technische Daten

Galaxy Nexus

Galaxy Nexus

Das Galaxy Nexus wird von Samsung hergestellt und ist als Teil der Nexus-Serie auch ein Teil der „Google-Handys“. Vertrieben wird es mittlerweile seit über zwei Jahren, muss sich mit seinen Leistungsdaten aber auch heute nicht verstecken. Der Prozessor ist ein Dual Core 1,5 GHz ARM, der auf 1,2 GHz heruntergetaktet wurde. Als Arbeitsspeicher ist 1 GB verbaut. Neben den standard-Techniken (Mobilfunk, WLAN, Blutooth etc.) verfügt es auch über einen NFC-Sensor.

Die Hauptkamera hat eine Auflösung von 5 Megapixeln, die Frontkamera hat stolze 1,3 Megapixel. Das Display ist mit 4,65″ sehr groß und übersichtlich, frisst aber auch einiges an Akku. Die Auflösung beträgt 1280×720 Pixel.

Intern sind 16 GB Speicherplatz verfügbar. Leider lässt sich dieser nicht über zusätzliche Speichermedien erweitern.

Im Gegensatz zu seinem Nachfolger, dem Nexus 4 (hergestellt von LG), kann man am Galaxy Nexus die Rückseite demontieren. Dies ermöglicht einen Akkutausch. Gerade bei modernen Geräten gilt der Akku als Schwachstelle, deswegen ist ein wechselbarer Akku von Vorteil (Stichwort: geplante Obsoleszenz).

Durch seine unebene, gewollt raue Oberfläche auf der Rückseite, liegt das Handy trotz seiner Größe gut in der Hand. Ist es vollständig montiert, sieht es edel und hochwertig aus, öffnet man jedoch die Abdeckung hinten, zweifelt man an der Stabilität des Deckels. Dennoch gibt es an der Verarbeitung des Telefons nichts auszusetzen.

Software

Das Galaxy Nexus gilt als Vorzeigehandy für Android 4.x und wird mit dieser Version auch ausgeliefert. Als offizielles Google Handy wird es auch als eines der ersten Geräte mit neuen Android-Versionen ausgestattet. Diese Upgrades auf höhere Versionen (aktuell bis Android 4.2.2 Jelly Bean) werden als Systemupgrade selbstständig angeboten (sind aber optional). Es läuft auffällig stabil, bisher hatte ich nur einen einzigen Absturz.

Eine ganz nützliche Funktion, die das Handy anbietet, ist „Face Unlock“. Um das Handy zu entsperren, muss man kein Muster eingeben, man kann dazu einfach in die Frontkamera sehen. Wenn man der Besitzer ist, wird das Handy selbstständig entsperrt. Das funktioniert überraschend gut und auch sehr schnell! Das „trainieren“ des Handys dauert ca. eine Minute (dazu filmt man lediglich sein Gesicht), das entsperren passiert ein wenigen Sekunden (teilweise sogar innerhalb einer Sekunde).

Canonical, die Firma hinter Ubuntu, entwickelt gerade das Ubuntu Phone. Als Arbeitsgerät wird dort ebenfalls das Galaxy Nexus verwendet (wie in etlichen Promotion-Videos zu sehen ist). Wie nun bekannt wurde, werden am 21. Februar 2013 die ersten Images für Anwender freigegeben. Das Galaxy Nexus und das Nexus 4 erhalten die beste Unterstützung.

Fazit

Preislich gesehen ist das Smartphone gut aufgestellt. Die Technik ist besser als die vom iPhone 4S, wobei es das gleiche Alter und um Welten günstiger ist. Durch die Verbindung zu Google ist es stets auf dem aktuellsten Stand, was die Android-Versionen angeht.

Das Galaxy Nexus ist also trotz des unglaublich hohen Alters von über 14 Monaten weiterhin ein gutes Smartphone, das sich auch heute noch sehen lassen kann. Die Hardware ist noch kokurrenzfähig und die Software auf dem aktuellsten Stand. Abzüge bekommt es bei mir, weil der Speicherplatz nicht erweiterbar ist.

Wer also ein günstiges Android-Smartphone haben möchte, kommt hier voll auf seine Kosten.

Plugins zu Entwickeln für das Monitoring-System Nagios ist mit ein kleinwenig Scripting-Erfahrung kein grosses Problem mehr, wenn man weiss, wo man was ablegen soll. An folgendem Beispiel möchte ich die 3 einfachen Schritte festhalten. So stand ich letzthin vor der Aufgabe die Zeit zu messen, wie lange es braucht, um eine Seite innerhalb eines per Eingabeformular geschützten Bereiches, zu erreichen. Eigentlich gut möglich via CURL – habe ich mir gedacht! Es gibt ja Optionen wie –form oder –data, doch die scheinen auf das ASP.NET und Telerik-spezifische Formular nicht anzuspringen. Also muss der Weg über ein Cookie her mit der Option –cookie.

Doch wie sieht das Plugin nun aus?`

Von Aussen soll dem Plugin ein Cookie, eine URL und die Zeitgrenzen für eine Warnung und einen Error zum abfragen übergeben werden. Wer Scripten kann weiss natürlich das dazu die Variablen $1 – $4 genutzt werden. So kommen wir mal zu einer kleinen Überprüfung und der Übergabe an CURL:

if [ $# -lt 4 ]; then
        echo "Please use check_site COOKIE URL WARNING ERROR"
        exit 2
fi

warning=$(($3*1000))
error=$(($4*1000))

curl --cookie "ATUH=$1" "$2" -s > /tmp/store.tmp

Doch jetzt soll ja auch noch die Zeit gemessen werden. Also speichern wir vor und nach dem Abrufen der Seite jeweils einen Timestamp:

first=`echo $(($(date +%s%N)/1000000))`
warning=$(($3*1000))
error=$(($4*1000))

curl --cookie ".AUTH=$1" "$2" -s > /tmp/store.tmp

last=`echo $(($(date +%s%N)/1000000))`
need=$(($last-$first))

Und damit hat man schon fast die ganze Arbeit gemacht. Nun noch ein bisschen querchecken und die passenden Ergebnisse ausgeben:

if [ $need -gt $error  ]; then
        echo "needed `bc -l <<< "scale=3; $need/1000"` seconds for a response"
        exit 2
fi

if [ $need -gt $warning  ]; then
        echo "needed `bc -l <<< "scale=3; $need/1000"` seconds for a response"
        exit 1
fi

echo "needed `bc -l <<< "scale=3; $need/1000"` seconds for a response"
exit 0

Wer auch weiss, was im Report drin sein sollte und das auf ein bestimmtes Keyword prüfen möchte, um sicher zu gehen, der kann noch folgendes Schnipsel einfügen, natürlich vor allen anderen Überprüfungen:

if [ `cat /tmp/$id |grep KEYWORD |wc -l` -lt 1  ]; then
        echo "Unknown Error"
        exit 2
fi

Nun wenn man das Plugin im Ordner libexec abgelegt und ausführbar gemacht hat, kann man einen Eintrag in der Datei commands.cfg anlegen:

#check response time for a response report
define command {
        command_name check_site
        command_line $USER1$/check_site $ARG1$
}

Und als letzer Schritt, ganz wie man es bereits kennt, die Einträge in der hosts.cfg anlegen.

18. Februar 2013

Zum Glück ist es unter Linux nicht so weit gekommen wie unter Windows, dass man nach der Installation erstmal Unmengen nutzloser Software von der Platte und aus dem Autostart schmeißen muss. Nichtsdestotrotz gibt es auch für Ubuntu ein paar Handgriffe, die einen Geschwindigkeitsvorteil bringen können.

Preload installieren

Preload läd oft genutzte Programme automatisch in den Cache, sodass sie nach dem Start schneller gestartet werden können. Es lernt selbstständig und wurde auf einigen Seiten empfohlen:

sudo apt-get install preload

Swappiness einstellen (reduzieren)

Die Einstellung der Swappiness regelt, ob und wie viele eurer Prozesse aus dem Arbeitsspeicher auf die Swap-Partition ausgelagert werden (siehe Swap). Wenn das System nicht zu wenig Arbeitsspeicher (ab 2-3GB) besitzt, kann man die Swappiness reduzieren und somit verhindern, dass der Arbeitsspeicher nicht voll ausgenutzt wird und das System durch ständiges Auslagern auf und Nachladen von der Festplatte verlangsamt wird.

Wer vielleicht mit exotischer Software, die Unmengen Arbeitsspeicher braucht, arbeitet, sollte da vielleicht etwas überlegen, in Foren ist man sich keineswegs einig über eine “richtige” Einstellung, aber da ich hauptsächlich eher kleinere Programme wie Firefox, Thunderbird, LibreOffice und andere Dokumente öffne, ist es für den Alltag von Vorteil, wenn diese Programme größtenteils im Hauptspeicher gehalten werden.

Man bearbeitet die Konfigurationsdatei mit:

gksudo gedit /etc/sysctl.conf

Und fügt, sofern noch nicht vorhanden, die Zeile ein:

vm.swappiness=10

Ein Wert von 0 bedeutet, dass erst ausgelagert wird, wenn der Arbeitsspeicher komplett voll ist, ein Wert von 100 bedeutet, dass sofort ausgelagert wird. Standardmäßig steht der Wert auf 60 und man kann auch selbst etwas probieren und ihn testweise auf z.B. 20 stellen – je nach Nutzungsverhalten und Größe des Speichers. Ein weiterer Vorteil hierbei ist auch, dass ein Laptop, der durch weniger Auslagern weniger Festplattenzugriffe durchführen muss, eine etwas längere Akkulaufzeit bekommt.

Temporäre Dateien in den RAM speichern

Wenn die temporären Daten direkt im Arbeitsspeicher bleiben, können die Programme, die sie benötigen, schneller auf sie zugreifen und verursachen so ebenfalls keine Festplattenzugriffe. Außerdem ist der Ordner /tmp so nach jedem Booten automatisch geleert.

Ich habe vorsorglich alle bisherigen temporären Dateien von der Festplatte gelöscht und dann die fstab z.B. mit dem Befehl geöffnet:

sudo rm -rf /tmp/*
gksudo gedit /etc/fstab

Und fügt die Zeilen am Ende ein:

# /tmp in Arbeitsspeicher auslagern
tmpfs /tmp tmpfs defaults,noexec,nosuid,size=15% 0 0

Somit sind 15% des Arbeitsspeichers (man kann den Wert je nach Bedarf anpassen) für die temporären Dateien reserviert. Das heißt zwar, dass weniger Speicher für Programme verfügbar ist, dafür werden die Lese- und Schreibzugriffe auf temporäre Dateien beschleunigt und die Festplatte wird nicht beansprucht.

Wenn man diesen Tipp befolgt, sollte man auch unbedingt folgende zwei Zeilen in die /etc/apt/apt.conf einfügen:

DPkg::Pre-Invoke{“mount -o remount,exec /tmp”;};
DPkg::Post-Invoke {“mount -o remount /tmp”;};

Das bewirkt, dass /tmp während Installationsvorgänge exec gemounted wird und nach Abschluss wieder noexec gemounted wird. Das beugt Fehlern während der Ausführung von apt vor.

Datei-Zugriffszeiten nicht protokollieren

Auf ext3- und ext4-Partitionen werden die Zeiten des Dateizugriffs in der Inodetabelle gespeichert, was bei jedem Dateizugriff zu zusätzlicher Festplattenaktivität führt. Die reinen Zugriffszeiten benötige ich aber nicht und habe die Protokollierung der Zugriffszeiten deaktiviert, um einerseits wieder einen Funken Performance und auch etwas mehr Akkulaufzeit herauszuholen.

Die Einstellungen werden auch in der fstab gespeichert, die man z.B. mit diesem Befehl öffnen kann:

gksudo gedit /etc/fstab

Nun kann man die entsprechende Option bei allen ext3- und ext4-Partitionen hinzufügen, so wird aus:

UUID=149fcd6d-g34f-4823-a2gz-7123ac88e2fb /boot ext4 defaults 0 2

dann die Zeile:

UUID=149fcd6d-g34f-4823-a2gz-7123ac88e2fb /boot ext4 defaults,noatime 0 2

Ich habe bisher keine negativen Auswirkungen (Synchronisation etc.), die das Protokollieren der Zugriffszeiten notwendig machen würde, finden können.

Siehe auch:

17. Februar 2013

Da waren’s nur noch 3. Nachdem bislang der Internet Explorer, Mozilla, Opera und Safari/Chrome jeweils mit eigenen Rendering-Engines für die Diversität im Internet sorgten, wird es künftig nur noch drei nennenswerte Techniken zur Anzeige von Webseiten geben.

Natürlich ist die Überschrift falsch – nicht Opera stirbt, sondern seine Rendering-Engine Presto. Opera wird in Zukunft die von Apples Safari und Googles Chrome (oder auch KDEs Konqueror) bekannte Webkit-Engine nutzen. „Och nö“, das wird die erste Reaktion von Opera-Fans sein, die den flinken und innovativen Browser schätzen und nun schon sein tatsächliches Ende kommen sehen. Doch der Verzicht auf eine eigene Hintergrundtechnik könnte auch eine echte Chance für den Opera-Browser darstellen.

Och nö ...

Flurbereinigung könnte man das auch nennen. Einstmals gab es nur zwei große Webtechniken, die miteinander konkurrierten: Trident im Internet Explorer und Gecko in Netscape, später Mozilla und noch später Firefox. Operas Presto gab es seit 2003, davor war Opera jedoch auch schon mit einer eigenen Engine vertreten. Nennenswerten Einfluss hatte Presto jedoch nie erzielt in seiner 10-jährigen Existenz, erst mit Apples Umschwenken vom Internet Explorer auf den eigenen Browser Safari, und damit der starken Verbreitung der ursprünglich von KDE entwickelten KHTML-Technik, wurde eine starke dritte Plattform im Netz etabliert. Die Opera-Engine war das fünfte Rad am Wagen in der Webentwicklungswelt. Wenn Seitenanbieter ihre Webseiten in Browsern prüften, dann gehörte Opera meist nicht dazu. Damit auch Opera-Nutzer wenigstens auf die großen, populären Seiten ohne Darstellungsfehler zugreifen konnten, musste Opera tricksen und die Seiten beim Laden teils mit eigenen Korrekturen manipulieren.

Drei statt vier

Nun aber wird Webkit also endgültig den dritten Platz von Presto übernehmen, dieser inzwischen Vierte im Bunde wird eingestellt. Opera gibt damit ein Stück Identität auf, ein Stück Originalität und Unverwechselbarkeit. Opera verabschiedet sich damit als originärer Hersteller von Anzeige-Technik für Webinhalte. Opera wird künftig nur noch den Stellenwert einer Browservariante haben, also etwa wie sich Seamonkey zu Firefox verhält. Statt Opera wird man bald auch Chrome einsetzen können, ohne Unterschiede in der Darstellung zu bemerken.

Doch das ist keine Katastrophe, im Gegenteil. Denn der Opera-Marktanteil war seit jeher in der Regel maximal im niedrigen einstelligen Prozentbereich. Opera war und ist ein Browser für Liebhaber, für ambitionierte Power-User – und selbst die waren mit der Darstellungsleistung des Browsers oft alles andere als zufrieden. Was nun zunächst wie ein Ausverkauf des eigenen Tafelsilbers wirkt, das Verzichten auf den Kern seiner Existenz, kann auch eine Chance für Opera sein. Denn die Darstellungsfehler in Opera auf Feld-Wald-und-Wiesen-Webseiten kamen dadurch zustande, dass der Browser nicht weit genug verbreitet war.

Pragmatismus und Stärken

Opera krankte in der Vergangenheit immer daran, dass es Darstellungsfehler gab, weil Opera die Webseiten zwar vorbildlich äußerst standardkonform interpretierte, aber kaum ein Webentwickler seine Seiten auf Opera hin testete. Vor allem auch Operas Javascript-Interpreter sorgte für Abweichungen. Ein Verzicht auf die eigene Darstellungstechnik, die sich in knapp 20 Jahren nie wirklich hat durchsetzen können, erscheint daher als die pragmatischste Lösung. Wie sich das in Zukunft auch auf die Oberfläche und die Funktionen von Opera auswirken wird, wird sich noch zeigen müssen. Im Idealfall werden Opera-Nutzer von der Umstellung gar nichts bemerken – außer, dass die Schwierigkeiten mit der Anzeige von Webseiten schlagartig abnehmen.

Opera wird sich auf das konzentrieren, womit sie wirklich punkten können: das Programm an sich, mit einem hochflexiblen User-Interface und allen Modulen, die es für eine Desktop-Internet-Suite braucht, inklusive E-Mailprogramm und RSS-Reader. Wenn Opera künftig neben Apple und Google auch in der Weiterentwicklung von Webkit mitmischt, dann stärkt das die Webkit-Sparte. Andererseits bleibt es eine Bankrotterklärung, es ist ein Bruch mit dem, was den Browser bislang ausmachte: Innovation und Eigenentwicklungen, Trendsetzer auch bei der Implementierung von Webentwicklungen. Aber für die Pleite der eigenen Anzeigetechnik ist nicht Opera verantwortlich – die beste, innovativste oder auch standardkonformste Webseitendarstellung ist nichts wert, wenn sie von niemandem genutzt wird.

Vertauschte Rollen

Opera wird es auch weiterhin geben, aber streng genommen nur als Oberfläche. Der eigentliche Browser, der Teil, der die Webseiten darstellt, wird künftig identisch mit dem von Safari oder Chrome sein. Es bleiben damit also nur noch drei unterschiedliche Wege über, wie Webseiten in Zukunft auf den Bildschirm kommen: Microsofts Trident, Mozillas Gecko – und eben Webkit in Opera, Safari, Chrome & Co.


heute unvorstellbar, damals normal: Opera 6 mit großflächigem Werbefenster für wechselnde Anzeigen.

Jedoch gerade für die glühenden Anhänger wird Opera künftig nur noch ein halber Browser sein, eine Hülle für eine woanders entwickelte Technik. Doch Opera hat man nicht wegen seiner HTML-Engine benutzt, sondern trotz dieser (die eben oft für Probleme sorgte); der Grund, Opera zu benutzen, lag vor allem in dessen pfiffigen Funktionen der Oberfläche. Die vielen Möglichkeiten der Konfiguration, und das alles ohne eine einzige Erweiterung dazuinstallieren zu müssen. Für die Anwender ist es also zunächst ein Gewinn, wenn künftig eine weiter verbreitete Engine die Anzeige der Webseiten in Opera übernimmt. Auch für Webentwickler wird es leichter, weil eine Engine zum Testen wegfällt. Aber für das Web als solches ist es ein herber Verlust, ein Stück technische Vielfalt verschwindet und das Internet wird wieder ein bisschen homogener, mit der Gefahr der Entwicklung zur Monokultur. Man stelle sich nur einmal das Szenario vor, Mozilla würde auch auf Webkit setzen: damit hätte man dann unversehens den alten Browserkrieg wieder, diesmal mit getauschten Rollen: Google/Apple gegen Microsoft.

Schönste Ironie an der Geschichte: Opera, der Kommerz-Browser schlechthin, Closed-Source-Software, der früher nur gegen Geld zu haben war bzw. später alternativ dauerhaft großflächige Werbung einblendete, dieser Browser wird im Kern in Zukunft aus Open-Source-Technik bestehen.