Anwendungen
Portal
Forum
Wiki
Ikhaya
Planet
Mehr
Anmelden

heute

Freies, kostenloses DynDNS mit der nsupdate.info-Instanz auf bndns.de

Permalink thomas-leister.de

Habt ihr schon von nsupdate.info gehört? Die bieten einen kostenlosen DynDNS Service an, ohne Werbung und Spam. Sagen sie zumindest ;) Der Dienst war mir neu. Das beste ist aber: Deren Dienst basiert auf der gleichnamigen Software, die unter einer Open Source Lizenz auf GitHub verfügbar ist :)

Fuchsi wan Kenobi aus Diaspora hat sich die Software mal unter bndns.de auf dem eigenen Server installiert und besitzt jetzt einen eigenen DynDNS Service. Anscheinend war es nicht besonders leicht, die auf Python basierende Software zu konfigurieren, aber ich habe seinen DynDNS Service vor einigen Minuten getestet und es funktioniert großartig!

Nach der Registrierung ist eine moderne, einfach gehaltene Weboberfläche zu sehen, auf der man seine neuen Dynamischen Domains einrichten kann. Limits gibt es (bis auf die Domain natürlich) nicht. Fuchsi bietet seinen Nameserver kostenlos für jeden an – das Angebot nehme ich doch gerne an. Danke dafür!

Die Weboberfläche unter bndns.de

Die Weboberfläche unter bndns.de

Wer also noch auf der Suche nach einem DynDNS Anbieter ist, kann sich nsupdate.info mal ansehen oder direkt den Server von Fuchsi nutzen. Der läuft privat und nimmt ein bisschen Wind aus den Segeln der kommerziellen Konkurrenz ;) DynDNS bietet ja inzwischen gar keine kostenlosen Dienste mehr an. Dazu kommt noch, dass ihr eine riesige Auswahl an Subdomains habt, die bei den großen Anbietern schon vergriffen sind.

Und: Wir geben dem Internet wieder ein bisschen mehr Dezentralität. Also los! Rennt Fuchsi den Server ein! ;)

PGP Keys hosten mit Keybase.io – Was Keybase ist und was ich davon halte

Permalink thomas-leister.de

Seit einiger Zeit gibt es ein neues Konzept für das Bereitstellen und Verwalten von PGP Keys (vor allem Public Keys): Keybase nennt sich der neue Dienst, der sich im Moment noch in der Alpha-Phase befindet und nur über eine Einladung eines Mitglieds zugänglich ist.

Micha Stöcker hat gestern einige Einladungen verteilt, sodass ich mir auch einen Account bei Keybase anlegen konnte und die Chance hatte, mir das ganze mal selbst anzusehen. Was Keybase genau ist und was ich davon halte, erfahrt ihr in diesem Beitrag.

Die Idee

Was macht Keybase so speziell? Hinter Keybase.io steht der Gedanke, PGP Public Keys zu verifizieren. Woher will ein fremder Wissen, dass er gerade den echten Public Key einer Person herunterlädt und nicht den Key einer gefakten Identität bzw. einen manipulierten Schlüssel? Zur Absicherung gibt es bereits Verfahren, wie z.B. Keys über SSL herunterzuladen (Schutz vor Manipulation) oder Public Keys eines anderen zu signieren, sodass Dritten die Identität bestätigt wird. Heise bietet so einen Service z.B. auch an: Man besucht das Verlagsgebäude und legt dann Personalausweis und Public Key vor. Heise bestätigt dann, dass die beiden Identitäten übereinstimmen und unterzeichnet den Public Key. Menschen, die Heise vertrauen, können dann auch sicher sein, dass die Identität und der Public Key von Person x zusammengehören und echt sind.

Dieses Verfahren ist zwar relativ zuverlässig, wenn Public Keys von vertrauenswürdigen Instanzen signiert werden, sind deshalb aber nicht weniger kompliziert. PGP ist für “Normalos” komplex genug – man muss sich ja nur mal ansehen, wer denn PGP wirklich nutzt … ;). Um die Verifizierung von PGP Keys zu vereinfachen, versucht Keybase einen anderen Weg zu gehen: Grundsätzlich hat Keybase in etwa dieselbe Funktion wie der Heise Verlag im vorherigen Beispiel: Es funktioniert als CA (Certificate Authority) und bestätigt Public Keys.

Keybase ID Suche

Keybase ID Suche

Die Bestätigung und Verifizierung des Schlüssels erfolgt aber nicht über den Personalausweis, sondern über bereits bestehende Identitäten im Internet: Über GitHub, Twitter, über die eigene Website, über die bereits vorhandenen und vom Hoster abgesegneten DNS Daten. Weitere Identitätsnachweise sollen kommen. So sind beispielsweise auch Verbindungen mit Facebook, Google und anderen Nutzerkonten denkbar. In der Praxis funktioniert das Verfahren so: Ich gebe in Keybase z.B. an, meine Keybase Identität (und damit meinen hochgeladenen Public Key) über GitHub verifizieren zu wollen. Über den Keybase Command Line Client gebe ich den Befehl

keybase prove github ThomasLeister

ein. Mir wird dann Text / Code ausgegeben, den ich öffentlich als GitHub Gist speichern muss. Keybase kann diesen Text dann auslesen, erkennt mich wieder und leitet daraus ab, dass mir der GitHub Account mit dem Benutzernamen “ThomasLeister” gehören muss. Damit ist bestätigt, dass mir dieser eine GitHub Account gehört und die GitHub Identität wird in die bestätigten Identitäten aufgenommen.

Wer sich meinen Public Key nun von Keybase herunterladen will, kann sehen, dass ich derselbe Thomas Leister bin, der auch als “ThomasLeister” auf GitHub unterwegs ist. Wenn noch weitere Identitäten hinzukommen, wächst somit die Sicherheit, den richtigen Public Key herunterzuladen und nicht eine gefälschte Version. Mit jedem Account, den ich mit Keybase verbinde, festigt sich meine Identität auf Keybase.

Ein Angriffsszenario

Wenn nun jemand einen falschen Public Key unter meinem Namen veröffentlichen wollte, müsste er auch einen gefälschten Keybase Account anlegen und über diesen den falschen Key publizieren. Soweit kein Problem. Das ist möglich. Jetzt kommt aber das entscheidende: Er muss andere Identitäten vorweisen und den Keybase Account “assuren”. Zu dem gefälschten Keybase Account müssten dann auch noch weitere gefälschte Accounts für GitHub, Twitter etc hinzukommen. Nehmen wir an, auch diesen Aufwand macht sich der Angreifer noch.

Ein Dritter kommt nun hinzu. Er kennt mich z.B. über Github und will nun meinen Public Key von Keybase.io herunterladen. Er findet zwei Identitäten – beide gültig für mich. Aber welche ist nun die echte, und welche die gefälschte? Ganz einfach: Es muss nur jeweils das Profil besuchen und vergleichen, welches Profil mit dem GitHub Account verbunden ist, den er kennt. Wenn er auch ausschließen will, dass mein GitHub Account gehackt wurde, kann er zusätzlich auch die Verbindung mit dem DNS oder mit einer Domain prüfen. Die Wahrscheinlichkeit, dass alle verbundenen Accounts gehacked wurden, ist sehr gering.

Die Person sucht sich also die Keybase Identität aus, die am besten zu dem passt, was bereits über mich bekannt ist und umgeht damit den Fälschungsversuch eines Angreifers.

Wer sich meinen Public Key von Keybase.io herunterlädt, kann also ziemlich sicher sein, dass er den richtigen, echten Key downloadet. [Zu meinem Profil]

Keybase.io profil

Mein Keybase.io Profil

Dezentralität als Sicherheitsmaßnahme

Weil man aber niemals nur auf ein Pferd setzen wollte, bleibt mein Key natürlich auch auf den anderen Keyservern verfügbar. Auf diese Weise könnt ihr den Key von vielen, vielen Servern beziehen und müsst nicht nur einem einzelnen voll vertrauen. Ihr habt die Möglichkeit, die Keys, die ihr von verschiedenen Servern heruntergeladen habt, zu vergleichen und evtl. Unstimmigkeiten oder Manipulationsversuche festzustellen.

Weitere Möglichkeiten mit Keybase.io

Der Dienst hat noch eine weitere Funktion, die vor allem für jene gedacht ist, die normalerweise kein PGP nutzen und trotzdem mal eben eine PGP verschlüsselte Nachricht an jemanden schicken wollen. Über ein Webinterface kann ein Text und der dazugehörige Empfänger ausgewählt werden. Dann wird der Text mit dem Public Key des angegebenen Empfängers verschlüsselt und angezeigt, sodass er z.B. bequem in eine normale, unverschlüsselte E-Mail gepackt werden kann.

Anwendung könnte das z.B. finden, wenn meine nicht so technisch versierten Eltern mir sensible Daten via E-Mail zukommen lassen wollen. Sie haben auf ihren Rechnern kein PGP eingerichtet, trotzdem wäre PGP Verschlüsselung in diesem Fall eine tolle Sache. Ich schicke ihnen dann einfach einen Link auf mein Keybase Profil, wo sie die Identität anhand der verbundenen Konten nochmals überprüfen können. Sie können mir danach ganz einfach und schnell einen verschlüsselten Text zuzuschicken. Dazu brauchen sie nur den Klartext in das Feld einzugeben, “Verschlüsseln” anzuklicken und den umgewandelten Text wieder in die E-Mail einzufügen.

“Haaaaaaaaalt!!!” Werden jetzt die ersten schreien. “Du kannst doch nicht einfach den Klartext auf einer Website eingeben?! Das ist unsicher!”. Ja, das ist nicht komplett sicher. Schließlich könnte Keybase die Daten in Klartext theoretisch vor dem verschlüsseln abfangen und abspeichern. Theoretisch. In der Praxis funktioniert die Verschlüsselung komplett im Browser. Ich habe das nachgeprüft und konnte keine kritischen Anfragen an den Server feststellen. Natürlich (!) ist auch das keine 100%-ige Sicherheit, schließlich könnte Keybase ja in Ausnahmefällen und zu Missbrauchszwecken veränderten Code ausliefern, der dann dennoch Klartext an die Server schickt. Natürlich. Das halte ich aber für eher unwahrscheinlich. Angesichts des überschaubaren Risikos ist diese Funktion eine bequeme Sache, wenn man mal schnell was verschlüsseln muss und kein PGP auf dem Rechner installiert hat.

Wer öfter verschlüsselt, sollte sich PGP installieren. Wobei: Dann bitte nicht unter Microsoft Windows und Mac OS, schließlich sind das Ami-Produkte, die serienmäßig Backdoors für die NSA implementiert haben ;)
Ihr seht: Die vollständige Sicherheit gibt es nicht. Man braucht sich auch nicht über ein Webinterface aufzuregen und dann munter nebenbei PGP unter Windows XP benutzen. Ich denke ihr merkt, worauf ich hinaus will? ;)

 

Mein Fazit

Keybase.io ist schön gemacht und bringt wieder ein bisschen mehr Sicherheit in das Reich von PGP. Eine moderne, einfach gehaltene Oberfläche und ein herausragender Konsolenclient, der übrigens unter einer Open Source Lizenz steht, sprechen für den neuen Dienst im Web. Man muss nur aufpassen, dass man die PGP Verifizierung nicht komplett auf Keybase.io verlagert. Es ist immer gut, mehrere Möglichkeiten für einen Schlüsseldownload anzubieten und nicht nur einen, der dann im unpassendsten Moment nicht verfügbar ist. Dazu kommt ja schließlich auch noch das Risiko, dass Keybase.io selbst gehackt werden könnte oder durch Sicherheitsprobleme in Schieflage kommt. Die clientseitige Verschlüsselung über den Browser finde ich eine gute Idee – auch wenn sich manchen Sicherheitsexperten diesbezüglich die Haare aufstellen und auch ich mir der Risiken bewusst bin. Dennoch sollte man so objektiv an die Sache herangehen können und Risiken abwägen. Wenn man Windows XP oder andere Software im Einsatz hat, von der bekannt ist, dass sie Hintertüren für Geheimdienste hat … oder Software wie Java oder Flash nutzt, die ständig schwere Lücken haben… dann sollte man sich auch nicht über ein browserbasiertes Kryptosystem aufregen, das zum derzeitigen Kenntnisstand einzig und allein via JS auf dem Client läuft und keinen Klartext an die Server sendet.

Bleibt noch die Frage, wie sich Keybase.io einmal finanziert? Werbung einblenden? Wohl kaum. Aktuell gibt es keine besseren Spione im Web. Sponsoren? Schon eher. Vielleicht werden in Zukunft aber auch Premium Accounts angeboten. Wer weiß…

Wer noch weitere Lektüre zu Keybase.io beziehen will, kann sich auch mal den Beitrag von Michael Seemann ansehen, in dem er auch auf die Argumente gegen Keybase eingeht.

Leider habe ich selbst noch keine verfügbaren Einladungen. Sollte ich einmal welche ausstellen können, sage ich natürlich Bescheid ;)

Was ist eure Meinung zu Keybase.io? Wollt ihr das auch testen? Seht ihr weitere Risiken?

Debian Wheezy Nginx Installation mit PHP5.5 und MySQL 5.6 (LEMP)

Permalink SysADMINsLife

Step-by-Step Anleitung wie der LEMP Webserver (Linux + Nginx + MySQL + PHP) unter Debian Wheezy in wenigen Schritten installiert wird.

Definition LEMP Stack

Als LEMP Stack wird in der IT Welt eine Softwarezusammenstellung für die Ausführung von dynamischen Webseiten bezeichnet. Es besteht aus folgenden vier Kernkomponenten, welche alle perfekt miteinander arbeiten. Der Unterschied zum klassischen LAMP Stack besteht nur im Webserver, Nginx statt Apache:

Linux (Betriebssystem)
Nginx (ausgeprochen EngineX) (Webserver)
MySQL (Datenbank)
PHP (Skript Interpreter)

Nginx (ausgesprochen: EnigneX) ist ein Webserver, welcher mehr und mehr Marktanteil bekommt. Er gilt im Zusammenspiel mit php-fpm als sehr performant und gerade für große Umgebungen als sehr geeignet. Es besteht aber auch die Möglichkeit Apache mit php-fpm zu betreiben. Ich möchte in diesem Tutorial zeigen wie der Nginx Webserver mit PHP und MySQL installiert werden kann.

Aktuellste Nginx Version für Debian

Die Debian Wheezy Standardrepositories haben derzeit die Nginx Version 1.2.1 inkludiert, welche leider etwas veraltet ist. Aktuell ist aber bereits 1.4.7 (Stand: April 2014). Ich empfehle auch diese zu installieren und nicht die Standardrepositories zu verwenden.

Die Jungs von Dotdeb sind da sehr viel aktiver und bieten sofort nach Release die aktuellen Versionen in ihren Debian Mirrors an und sind im Bereich Webhosting um Jahre schneller als die Debian Maintainer. Dotdeb ist auch der einzige Mirror, welchen ich ausser den Debian Mirrors verwende. Zudem gibt es hier auch PHP 5.5 Installationspakete für Debian, welche ebenfalls in den Standardmirrors nicht verfügbar ist. So schlagen wir gleich zwei Fliegen mit einer Klappe

Um den dotdeb Mirror hinzuzufügen wird die /etc/sources.list…

vi /etc/apt/sources.list

…und um folgende zwei Einträge erweitert:

deb http://packages.dotdeb.org wheezy all
deb-src http://packages.dotdeb.org wheezy all

Wenn statt einer PHP 5.4 auch PHP 5.5 verwendet werden soll (was ich wegen der Geschwindigkeit empfehle), dann sind in der sources.list noch folgende zwei Zeilen zu ergänzen:

deb http://packages.dotdeb.org wheezy-php55 all
deb-src http://packages.dotdeb.org wheezy-php55 all

Anschließend wird noch der GnuPG key heruntergeladen und importiert.

wget http://www.dotdeb.org/dotdeb.gpg
apt-key add dotdeb.gpg && rm dotdeb.gpg

Ein apt-get update aktualisiert nun die Paketlisten (in diesem Schritt wird noch nicht installiert, keine Sorge)

apt-get update

Installation von Nginx mit PHP 5.5 unter Debian Wheezy

Nun wird die eigentliche Nginx + PHP Installation via apt-get install durchgeführt

apt-get install nginx php5-fpm

Der Webserver sollte nun bereits gestartet sein und auf den Port 80 hören. Zum Testen kann einfach die Server-IP oder der Hostname des Servers aufgerufen werden. So sieht die Standardwebseite von Nginx aus:

Nginx Installation Debian

Nginx spricht aber derzeit noch kein PHP, welches wir nun in der “default” Konfiguration aktivieren. Später wird für jeden vServer eine eigene Configfile erstellt.

Dazu wird die default Datei editiert…

vi /etc/nginx/sites-available/default

… und im Bereich “server{” die folgenden Zeilen auskommentiert, sodass der PHP Teil wie folgt aussieht (die # kommentieren jeweils eine Zeile aus):

# pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
#
location ~ \.php$ {
fastcgi_split_path_info ^(.+\.php)(/.+)$;
# # NOTE: You should have "cgi.fix_pathinfo = 0;" in php.ini
#
# # With php5-cgi alone:
# fastcgi_pass 127.0.0.1:9000;
# # With php5-fpm:
fastcgi_pass unix:/var/run/php5-fpm.sock;
fastcgi_index index.php;
include fastcgi_params;
}

Der PHP FPM Worker wurde nun in der Config eingetragen. Damit die Änderung aktiv wird muss der Nginx noch neu gestartet werden:

/etc/init.d/nginx restart

Um nun zu testen ob unser Nginx nun wirklich PHP spricht, wird einfach eine test.php Datei im Standardverzeichnis /usr/share/nginx/html angelegt

vi /usr/share/nginx/html/test.php

Als Inhalt lassen wir phpinfo ausgeben:

<?php phpinfo(); ?>

Ein Aufruf der IP bzw. des Hostnames (zB: http://192.168.1.100/test.php) sollte folgende Ausgabe bereit halten:

Nginx PHP 5.5 Installation

 

MySQL Server 5.6 installieren

Nun wir es Zeit den MySQL Server zu installieren. Das bereits die dotdeb Mirrors eingebunden sind, kann die aktuellste Version bequem via apt-get installiert werden:

apt-get install mysql-server mysql-php

Währen der Installation wird nach einem Passwort für den Root Datenbank User gefragt. Diese könnt ihr beliebig festlegen. Falls ihr es vergessen habt könnt ihr das MySQL Root Passwort wiederherstellen.

MySQL Datenbank und Datenbankbenutzer anlegen

Der MySQL Server ist nun installiert und wir können die erste Datenbank und den ersten User anlegen. Über folgenden Befehl verbinden wir uns mit der MySQL Server Konsole:

mysql -u root -p

Ihr werdet nun nach eurem Passwort gefragt, das ihr bei der Installation in der grauen Box eingegeben habt. Wir sind nun mit der MySQL Server Konsole verbunden und legen die erste Datenbank und den ersten User an:

create database datenbank1;
grant all privileges on datenbank1.* to 'dbuser1'@'localhost' identified by 'Passwort' with grant option;

datenbank1 - steht für den Datenbanknamen
dbuser1
 - steht für den Benutzernamen
localhost - Bedeutet das der Benutzer nur vom lokalen Server auf die Datenbank zugreifen darf.
Passwort - steht für das Passwort, welches der Benutzer zur Authentifizierung benutzt.

Ein externer Zugriff auf MySQL Datenbank kann unter Umständen gewährt werden, ist aber nicht zu empfehlen, wenn es nicht benötigt wird.


SysADMINsLife auch auf Facebook | Google+ | Twitter | Youtube | Google Currents
Copyright © 2009-2013 - Der Feed ist nur für den persönlichen, nicht für den gewerblichen Gebrauch bestimmt und Inhalt des Angebotes von www.sysadminslife.com

gestern

OS Command Injection am Beispiel Inter-Tech RPD-150

Permalink Falk Husemanns Blog

(Inter-Tech RPD-150 - Quelle: Inter-Tech Bilderpaket)

( RPD-150 )

Im Bereich eingebetteter Systeme ticken die Uhren langsamer, als im Desktop- und Server-Bereich. Hier lassen sich noch leicht klassische Schwachstellen wie Directory Traversal oder OS Command Injection finden. Letztere Variante findet sich auch im WLAN-Router RPD-150 der Firma PC-Professional, der durch Inter-Tech vertrieben wird. Das Gerät wird für circa 11 Euro angeboten und wird mit überragender Sicherheit beworben.

Bildschirmfoto - 17.04.2014 - 00:09:20

RPD-150: Mit überragender Sicherheit.

OS Command Injection Angriffe (nach OWASP) bezwecken es, Befehle die durch den Angreifer festgelegt werden, in eine anfällige Anwendung einzuschleusen. Dabei verhält sich die verwundbare Anwendung wie eine Pseudo-Shell, die es erlaubt, mit den Rechten und in der Umgebung in der sie ausgeführt wird, Befehle auf dem System auszuführen.

Erste Stelle, die oft für Command Injection Angriffe besonders interessant ist, ist die Ausführung von Diagnosebefehlen in der administrativen Oberfläche eines Routers. Hier werden teilweise Eingaben ungefiltert an die entsprechenden Systembefehle wie ping oder traceroute weitergegeben. So auch beim RPD-150. Das folgende Bildschirmfoto zeigt, wie mit Hilfe der PING Funktion und Einbettung von Shellbefehlen ein Telnet-Server gestartet werden kann.

command_injection

Ein kurzer Test bestätigt den Start des Telnet-Servers, wie auf folgendem Bildschirmfoto zu sehen.

Bildschirmfoto - 20.04.2014 - 14:06:47

Ein laufender Telnet-Server ist aber nicht gleichbedeutung mit vollem Superuser-Zugriff auf den Router. Dafür muss ein Kennwort gebrochen werden. Da das Webinterface mit Root-Rechten ausgeführt wird (eine Eingabe von 127.0.0.1; echo $USER bestätigt das), ist die Gewinnung der Datei /etc/passwd kein Problem.

Sie enthält bei eingebetteten Systemen nicht nur die bekannten Informationen zu Benutzernamen und User-IDs, sondern darüber hinaus auch das gehashte Kennwort. Auf Desktop-Systemen wird es sonst in der Datei /etc/shadow/ gespeichert. Durch Ausnutzung der Schwachstelle mit dem Befehl 127.0.0.1; cat /etc/passwd kann der Inhalt der Datei gewonnen werden: root:C75rzlQ3E2Dkc:0:0:root:/:/bin/sh.

Das Kennwort des Superusers kann darauf folgend mit John the Ripper in kurzer Zeit gebrochen werden. Es lautet admin.

Mit dem Kennwort kann jetzt eine Verbindung als Superuser zum vorher gestarteten Telnet-Server hergestellt werden, wie das folgende Bildschirmfoto zeigt.

Bildschirmfoto - 17.04.2014 - 00:10:06

Die Schwachstelle ist natürlich nur geringfügig, da eine Anmeldung im Webinterface erforderlich ist.

Besonderer Dank an Inter-Tech, die sehr schnell reagierten und der Veröffentlichung des Artikels zugestimmt haben. Quelle des Produktfotos: Inter-Tech RPD-150 Bilderpaket.

Projekt Media-PC – Fazit

Permalink loggn.de

Wow, 11 Artikel, für ein Projekt, welches eigentlich gar nicht so lange dauern sollte und im Endeffekt mehr Freizeit, im Alltag, darstellen sollte!! :-x

Hardware – Intel NUC D34010WYK | Betriebssystem Xubuntu | Xubuntu – Konfiguration | Projekt Media-PC – Synology NAS – Windows-Freigaben automatisch per FSTAB verbinden | Intel NUC – IR-Empfänger – Nuvoton w836x7hg | XBMC – Installation und Konfiguration | Projekt Media-PC – Mystique SaTiX-S2 Sky V2 USB – Treiber und Firmware | VDR – Installation und Konfiguration | XBMC & VDR – Live-TV über VNSI konfigurieren

Mein Ziel: XBMC mit Live TV über VDR, ein All-in-One (kein extra Media-PC, keine extra Dreambox)

Intel NUC (leer) Intel NUC im Größenvergleich mit iPhone 5 Desktop von Xubuntu Synology DS213 DVBSky S960 VDR - VDRAdmin-AM XBMC - Live TV mit Senderlogos XBMC im Live TV - RTL
 
Erstmal möchte ich mich, bei euch, für die zahlreichen Kommentare und Tipps bedanken!! 8-)
Leute die mich kennen, wissen, dass wenn ich einmal etwas angefangen habe, es auch durchziehe – auch wenn die Aussicht auf Erfolg sehr gering ist.
Die unter euch, die meine bisherigen Artikel kennen, wissen, wie ich schreibe und haben sicherlich in den letzten Artikeln schon “rausgelesen” – dass es bestimmt nicht gut ausgehen wird.

Fehler / Probleme

Wahl des Betriebssystems (Xubuntu)

    • … mit Arch Linux wäre ich zwar mehr auf dem Terminal unterwegs gewesen, aber in Endeffekt effektiver!
    • … dann gibt es da noch so eine Media-Center-Distribution namens “OpenELEC“, ich habe diese teilweise schon auf dem RPi gehabt. Da war mir aber nicht klar, dass man auch VDR nachinstallieren kann und alles, sogar, die DVBSky S960, OOTB läuft – “WAHNSINN!!”.
      (Danke an Mathias und Christian für die Tipps, Kritik und den Support!)

Wahl der TV-Karte bzw. TV-Box (DVBSky S960)

    • … nicht OOTB bei Xubuntu.
    • schlechte Umschaltzeiten (VDR > VNSI > XBMC), ca. 2-2,5 Sekunden reine Umschaltzeit, plus 1,5-2,5 Sekunden “zwischenspeichern / buffering” von XBMC.
    • … schlechte Bildqualität (pixlig, kantig) im Vergleich zur Dreambox.
    • … ziemlich “rucklig” im oberen Bildbereich.

Schlussfolgerung / Wie gehts weiter?

Das ging ja mal gehörig in die Hose, gerade weil ich nicht wusste, was mit OpenELEC alles möglich ist. Aber man kann ja bekanntlich nicht alles wissen, man lernt nie aus – dafür gibt es nette Leser, die konstruktiv Kritik äußern und diese Lücken damit füllen. DANKE! ;-)

Ob ich den NUC behalten werde, weiß ich noch nicht, weil für ein XBMC Media Center ohne VDR und Live TV, kann ich mittlerweile auch einen zweiten RPi nehmen. Klar habe ich einen Performanceverlust im Vergleich zum Intel NUC, aber mit XBMC Gotham ist es ganz in Ordnung – mehr als 200€ ist mir diese Performance nicht wert!

Aber ich habe die Hoffnung noch nicht ganz aufgegeben, dass jemand von Euch hier kommentieren wird, der sagt: “Nimm die XYZ USB-TV-Box für deinen VDR, damit hast du geniale Umschaltzeiten und das Bild ist auch traumhaft.

Dann haut mal in die Tasten!! Ich werde jetzt erstmal ein paar Tage vergehen lassen und dann vielleicht, je nach Kommentaren, das Projekt “Media-PC v2″ starten – schauen wir mal. :-P


© loggn.de, 2014. | Permalink | 11 Kommentare
_nico bei Twitter und Google+ | loggn.de bei Facebook und Google+

Copyright © 2009-2014
Dieser Feed ist ausschließlich für den privaten Gebrauch bestimmt. Der gewerbliche Gebrauch, in gedruckter oder digitaler Form, ist ohne ausdrückliche Zustimmung des Betreibers nicht erlaubt.

21. April 2014

Projekt Media-PC – XBMC &amp; VDR – Live-TV über VNSI konfigurieren

Permalink loggn.de

So, nun kommen wir zum alles entscheidenden Artikel vor dem endgültigen Fazit des Projekts “Media-PC“. :mrgreen:

Update_140422: Fazit zum Projekt Media-PC

XBMC - Live-TV mit Senderlogos

Einmal müssen wir noch den Terminal bemühen, um das PVR Plugin von XBMC für VDR VNSI zu installieren - dieses kommt aus dem XBMC “unstable” Repo.

apt-get install xbmc-pvr-vdr-vnsi

Nun starten wir XBMC und navigieren zu Einstellungen > Addons > Deaktivierte Addons > VDR VNSI Client > Konfigurieren > …

XBMC - VDR VNSI Client - Konfiguration

OK > Aktivieren.

Jetzt müssen wir noch zu Einstellungen > Live TV und wählen dort “Aktivieren“.

XBMC - Live TV aktivieren

Info: Ihr solltet auf jedenfall im Hinterkopf haben, dass es dort auch die Funktion “PVR-Datenbank zurücksetzen” und unter EPG “EPG-Datenbank zurücksetzen” gibt - nach dem Bearbeiten der Senderliste hilft dies oft Wunder. ;-)

So, nun wollt ihr sicherlich auch die schicken Senderlogos haben. ;-) Dazu gehen wir noch mal kurz auf den Terminal und laden uns die Senderlogos herunter und entpacken diese.

cd /home/nhartung/.xbmc/userdata
curl -L "http://github.com/3PO/Senderlogos/archive/master.zip" > channellogos.zip
unzip channellogos.zip
mv Senderlogos-master channellogos
rm channellogos.zip

Zu guter Letzt muss noch unter Einstellungen > Live TV > Menü/OSD der Pfad zu den Kanal-Symbolen festgelegt und dann “Suche fehlende Symbole” ausgeführt werden.

XBMC - Live TV - Kanal-SymboleNun könnt ihr Live TV genießen!! Ob ich es genießen kann oder werde, werdet ihr in meinem abschließenden Fazit zum “Projekt Media-PC” erfahren. Viel Spaß!

XBMC - Live TV mit Senderlogos XBMC im Live TV - ZDF HD XBMC im Live TV - RTL XBMC im Live TV - RTL II

 


© loggn.de, 2014. | Permalink | kein Kommentar
_nico bei Twitter und Google+ | loggn.de bei Facebook und Google+

Copyright © 2009-2014
Dieser Feed ist ausschließlich für den privaten Gebrauch bestimmt. Der gewerbliche Gebrauch, in gedruckter oder digitaler Form, ist ohne ausdrückliche Zustimmung des Betreibers nicht erlaubt.

[vdr] doppelte Aufnahmen löschen

Permalink itbasic

Zum Fernsehen komme ich nicht viel und damit ich die ein oder andere Folge nicht verpasse, nutze ich den Linux Videorekorder.

Ein sehr nützliches Plugin ist epgsearch, mit dessen Hilfe der Timer automatisch programmiert wird. Es können Suchbegriffe eingegeben werden und der vdr programmiert den Timer wenn der gesuchte Begriff im Titel oder in der Beschreibung gefunden wurde.
Neben den Suchbegriff können noch Kanäle ausgewählt werden, auf denen aufgenommen werden darf.
Das Plugin bietet auch eine Funktion das bereits aufgenommene Folgen nicht noch einmal aufgenommen werden sollen, leider habe ich diese Funktion erst spät entdeckt und nun wurden einige Folgen doppelt aufgenommen.

Damit ich die doppelten Folgen schnell entfernen kann, habe ich mir folgendes Script erstellt.
#!/bin/bash
VDRPFAD=/vdr

grep "D " --include="info" -R /vdr/ | cut -d ":" -f 2 | sort | uniq -d > $VDRPFAD/vdrtemp

while read i
do
FILE=`grep "$i" --include="info" -R /vdr | tail -1 | cut -d ':' -f1 | sed -e 's/\/info//g'`
rm -R $FILE

done

rm $VDRPFAD/vdrtemp

Das Script sucht nach doppelten Beschreibungen und löscht dann eine der gefundenen Aufnahmen.

20. April 2014

Neues aus der Mozilla Design-Schmiede #11

Permalink Sören Hentzschel

Neues aus der Mozilla Design-Schmiede. Unter diesem Titel wird in regelmäßigen Abständen über aktuelle Mockups, Design-Experimente und Ähnliches berichtet. Manches davon wird in dieser oder ähnlicher Form sicher den Weg in ein Mozilla-Produkt finden, anderes wird vielleicht nie über den Status eines Entwurfes oder Experiments hinausgehen, viele Ideen entwickeln und verändern sich über die Zeit und diese Entwicklungen werden wir in dieser offenen Serie beobachten können.

Vergangene Woche erst hatte ich die Jubiläums-Ausgabe #10 dieser offenen Artikel-Serie veröffentlicht, welche einen besonderen Schwerpunkt auf Design-Entwicklungen gelegt hatte, welche nahtlos an das Australis-Konzept anknüpfen. Darüber hinaus gibt es aber noch weitere Mockups, welche mögliche künftige Neuerungen zeigen.

Visualisierung von Such-Anfragen in Adressleiste

Für Firefox sind diverse Verbesserungen geplant, um den Nutzer beim Suchen zu unterstützen. Sofern Firefox weiß, dass eine Suche durchgeführt wird, soll die Such-URL in der Adressleiste besonders dargestellt werden. Auch in die Adressleisten-Vorschläge soll die Suche besser integriert werden.

Lesemodus für den Desktop-Browser

Firefox Mobile für Android hat einen Lesemodus. Dieser bereitet Artikel auf Webseiten besonders lesefreundlich auf. Zuletzt war dieser für die Windows 8 Modern UI-Variante von Firefox in Arbeit, doch wurden die Arbeiten an diesem bekanntlich eingestellt. Aber auch der Desktop-Browser soll dieses Feature erhalten, wovon es nun Mockups gibt.

Tab-Gruppen-Ersatz als Sidebar

Die Tab-Gruppen, auch bekannt als Panorama oder Tab Candy, sind eine grundsätzlich tolle Idee, in der Praxis aber nicht ohne Schwächen und sollen mittelfristig aus Firefox wieder entfernt werden. Doch das heißt nicht, dass nicht ein ähnliches Konzept eine Chance erhalten könnte. So zeigt ein neuer Design-Prototyp, wie die Tab-Gruppen in besser funktionieren könnten. In diesem Prototyp befindet sich links von den Tabs ein Pfeil-Symbol. Ein Klick darauf öffnet eine Sidebar, welche die Tabs untereinander mit Vorschaubildern anzeigt. Unten kann zwischen verschiedenen Gruppen von Tabs gewechselt werden. Der Design-Prototyp deutet außerdem eine Integration mit Sync an, um die Tabs anderer Geräte darstellen zu können. Eine Suchfunktion ist außerdem vorhanden.

Vorschaubilder auf Neuer Tab-Seite via Bearbeiten-Panel ändern

Mozilla plant nicht nur vordefinierte Vorschaubilder für die Neuer Tab-Seite und eine Integration der Suchleiste in diese Seite, sondern auch eine einfachere Anpassung der einzelnen Vorschaubilder über ein Bearbeiten-Panel. Über dieses kann direkt eine URL eingegeben werden, wobei man ähnlich wie bei der Adressleiste Vorschläge basierend auf der Chronik angezeigt bekommt, zusätzlich werden sofort vier Webseiten in Form von Vorschaubildern vorgeschlagen.

Performance-Tool für die Entwicklerwerkzeuge

Ein Mockup zeigt ein mögliches neues Performance-Tool für die Entwicklerwerkzeuge von Firefox.

Neues Design für den App Manager

Und schließlich gibt es auch noch Mockups, welche ein mögliches neues Design für den App Manager zeigen, welcher das Testen und Debuggen von Firefox OS-Apps auf dem Desktop-Gerät ermöglicht.

Projekt Media-PC – VDR – Installation und Konfiguration

Permalink loggn.de

Da mittlerweile nun auch der Treiber und die Firmware für die TV-Karte installiert sind, kann nun das VDR samt Plugins und dem nützlichen VDRAdmin-AM Webinterface installiert und konfiguriert werden.

Update_140422: Fazit zum Projekt Media-PC

VDR - VDRAdmin-AM

Mit diesem Befehl …

apt-get install vdr vdr-plugin-vnsiserver vdr-plugin-streamdev-server vdr-plugin-epgsearch vdradmin-am

… installieren wir alle benötigten VDR Pakete aus dem offiziellen Ubuntu Repository.

In den Dateien /etc/default/vdr und .../vdradmin-am müssen wir nun ENABLE=0 zu ENABLE=1 ändern.

vi /etc/default/vdr
vi /etc/default/vdradmin-am

In folgenden Dateien …

vi /etc/vdr/svdrphosts.conf
vi /etc/vdr/plugins/streamdevhosts.conf
vi /etc/vdr/plugins/vnsiserver/allowed_hosts.conf

…  müssen wir noch das jeweilige IP-Netz eintragen, welches Befehle an das VDR senden (svdrphosts.conf) und den TV-Stream empfangen (streamdevhosts.confallowed_hosts.conf) darf – in meinem Fall 192.168.137.0/24.

Nun kopieren wir noch unsere Senderliste, welche wir im Artikel zuvor erstellt haben, in das VDR Konfigurations-Verzeichnis. Als Alternative könntet ihr auch meine aktuelle channels.conf nehmen – da sind wenigstens die ersten 21 Sender schon sortiert. :mrgreen:

cp channels.conf /etc/vdr/channels.conf

Zu guter Letzt starten wir mit …

/etc/init.d/vdr start

… und …

/etc/init.d/vdradmin-am start

… das VDR samt allen installierten Plugins und VDRAdmin-AM.

Über das Webinterface vom Streamdev Plugin …

  • http://IP-DES-MEDIA-PCS:3000

… kann man sich den TV-Stream über, beispielsweise, VLC am Computer anschauen – kein “must have“, aber definitiv eine nützliche Funktion. Im Webinterface von VDRAdmin-AM

  • http://IP-DES-MEDIA-PCS:8001

… kann man sich die EPG-Daten anzeigen lassen und beispielsweise Aufnahmen programmieren.

Viel Spaß damit!


© loggn.de, 2014. | Permalink | 2 Kommentare
_nico bei Twitter und Google+ | loggn.de bei Facebook und Google+

Copyright © 2009-2014
Dieser Feed ist ausschließlich für den privaten Gebrauch bestimmt. Der gewerbliche Gebrauch, in gedruckter oder digitaler Form, ist ohne ausdrückliche Zustimmung des Betreibers nicht erlaubt.

nichtparasoup

Permalink noqqe.de

In der k4cg laufen auf dem Beamer meistens irgendwelche Bilder von soup.io durch. Bisher mittels dem (fremdgehosteten) soupcache.

Da diese in letzter Zeit oft keine Bilder auswirft und wir das Stück Software aufgrund der Codebasis auch nicht selber hosten können/wollen, hab ich letzte Woche etwas eigenes geschrieben. nichtparasoup

Ums kurz zu machen, ein kleines Python Skript ersetzen Nodejs, MongoDB, Crawler-Shell-Skripte und viel zu viel JS-Code. Beim JavaScript-Part in der neuen Lösung geht großer Dank an Jan. Mit Webkram kenn ich mich überhaupt nicht aus.

Code und Anleitung auf Github: github.com/k4cg/nichtparasoup. Wer möchte kanns auch gerne ausprobieren und Rückmeldung geben.

Android auf dem EeePC: The Good, The Bad &amp; The Ugly

Permalink Kaffeeringe

Android x86 auf meinen EeePC 1000h

Android ist nicht nur ein Betriebssystem für Smartphones und Tablets. Eine Gruppe Entwickler pflegt ein Projekt, mit dem sich die Google Software auch auf einem normalen Computer installieren lässt. Das ist ziemlich einfach und es zeigt auch, dass Android ein paar Sachen ziemlich gut macht.

Ich weiß gar nicht, wie viele Betriebssysteme mein alter EeePC 1000h inzwischen schon gesehen hat. Ausgeliefert wurde er mit Windows XP. Und dann waren da neben Ubuntu mindestens noch Moblin und Jolicloud drauf. Nachdem der Rechner mit den Ubuntu-Updates immer langsamer wurde, war es in letzter Zeit nur noch eine Quälerei. Und das obwohl ich RAM und SSD aufgerüstet hatte. Canonicals Linux ist inzwischen einfach zu fett für das Netbook. Eine Alternative musste her. Da lief mir Android x86 über den Weg.

Android x86 gibt es, wie die meisten Linux-System als .iso. Mit UNetbootin habe ich mir das das auf einen USB–Stick gezogen. Mit dem frisch konfigurierten USB–Stick startet dann den Rechner. Das Installationsprogramm fragt, ob es die Festplatte formatieren soll und installiert dann das neue Betriebssystem. Nach relativ kurzer Zeit startet dann Android zum ersten Mal. Die Einrichtung kennt jeder, der ein Android-Smartphone hat: Sprache, Google-Account und los geht es.

Über Google Play habe ich mir dann die Apps installiert, die ich zum Teil auch auf dem Smartphone habe. Mit dem Solo Launcher, der Anbindung an OwnCloud für Kontakte und Kalender und K9 Mail sind viele wichtige Funktionen schon abgedeckt. Die meisten Apps funktionieren einwandfrei auf dem Laptop. Auf ein Problem bin ich gestoßen, als ich eine E-Mail-Adresse eingeben wollte: Das @-Zeichen von der Tastatur wird nicht erkannt — und wie ich bei der Suche nach einer Lösung herausfand: Auch das €-Zeichen geht nicht. Dazu muss man leider Ubuntu von einem Stick booten und eine Datei nachbearbeiten. Günter Born hat das sehr gut aufgeschrieben.

The Good

Mit dem Android 4.4 lässt sich ziemlich gut arbeiten. Die Steuerung ohne Touchscreen ist ein wenig anders und manchmal nicht ganz so praktisch. Es funktioniert aber erstaunlich gut und nicht schwieriger als jeder andere Betriebssystemwechsel wohl wäre. Der Zurück-Button im Firefox ist dann nun einmal nicht an der Adresszeile, sondern unten am Bildschirmrand. Ich habe aber erst hier auf dem Laptop bemerkt, wie praktisch es ist, dass Programme Push-Benachrichtigungen senden können. Neue Mails oder Nachrichten bei Facebook oder Twitter werden direkt gemeldet. Das hat Ubuntu mit seinen WebApps teilweise auch. Unter Android funktioniert das aber richtig gut.

Toll finde ich auch, dass das Teilen von Links per Mail, Facebook, Twitter oder Google+ viel einfacher geht, als normalerweise auf dem Laptop. Ich habe den Eindruck, dass ich auf diese Weise wesentlich flotter mit dem Laptop arbeiten kann, als vorher unter Ubuntu. Und dazu gibt es noch schlaue Widgets, die mir meine Kalender-Termine und meine Aufgaben immer in Griffweite anzeigen, ohne dass ich daran denken muss, irgendwelche Programme zu starten.

Um Ubuntu oder Windows so praktisch zu konfigurieren, muss man eine Menge Zeit investieren und wissen, was man tut. Bei Android fällt das so aus der Tüte.

The Bad

Schade finde ich, dass das Laptop offenbar nicht von Google Play als Tablet anerkannt wird und mir immer die Telefon-Versionen der Apps anbietet. Twitter und Facebook gehen deswegen ziemlich verschwenderisch mit dem Platz um. Airdroid und die App der Kieler Nachrichten drehen das Bild zwangsweise und sind deswegen nicht nutzbar. Ach ja: In den Display-Einstellungen solltest Du das automatische Drehen ausschalten — sonst dreht sich das Bild nach so einer App auch nicht wieder zurück. Außerdem scheint die Sache mit dem DRM nicht zu funktionieren. Watchever wollte mir jedenfalls keine Filme zeigen.

The Ugly

Richtig blöd ist aber, dass Android für Always-On entwickelt wurde. Wenn ich das Laptop zuklappe bleibt es weiterhin an. Ich kann es nur herunterfahren oder so laufen lassen. Der Akku-Laufzeit tut das nicht gut. Apropos Akku-Laufzeit. Ich bin mir noch nicht ganz sicher, aber ich habe den Eindruck, dass Android zwar ziemlich flott arbeitet. Da ruckelt und hakt nichts und die Apps starten alle super-schnell. Die CPU scheint aber gut zu tun zu haben, selbst wenn nicht viel anliegt.

Und doof ist auch, dass Android natürlich nicht dafür ausgelegt ist, dass man das Gerät an einen Beamer anschließt, um eine Präsentation zu zeigen. Da muss ich mir für den WebMontag etwas anderes überlegen.

Insgesamt bin ich mir noch nicht sicher, ob ich Android auf dem Laptop lass. Dass das Gerät nicht so einfach in den Standby geht, ist schon ziemlich nervig. Aber es sieht wirklich toll aus und die Bedienung macht echt Spaß.

19. April 2014

Administration von Systemen

Permalink noqqe.de

Admins. In der Systemadministration treffen Einstellungen aufeinander. Geschmacksrichtungen. Unterschiedliche Wissensstände. Glaubensrichtungen. Interessen. Vorlieben. Wer tut in einem Ops-Team was und warum. Was folgt ist ein Gedankenmodell.

Solutions

Lösungen. Eigentlich ist es das, worum es im Operations geht. Dem nachkommen von Anforderungen an ein System. Ob neue Komponente, Sicherheitslücke oder Setup-Aufbau, darauf lassen sich all diese Dinge herunterbrechen.

Die angewendeten Lösungen (Changes) lassen sich in maximal 2 der nachfolgenden Kategorien einordnen. Ähnlich wie beim CAP-Theorem.

  • Einfach: Der Change ist einfach, schnell umgesetzt und auch für Kollegen verständlich
  • Korrekt: Die Lösung kann je nach Bedarf zukünftig erweitert werden, ist sicher und auf Korrektheit überprüft
  • Risikofrei: Das entstehende Riskio für die Umgebung bei Anwendung der neuen Lösung ist möglichst gering.

Practices

“Es ging nicht anders”

Man hat keine Ahnung vom Thema. Die Lösung entspringt Google, einem Unix-Forum Post von 1997 oder im besten Fall einem Server Fault Thread mit 1,5 Upvotes.

Diese Praktik erzeugt meistens wenig Aufwand, geht schnell. Hinterlässt aber einen Gewissen Nachgeschmack. Fühlt sich dreckig an und sieht manchmal auch so aus. Meist auch die Variante in der sich andere Teamkollegen beim Drüberstolpern nachher die Augen auswaschen müssen.

“Best Practice”

Größtmögliche Korrektheit. Dieser Ansatz entspringt meistens entweder persönlichem Interesse des Admins an der Software oder entsprechende Schulung+Einarbeitung in das Thema.

Was in Erweiterbarkeit, leichter Administration und Stabilität endet muss mit dem Eingehen von Risken und Zeit bezahlt werden. Man ändert nicht einfach mal so die Templates der Standardrolle im LDAP oder die Architektur des Datenbankclusters. Danach hat man aber allerdings erstmal Ruhe und das angenehme Gefühl die Welt ein Stück besser gemacht zu haben.

“Hart overengineert”

Wenn auch das kleinste Ein-Server-Homepage-Setup von der Metzgerei um die Ecke bis zum Anschlag puppetisiert, hoch-skalierbar und für alle Erweiterungen bereit eingerichtet ist.

Der overengineerte Ansatz ist stabil. Allerdings schwierig im Team zu maintainen und beansprucht zu viel Zeit. Was in hohen Einmalkosten, verlorener Mühen und Nerven endet um für Eventualitäten gewappnet zu sein die wohl niemals eintreten werden.

Roles

Im Lauf eines Admin-Berufslebens begegnen einem auch allerhand Charaktere. Ich würde nicht von mir behaupten, ein Urgestein der Administration zu sein, dennoch lernt man so einiges kennen.

Der Noob-Op

Es spielt überhaupt keine Rolle ob wegen neuer (unbekannter) Technologie oder einfach nur Berufsanfänger. Beim Angehen eines Problems kommt die erstbeste Lösung her, die gefunden wird. Auch weil man oft garnicht in der Lage ist beurteilen zu können ob die Lösung schön, wartbar oder auch nur im Ansatz korrekt ist.

Der Realtitätsfremde

Es wird auch mal einfach ein C Programm geschrieben, gebaut und temporär eingesetzt, nachdem im Programm der Wahl ein Flag, eine Option oder ein Feature nicht so realisiert wie selbst erwartet.

Software wird selbst gepatched, statisch gebaut und auf Systeme verteilt. Meister für Problemlösungen, finden aber auch Lösungen die Betriebsführungstechnisch gesehen garkeine sind.

Der Engagierte Admin

Macht sich gerne länger Gedanken auch über temporäre Probleme oder niedriger Priorität die einfach zu lösen sind. Der Anspruch an die Correctness steht dabei an erster Stelle. Das Ergebnis will schliesslich hergezeigt werden können.

Alles dauert recht lang, funktioniert aber. Schöne Systemkonfiguration mit Kommentaren in den Configs bezahlt einem aber leider keinerr. Funktionieren muss es halt.

Der Hipster-Hacker

Nur Software einsetzen, die gerade irgendwo Trending auf Hackernews ist. Heisser Scheiss solls sein. Enden tut das alles in einer Infrastruktur aus pre-alpha Versionen die allesamt beim nächsten Update kaputtgehen. Ganz zu schweigen von “production-ready” Software.

Der resignierende Senior

Je älter oder erfahrener der Admin dieser Kategorie desto stärker nähert er sich dem Noob an.

Egal ob Faulheit, vergebene Bemühungen wegen der Vergänglichkeit des Systems, baldigem Eintritt ins Rentenalter oder einfach nur, um nicht der Einzige zu sein der sich mit dem System/ Konfiguration auskennt. Eingebaute Änderungen sind pragmatisch, einfach, zielorientiert und mit möglichst wenig Aufwand.

Abschliessend

Ich mag es Dinge in Schubladen zu sortieren und erwische mich oft an diesem Gedankenmodell schrauben. Ich weiss ehrlichgesagt nicht warum ich das verblogge. Der Sketch dazu liegt schon ewig in meinem Draftordner und über die Feiertage kam ich mal dazu.

Um Hinweise bei vergessenen Solutions, Roles oder Practices in den Kommentaren bitte ich sehr ;)

Launchpad: PPAs, Github und Daily-Builds

Permalink onli blogging

Ein PPA für izulu mit Integration des Github-Repos einzurichten war komplizierter als nötig. Man merkt, dass die ganze Infrastruktur nicht für kleine, sondern für große Projekte gemacht ist, alles ist unheimlich mächtig und hinter tausend Wrappern versteckt, und auch die sind potentiell ziemlich kompliziert.

Daher nun die Quintessenz der Arbeit meiner letzten Tage, neben dem PPA: Eine kleine Anleitung zur Integration von Github für daily builds in PPAs auf Launchpad.

Vorbedingung

Egal was das für ein Projekt ist, du kannst dir Unmengen an Arbeit mit Nutzung eines Makefiles sparen. Selbst wenn es gar nichts zu kompilieren gibt!

Makefiles sind einfach. Ignoriere einfach autotools und was es sonst alles gibt. Als Start für Skripts empfehle ich das Makefile von izulu (das auf dem Makefile von pass basiert). Wenn Code kompiliert werden muss, ist diese Anleitung nicht verkehrt (kennt jemand eine bessere?) Edit: Hervorragend ist auch die Anleitung von Dirk bei den Adminstories.

Achte darauf, dass dein Makefile auch wirklich alle Ordner anlegt, die Zeile mit install -d .

PPA manuell füllen

Vorbedingung: Dein Programm baut sich sauber per Makefile. Du hast dir auf Launchpad ein PPA angelegt, und in deinem Profil deinen SSH-Key hochgeladen. Das Paket packaging-dev ist installiert.

Workflow: Wir erstellen mithilfe von Debian/Ubuntu-Tools ein reguläres .deb. Das Sourcefile dieses .deb, *_source.changes, wird auf Launchpad hochgeladen.

Zuerst musste ein vollständiges debian-Verzeichnis angelegt und die Dateien darin entfernt oder konfiguriert werden.

  1. Anlegen:
    dh_make --createorig -p NAME_VERSIONUMMER

  2. Jetzt muss debian/ kontrolliert werden. Alle ex und EX-Dateien können gelöscht werden, und auch ein paar andere, in denen das drin steht. Dabei immer auf das Target (bei mir war das trusty, aber dh_make setzte unstable ein) in debian/changelog(!) achten. In debian/control die Abhängigkeiten eintragen, und unbedingt die Section von unknown auf irgendwas (im Zweifel misc, ich fand leider nirgends eine Liste der validen Optionen) ändern.
  3. Dann das Paket bauen:
    debuild -S -sa -kKEYID

  4. Wenn das gut ging, wurde im Elternordner die Komponenten hingelegt, also kannst du das Quellpaket hochladen:
    dput -f ppa:USER/PPA ../PAKETNAME_VERSIONSNUMMER_source.changes

Nun auf die Email warten, die über Erfolg oder etwaige Baufehler berichtet. Etwaige Fehler berichtigen und alles wiederholen (debian/ einfach behalten, aber beim dh_make-Schritt die Versionsummer erhöhen).

Integration mit Github und Daily Builds

Vorbedingung: Du hast ein Programm auf Github, mit debian-Ordner, dessen Debianpaket auf Launchpad gebaut werden kann.

Workflow: Projekt anlegen, Codeimport einrichten, recipe erstellen, dieses dann eintragen.

Aber ein PPA manuell zu befüllen ist ja gar nicht, was wir als Entwickler typischerweise wollen. Sondern daily snapshots aus dem Github-Repo in dem PPA haben ist das Ziel.

  1. Dafür muss zuerst der Code nach Launchpad importiert werden. Dafür, jeweils den Links folgen, ein Projekt angelegen, und dann den Import erbeten. Dieser Import läuft danach automatisch, mit etwas Verzögerung, bei jeder Änderung im Github-Repo.
  2. Dann ein Rezept anlegen. Das ist einfach: Ein Rezept sagt einfach nur, welche bzr-branches und Repos genutzt werden sollen. Also bzr-builder installieren und eine Datei PROJEKTNAME.recipe anlegen. Die Anleitung erklärt das ganz gut, aber als Beispiel hier izulu.recipe (der debian-Ordner ist Teil des Repos):
    # bzr-builder format 0.3 deb-version {debupstream}+{date}+{revno} 
    lp:izulu

  3. Dies mit pbuilder testen:
    bzr dailydeb --allow-fallback-to-native PROJEKTNAME.recipe working-dir
    sudo apt-get install pbuilder
    echo 'COMPONENTS="main universe multiverse restricted"' >> ~/.pbuilderrc
    sudo pbuilder create
    sudo pbuilder build working-dir/PROJEKTNAME_VERSIONSUMMER.dsc

    Dabei darauf achten, dass das Target in debian/changelog identisch mit der derzeit genutzten Ubuntuversion ist.

  4. Das Rezept musst du nun einfach im Projekt eintragen und das PPA als Ziel eingeben, sollte direkt vorgeschlagen werden.

Letzter Tipp: Stelle sicher, dass die Versionsnummer passt, sonst erst die alten Dateien aus dem PPA löschen. Bei mir war die nämlich kleiner als die des händisch gebauten im PPA, wodurch es nicht hochgeladen werden konnte. Das Uploadlog hab ich natürlich erstmal übersehen, und mich über den Fehler angesichts des einwandfrei aussehenden Buildlogs gewundert.

Das wars. Änderungen in Github werden automatisch nach Launchpad importiert, und fallls sich der Code ändert, wird täglich das .deb im PPA neu gebaut.

Google Earth unter Wheezy – So geht’s!

Permalink Intux

Seit ca. zwei Monaten versuche ich Google Earth unter Debian Wheezy 7.4 zu installieren. Leider jedoch bis dato ohne Erfolg.

Nun habe ich jedoch eine Lösung für dieses Problem gefunden. Voraussetzung ist die Installation von Multiarch. Zum Einspielen der nötigen Pakete hielte ich mich an das Wiki unter ubuntuusers.de. Hierbei wird dir *.bin heruntergeladen und ein entsprechendes Paket gebaut, welches man im Anschluss installiert.

# apt-get install lsb-core libfreeimage3 googleearth-package

# cd && make-googleearth-package --force

# dpkg -i google*.deb

# apt-get -f install

Nun ist Google Earth zwar installiert, aber es kommt beim Start via Terminal zu folgender Fehlermeldung:

/usr/lib/googleearth/googleearth-bin: error while loading shared libraries: libGL.so.1: cannot open shared object file: No such file or directory

Diese wird eliminiert indem man die libGL.so.1.2 hier herunter läd und diese (mit root-Rechten) in /usr/lib/googleearth/ einfügt und dort in libGL.so.1 umbebnennt.

Nach dem erneuten Starten von GE kommt es jedoch zu einer weiteren Fehlermeldung (Ungültige HTTP-Anforderung).

news-238

Diese beseitigt man durch das Umbenennen der veralteten libcurl.so.4.

# mv /usr/lib/googleearth/libcurl.so.4 /usr/lib/googleearth/backup_libcurl.so.4

Nun sollte aber Google Earth 6.0 auf Wheezy laufen!

news-239 

Wer jedoch unter akuter Versionitis leidet und auf die aktuelle Version 7.1 nicht verzichten möchte, sollte darüber nachdenken auf Debian Testing upzugraden.

Meilenstein für Servo: Mozillas neue Engine besteht ACID2-Test

Permalink Sören Hentzschel

Die Überschrift dieses Artikels könnte an eine Meldung aus dem Jahr 2008 erinnern. Mit dem im Jahr 2008 erschienenen Firefox 3 hat Mozillas Browser erstmals den ACID2-Test bestanden. Doch Mozilla arbeitet an einer von Grund auf neu entwickelten Browserengine, welche all diese Dinge, die heute für einen Browser selbstverständlich sind, erst ganz neu erlernen muss. Hinter dem ACID2-Test kann Mozilla nun einen Haken setzen.

Der ACID2-Test ist ein Test aus dem Jahr 2005, welcher Browser auf Konformität zu den Standards des World Wide Web Consortiums (W3C) prüft. Auch wenn sich das Web seit dem sehr stark weiterentwickelt hat, so sollte ein Browser heute nicht weniger diesen Test bestehen als vor fünf Jahren. Mit Servo arbeitet Mozilla Research nun schon seit geraumer Zeit an einer von Grund auf neu entwickelten Engine, welche möglicherweise irgendwann einmal Gecko beerben kann. Noch ist man mindestens zwei Jahre davon entfernt, eine in einem realen Produkt einsetzbare Servo-Engine zu haben, an deren Entwicklung sich auch Samsung beteiligt. Zumindest den ACID2-Test besteht man nun, was man als wichtigen Meilenstein für Servo bezeichnen kann. Den ACID1-Test besteht Servo seit August 2013.

Servo soll sich dadurch auszeichnen, moderne Hardware optimal zu nutzen und frei von Altlasten und Schwachstellen der aktuellen Gecko-Engine zu sein. Servo wird nicht etwa in C++, sondern in der ebenfalls von Mozilla Research entwickelten Sprache Rust geschrieben, welche bereits seit mehreren Jahren in Entwicklung ist und einige der Nachteile von C++ kompensieren soll. Einer der Vorteile von Rust ist, dass es optimalen Gebrauch aller zur Verfügung stehenden Prozessorkerne und Grafikeinheiten machen soll, ganz anders als alle aktuellen Browserengines, deren Architekturen bereits über zehn Jahre alt sind. Außerdem ist Rust standardmäßig sicher, was einen Großteil von Speicherfehlern verhindert und die Engine weniger anfällig für Abstürze und Sicherheitsprobleme macht. Einige Sicherheitsprobleme wie solche ähnlich Heartbleed zum Beispiel seien nach Angaben von Mozilla Research mit Rust gar nicht erst möglich, da der Rust Compiler dies automatisch zu verhindern weiß. Eigene Performance-Vergleiche würden zudem zeigen, dass viele Bereiche der Web-Plattform, welche noch nicht optimiert für Multithreading sind, bereits erheblich schneller als in traditionellen Browsern sind – und die Multithreading-Performance sei noch besser.

Zwar ist es noch ein langer Weg bis zur Fertigstellung von Servo und damit Zukunftsmusik, doch wenn der Plan aufgeht und Servo eines Tages Gecko beerben kann, dann könnte dies Firefox einen großen Schub nach vorne verschaffen, während die Engines der anderen Browser, von denen bislang keine Pläne der Neuentwicklung bekannt sind, weiter auf ihre Architekturen aus der Anfangszeit der Webbrowser setzen.

18. April 2014

Humble Weekly Oh Man Sale

Permalink deesaster.org

Zur aktuellen, wöchentlichen Humble-Aktion will ich gar nicht viel sagen, weil die Spiele nicht wirklich gut sind (nach meinem Spielempfinden).

Enthalten sind dieses Mal:

  • The Real Texas – ein Action-Adventure in Minecraft-Klötzchen-Optik
  • Cryptic Sea EP – drei kleinere Arcade-Spiele (Skateboard fahren, Autorennen und Tetris-Verschnitt)
  • Dungeon Hearts – ein gutes Drei-in-einer-Reihe-Spiel mit Rollenspielanleihen

Cryptic Sea EP – Volta
Cryptic Sea EP – Volta
Cryptic Sea EP – Touring Car
Cryptic Sea EP – Touring Car
The Real Texas
The Real Texas
Dungeon Hearts
Dungeon Hearts

Wer mindestens 6 US-Dollar zahlt, erhält noch:

  • Krunch – ein Geschicklichkeitsspiel, bei dem es auch auf Geschwindigkeit ankommt
  • Foul Play – ein interessantes Beat 'em up in einem Theater (aber nur für Steam!)
  • Legend of Dungeon – ein Rollenspiel mit bunter Grafik

Krunch
Krunch
Legend of Dungeon
Legend of Dungeon

Wer mindestens als 10 US-Dollar zahlt, erhält noch:

Alle Spiele bis auf Foul Play (was ich aber nicht getestet habe) sind in Englisch. Für alle, außer für Cryptic Sea, gibt es auch den Soundtrack als MP3 zum Download.

Bezahlen kann man wie immer über Kreditkarte, Paypal, Google Wallet, Amazon Payments oder Bitcoin. Das Angebot besteht noch bis zum 24. April 2014.

Achtung: Vor dem Kauf sollte man zu allen Spielen die Systemvoraussetzung für Linux lesen.

Meinung zum Bundle

Lohnt sich der Kauf? Für mich nicht wirklich. „Cryptic Sea EP“ ist eine Beta-Version, was man merkt, denn der Skateboard-Teil lief bei mir nicht los und auch die anderen beiden Teile sind nicht sehr gut. „The Real Texas“ hatte eine interessante Anfangsstory, aber grafisch spricht es mich gar nicht an. „Foul Play“ ist nur für Steam und fällt daher raus. „Krunch“ ist nett, bietet aber auch nichts besonderes, was es nicht schon einmal (besser) gab. „Legend of Dungeon“ und „Dungeon Hearts“ sind die einzigen zwei Spiel, die mich interessiert haben.

Bei „Dungeon Hearts“ fand ich die Idee, Rollenspielelemente mit Pattern Matching zu verbinden, recht interessant. Das kannte ich schon von „Puzzle Quest“ (für Windows), was ich sehr mochte, hier geht es aber mehr um Geschwindigkeit. Leider merkt man, dass das Spiel eher für ein Tablet gemacht ist, weil die Mauswege oft sehr lang sind und man nicht schnell genug hinterherkommt. Dennoch ein sehr nettes Spiel für zwischendurch.

Und „Legend of Dungeon“ spielt sich ebenfalls ganz nett und sieht trotz der Pixelgrafik ganz gut und bunt aus. Vor allem Licht-Elemente wurden gut eingesetzt. Nur die Bedienung des Inventars ist ein Graus.

PPA für izulu

Permalink onli blogging

Es gibt nun ein PPA für izulu. Installieren des Skripts geht nun also einfach mit:

sudo add-apt-repository ppa:onli/izulu
sudo apt-get update
sudo apt-get install izulu

Das PPA aktualisiert sich automatisch mit der neuesten Version auf Github, der eigentlichen Projektheimat. Es sind also daily builds (bzw snapshots, weil das Skript selbst natürlich nicht kompiliert werden muss).

Review: Papers, Please

Permalink deesaster.org

Die folgenden Tagebucheinträge wurden nach der Entlassung des Genossen XXXXXXX in seiner Wohnung in der XXXXXXXX-Straße beschlagnahmt. Alle persönlichen Daten wurden geschwärzt.

Tagebucheinträge

22. November 1982

„Heute ist mein Glückstag! Ich erhielt heute ein Schreiben, dass ich die Arbeitslotterie des Monats gewonnen habe. Ich hatte mich zuerst gewundert, weil ich an keiner Lotterie teilgenommen habe. Aber da man nicht jeden Tag etwas gewinnt, habe ich mich trotzdem gefreut.“

„Der Gewinn ist eine neue Arbeitsstelle in Grestin. Unsere großartige Führung in Arstotzka will die Grenzen nach Kolechien öffnen und jemand muss natürlich die ehrenvolle Aufgabe übernehmen, die Einreisenden zu kontrollieren. Ich freue mich wahnsinnig, dass ich diese Aufgabe übernehmen darf.“

„Meine Frau XXXXXX und mein Sohn XXXXX ziehen gleich mit in die neue Wohnung ein. Auf die Mitnahme meiner Schwiegermutter hätte ich verzichten können. Auch wenn mir unsere aktuelle Wohnung der Klasse 6 in XXXXXX gefällt, wird die neue der Klasse 8 in Ost-Grestin sicher nicht schlecht sein.“

„In der Zeitung steht mein neuer Job.”
„In der Zeitung steht mein neuer Job.”

23. November 1982

„Mein erster Arbeitstag bei der Grenzstelle. Ich musste mich am Anfang durch das Handbuch wühlen, aber prinzipiell sind die Regeln einfach: Arstotzkaner mit gültigem Pass dürfen rein, der Rest nicht. Immerhin zwölf Leute konnte ich so abfertigen. Ich fand es etwas schade, dass nicht jeder in unser schönes Arstotzka einreisen darf, aber das hat sicherlich seine Gründe.“

„Meine Grenzkabine ist gemütlich, aber nicht sehr groß. Vor allem der Lautsprecher, mit dem ich ‚Es lebe Arstotzka!‘ und ‚Nächster!‘ in die Menge brüllen darf, macht mir viel Freude.“

„Es lebe Arstotzka.“
„Es lebe Arstotzka.“

24. November 1982

„Heute ist etwas Tragisches passiert. Es steht sicherlich morgen in allen Zeitungen. Ein Terrorist ist bei der Einreise einfach über die Absperrung gesprungen und hat eine Rohrbombe auf einen Grenzsoldaten geworfen. Es war grauenhaft …“

„Und das auch noch an dem Tag, an dem unsere großartige Regierung die Einreisebestimmungen gelockert hat. Eigentlich durfte jeder mit gültigem Pass einreisen. Ich denke, das wird sich ab morgen ändern.“

25. November 1982

„Wie erwartet sind die Prüfungen jetzt wesentlich strenger – was für mich mehr Arbeit bedeutet. Es gab viele neue Regeln, die ich beachten muss. Jeder Ausländer muss einen Einreisebeleg vorlegen, dessen Datum ich prüfen muss.“

„Insgesamt gefällt mir die Arbeit gut. Es ist nicht so anspruchsvoll, aber man sieht viele Menschen.“

26. November 1982

„Hätte ich mich gestern nur nicht beschwert. Einreisebelege sind wegen des blühenden Schwarzmarktes nicht mehr erlaubt und ich muss jetzt Einreise-Genehmigungen prüfen. Name, Passnummer und Einreisegrund müssen alle geprüft werden und stimmen. Immerhin komme ich so mit den Leuten etwas ins Gespräch, es ist aber dennoch anstrengend.“

„Vor allem bin ich durch die vielen Prüfungen nicht mehr so schnell. Gerade einmal sechs Personen konnte ich kontrollieren. Aber ich will keinen Fehler machen. Da ich nur fünf Krediteinheiten pro Kontrolle bekomme, reicht das Geld gerade einmal für Miete (die heute auch noch erhöht wurde) und Heizung. Immerhin hatte ich etwas Geld gespart, um Essen für meine Familie kaufen zu können.“

„Als Grenzschützer muss ich jeden Pass genau kontrollieren.“
„Als Grenzschützer muss ich jeden Pass genau kontrollieren.“

27. November 1982

„Da es gestern so langsam voran ging, wollte ich heute etwas schneller arbeiten. Die Ersparnisse halten nicht ewig als Reserve. Dummerweise sind mir dabei mehrere Fehler passiert. Ich habe einige Leute wohl fälschlicherweise weggeschickt, obwohl sie einreiseberechtigt waren. Und ein oder zwei sind wohl durch meine Kontrolle geschlüpft, obwohl ihre Daten nicht gepasst haben.“

„Jede meiner Entscheidungen wird wohl von höherer Ebene noch einmal geprüft, wie auch immer die das machen. Jedenfalls gab es erst zwei Ermahnungen und danach durfte ich fünf Krediteinheiten Bußgeld pro Fehler bezahlen. Im Endeffekt habe ich heute nichts verdient, was ich meiner Frau natürlich nicht sagen kann.“

„Die Ersparnisse reichen leider nicht mehr für Heizung und Essen. Ich hoffe, dass mir meine Familie es abnimmt, dass bei Bauarbeiten was an den Heizungsrohren kaputt gemacht wurde.“

28. November 1982

„Heute war ein schlimmer Tag. Das Ministerium hat mir einen Arrest-Knopf in die Kabine eingebaut. Jedes Mal, wenn ich jemand Verdächtigen bemerke, soll ich den drücken. Ich dachte mir nichts dabei und als ich ihn drückte, ging ein Alarm los und zwei Wachen führten den Mann vor mir weg. Ich will gar nicht wissen, was sie jetzt mit ihm machen.“

„Zusätzlich ist meine ganze Familie krank, weil es hier so saukalt ist. Ich habe heute wieder nicht genug Geld nach Hause gebracht, um Miete, Heizung und Essen zu bezahlen. Zusätzlich brauchte ich auch noch Medikamente für XXXXXXX und XXXXXXX. Ich glaube, wir müssen, das Essen rationieren.“

„Entweder Essen oder Medikamente für die Familie …“
„Entweder Essen oder Medikamente für die Familie …“

29. November 1982

„Ich kann nicht mehr! Drei weitere Leute mussten wegen mir abgeführt werden. Ich hätte sie ja gerne durchgelassen, denn sie sahen echt nicht wie Terroristen aus. Aber ich hatte davor schon zwei Fehler gemacht und jeder weitere hätte wieder negative Krediteinheiten bedeutet.“

„XXXXXXX ist wieder gesund, aber XXXXXXX hat den Tag nicht überlebt. Ich weiß, man sollte das nicht sagen, aber ich konnte sie eh nie leiden. Ich versuche natürlich dennoch XXXXXXX zu trösten, aber mir scheint, sie gibt mir die Schuld daran.“

30. November 1982

Als ich heute nach Hause kam, lag ein Brief vom Ministerium auf dem Tisch. Weil wegen mir ein Familienmitglied gestorben ist und die Partei nur erfolgreiche Mitarbeiter in ihren Reihen wissen will, wurde ich entlassen. Die Wohnung wurde uns gekündigt. Morgen werde ich mich an den Grenzübergang nach Kolechien stellen. Hoffentlich sind deren Auflagen für eine Einreise nicht so streng wie bei uns …“

Zahlen und Fakten

„Papers, Please“ ist ein sehr ungewöhnliches Spiel. Der Startbildschirm und die militärische Musik zeigen es deutlich, dass man kein Highend-Grafik-Spiel erwarten kann. Dafür überzeugt „Papers, Please“ durch moralische Entscheidungen, die dem eigentlichen Spielziel, Fehler in einem Suchbild zu finden, oft entgegenlaufen.

Titelbildschirm von „Papers, Please“.
Titelbildschirm von „Papers, Please“.

Das macht das Spiel dann auch aus, denn man muss schon zweimal überlegen, ob man immer nach Vorschrift arbeitet oder eine Familie, die den Grenzübergang passieren will, trennt, weil bei einer Person der Pass abgelaufen ist. Teilweise haben Entscheidungen sogar Auswirkungen, die in der Zeitung am nächsten Tag aufgegriffen werden.

Durch die Bestrafung von Fehlern überlegt man sich auch zweimal, ob man absichtlich jemanden die Grenze überqueren lässt, der eigentlich nicht dürfte. Grob gerechnet muss man jeden Tag mindestens zwölf Personen korrekt kontrollieren, damit man Miete, Heizung und Essen bezahlen kann. Reicht das Geld nicht aus, muss man entweder Heizung oder Nahrung streichen, was sich auf die Gesundheit der Familienmitglieder auswirkt. Eine wissentliche Fehlentscheidung kann sich also auf die eigene Familie auswirken.

Leider kann man deswegen auch nicht einfach die Regeln des Spiels über den Haufen werfen, in dem man einfach alle Menschen einreisen lässt, was bei freien Grenzen ja toll wäre. Das System bestraft einen so stark, dass man so keine zwei Tage weit kommt.

„Papers, Please“ selbst kann man beispielsweise über Steam oder den Humble Store erstehen. Der Preis liegt bei ca. 9 US-Dollar. Das Spiel liegt in verschiedenen Sprachen vor, unter anderem auch Deutsch.

Arch Linux: Schlechte Grafikperformance mit Kernel 3.13 und 3.14 und Intel Grafik

Permalink thomas-leister.de

Vor ein paar Tagen habe ich mein Arch Ultrabook auf die letzte Version von Kernel 3.13 aktualisiert. Danach war die Grafikperformance unter Gnome aber extrem schlecht und die Animationen (z.B. Fensterübersicht) sind nicht flüssig gelaufen. Auch nicht, wenn nur ein einziges Fenster geöffnet war.

An der Situation haben leider auch die neuen Versionen des Intel Grafiktreibers oder anderer Grafikpakete nichts geändert. Selbst Kernel 3.14, der kurz darauf gefolgt ist, hat das Problem mit der schlechten Performance nicht gelöst.

Heute habe ich mir etwas Zeit genommen und nachgeforscht. Dabei bin ich auf den Arch Wiki Artikel zur Intel Grafik gestoßen, in dem das Umschalten auf eine andere Beschleunigungsmethode erwähnt wird. Obwohl ich mir keine großen Hoffnungen auf Erfolg gemacht habe, habe ich die Beschleuniger (SNA, Glamor und UXA) einfach mal durchprobiert. Dazu habe ich in /etc/X11/xorg.conf.d/ eine neue Datei 20-intel.conf erstellt und diese Konfiguration hineingeschrieben:

Section "Device"
   Identifier  "Intel Graphics"
   Driver      "intel"
   Option      "AccelMethod"  "<ACC>"
EndSection

“<ACC>” wurde dabei durch die verschiedenen Beschleuniger ersetzt, also “sna” (Das ist der Default-Wert), “glamor” und “uxa”. Es folgte ein Neustart.

Nach dem Wechsel auf “glamor” war die Performance schon ein ganzes Stück besser, aber immer noch nicht zufriedenstellend bzw. wie noch einige Tage davor. Der UXA Beschleuniger war dann aber die Lösung und die Grafikperformance wieder einwandfrei. Alle Effekte laufen nun wieder flüssig und ich kann wieder vernünftig arbeiten. ;)

 

Update: Mein großer Tower Rechner mit AMD Grafik ist genauso von der schlechten Performance betroffen. Das scheint nicht nur für Intel Grafik zu gelten.

Update 2: Mit der Performance beim Spielen gibt es keine Probleme. Hängt evtl auch mit Gnome zusammen.

Projekt Media-PC – Mystique SaTiX-S2 Sky V2 USB – Treiber und Firmware

Permalink loggn.de

Wer sich schonmal eine TV-Karte aussuchen musste, weiß, man hat die Qual der Wahl. Gerade wenn man möchte, dass diese Out-of-the-Box unter Linux läuft. Die meisten TV-Karten die, laut LinuxTV, Out-of-the-Box laufen sollen, sind nicht mehr lieferbar – da es meistens schon eine neuere Generation gibt.

Update_140422: Fazit zum Projekt Media-PC

Bei TV-Karten, die über USB angeschlossen werden, ist es noch kniffliger! Am Liebsten hätte ich einen Pinnacle PCTV DVB-S2 Stick (460e) genommen – dieser war aber nirgends lieferbar und auch auf eBay hatte ich kein Glück. :-?

Mystique SaTiX-S2 Sky V2 USB

Ich habe mich dann für den DVBSky S960 Clone, ein Mystique SaTiX-S2 Sky V2 USB entschieden – da diese, laut LinuxTV, ab Linux Kernel 3.7.11 Out-of-the-Box laufen sollte. Was sich aber im Nachhinein als Übersetzungsfehler meinerseits herausgestellt hat. :cry:

At least up to Kernel 3.7.10 the driver is not included …

“At least …” – “Zumindest …” – Quasi: “Ich habe die S960 getestet, mit Kernel 3.7.10, da war der Treiber noch nicht enthalten.” Auch bei der Kernel-Version 3.11 ist der Treiber nicht enthalten – also muss man den Treiber selber kompilieren …

Kompilieren des Treibers und kopieren der Firmware

Zuerst installieren wir die Werkzeuge, die zur Kompilierung benötigt werden, mit einem …

sudo su -
apt-get install build-essential

… nach.

Im folgenden Schritt laden wir den offiziellen Treiber von DVBSky herunter, entpacken, kompilieren und installieren ihn.

cd /usr/local/src/
wget http://www.dvbsky.net/download/linux/media_build-bst-140128.tar.gz
tar xzvf media_build-bst-140128.tar.gz
cd media_build-bst/
make clean
./v4l/build_x64.sh
make
make install

Im Anschluss entpacken wir die Firmware für die S960 nach /lib/firmware.

cd /usr/local/src
wget http://www.dvbsky.net/download/dvbsky-firmware.zip
unzip dvbsky-firmware.zip -d /lib/firmware

Nach einem Neustart sollte dmesg nun folgendes anzeigen:

dmesg | grep -i dvb

[   16.030722] usb 2-1: dvb_usb_v2: found a 'DVBSky S960/S860' in warm state
[   16.030777] usb 2-1: dvb_usb_v2: will pass the complete MPEG2 transport stream to the software demuxer
[   16.030792] DVB: registering new adapter (DVBSky S960/S860)
[   16.030837] usbcore: registered new interface driver dvb_usb_dvbsky
[   16.032012] dvbsky_usb MAC address=00:17:42:54:96:01
[   16.032019] usb 2-1: dvb_usb_v2: MAC address: 00:17:42:54:96:01
[   16.188613] m88ds3103_load_firmware: Waiting for firmware upload (dvb-fe-ds3103.fw)...
[   17.280330] usb 2-1: DVB: registering adapter 0 frontend 0 (Montage DS3103/TS2022)...
[   17.308123] Registered IR keymap rc-dvbsky
[   17.308246] input: DVBSky S960/S860 as /devices/pci0000:00/0000:00:14.0/usb2/2-1/rc/rc0/input8
[   17.308417] rc0: DVBSky S960/S860 as /devices/pci0000:00/0000:00:14.0/usb2/2-1/rc/rc0
[   17.308424] usb 2-1: dvb_usb_v2: schedule remote query interval to 300 msecs
[   17.308429] usb 2-1: dvb_usb_v2: 'DVBSky S960/S860' successfully initialized and connected

Damit wurde die TV-(Karte|Box) erfolgreich erkannt – juhu!
Zu guter Letzt können wir mit einem scan den ersten Sendersuchlauf starten. :mrgreen:

apt-get install dvb-apps
scan -o vdr /usr/share/dvb/dvb-s/Astra-19.2E > channels.conf

Fazit

Genau das war eigentlich nicht der Plan – es sollte OOTB gehen. :-( Aber jetzt ziehe ich das Projekt auch durch – auch wenn ich jetzt schon erahne, dass alles Retour gehen wird …

Fragen

Was nutzt ihr für eine TV-(Karte|Box)? (Hersteller, Modell, PCI oder USB)
Läuft diese Out-of-the-Box? (Kernel, Distribution)
Wie sind die Umschaltzeiten inkl. buffering / zwischenspeichern? (HD oder SD / XBMC, VDR oder ???)


© loggn.de, 2014. | Permalink | 8 Kommentare
_nico bei Twitter und Google+ | loggn.de bei Facebook und Google+

Copyright © 2009-2014
Dieser Feed ist ausschließlich für den privaten Gebrauch bestimmt. Der gewerbliche Gebrauch, in gedruckter oder digitaler Form, ist ohne ausdrückliche Zustimmung des Betreibers nicht erlaubt.

17. April 2014

Ubuntu 14.04

Permalink Michael Koflers Blog

Pünktlich wie ein Schweizer Uhrwerk veröffentlicht Canonical eine Ubuntu-Version nach der anderen. Ubuntu 14.04 setzt den Linux-Maßstab für die nächsten zwei Jahre, vor allem für den Desktop-Einsatz, aber auch für immer mehr Server-Administratoren. Was ist neu? Welche bewährten Features sind geblieben? Wo hat Ubuntu 14.04 Defizite? Wo hat es bei meinen Tests gehakt?

Programmversionen

Vorweg ein kurzer Überblick über die Software-Grundausstattung von Ubuntu 14.04:

Basis            Desktop             Programmierung     Server
---------------  ------------------  ---------------    ---------------
Kernel    3.13   Gnome        3.10   bash     4.3       Apache   2.4
glibc     2.19   KDE          4.13   gcc      4.8       CUPS     1.7
X-Server  1.15   Firefox      28     Java     7         MySQL    5.5
GRUB      2.02   Gimp         2.8    PHP      5.5       OpenSSH  6.5
Upstart   1.12   LibreOffice  4.2    Python   2.7/3.4   qemu/KVM 2.0
                 Thunderbird  24                        Postfix  2.11
                                                        Samba    4.1

Der Ubuntu-Desktop

Neu im Vergleich zu Ubuntu 12.04

  • UEFI Secure Boot
  • automatisches SSD-TRIM für Samsung- und Intel-SSDs
  • eingeschränkte HiDPI-Unterstützung
  • viel mehr Unity-Konfigurationsmöglichkeiten
  • Menüs können im Fenstertitel statt im Panel angezeigt werden
  • Web-Apps (Webseiten, die in selbstständigen Fenstern ausgeführt werden)
  • Installation mit LVM und vollständiger Verschlüsselung
  • natürlich unzählige Software-Updates (siehe Tabelle oben)

Nicht alle Neuerungen sind Verbesserungen:

  • Ubuntu One wird in ein paar Monaten schließen, die Ubuntu-One-Apps wurden entfernt
  • WUBI wird nicht mehr unterstützt (weil inkompatibel zu Windows 8)
  • Ubuntu 14.04 läuft wegen Unity in virtuellen Maschinen nur träge

Alles in allem sind im Verlauf von zwei Jahren viele Detailverbesserungen durchgeführt worden, echte Revolutionen gibt es keine.

Positiv überrascht war ich bei meinen Tests erstmals von den Web-Apps. Dieses schon in Version 12.10 eingeführtes Feature funktioniert nun endlich rund. Persönlich sehe ich zwar keinen Vorteil im Vergleich zu Bookmarks in Firefox; aber wer Smartphone-geprägt für jede Webseite gerne ein App hat, erhält mit Web-Apps eine unkomplizierte, standardkonforme Lösung.

Bewährt und unverändert

Wenn man jemanden von Ubuntu überzeugen möchte, gelten genau dieselben Argumente wie vor zwei Jahren:

  • fünf Jahre lang kostenlose Updates
  • perfekt funktionierende, gut erreichbare Paketquellen
  • einfach zu nutzender, nicht überladener Default-Desktop
  • optisch sehr ansprechender Desktop
  • gigantisches Software-Angebot
  • gute Hardware-Unterstützung; auch Nicht-Open-Source-Treiber (NVIDIA etc.) lassen sich unkompliziert installieren
  • riesige Community; in Foren und Wikis finden man bei Hardware-Problemen eher Hilfe als bei anderen Distributionen

Ärgernisse

Im Ubuntu-Startmenü wird Werbung eingeblendet. Nicht einmal Microsoft macht das. Der Unfug lässt sich schnell abstellen, dennoch: Unverzeihlich!

Generell ist das Ubuntu-Startmenü entsetzlich überladen. Weniger wäre hier mehr.

Gnome ist nicht am aktuellen Stand. Die Gnome-Komponenten in Ubuntu 14.04 stammen von Gnome 3.10, aktuell ist 3.12. Schade! Das gilt auch für die Ubuntu-Gnome-Variante.

Persönlich habe ich auch ein Problem mit den vielen Eigenwegen von Ubuntu/Canonical: ob Unity oder Mir — ich glaube nicht, dass Canonical damit der Open-Source-Community etwas Gutes tut, sich selbst vermutlich auch nicht. Immerhin wird Ubuntu 14.04 wohl die letzte Ubuntu-Version mit Upstart sein. In naher Zukunft werden sowohl Debian als auch Ubuntu auf Systemd umsteigen; alle großen Distributionen werden dann dasselbe Init-System verwenden.

Probleme bei meinen Tests

In den letzten Wochen habe ich sicher 30 Ubuntu-Installationen durchgeführt und unzählige Ubuntu-Programme getestet. Dabei gab es erfreulich wenig Probleme, aber ein paar Details sind doch negativ aufgefallen.

  • Das Gnome-Programm Kontakte lässt sich mit Online-Konten nicht vernünftig nutzen. Schuld ist eine Inkompatibilität zu den Ubuntu-Systemeinstellungen (Launchpad). Zur Terminverwaltung gibt es unter Ubuntu überhaupt kein mitgeliefertes Programm. Beide Aufgaben lassen sich damit unter Ubuntu eigentlich nur online realisieren. Hier klafft also eine spürbare Lücke in den Default-Anwendungen.
  • Weil wir schon bei den Online-Konten sind: ownCloud wird nicht unterstützt, obwohl Gnome das schon lange kann. Jammerschade!

  • Das natürliche Scrollen, also das Umdrehen der Scroll-Richtung, funktioniert nur bei manchen Programmen. Das ist offensichtlich ein Gnome-Problem.

  • Nach der Installation von libpam-smbpass (wichtig für Samba-Freigaben) zeigt sudo jedes Mal die merkwürdige Warnung no talloc stackframe an (Launchpad).

  • Der Speicherbedarf von compiz ist riesig, wenn Ubuntu innerhalb von VirtualBox läuft.

Fazit

Ubuntu wird wohl die populärste Desktop-Distribution bleiben. In Ubuntu 14.04 fehlen zwar spektakuläre Neuerungen, aber Ubuntu 14.04 macht auch nichts falsch: Die Distribution ist grundsolide und optisch ansprechend. Die lästige Werbung ist rasch abgestellt, und ansonsten kann man sich sowohl an das Startmenü als auch an die anderen Unity-Eigenheiten gewöhnen; manchen werden sie sogar gefallen.

Der größte Pluspunkt von Ubuntu 14.04 ist sicherlich die fünfjährige Update-Garantie. Rechner, auf denen heute Ubuntu 14.04 installiert wird, können bis April 2019 sorgenfrei laufen.

Projekt Media-PC – XBMC – Installation und Konfiguration

Permalink loggn.de

XBMC LogoNun kommen wir aber endlich zum XBMC Media Center. Am 1. April ist die dritte Beta von XBMC 13 alias Gotham veröffentlicht worden – welches insbesondere für Android und dem Raspberry Pi optimiert worden ist.
Damit ist für mich die Zeit gekommen, von Frodo auf Gotham zu aktualisieren – daher verwende ich das “unstable” Repository von XBMC.

Update_140422: Fazit zum Projekt Media-PC

Installation von XBMC

Wer von euch lieber bei Frodo (12.3) bleiben möchte, nimmt einfach die 2. Zeile (ohne #) und lässt die 4. Zeile weg. ;-)

### offizielles "stable" XBMC Repository
# add-apt-repository ppa:team-xbmc/ppa
### offizielles "unstable" XBMC Repository
add-apt-repository ppa:team-xbmc/unstable
apt-get update
apt-get install xbmc

Autostart von XBMC

Damit gleich nach dem Starten von Xubuntu und dem automatischen Login, XBMC gestartet wird, muss in den Einstellungen von Xubuntu / XFCE folgendes unter “Sitzung und Startverhalten” festgelegt werden.

XFCE - XBMC Autostart

Einstellungen von XBMC

Solltet ihr bereits irgendwo eine XBMC Installation laufen haben und ihr wollt alle XBMC Einstellungen, Datenbanken, Plugins, Skins, etc. übernehmen – kopiert euch einfach den .xbmc Ordner aus eurem “alten” Benutzerverzeichnis, in euer “neues” Benutzerverzeichnis.

# Beispiel Befehl
rsync -avP --delete -e ssh root@mediapc_alt:/home/nhartung/.xbmc /home/nhartung/
chown -R nhartung:nhartung /home/nhartung/.xbmc

Lircmap.xml für XBMC

Die Datei Lircmap.xml stellt das “Bindeglied” zwischen der lircd.conf von Lirc und der Keymap.xml von XBMC dar. (~/.xbmc/userdata/Lircmap.xml)

vi /home/nhartung/.xbmc/userdata/Lircmap.xml

<!-- This file contains the mapping of LIRC keys to XBMC keys used in Keymap.xml  -->
<!--                                                                              -->
<!-- How to add remotes                                                           -->
<!-- <remote device="name_Lirc_calls_the_remote">                                 -->
<!--                                                                              -->
<!-- For the commands the layout following layout is used                         -->
<!-- <XBMC_COMMAND>LircButtonName</XBMC_COMMAND>                                  -->
<!--                                                                              -->
<!-- For a list of XBMC_COMMAND's check out the <remote> sections of keymap.xml   -->
<!--                                                                              -->
<!--                              Logitech Harmony                                -->
<!--                          loggn.de - Nico Hartung                             -->
<!--                        http://www.loggn.de/?p=7127                           -->
<!--                                                                              -->
<lircmap>
	<remote device="mceusb">
		<!-- no Display -->
		<power>KEY_POWER</power>
		<teletext>Teletext</teletext>
		<menu>KEY_DVD</menu>
		<back>KEY_BACK</back>
		<info>More</info>
		<guide>Guide</guide>
		<red>KEY_RED</red>
		<green>KEY_GREEN</green>
		<yellow>KEY_YELLOW</yellow>
		<blue>KEY_BLUE</blue>
		<left>KEY_LEFT</left>
		<right>KEY_RIGHT</right>
		<up>KEY_UP</up>
		<down>KEY_DOWN</down>
		<select>KEY_OK</select>
		<volumeplus>KEY_VOLUMEUP</volumeplus>
		<volumeminus>KEY_VOLUMDOWN</volumeminus>
		<pageplus>KEY_CHANNELUP</pageplus>
		<pageminus>KEY_CHANNELDOWN</pageminus>
		<mute>KEY_MUTE</mute>
		<play>KEY_PLAY</play>
		<pause>KEY_PAUSE</pause>
		<stop>KEY_STOP</stop>
		<forward>KEY_FORWARD</forward>
		<reverse>KEY_REWIND</reverse>
		<skipplus>KEY_NEXT</skipplus>
		<skipminus>KEY_AGAIN</skipminus>
		<record>KEY_RECORD</record>
		<one>KEY_1</one>
		<two>KEY_2</two>
		<three>KEY_3</three>
		<four>KEY_4</four>
		<five>KEY_5</five>
		<six>KEY_6</six>
		<seven>KEY_7</seven>
		<eight>KEY_8</eight>
		<nine>KEY_9</nine>
		<zero>KEY_0</zero>
		<clear>KEY_CLEAR</clear>
		<enter>KEY_ENTER</enter>
		<!-- with Display -->
		<display>Aspect</display>
		<start>Home</start>
		<myvideo>Videos</myvideo>
		<mymusic>Music</mymusic>
		<mypictures>Pictures</mypictures>
		<mytv>TV</mytv>
		<!-- old versions of harmony -->
		<star>Star</star>
		<hash>Hash</hash>
	</remote>
</lircmap>

Keymap.xml / Keyboard.xml für XBMC

XBMC führt die in der Keymap.xml definierten Aktionen, die den entsprechenden “XBMC-Tasten” zugeordnet sind, aus. Grundsätzlich ist der Name der XML Datei in ~/.xbmc/userdata/keymaps egal, es zählt eigentlich nur was in der Datei drin steht. Es hat sich aber irgendwie eingebürgert von der Keymap.xml zu reden, wenn es um die Steuerdatei für die Bedienung von XBMC mit einer Fernbedienung geht. (~/.xbmc/userdata/keymaps/Keymap.xml / Keyboard.xml)

vi /home/nhartung/.xbmc/userdata/keymaps/Keymap.xml

Da die Keymap.xml mehr als 500 Zeilen hat und dies hier den Artikel unnötig sprengen würde, habe ich sie auf Pastebin.com gepostet.

Einstellungen in XBMC

Hier habe ich noch 3 weitere Screenshots von wichtigen XBMC Einstellungen.

XBMC - Hardwarebeschleunigung-hw-acceleration‎Im Falle vom Intel NUC mit Intel HD Graphics 4400 ist es wichtig, die “Hardwarebeschleunigung erlauben (VAAPI)” zu aktivieren – bei einer NVIDIA Grafikkarte ist die “Hardwarebeschleunigung erlauben (VDPAU)” zu aktivieren.

XBMC - Audioeinstellungen 01

XBMC - Audioeinstellungen 02Die Audio-Ausgabe haben wir in einem vorherigen Artikel bereits standardmäßig auf HDMI gestellt – daher muss bei “Audio Ausgabegeräte” nichts umgestellt werden. Wichtig ist auf dieser Seite noch einzustellen, ob euer Fernseher/Verstärker “AC3“, “E-AC3” und/oder “DTS” unterstützt – in meinem Fall alles. ;-)

Fernseher / Bildschirm kalibrieren in XBMC

Samsung TV - Bildformat, Format, Aspect - Bildanpassung

Oftmals will man über XBMC unter “Einstellungen” > “System” > “Video-Hardware” > “Bildschirm kalibrieren…” den Fernseher kalibrieren, weil oben, unten, rechts und links etwas vom Bild fehlt. Meistens ist dieses Vorgehen gar nicht nötig – da einfach nur das Format am Fernseher auf 16:9 o.ä. steht, schaut auf jedenfall vorher an eurem TV-Gerät nach “Bildformat”, “Format” oder “Aspect”.

UPDATE_140417: Bitte vergesst die Einstellung auf dem Bild - lieber 16:9 / 16:10: Stellt es im Fernseher unbedingt auf 16:9 bzw. 16:10!! Wenn ihr “Bildanpassung” wählt, dann Filme oder Serien im Format 16:9 bzw. 16:10 schaut, habt ihr oben/unten oder links/rechts einen winzigen schwarzen Balken – also “Bildschirm kalibrieren…” im XBMC!

Viel Spaß!


© loggn.de, 2014. | Permalink | 6 Kommentare
_nico bei Twitter und Google+ | loggn.de bei Facebook und Google+

Copyright © 2009-2014
Dieser Feed ist ausschließlich für den privaten Gebrauch bestimmt. Der gewerbliche Gebrauch, in gedruckter oder digitaler Form, ist ohne ausdrückliche Zustimmung des Betreibers nicht erlaubt.

Empfehlenswerte, freie Android Apps aus dem F-Droid Store (FOSS)

Permalink thomas-leister.de

In diesem Beitrag will ich euch ein paar Android Apps aus dem F-Droid Store vorstellen, in dem ihr ausschließlich Apps unter einer freien Lizenz beziehen könnt. Alle hier aufgelisteten Apps sind also freie Software (FOSS – Free and open source software).

Das besondere am F-Droid Store ist außerdem, dass ihr die Apps völlig anonym beziehen könnt – ganz ohne Nutzeraccount oder Google im Rücken.

AdAway

AdAway ist das, was wir im Browser unter einem Adblocker verstehen. Die App schreibt einige Einträge in die Hosts-Datei des Android Betriebssystems und leitet Anfragen an Werbeserver auf das eigene Gerät um, sodass keine Werbung mehr geladen werden kann. Auf diese Weise wird jegliche Werbung blockiert – sogar in Apps. Die Filterlisten können über die App regelmäßig aktualisiert werden. Damit der Inhalt der Systemdatei /etc/hosts überschrieben werden kann, wird Root-Zugriff benötigt.

Inhalt der Hosts-Datei

Inhalt der Hosts-Datei

AFWall+

AFWall+ ist eine mächtige Firewall für Android. Auch diese App benötigt Root-Rechte, da sie Änderungen am System vornimmt. In einer langen Liste werden alle Apps aufgelistet, die im System registriert sind. Für jede einzelne App kann der Netzwerkgriff für WLAN oder mobile Datenverbindung individuell festgelegt werden. Dabei stehen zwei Modi zur Verfügung: Im Blacklist Modus bedeuten gesetzte Haken “blockieren”, im Whitelist Modus wird alles geblockt nur die explizit freigegebenen Apps nicht.

Wer häufig Spiele spielt, die eigentlich keine Internetverbindung benötigen und dennoch ungefragt Daten ins Internet senden (z.B. Tracking), kann die Apps mit AFWall+ sehr einfach mundtot machen.

AFWallPlus

Antenna Pod

Antenna Pod habe ich hier im Blog schon einmal vorgestellt. Die App wird mit Podcast-Feeds gefüttert und spielt die Podcasts dann auf Wunsch ab. Audiodateien können entweder gestreamt werden oder schon im voraus automatisch auf das Gerät heruntergeladen werden, sodass man ggf. auf eine mobile Datenverbindung unterwegs verzichten kann. Eine einfache, funktionale App. Was will man mehr?

Antenna Pod App

APG – Android Privacy Guard

Diese App sollte auf keinem Smartphone fehlen. Bei APG handelt es sich um einen PGP Provider, der es ermöglicht, Dateien und Textnachrichten komfortabel mit PGP zu verschlüsseln. Es ist möglich eigene Keys zu generieren, fremde manuell oder über Keyserver zu importieren und sogar eine Verbindung zum Mailclient K9 Mail herzustellen.

Vor wenigen Tagen ist eine neue Version veröffentlicht worden, die mit einem modernen Interface beeindrucken kann und die Usability auf ein neues Level hebt. Ein Must-Have für User, die Wert auf Privatsphäre und Sicherheit legen.

APG

Apollo Music Player

Apollo ist ein einfacher Music Player, der auch optisch beeindrucken kann. Die Bedienung ist sehr einfach und er tut was er soll: Musik abspielen. Ursprünglich kam der Player mit CyanogenMod mit, jetzt kann er aber auch über den F-Droid Store heruntergeladen werden.

Apollo

Barcode Scanner

Barcode Scanner scannt nicht nur Barcodes, sondern auch QR Codes. Der Scan funktioniert sehr schnell und zuverlässig. Gescannte Daten können erneut als QR Code verpackt und von einem weiteren Handy eingescannt werden. Auf diese Weise lassen sich gescannte Daten direkt via Handy weitergeben. Zudem ist die App die Grundlage für viele weitere Apps, die eine QR Code Funktion haben. Was will man mehr?

Barcode Scanner

K9 Mail

K9 Mail habe ich bereits bei APG erwähnt. Die App sollte ebenfalls auf keinem Smartphone fehlen! Eine bessere E-Mail App könnt ihr für euren Androiden wohl nicht bekommen – vor allem nicht unter einer freien Lizenz! Einfaches modernes Design, zahlreiche Konfigurationsmöglichkeiten bis ins Detail und ein praktischer “Gemeinsamer Posteingang” für alle eingerichteten E-Mail Konten haben mir überzeugt. E-Mails können direkt aus K9 heraus via APG verschlüsselt werden.

Orbot

Orbot bringt euch das TOR Netzwerk auf das Smartphone. Der TOR Client ermöglicht anonymes Surfen im Internet, sodass eure Identität im Netz geheim bleibt. Die Einrichtung ist relativ einfach  – vor allem dann, wenn Orbot als transparenter Proxy im System registriert wird. In diesem Fall wird jeglicher HTTP Datenverkehr ins Internet über das TOR Netzwerk geleitet und Anwendungen müssen nicht neu eingestellt werden. Andernfalls kann Orbot auch als normaler Proxy funktionieren. In diesem Fall müssen die Netzwerkeinstellungen in den einzelnen App oder dem System angepasst und ein Proxy eingerichtet werden.

Orbot

Performance Control

Mit Performance Control könnt ihr die Leitung eurer Smartphone-CPU und damit auch den Energieverbrauch einstellen. Wer auf etwas Leistung verzichten kann und stattdessen längere Akkulaufzeit benötigt, kann die CPU über die App drosseln bzw einen festen Takt einstellen. Außerdem zeigt die App Informationen zu Speicherverbrauch, laufenden Apps und sonstige Systeminformationen an. Selbstverständlich benötigt Performance Control Root-Zugriff auf das System.

Performance Control

Share via HTTP

Share via HTTP habe ich auch auch schon einmal vorgestellt. Die App hält sich eher im Hintergrund und wird nur aktiv wenn ihr den “Share-Button” unter Android nutzt – ist deswegen aber nicht weniger genial und praktisch. Wenn es darum geht, nur mal schnell eine Datei von einem Gerät auf ein anderes zu übertragen, ist Share via HTTP perfekt geeignet. Die App startet einen kleinen HTTP Server und stellt die zu teilende Datei dann unter der IP Adresse des Smartphones und Port 9999 bereit. Ein anderes Gerät braucht diese Adresse nur aufzurufen und bekommt die Datei direkt serviert.

VX ConnectBot

VX ConnectBot ist ein freier SSH Client, der auch die Authentifizierung über OpenSSH Keys und Portweiterleitungen unterstützt. Sogar X-Forwarding ist mit der App möglich. Über VX ConnectBot ist auch ein Dateitransfer via SFTP möglich, um Dateien auf einen Server oder von einem Server zu übertragen. Auf Wunsch generiert der SSH Clients Konsolen-Screenshots von der aktuellen Sitzung.

Die F-Droid Store App

… darf auch nicht fehlen. Jede App einzeln als APK von der Website herunterzuladen und selbst nach Updates ausschau zu halten ist unkomfortabel. Aus diesem Grund gibt es die übersichtliche F-Droid App, die diese Aufgaben für euch übernimmt. Ihr benötigt keinen Nutzeraccount und könnt die Apps ganz einfach herunterladen. Das ist es, was den F-Droid Store ausmacht! :)

[Direktlink zur F-Droid APK]

16. April 2014

Android: QR Codes scannen mit der Open Source App Obsqr

Permalink thomas-leister.de

Gerade bin ich über die App “Obsqr” gestopltert, die ich schon längere Zeit via F-Droid auf meinem Androiden installiert habe und die irgendwie in Vergessenheit geraten war. Dennoch will ich sie euch kurz vorstellen, denn sie beweist, dass Apps für einfache Zwecke auch extrem einfach und minimalistisch gestaltet werden können.

Obsqr findet ihr im F-Droid Store und könnt sie entweder direkt als .apk-Datei auf eurer Gerät ziehen oder ihr installiert euch gleich den F-Droid Store und ladet die App darüber herunter. Nach dem Start von Obsqr seht ihr das Live Kamerabild. Einstellungen oder andere Buttons gibt es nicht. Jetzt muss nur noch auf den QR Code gezielt werden und der Inhalt offenbart sich nach kurzer Wartezeit.

Obsqr OR Code App

Das war’s auch schon. Mehr kann die App nicht. Aber das muss sie auch nicht. ;)