ubuntuusers.de

27. Februar 2012

Um mein Triathlontraining zu verbessern und meine Leistungssteigerungen festzuhalten, habe ich mir letztes Jahr den Garmin GPS Forerunner 305 gekauft. Da die Garmin Connect Seite leider nur ein Windows Plugin zur Verfügung stellt, habe ich mich damals nach einer Alternativen umgesehen. Andreas Diesner hat sie in Form eines Open Source Browser Plugins geschaffen. Seitdem lade ich meine Trainingsdaten mittels diesem Plugin zur Garmin Connect Homepage hoch.

Installation unter Ubuntu
sudo add-apt-repository ppa:andreas-diesner/garminplugin
sudo apt-get update
sudo apt-get install garminplugin

Weitere Informationen auf seiner Homepage. Vielen Dank für deine Arbeit!

Dream Studio Logo 150x150Dick MacInnis hat eine neue Version von Dream Studio zur Verfügung gestellt. Manche würde es vielleicht als Wallbuntu bezeichnen. Für kreative Linuxer  ist es vielleicht ein Segen, weil sie sich nicht selbst auf die Suche nach den ganzen Kreativ-Programmen machen müssen. Dream Studio 11.10 basiert auf Ubuntu 11.10 “Oneiric Ocelot” und ist aus diesem Grund auch 100 Prozent kompatibel mit Ubuntu-Paketen und den entsprechenden Launchpads, sollte die vorhandene Software nicht ausreichen.

Nach eigener Aussage unterstützt das neue Theme nicht nur Unity, sondern auch alternative Umgebungen wie Xfce, LXDE, GNOME2 und Openbox. Ebenso enthalten sind verschiedene neue “Streuscheiben” (Lens), inklusive RunLens. Letzteres ist ein Aufsatz für Unity, der lediglich die installierten Applikationen und dessen Beschreibungen anzeigt. Per Standard sind auch Kazam für Screencasting und Shutter für Screenshots installiert. Für Dateivorschau ist nun GNOME-Sushi und nicht mehr covergloobus zuständig.

Dream Studio 11.10 Dashboard

Dream Studio 11.10: Dashboard

Dream Studio bringt unter anderem Realtime Audion via JACK mit sich, das sich wiederum mit Programmen wie zum Beispiel Ardour nutzen lässt. Ebenfalls ist eine aktualisierte Ausgabe des Video-Editors Cinelerra an Bord. Des Weiteren befinden sich Tools für Fotografen und etliches an Audio- und Video-Software inklusive Effekten an Bord. Darunter befinden sich auch OpenShot, Blender, Gimp und Hugin.

Als Büro-Software dient wie nicht anders zu erwarten LibreOffice. Per Standard sind auch Inkscape und Scribus enthalten. Für das Organisieren von Fotos dient Shotwell und Bilder lassen sich mit Darktable, einer freien digitalen Dunkelkammer, entwickeln.

Dream Studio 11.10 ist die letzte Version, die in einem Rhythmus von 6 Monaten ausgeliefert wird.  Mit 12.04 wird es alle zwei Jahre eine neue Ausgabe geben. Diese wird dann in einem Zyklus von 6 Monaten mit neuen Funktionen versorgt und die Updates nach dem Rolling-Prinzip.

Dream Studio 11.10

Basiert auf Oneiric Ocelot ...

8 Fotos

Wer ein Ubuntu 11.10 komplett mit so ziemlich allen kreativen Anwendungnen vorinstalliert haben möchte, kann einen Blick auf Dream Studio werfen. Ansonsten ist es sicher wert, dort zu stöbern. Es ist immer wieder erstaunlich, was einem brauchbares über den Weg läuft, von dem man noch nie gehört hat und die Applikation eigentlich nur wenige Klicks entfernt war.

Dream Studio gibt es leider nur für die Architektur x86. Du kannst ein ISO-Abbild kostenlos im Download-Bereich der Projektseite herunterladen: dreamstudio_11.10.iso (1,9 GByte). Natürlich lässt sich Dream Studio als Live-Medium starten und Du kannst es Dir vor einer Installation zunächst ansehen.


Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

Mozilla FoundationIn einer Pressemitteilung hat Mozilla angekündigt, gemeinsam mit Telefónica Fortschritte bei der Gestaltung von Open Web-Geräten zu erzielen. Das Ganze basiert auf dem Mozilla-Projekt Boot to Gecko. bereits in diesem Jahr will man die ersten Open Web-Geräte ausliefern. Diese bauen komplett auf Web-Technoliogie auf und basieren auf einem HTML5-Stack mit leistugsfähigen Web-APIs.

Das soll zu einer Preisreduzierung und zu Verbesserungen bei der Schnelligkeit von mobilen Geräten führen. Zu den Unterstützern des Projekts gehören Schwergewichte wie Adobe und Qualcom.  Auch die Deutsche Telekom sieht Zukunft in der Technologie Boot to Gecko und stellt Entwickler-Kapazitäten zur Verfügung.

Für alle, die nicht live in Barcelona bei der Ankündigung dabei sein können, gibt es ein Vorschau-Video auf YouTube. Dieses soll demonstrieren, was mittels HTML5 Open Web-Technologie alles möglich ist.


Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

Da demnächst ja ein neues Ubuntu LTS auf dem Programm steht, wollte ich mal fragen, welche Software ihr als erstes nach einer Ubuntu installation installiert. Ich habe für mich festgestellt, dass es gar nicht so viele sind.

Ich würde mich aber dafür interessieren, was ihr installiert.

Weil meine Liste natürlich höchst subjektiv ist, habe ich der Eingabeform ein Feld "Other" hinzugefügt. Falls das Feld nicht ausreicht, schreibt die Programme doch einfach in die Kommentare.

Danke an alle, die mitmachen!

 

Loading...

Full Circle Magazine Logo 150x150Wer der englischen Sprache mächtig ist, könnte zum Wochenbeginn einen Blick in das kostenlose Full Circle Magazine Issue 58 werfen wollen. Neben der üblichen Sektion “Command and Conquer” gibt es diesmal unter anderem folgende Tehmen:

  • Mit Python anfangen – Teil 30
  • LibreOffice – Teil 12
  • Backup-Strategie – Teil 6
  • Wie Du Deinen Desktop Screencasten kannst
  • Das papierlose Büro
  • Eine Rezension über Linux Mint 12
  • und noch mehr …

Wer schon länger mit Linux unterwegs ist wird nicht viel Neues im Full Circle Magazine finden, da es sich eher an die Neulinge, Umsteiger und so weiter richtet. Ich lese es dennoch gerne, weil es mich immer wieder auf Sachen stößt, die schon wieder in die Vergessenheit abgerutscht sind. Wie gesagt kostet der Download nichts, es ist aber nur auf Englisch verfügbar – PDF (9,2 MByte), mobile Version für Android, iPhone und iPad. Zum Frühstück am Montag etwas leichte Kost ist ganz angenehm, muss ich sagen :)


Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

Wine LogoIn der offiziellen Ankündigung wird darauf hingewiesen, dass es lediglich Bugfixes gab. Man befinde sich schließlich im Code Freeze. Es wurden zum Beispiel Fehler behoben die verhinderten, dass sich Corel Draw 11 oder Command and Conwuer Generals laden ließen. Des Weiteren wurde ein Bug ausgemerzt, der Probleme mit Microsoft Visual Studio 2008 verursachte. Weiterhin wurden die Übersetzungen aktualisiert, darunter auch Deutsch.

Fallout 3 1.x

Fallout 3 1.x (winehq.org)

Der Quellcode zum fünften Release-Kandidaten liegt wie üblich bei sourceforge.net oder ibiblio.org. Binäpakete für unter anderem Ubuntu, Debian, Fedora, CentOS, Red Hat, openSUSE, Mandriva, Slackware, FreeBSD oder PC-BSD stehen im Download-Bereich der Projektseite zur Verfügung. Wer sich genauer mit Wine beschäftigen möchte, kann einen Blick in die Dokumentation werden. Wine 1.4-rc5 ist auch schon in PlayOnLinux und PlayOnMac verfügbar.

Ein Termin, wann Wine 1.4 “Final” offiziell veröffentliche werden soll fehlt allerdings bisher. Lang kann es eigentlich nicht mehr dauern.


Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

Das Ziel ist ein Proxy, welcher unerwünschte Inhalte herausfiltert und den Verkehr auf Viren untersucht. Damit der Proxy auch vom Web erreichbar ist, setze ich den SSL-Explorer ein.

Schlussendlich durchläuft der Verkehr diese Punkte: Computer –> SSL-Explorer –> Squid3 –> Privoxy (unerwünschte Inhalte filtern) –> Havp (Virenschutz) –> Internet.

Die Installation ist sehr einfach und die Befehle können 1:1 in die Konsole kopiert werden. Das Tutorial wurde auf einem Debian x86 Squeeze erstellt.

Java installieren

echo 'deb http://ftp.ch.debian.org/debian/ squeeze main non-free contrib' >> /etc/apt/sources.list 
aptitude update 
aptitude install ant build-essential zip unzip sun-java6-bin sun-java6-jre -y

Debian konfigurieren, damit das installierte Java verwendet wird

update-alternatives --config java 
update-alternatives --config javac

SSL-Explorer installieren
SSL-Explorer herunterladen und entpacken

wget http://downloads.sourceforge.net/project/sslexplorer/SSL-Explorer%201.0/1.0.0_RC17/sslexplorer-1.0.0_RC17-src.zip?r=http%3A%2F%2Fsourceforge.net%2Fprojects%2Fsslexplorer%2F&ts=1329904674&use_mirror=switch
unzip sslexplorer-1.0.0_RC17-src.zip*
mv sslexplorer-1.0.0_RC17 sslexplorer

Ordner erstellen und Datei kopieren (ansonsten schlägt die Installation fehl)

mkdir /usr/lib/jvm/java-6-sun-1.6.0.26/lib/ 
cp sslexplorer/sslexplorer/lib/tools.jar /usr/lib/jvm/java-6-sun-1.6.0.26/lib/

SSL-Explorer installieren

ant install

Wenn diese Zeilen erscheinen, die Addresse öffnen, den SSL-Explorer konfigurieren und die Installation abschliessen.

install:
     [java] Starting installation wizard.....Point your browser to http://192.168.2.20:28080.
     [java]
     [java] Press CTRL+C or use the 'Shutdown' option from the web interface to leave the installation wizard.
     [java] .

SSL-Explorer als Service installieren

ant install-service
chmod 700 /opt/sslexplorer/sslexplorer/install/platforms/linux/sslexplorer
chmod 700 /opt/sslexplorer/sslexplorer/install/platforms/linux/x86/wrapper
/etc/init.d/sslexplorer start

Proxies und Virenschutz installieren

aptitude install squid3 privoxy libclamav-dev clamav clamav-freshclam -y 
cd /opt wget http://archive.ubuntu.com/ubuntu/pool/universe/h/havp/havp_0.92a-2_i386.deb 
dpkg -i havp_0.92a-2_i386.deb

Squid konfigurieren
Squid übergibt den Verkehr nur an Privoxy (127.0.0.1:8118)

echo 'cache_peer 127.0.0.1 parent 8118 0 no-query no-digest no-netdb-exchange default' >> /etc/squid3/squid.conf 
echo 'never_direct allow all' >> /etc/squid3/squid.conf

Squid kann nur von localhost benutzt werden

sed -i 's/http_port 3128/http_port localhost:3128/g' /etc/squid3/squid.conf
/etc/init.d/squid3 restart

Privoxy konfigurieren
Privoxy übergibt den Verkehr an Havp

echo 'forward / 127.0.0.1:3129' >> /etc/privoxy/config
/etc/init.d/privoxy restart

Havp konfigurieren
Havp kann nur von localhost benutzt werden

sed -i 's/# BIND_ADDRESS 127.0.0.1/BIND_ADDRESS 127.0.0.1/g' /etc/havp/havp.config

Den Port von 8080 auf 3129 umstellen

sed -i 's/# PORT 8080/PORT 3129/g' /etc/havp/havp.config
/etc/init.d/havp stop
/etc/init.d/havp start

Den Tunnel im SSL-Explorer konfigurieren
“SSL Tunnels” –> “Create Tunnel”.
Bei “Name:” und “Description:” Proxy eintragen.
“Source Interface” 127.0.0.1
“Source Port” 3128
“Destination Host” localhost
“Destination Port” 3128
Den Tunnel starten und beim Browser den Proxy localhost:3128 einrichten.

Fertig ist der eigene Proxy mit Filter und Virenschutz über SSL-Explorer.

Weitere Schritte
Dies ist nur die Grundkonfiguration, damit der Proxy läuft. Folgende Schritte könnten zum Beispiel noch vorgenommen werden:

  • Proxy im internen Netzwerk verfügbar machen, damit im internen Netzwerk nicht der SSL-Explorer für den Proxy benutzt werden muss
  • Regeln erstellen, wer den Proxy benutzen darf
  • Filter Regeln in Privoxy ergänzen
  • Squid konfigurieren, dass weitere Dienste wie FTP oder SMTP den Proxy nutzen können
  • Havp Webseite anpassen, wenn ein Virus gefunden wird
  • Vieles mehr!

Schlusswort
Falls die Anleitung bei einem Schritt nicht / nicht mehr funktioniert, einfach einen Kommentar schreiben, ich werde die Anleitung ergänzen.
Die Anleitung darf nicht dazu benutzt werden, Firewalls von Unternehmen zu umgehen.
Danke an Stefan vom IT Blögg. Mit seinem alten Beitrag konnte ich die Grundkonfiguration erstellen. Er hat den alten Beitrag überarbeitet und einen Neuen veröffentlicht.

26. Februar 2012

Bildquelle:  engadget.com

Heute Nachmittag hat Huawei sein neues Quad-Cor-Smartphone vorgestellt. Es hat einen beeindruckenden 4-Kern Prozessor mit 1,5Ghz und der Bezeichnung K3V2 und 1GB RAM. Dazu Dolby Mobile 3.0 Plus, ein riesiges 4,5″ IPS+ Display mit 32bit Farbtiefe, HSPA+ und LTE. Wow.

Aber Huawei reklamiert für sein neues Spitzenmodell Spitzenwerte. Im Vergleich zu anderen Smartphones mit Quad-Core-Prozessor sei es nicht nur schneller, betonte Huawei-Chef Richard Youm bei der Vorstellung. Das Unternehmen habe auf die Kunden gehört und deswegen ein Gerät gebaut, welches bei der Geschwindigkeit, dem Handling, Sound- und Videoqualität und bei der Akkulaufzeit seinesgleichen suche.

Quelle: heise.de – Huawei präsentiert Quadcore-Smartphone

Klingt ja alles erst ein Mal nicht schlecht, erinnert mich aber irgendwie an die 90er Jahre, in denen Ghz-Zahlen das A und O waren. Mehr Ghz = schneller, besser, tiefer, breiter. Ganz ehrlich, wen interessieren solche Werte?

Sicherlich ist es in einem gewissen Maße für Entwickler interessant. Aber für Endanwender? Kein Stück. Was ist bei einem Smartphone im Hinblick auf die Hardware interessant? Es soll klein, handlich und nicht zu schwer sein, möglichst lange Akkulaufzeit wäre schön, die Kamera sollte als Immer-dabei-Kamera ausreichen und der Speicher sollte für alles genügen, was man immer so an Daten dabei haben will. Auch wäre es gut, wen es chic aussieht und es wertig anmutet. Der wichtigste Punkt an einem Smartphone heutzutage ist aber die Software und das Zusammenspiel zwischen eben dieser und dem Gerät.

Solange alles, was ich mit meinem Gerät machen möchte schnell und angenehm funktioniert, ist es mir gelinde gesagt scheißegal, wie viel Ghz der Prozessor hat, geschweige denn, wieviele Kerne.

Ein aktuelles iPhone 4S hat einen DualCore Prozessor, der mit 800Mhz getaktet ist. Halb so viel Kerne, halb so viel Ghz. Trotzdem läuft iOS fluffiger als Android.

Mag ja sein, dass man auf die Prozessorwerte angewiesen ist, wenn man Ubuntu auf seinem Android Phone laufen lassen will, aber sonst?

Natürlich bin ich, auch aus Berufsgründen, technikaffin genug, um mich für die inneren Werte zu interessieren, aber eigentlich will ich nur, dass alles läuft. Und wenn Apple seinen eigenen Prozessor baut, den sie mit der Software abstimmen und für ein besseres Erlebnis nur halb so viel Ghz und Kerne brauchen, dann zeigt das mal wieder: Zahlen sind nicht alles. Das war damals mit den Prozessoren der PCs so, und das ist heute bei den Prozessoren der Smartphones so.

In diesem Sinne: Die 90er haben angerufen und wollen ihre TechSpecs zurück ;)

    Gmusicbrowser
    Genre Musikverwaltung
    Preis kostenlos
    Homepage http://gmusicbrowser.org/

    In der heutigen App der Woche geht es um die Verwaltung von großen Musikdatenbanken. Gmusicbrowser wurde entwickelt, um Musiksammlungen von über 10.000 Songs zu verwalten, Tags zu ändern, Cover zu wählen und so weiter.

    Installation

    Das Programm ist in den Paketquellen vorhanden und kann somit direkt aus dem Software-Center heraus installiert werden.

    Benutzung

    Als erstes müssen die Musiktitel importiert werden. Das geht über das Einstellungs-Fenster, das man mit Klick auf das Zahnrad erhält. Die Musik wird dann importiert und im Fenster dargestellt. Die weitere Benutzung ist eigentlich intuitiv, mit Rechtsklick auf das Cover kann man über verschiedene Suchdienste Cover für die Musik suchen (siehe Screenshot).

    Das meiste wird über das Kontextmenü geregelt. Hier kann man nach unterschiedlichen Kriterien sortieren, suchen und auswählen. Wenn man mehrere Titel markiert, kann man über den Kontextmenüeintrag „Liedeigentschaften“ die Gemeinsamkeiten der Songs einstellen (z.B. Interpret), gleichzeitig aber auch die Unterschiede (z.B. Liedtitel). Ein sehr hübsches und übersichtliches Programm zum händischen Ändern von ID3-Tags und Dateinamen.

    Es gibt eine Menge Plugins um das Programm zu erweitern. Außerdem fügt sich Gmusicbrowser genauso in das MeMenue von Ubuntu ein, wodurch die Wiedergabe gesteuert werden kann, ohne dass das Programm im Vordergrund steht.

    Wer die Musik automatisiert taggen und umbenennen möchte, sollte allerdings MusicBrainz Picard nutzen.

    Auch im kürzesten Monat (dieses Mal mit einem zusätzlichen Tag) des Jahres gibt es wieder ein Invertika Update. Bei Invertika handelt es sich um ein freies 2D-MMORPG für Linux und Windows.

    So wurden in diesem Monat viele Tilesets angepasst und verbessert, so das diese nun besser zusammenpassen, was man unter anderem an der Windmühle sehen kann. Selphi Timlets Marktstände wurden etwas überarbeitet und auch in Effendis Residenz, Narva, der Zethek Universität und im Tagebau und der Seleyzone gab es einige Korrekturen. Auch einige Spawnzonen wurden angepasst.

    Daneben wurde auf vielen Maps Kollisions- und Warpfehler korrigiert und auch viele Skriptfehler wurden behoben. Auf der Webseite hat sich auch einiges getan. So ist seit einigen Tagen der neue Bugtracker verfügbar. Die bestehenden Bugs und Featurerequest wurden dabei bereits importiert. Dieser hat den Vorteil das man nun mit einem Account, im Forum und der Wiki schreiben kann sowie den Bugtracker benutzen kann.

    Beim Client wurde die Hilfe etwas überarbeitet, dies wird man allerdings erst sehen sobald das PPA bzw. die Installer aktualisiert wurden. Auf der Werkzeugseite wurde das „ivktool“ verbessert, das dieses nun bestimmte Fälle wie z.B. fehlende Tilesets erkennt und dies auch anzeigt. Wer jetzt neugierig geworden ist, der kann sich Invertika unter http://invertika.org anschauen.

    Samstag Mittag ließ Torvalds den -rc5 auf die Welt los - ohne weitere Verspätungen diesmal.

    Die Entwicklung hat sich wieder beruhigt, auch wenn der Ausreißer beim -rc4 ja nur auf die Putzarbeiten im staging-Zweig zurückzuführen war. Frühjahrsputz scheint aber angesagt, den Aufräumarbeiten am USB-option-Treiber gehören zu den auffälligsten Änderungen - es wurden einige Geräte-IDs des Herstellers ZTE entfernt, andere umsortiert. Der FibreChannel-Treiber qla2xxx für QLogic-Geräte erhielt wieder Aufmerksamkeit in Form von Korrekturen, ebenso die Grafik-Komponenten von Samsungs System-on-Chip-Architektur EXYNOS. Zwei kleinere Fehler des Netzwerkdateisystems NFSv4 wurden auch beseitigt.

    Ansonsten waren wieder einige kleine Änderungen darunter sowohl am Dateisystem btrfs als auch weiteren Treibern. Unter anderem wurde der Treiber des USB-Seriell-Konverter-Chip ti3410 um eine Geräte-ID erweitert, sodass er nun mit Geräten der Firma Abbott Diabetes Care, einem Hersteller von Blutzuckermessgeräten für den persönlichen Gebrauch, zusammenarbeitet in denen dieser Chip verbaut ist. Es ist manchmal wirklich interessant, was Linux so im Verborgenen alles unterstützt - Ob jemand diese Möglichkeit auch nutzen wird?

    Die kleine Statistik:

    Commits geänderte Dateien eingefügte Zeilen gelöschte Zeilen Datum Tage *
    3.3-rc1 9460 10 078 568 329 359 404 19.01.2012 15
    3.3-rc2 515 635 24 890 27 719 31.01.2012 12
    3.3-rc3 106 249 1964 2273 09.02.2012 9
    3.3-rc4 370 504 5191 44 440 18.02.2012 9
    3.3-rc5 198 199 1551 1099 25.02.2012 7

    * Tage seit dem letzten -rc/Release

    Quelle: Linux Kernel Mailing List

    25. Februar 2012

    Wer einmal größere Texte benötigt, die lediglich in einer Bild-Datei daher kommen (z.B. in Info-Grafiken) wird um eine OCR Lösung (Optical Character Recognition) nicht herumkommen, wenn er nicht mühsam den ganzen Text selbst abtippen möchte. Mit dem Programm Capture2Text, welches unter der GPLv3 steht und bei Sourceforge für Windows bezogen werden kann, ist dieses sehr einfach ohne zusätzliche Installation möglich.

    Bildquelle http://capture2text.sourceforge.net/#how_to_install

    Nach dem Download der Zip-Datei und dem anschließenden Entpacken, startet man einfach die Exe-Datei im Ordner und Capture2Text nistet sich automatisch in der Schnellzugriffsleiste von Windows ein.

    Mittels Windows + Q startet man die Aufnahme. Nun kann man einfach mit der Maus den entsprechenden Bereich mit der Maus aus dem Bild auswählen und man bekommt direkt eine Vorschau der Erkennung.

    Im oberen Bild erkennt man in der oberen Leiste den erkannten Text, der nun je nach Einstellungsmöglichkeit standardmäßig direkt in die Zwischenablage kopiert wird und ab da einfach in die verschiedenen Programme eingefügt werden kann.

    Zusätzlich ist es möglich über die Google Spracherkennung ebenfalls Text einfach in die Zwischenablage zu bekommen, ein Mikrofon ist natürlich hier, ebenso wie eine ebstehende Internetverbindung Voraussetzung.

    Standardmäßig kann Capture2Text nur die Sprachen:

    • Englisch
    • Deutsch
    • Französisch
    • Chinesisch
    • Japanisch
    • Spanisch
    Weitere Sprachen können aber hier hinzugefügt werden.
    Über die Im Downloadordner befindliche settings.ini – Datei können weitere Einstellungsmöglichkeiten vorgenommen werden. Z.B. kann bei der Auswahl Send to Control festgelegt werden, an welche Anwendung der erkannte Text direkt weitergeleitet werden soll. Zum Beispiel an Notepad++ oder einen anderen Texteditor.
    Zudem können die Standardsprachen konfiguriert werden und auch die Tastenkombinationen sind frei definierbar.
    Insgesamt eine recht praktikable Lösung, leider nicht plattformunabhängig, aber wer unter Windows mal schnell den Text in die Zwischenablage benötigt ohne zunächst Programme zu installieren ist mit Capture2Text gut bedient.

    (via)

    Eltern wissen es bereits und ein tüchtiger Linux Administrator kennt es ebenfalls: Grenzen setzen! Meist ist es zwar gewünscht Prozesse so schnell wie möglich wieder abzuschließen, manchmal möchte man aber doch etwas auf die Bremse treten und den einen oder anderen Prozess künstlich langsamer machen etwa, um nebenbei noch ungestört arbeiten zu können. Zum Glück gibt es unter Linux einige raffinierte Tools um genau das zu erledigen!

    CPU-Zeit limitieren

    Moderne Prozessoren werden zwar immer schneller und können dank mehrerer Kerne und Technologien wie Hyper-Threading mehrere Task parallel abarbeiten, gerade auf kleinen virtuellen Servern, schwachen Atom Systemen oder generell angestaubter Hardware kann es aber dazu kommen, dass ein einzelner Prozess die gesamte CPU-Zeit in Anspruch nimmt. Scannt man etwa mit clamav eine größere Datenmenge, kann der Rechner schon einmal einige Stunden mit 100% CPU-Auslastung arbeiten. Sollen nebenbei aber auch noch andere Aufgaben erfüllt werden, kann es zu teilweise beträchtlichen Verzögerungen kommen. Hier kommt Prozess-Priorisierung ins Spiel.

    Seit nice und vertragt euch!

    Um die Priorität eines Prozesses zu beeinflussen gibt es unter Linux das Programm nice. Mittels einer Zahl kann man angeben, wie “nett” ein Prozess gegenüber anderen Prozessen sein sollte. Die Werte reichen dabei von -20 bis 19 wobei minus Werte den Prozess bevorzugen, während ihn positive Werte verlangsamen (daher der Prozess ist freundlicher gegenüber anderen). Einfache Benutzer können normalerweise nur positive Werte vergeben (ansonsten könnte ein Benutzer anderen Benutzern einfach alle Ressourcen wegschnappen), während der Benutzer root auch negative Werte setzen kann. Der Aufruf funktioniert dabei wie folgt:
    nice -n 15 tar cvzf archiv.tgz filename
    Mit diesem Befehl wird das Programm tar mit dem nice-Wert 15 gestartet. Da der Prozess dabei nur priorisiert und nicht limitiert wird, wird das System, falls es nichts Wichtigeres zu tun hat, dennoch alle Ressourcen dem einen Prozess geben. Anderes gesagt, ist das System nicht ausgelastet, wird der Prozess genauso schnell fertig sein, als würde er ohne nice-Wert laufen, kommt allerdings etwas Wichtigeres dazwischen, wird er vom System als unwichtig erkannt und gebremst.

    Läuft der Prozess den man priorisieren möchte bereits und möchte man ihn nicht mehr unterbrechen, so bietet sich das Programm renice an. Damit ist es möglich, die Priorität auch nach dem Start des Programms noch zu beeinflussen. Der Aufruf ist ganz einfach, allerdings benötigt man neben dem nice-Wert auch noch die PID des Prozesses:
    renice -n 8 -p 5748
    Mit renice ist es außerdem möglich, alle Prozesse eines Nutzer gleichzeitig zu beeinflussen. Um etwa alle Prozesse des Benutzers root als wichtig zu markieren könnte man folgenden Befehl verwenden:
    renice -n -12 -u root

    Sowohl nice als auch renice sind meist standardmäßig installiert. Mehr Informationen finden sich etwa im Ubuntuusers Wiki.

    cpulimit setzt härtere Limits!

    Eine andere Möglichkeit die Ressource CPU zu schonen bietet das Programm cpulimit. Anders als mit nice wird hier die CPU-Zeit mit einem festen Prozentsatz limitiert, das heißt, auch wenn das System nichts zu tun hat, wird der Prozess nie mehr CPU-Zeit bekommen, als mit cpulimit vorgegeben. Nützlich ist diese Funktion etwa, wenn ein Notebook bei zu langer Dauerbelastung überhitzt und sich einfach ausschaltet oder wenn man verhindern möchte, dass ein fehlerhafter Prozess plötzlich die gesamten CPU-Ressourcen verschlingt. Kennt man die PID des Prozesses kann man cpulimit so aufrufen:
    cpulimit -l 30 -p 10042
    Der Wert hinter dem Parameter -l legt dabei die CPU-Rechenzeit in Prozent fest. Alternativ kann man cpulimit auch mit dem Namen des Programmes aufrufen, dass man beschränken möchte:
    cpulimit -l 80 -e tar
    Das Programm muss dabei weiterlaufen, also sperrt man es am Besten in eine screen-Sitzung oder schiebt es durch Anhängen eines “&” in den Hintergrund.

    cpulimit ist im Gegensatz zu nice meist separat aus den Repositorien der einzelnen Distributionen zu installieren. Mehr Informationen finden sich wieder im Ubuntuusers Wiki.

    I/O-Ressourcen limitieren

    Neben der CPU gibt es noch weitere Ressourcen die limitiert werden können, eine davon ist die I/O-Zeit, die etwa den Zugriff auf die Festplatte regelt. Wer schon einmal große Datenmengen unter Linux kopiert hat, kennt vielleicht das Problem des ruckelnden Mauszeigers. Mit dem Programm ionice kann man ähnlich wie mit nice eine Priorisierung vornehmen. Dabei gibt es vier verschiedene Werte:

    Wert Name Beschreibung
    0 None Standardwert, bei neuen Prozessen.
    1 Real-Time Der I/O-Vorgang wird sofort ausgeführt und unterbricht eventuell sogar andere Prozesse.
    2 Best-Effort Der I/O-Vorgang wird so schnell wie möglich durchgeführt, andere Prozesse haben ggf. jedoch Vorrang.
    3 Idle Der I/O-Vorgang wird nur ausgeführt, wenn kein anderer Prozess auf Datenträger zugreifen möchte

    Zusätzlich gibt es noch eine zweite Skala mit 7-Stufen, welche die Modi “Real-Time” und “Best-Effort” noch weiter unterteilt. Null ist innerhalb der Gruppe am Wichtigsten, während 7 sehr unwichtig ist. Der Aufruf des Programmes erfolgt somit so:
    ionice -c 2 -n 5 -p 1089
    Der Prozess mit der PID 1089 wird daher von nun an nach dem “Best-Effort” Modus behandelt (-c 2) und ist innerhalb dieser Gruppe mit dem nice-Wert von 5 versehen (-n 5), also eher unwichtig. Weiters kann man mit ionice auch direkte einen Prozess starten und ihn priorisieren:
    ionice -c 3 rsync

    ionice ist schon ein sehr spezielles Programm zur Priorisierung und wohl nur in seltenen Fällen wirklich nützlich. Einige Distributionen nutzen es aber zum Beispiel um cron-Jobs wie man-db oder logrotate zu priorisieren. Das Programm findet man unter vielen Distributionen im Paket util-linux und ist normalerweise bereits im System vorhanden.

    Bandbreite limitieren

    Mit dem Programm trickle lässt sich sehr einfach die zur Verfügung stehende Bandbreite für ein Programm limitieren. Das ist etwa dann nützlich, wenn man große Datenmengen hochladen möchte, ohne dass dabei die Downloadrate zusammenbricht oder, wenn man große Downloads langsamer machen möchte, um weiterhin unbekümmert surfen zu können. Der Aufruf von trickle funktioniert dabei ganz einfach:
    trickle -d 150 -u 40 rsync
    Der Wert hinter -d gibt die maximale Downloadrate in kb an und -u die maximale Uploadrate ebenfalls in kb. Leider funktioniert trickle nur mit dynamisch gelinkten Programmen (glibc), eine einfache Möglichkeit herauszufinden ob ein Programm limitiert werden kann ist folgender Befehl:
    ldd $(which filezilla) | grep libc.so
    Ein weiterer Nachteil von trickle ist, dass man die Bandbreite im laufenden Betrieb nicht mehr verändern kann. Hat man ein Programm mit zu geringen / hohen Werten gestartet muss man es zuvor beenden, um es mit neuen Werten wieder starten zu können. Besser als mit trickle funktioniert die Bandbreitenbeschränkung mit QoS (Quality of Service) für das gesamte Netzwerk. Damit können einzelne Anwendungstypen priorisiert werden und somit dynamische Bandbreitenbeschränkungen etwa für FTP-Downloads festgelegt werden, damit wichtigere Programme wie Skype oder ein Browser immer genügend Ressourcen zur Verfügung haben. QoS würden den Rahmen dieses Artikels jedoch sprengen.

    Trickle findet man in den Repositorien der meisten Linux-Distributionen. Weiter Infos findet man wieder im Ubuntuusers Wiki.

    Die hier vorgestellten Programme stellen natürlich nur eine kleine Auswahl an Möglichkeiten dar, Ressourcen unter Linux für einzelne Nutzer zu beschränken. So gibt es etwa mit der Datei limits.conf die Möglichkeit recht detailliert einzelne Ressourcen für Benutzer oder Gruppen zu regeln oder mit Quota den maximalen Festplattenspeicher für jeden Nutzer zu limitieren.

      Eigentlich möchte ich das ja vermeiden, denn es gibt eigentlich auch keinen Grund, warum man es machen sollte. Aber dennoch passiert es mir, dass ich als Botschafter für freie Software auftrete, zumindest kommt es mir so vor!

      Ich kann es mir nicht so wirklich erklären. Ich strebe es nicht an, mit Menschen die ich noch nicht so lange kenne, über Software und Betriebssysteme zu sprechen. Vor allem dann nicht, wenn ich sie in einem ganz anderen Kontext kennen gelernt habe. Es gibt auch überhaupt keinen Grund dazu, einer fremden Person etwas über Linux zu erzählen!?

      Wenn ich aber die neuen Menschen näher kennen lerne, etwa aus beruflichen Gründen oder weil ich sie privat treffe, kommt über kurz oder lang das Gespräch auf Betriebssysteme, Vor- und Nachteile von freier Software und so weiter. Und irgendwie passiert es mir häufig, dass ich mich für freie Software rechtfertige, oder gar rechtfertigen muss!

      Die Wege, wie es zu diesem Gespräch kommt, sind vielseitig, meistens aber ohne mein großes Zutun. Gesprächseröffner ist im Büro meistens eines der Microsoft-Produkte. Entweder funktioniert Excel wieder nicht so wie es soll, Word spinnt, Windows-Updates bremsen den PC oder der Internet Explorer ist zu langsam. Wenn dann ein Kollege die (eigentlich rhetorische) Frage stellt: „Warum geht das nicht?“ – nun, was bleibt mir anderes übrig, als es ihm zu erklären?

      Eine andere, häufig auftretende Situation ist, wenn jemand meinen Laptopbildschirm sieht. Oder ihn mal kurz benutzen möchte. Nach spätestens 5 Minuten beobachten stellt er/sie mir die Frage: „Warum sieht das bei dir anders aus?“ – nun, was bleibt mir anderes übrig, als es ihm zu erklären?

      Neulich hielt ich einen Vortrag in der Hochschule. Mein Professor schimpfte im Smalltalk davor auf die Studenten, die mit „so Zeug wie OpenOffice arbeiten. Die Dateien funktionieren mit PowerPoint nicht. Ich versteh nicht, wie man sowas [OpenOffice] verwenden kann! Das schafft es nichtmal, das in einem vernünftigen Format zu speichern, damit man das mit PowerPoint öffnen kann, ohne dass es kaputt ist. Dabei hat Microsoft ja Standards gesetzt!“ – nun, was bleibt mir anderes übrig, als das klarzustellen?

      Ein anderer Kollege erzählt mir, dass er seinen Uraltcomputer neu installieren will, aber die Windows XP-CD nicht mehr findet. Und Windows 7 möchte er sich nicht kaufen. Nun, was bleibt mir anderes übrig, als ihm Linux vorzustellen?

      Dabei halte ich mich bei den Diskussionen meiner Meinung nach dezent zurück, versuche nicht die ganze Zeit auf proprietärer Software herumzuhacken. Ich möchte meistens auch nicht Microsoft schlecht machen, aber die Alternativen kurz anzusprechen halte ich für sinnvoll. Ich möchte es auch vermeiden, als Geek oder Nerd eingestuft zu werden, deswegen führe ich mein Wissen auch nicht all zu weit aus.

      Dennoch versuche ich, diese Themen nicht aus dem Zusammenhang gerissen anzusprechen. Aber plötzlich lenken meine Kollegen das Gespräch auf „dieses Ubuntu“, und schon bin ich wieder mittendrin, ohne dass ich das veranlasst habe. Oder lenke ich selbst das Gespräch unbewusst dorthin?

      Es kommt mir auch oft so vor, als müsste ich mich für freie Software rechtfertigen. Zumindest nimmt mein Gegenüber bei der Unterhaltung über freie Software von Zeit zu Zeit die Haltung ein, dass freie Software „Schwachsinn“ sei, oder die Programmierer „einfach keine Ahnung von Vermarktung“ haben, oder dass sie gar „blöd“ seien. Und hier fühle ich mich dann als Botschafter der freien Software. Ich bringe dann die Gegenargumente. Es kommt eigentlich nicht zum Streit, aber ich verteidige die Gedanken der freien Software. Warum mache ich das? Bin ich doch ein Geek, ein Nerd?

      Aber wie kann das sein? Bevor ich Linux benutzt habe, wurde selten über Betriebssysteme geredet. Aber vielleicht ist mir das auch nur einfach nicht aufgefallen? Es kann aber auch sein, dass damals die Diskussionen ungefähr so verliefen: „Scheiß Windows, hängt schon wieder! Was kann man dagegen machen?“ – „Hmm, gar nichts?“ – „Mist.“. Heute weiß ich es besser.

      Es gibt ja hier und da immer mal wieder Aufforderungen, dass man den Gedanken von freier Software verbreiten soll. Ähnlich wie religiöse Bekehrungen. Ich finde das aber blödsinnig und möchte das nicht machen. Dazu ist es mir nicht wichtig genug! Ich bin ein großer Befürworter von Open Source, keine Frage. Mir gefällt daran nicht nur, dass es kostenlos ist, sondern der Gedanke des Teilens. Aber ich finde, dass man das niemandem aufzwingen sollte. Zur freien Software gehört ja auch, dass man die Freiheit hat zu wählen. Warum sollte man sich dann nicht für proprietäre Software entscheiden dürfen? Wenn mich jemand um Rat fragt, helfe ich ihm auch bei Microsoftprodukten. Diese sind nicht perfekt, aber welche Software kann das von sich schon behaupten? Wenn ich die Lösung des Problems auch mit Powerpoint oder Word finde, warum soll ich ihm dann OpenOffice/Libreoffice aufzwingen? Erst wenn wirklich große Probleme auftreten, starker Virenbefall, nicht erkannte Hardware oder andere Dinge, bei denen ich bei Windows hilflos bin, schreite ich mit dem gut gemeinten Rat zum Umstieg ein.

      Einige Kollegen wollen sich nun auch Ubuntu installieren. Nicht als einziges Betriebssystem, aber als zweites nebenher. Sie haben sich die Live-CDs gebrannt und es einfach mal zuhause ausprobiert. Sie waren begeistert! Aber genau deswegen frage ich mich, was hier eigentlich passiert ist! Warum machen sie das? Ich wollte sie nicht „bekehren“, habe es aber getan. Ich wollte sie gar nicht überzeugen, aber es ist passiert. Ja, wir haben über Ubuntu gesprochen und ich habe ein paar Vorteile genannt. Vielleicht waren sie auch einfach nur neugierig.

      Kennt ihr diese Situationen? Geht es euch ähnlich? Was macht ihr dann? Wie stolz seid ihr auf Linux und wie stark „kämpft“ ihr für freie Software?

      Ich gebe zu, ab und zu kann ich mir Kommentare wie „Mit Linux wäre das nicht passiert!“ nicht verkneifen, ich halte mich damit aber zurück ;)

      Gnash Logo 150x150Erst vor wenigen Tagen hat Adobe dem Flash-Plugin unter Linux das Aus erklärt. Künftig gibt es Flash für Linux nur noch im Zusammenhang mit PEPPER. Chrome wird es ausliefern, Mozilla hat bisher kein Interesse und Opera hat sich noch nicht geäußert.

      Somit trifft es günstig, dass es eine neue Gnash-Version (GNU Flash Player) gibt. Diesen freien SWF-Player gibt es als Standalone Player und auch als Plugin für alle Gecko-basierten Browser (Firefox), Chromium und Konqueror. Gnash ist für viele Linux-Distributionen, BSD und auch nicht-x86-Architekturen verfügbar. Die Entwickler weisen ausdrücklich darauf hin, dass Gnash mit YouTube umgehen kann.
      Youtube.

      Auch wenn Version 0.8.10 neue Funktionen mit sich bringt und Fehler ausbessert, ist es noch nicht kompatibel zur aktuellen Flash-Spezifikation. Auf der Projektseite ist zu lesen, dass Gnash die meisten SWF-v7-Funktionen und einige von SWF v8 und v9 unterstützt. Mit SWF v10 hingegen kann es nicht umgehen. Die Open-Source-Alternative Lightspark kann das bereits und unterstützt YouTube gut genug, dass es für den täglichen Gebrauch reiche. (Was immer auch mit dem täglichen Gebrauch von YouTube gemeint ist …)

      Du kannst die Gnash-Quellem vom GNUs FTP-Server herunterladen. Experimentelle Binär-Pakete gibt es für unter anderem Debian, Ubuntu und Fedora unter http://www.getgnash.org/packages.

      ACHTUNG: Nur einen Flash-Player gleichzeitig auf dem System installieren, sonst könnte es zu Problemen kommen!


      Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

      24. Februar 2012

      Heute hat das englischsprachige Full Circle Magazine die bereits 58. Auflage veröffentlicht. Themen sind unter anderem:

      - Arbeiten mit der Kommandozeile
      - Python – Part 30 (hier wird der GUI Designer Tkinker näher betrachtet)
      - LibreOffice – Part 12 (Vorstellung von Basics für Spreadsheet, u.a. mit Druckvorschau, Kopf- und Fußzeilen und einigem mehr)
      - Backup Strategy – Part 6 (Backups mittels Ubuntu One wird näher vorgestellt)
      - Screencast Your Desktop (Screencasts erstellen, am Beispiel von RecordMyDesktop)
      -  Papierloses Büro mit Vorstellung der Programme pdfsam und gscan2pdf
      - Linux Lab – Nützliche Programme um Hardwareinformationen auszulesen und anzeigen zu lassen
      - Review – Linux Mint 12
      - I Think – Which Mobile OS.
      - Formatierungsmöglichkeiten eines USB Sticks unter Linux mit den Standardtools der verschiedenen Distributionen
      - Anomaly – Review des Spiels aus dem Humble Bundle

      Wer bereits Google Currents (offiziell in Deutschland bisher nicht verfügbar, kann jedoch über Umwege für Android bezogen werden) nutzt, kann sich hier die Lite Version laden.

      Wie immer sind alle Artikel unter der CC BY-SA 3.0 unported. Wer der englischen Sprache also grundlegend mächtig ist, sollte sich die Ausgabe wie immer anschauen.

      VLC 2.0 unter Ubuntu

      Vor ein paar Tagen wurde die neueste Version des allseits beliebten VLC Media Players veröffentlicht. Neben diversen Verbesserungen unter der Haube wurden auch einige Detailverbesserungen an der Oberfläche vorgenommen. Alles in allem sind die Verbesserungen Grund genug, um ein Update des Players vorzunehmen. Allerdings gibt es die neueste Version natürlich noch nicht aus offiziellen Ubuntu-Quellen, da in einem Ubuntu-Release normalerweise nur Sicherupdates für Programme nachgeliefert werden (Ausnahmen: Firefox, Thunderbird). Aber als geübter Ubuntu-Nutzer weiß man sich in einer solchen Situation natürlich zu helfen: Wir installieren die neueste Version einfach aus dem PPA des VLC Players.

      Vorgehensweise

      Das ganze Prozedere ist sehr einfach und weitläufig bekannt. Allerdings muss an dieser Stelle erwähnt werden, dass fremde Paketquellen immer eine gewisse Gefahr für die Stabilität des Systems bergen. In diesem Fall sollte es aber keine Probleme geben, da es sich zum einen um eine erprobte Software handelt und zum anderen ein offizielles PPA der Entwickler verwendet wird.

      Beginnen wir also damit, das passende PPA hinzuzufügen. Dazu öffnen wir ein Terminal und geben folgendes ein:

      sudo add-apt-repository ppa:videolan/stable-daily

      Danach müssen wir die verfügbaren Pakete aus dem PPA mit unserem Ubuntu-System synchronisieren. Das machen wir mit folgendem Befehl:

      sudo apt-get update

      Danach installieren wir den VLC-Player mit folgendem Befehl:

      sudo apt-get install vlc

      Nun befindet sich die aktuellste stabile Version des VLC-Players auf deinem System. Außerdem bekommst du auch in Zukunft zeitnah Updates des VLC-Players.

       Wichtig:

      Wie Protector in den Kommentaren schreibt, funktioniert diese Anleitung nicht für Ubuntu-Versionen vor Oneiric Ocelot (11.10).

      Probleme bei der Installation unter Oneiric?

      Wer Probleme bei der Installation von VLC 2.0 aus dem offiziellen PPA von Videolan hat, der kann die aktuelle Version alternativ auch aus einem inoffiziellen PPA installieren.

      Dazu muss der erste Befehl

      sudo add-apt-repository ppa:videolan/stable-daily
       durch
      sudo add-apt-repository ppa:n-muench/vlc
      ersetzt werden.
      Danke an Aquilon für diesen Tipp!

       

       

      Ab und an kann es unter gewissen Vorraussetzungen dazu kommen, dass sich grub auf einem System mit lvm-crypt bzw. verwendeter Verschlüsselung zerlegt bzw. aus unklaren Umständen nicht mehr funktioniert. Man kann grub dann mittels eines Live-Systems relativ einfach wieder reparieren, wenn man die richtigen Schritte in der richtigen Reihenfolge kennt. Da ich diese selber immer wieder vergesse und man es im Endeffekt recht selten benötigt, fasse ich diese hier mal beispielhaft zusammen. Das muss nicht vollständig sein und muss an das eigene System angepasst werden. Man sollte dabei immer wissen was man gerade macht und nicht nur stumpf die Befehle kopieren.

      ubuntu@ubuntu:~$ sudo cryptsetup luksOpen /dev/mapper/lvm-root luks
      Enter passphrase for /dev/mapper/lvm-root:
      ubuntu@ubuntu:~$ sudo mount /dev/mapper/luks /mnt
      ubuntu@ubuntu:~$ sudo mount -o bind /dev /mnt/dev
      ubuntu@ubuntu:~$ sudo mount -o bind /sys /mnt/sys
      ubuntu@ubuntu:~$ sudo mount -t proc /proc /mnt/proc
      ubuntu@ubuntu:~$ sudo cp /proc/mounts /mnt/etc/mtab
      ubuntu@ubuntu:~$ sudo mount /dev/sdXY /mnt/boot
      ubuntu@ubuntu:~$ sudo chroot /mnt /bin/bash
      root@ubuntu:/# grub-install --force /dev/sdXY
      root@ubuntu:/# update-grub
      
      

      Am Anfang muss man hinter /dev/mapper den Namen des eigenen verschlüsseltem LVM angeben. Nach dem ersten Befehl muss man das Kennwort für die Verschlüsselung eingeben, dieses ist nicht das Benutzerkennwort! Anschließend mountet man die verschiedenen Bereiche des Systems und muss dabei all die Angaben die mit /dev/sdXY ändern, statt dem X ein Buchstabe, meist “a”, statt dem Y die Nummer der Boot Partition. Ich hoffe zumindest ich kann dann die ganze Geschichte das nächste mal nachschauen und evtl. hilft es ja dem ein oder anderem.

      flattr this!

      Die Ankündigung Ubuntu auf Android-Geräte zu bringen hat in den letzten Tagen für Furore gesorgt. Die Idee dahinter: Nachdem Andocken des Smartphones an einen Monitor, Maus und Tastatur startet Ubuntu samt Unity parallel zum bereits bestehenden Android. Unter Ubuntu hat man so Zugriff auf alle Desktop-Applikationen wie Libreoffice, Gimp sowie allen anderen Programmen in den Ubuntu Repositorien. Zusätzlich kann man auch Android Programme auf dem großen Monitor mit Maus und Tastatur bedienen und Daten wie Logins und Dokumente sollten in beiden Systemen bereitstehen. Wer sich einmal einen Appetit auf Ubuntu für Android holen möchte, sollte sich dieses inoffizielle Video eines Entwicklers ansehen. Bis es erste Geräte mit Ubuntu geben wird, wird sicherlich noch einige Zeit verstreichen. Wer will, kann ein ähnliches System aber heute schon haben, denn von der technischen Sicht ist das ganze eigentlich gar nicht einmal so schwierig, da einige der Schlüsseltechnologien bereits in den aktuellen High End Smartphones integriert sind.

      Video-Ausgabe

      Die Video-Ausgabe wäre so zum Beispiel entweder über einen dedizierten HDMI-Ausgang möglich wie man ihn etwa beim Motoral Atrix 4G oder beim Motorola Droid X findet, anderseits gibt es auch die Möglichkeit einen HDMI-Ausgang über MHL zu realisieren. MHL (Mobile High-Definition Link) ist ein neues Protokoll zur Übertragung von Audio/Video-Daten an ein HD-Ausgabegerät und wird etwa bereits beim Samsung Galaxy S2 oder beim HTC Evo angeboten. Während der Wiedergabe wird das Gerät entweder mit einer externen Stromversorgung oder direkt über den Monitor/Fernseher aufgeladen. Alternativ gibt es natürlich auch noch die Möglichkeit, die Ausgabe mittels Streaming zu realisieren. Momentan kann man auf diese Weise zwar nur Video-Inhalte etwa via DNLA auf einen kompatiblen Fernseher oder einem Media Center wie XBMC wiedergeben, eventuell wird sich aber in Zukunft ein Standard zum Anbinden von mobilen Geräten an Monitore mittels Streaming entwickeln.

      Eingabegeräte

      Auch die Eingabe von Daten mittels Maus und Tastatur ist bei modernen Smartphones nicht wirklich schwierig zu realisieren. Am einfachsten baut man die Verbindung dabei mit Bluetooth auf. Android unterstützt das schon in der Standardkonfiguration und zeigt bei einer angeschlossenen Maus etwa automatisch einen kleinen Mauscursor an. Die Hardware Voraussetzungen von Ubuntu für Android verlangen aber nach einer weiteren Verbindungsmöglichkeit, nämlich dem USB-Host-Mode. Damit lassen sich in der Theorie beliebige Geräte am Smartphone anschließen, da es prinzipiell wie ein Computer, als Host agiert. Das einzige mir bekannte Geräte das den USB-Host Mode momentan unterstützt ist das Google Nexus. Da der USB-Host-Mode aber mittlerweile (seit Android 3.1) eine Standardfunktionalität des Android-Systems ist, kann man wohl damit rechnen, dass bald mehr Geräte diesen Modus unterstützen. Mittels USB-OTG (On-The-Fly) kann man an Geräten wie dem Samsung Galaxy S2 auch heute schon USB-Hubs mit Maus, Tastatur einer mehreren Terabyte großen Festplatte betreiben. Die einzige Voraussetzung ist dabei ein spezielles OTG-Kabel. In meinen eigenen Tests funktionierte das ganze eigentlich hervorragend, allerdings startet das Smartphone nach dem Abstecken mancher Geräte plötzlich ohne ersichtlichen Grund neu.

      Android auf Ubuntu (Quelle: ubuntu.com)


      Ubuntu parallel installieren

      Ubuntu auf einem Android-Gerät zu betreiben wurde schon in etlichen Anleitungen erklärt (da die Anleitungen von Gerät zu Gerät unterschiedlich sind, kann ich an dieser Stelle keinen Link anbieten). Prinzipiell wird in den meisten vorgestellten Methoden Ubuntu einfach in einen chroot auf der SD-Karte des Smartphones installiert. Ein Script startet alle nötigen Dienste inklusive eines VNC-Servers mit dem man grafischen Zugriff auf das System mithilfe eines VNC-Clients auf dem Smartphone erhält. Kombiniert man diesen Ansatz mit der Ausgabe auf einem großen Monitor mittels HDMI oder MHL und schließt man dann noch eine Maus und Tastatur über Bluetooth an kann man heute bereits einen vollwertigen Ubuntu Desktop auf einem Smartphone mit genügend Power haben. Das System hat gegenüber der von Canonical angekündigten Ubuntu-Version nur drei Nachteile:

      • keine einfache Integration der Nutzerdaten zwischen den Systemen
      • kein Zugriff auf Android-Programme direkt aus dem Ubuntu-System
      • langsamere Performance durch den Umweg über einen VNC-Server

      Fazit

      Einer der großen Vorteile von Ubuntu für Android wäre die Vielzahl an Programmen, die sich aus den Ubuntu Quellen installieren ließen. Statt einfachen Apps mit denen man schnell einmal ein Word-Dokument lesen kann, würde man so Zugriff auf Programme wie LibreOffice oder Gimp bekommen, mit denen man tatsächlich auch seriös arbeiten kann. Fraglich ist jedoch, ob sich Canonical mit Ubuntu in diesem hart umkämpften Markt tatsächlich etablieren kann. Mit Tablets gibt es auch jetzt schon Android-Geräte mit großen Displays und mehr und mehr Programme werden für diesen Zweck angepasst. Somit werden es viele Hersteller eher vorziehen auf einem externen Monitor eine Tablet ähnliche Oberfläche anzubieten als ein komplett anderes User-Interface wie Unity. Ein weiterer Hemmfaktor ist der Trend zum Cloud-Computing. Viele Programme wie ein Textbearbeitungstool kann man heute bereits bequem online abrufen und ein lokaler vollwertiger Linux-Desktop widerspricht dem eigentlich.

      Ich persönlich bin von der Idee eines vollwertigen Linux-Desktops auf dem Smartphone schon lange begeistert. Die Ankündigung von Canonical überraschte mich nicht einmal so, immerhin hat die Firma vor Kurzem mit UbuntuTV ein ähnliches Projekt angekündigt. Beiden Ideen basieren auf einer Geräteklasse abseits des klassischen Linux-Desktops und bringen die Anpassungsstärke eines Linux Systems zum Tragen und beide bieten Canonical eine Chance endlich auch in die schwarzen Zahlen zu kommen. Fraglich ist es meiner Meinung dennoch ob die Firma damit den großen Coup landen kann, immerhin schläft die Konkurenz nicht. Die Nachfrage an High End Smartphones ist zwar vorhanden, ob es aber auch genügend Nachfrage nach derartigen Geräten mit einem Ubuntu Desktop gibt ist fraglich, da viele Power-User die sich einen Desktop in der Hosentasche zum Arbeiten wünschen bislang auf ihren Hauptgeräten tendenziell eher Windows einsetzen.

      Es ist manchmal schon erstaunlich, in welcher Weise einem Worte ausgelegt werden. Beim Beitrag “Gedanken: Der Sinn und Unsinn in Ubuntu for Android” wurde mir unter anderem schlechte Recherche vorgeworfen und dann gleich noch ein Mint-Fanboy an den Kopf geschmissen. Wenn man die Zeilen aber genau liest, war es eher eine Frage und die Bitte zu weiteren Informationen. An dieser Stelle “Danke schön” an alle, die mich zu diesem Thema schlauer gemacht haben.

      Was ich überhaupt nicht leiden kann, Einige der Ubuntu-Gemeinde scheinen schon langsam Apple-Allüren anzusammeln und es wird nicht einmal gestattet, den Sinn gewisser Aktionen zu hinterfragen und gegen Unity Kritik anzuwenden geht überhaupt nicht. In Wirklichkeit ist es aber so, dass ich nie gegen Ubuntu selbst wettere, sondern immer betont habe, dass mich dieses Global Menu aufregt, weil es auf einem großen Bildschirm eine Katastrophe ist. Ich bin nicht alleine damit und die Foren sind voll von “wie kann ich das deaktivieren”. Über Antworten wie sudo apt-get remove appmenu-gtk3 appmenu-gtk appmenu-qt freue ich mich zwar, aber ein Umsteiger oder Neuling wird von solchen Aktionen eher abgeschreckt als begeistert – meine Meinung. Das ist zwar eine Lösung, aber keine schöne.

      Als die gesamte Medien-Landschaft den Untergang von Ubuntu orakelte und Linux Mint in den Himmel hob, verteidigte ich Ubuntu sogar und kritisiere auch mal Linux Mint, dass man KDE vielleicht anderen überlassen sollte. Allerdings nervt mich die teilweise Sturheit von Canonical und auch andere sind der Meinung, dass es in Sachen Unity nicht im Alleingang geht (Heise). Ubuntu setzt weiterhin auf Compiz und Unity ist derzeit wohl der einzige Grund, warum Compiz noch am Leben ist – ansonsten liegt es wohl auf dem Sterbebett und der eigene Erfolg war der Sargnagel (picomol.de).

      Auch die Einstellung Clement Lefebvres gefällt mir besser als die von Mark Shuttleworth, weil er sich Gedanken macht, wie er dem Anwender entgegen kommen kann und nicht einfach seinen Stiefel ohne Rücksicht auf Verluste durchzieht. Ich sage nicht, dass mir die Ideen von Shuttleworth nicht gefallen und halte ihn sogar für einen echten Visionär in Sachen IT – aber die Alleingänge von Canonical nerven mich einfach. Die schon einige Male gefallene Kritik – Canonical bedient sich bei der Community, gibt aber nichts zurück – kann ich teilweise verstehen – auch wenn Shuttleworth gesagt hat, dass Ubuntu nicht ins Leben gerufen wurde, um Code zu schreiben, sondern Linux an die Massen zu verteilen. Allerdings ist Unity nicht einfach auf andere Distributionen übertragbar – openSUSE-Entwickler: Unity ist ein Alptraum in Sachen Wartung.

      App Menu optional

      AppMenu optional? (Quelle: omgubuntu.co.uk)

      Nur dass es ohne die Anwender (Massen) auch nicht geht, muss wohl auch ein Mark Shuttleworth einsehen und die Abwanderungs-Bewegung von Ubuntu zu anderen Distributionen hat wohl nun doch Spuren hinterlassen und gefruchtet, zumindest wenn man OMG!Ubuntu Glauben schenken darf, die sich wiederum auf die Ubuntu-Design-Team-Mitglieder Christian Giordano & John Lea berufen. Das könnte dann Summasummarum LIM (Locally Integrated Menu) sein, was angeblich in Unity 5.6 kommen soll. Die gerade auf den neuesten Stand gebrachte Precise-Installation hält allerdings noch Unity 5.4 vor.

      Anstatt aber einzugestehen: “Ja, war keine so gute Idee … hätten wir von Anfang an optional machen und dem Anwender die Wahl lassen sollen”, wird es als Neuerung verkauft und die Ubuntu-Gemeinde jubelt.

      Ich bin seit Jahren begeisterter Linux-Anwender und immer wieder verblüfft und fasziniert, was sich auch ohne Millionen an Euros und als reines Community-Projekt auf die Beine stellen lässt – die letzte Beta-Version von Mageia schaut bisher unglaublich gut aus und das derzeitige Parade-Beispiel ist wohl die rechtskräftige Stiftung LibreOffice. Was ich mir wünsche ist, dass auch die Ubuntu-Anwender mal wieder einen Blick nach rechts oder links wagen und nicht alles ungefragt schlucken, das man ihnen vor die Nase setzt. Im Endeffekt ist die Linux-Bewegung ein Gemeinschafts-Projekt und Alleingänge sind kontraproduktiv. Canonical ist nicht perfekt, Ubuntu ist es nicht und ich bin es schon gleich drei Mal nicht – aber kritisch hinterfragen wird man wohl noch dürfen – vor allen Dingen dann, wenn man es als persönliche Stellungnahme deklariert. Lästigerweise wurde ich so erzogen, nicht einfach alles ungefragt hinzunehmen.

      Ich weiß auch, dass ich Ubuntu nicht nutzen muss – ich setz mich aber gerne damit auseinander, weil es ein sehr wichtiger Pfeiler der ganzen Linux-Bewegung ist – aber dann benehmt Euch auch so. Die Streitereien spielen nämlich nur denen in die Karten, die mit dem Finger auf die “Frickler” zeigen und diese belächeln. In diesem Sinne Allen ein schönes Wochenende!

      P.S: Humor geht schon mal gar nicht – IT und Linux ist schließlich ernst! Wenn ich die Überschrift oder besser Ankündigung witzig finde, dass LibreOffice für Windows von SUSE ist in Intels AppUp(SM) Center verfügbar ist, wird man belehrt, dass SUSE auch schon immer OpenOffice-Pakete bereitgestellt hat. Man könnte ja auch mitschmunzeln, dass vier große Namen, die als einzelne Ausdrücke teilweise Gegensätze darstellen sich in einer Überschrift zu einem sinnvollen Gesamten vereinen. Das nächste Mal geh ich in den Keller zum lächeln und schreib dann so trocken wie nur möglich, damit ich dem erhobenen Zeigefinger entgehe. Vielleicht haben mich auch die vielen Jahre im Ausland zur Deutschen Mentalität inkompatibel gemacht. Mir persönlich wurden jedenfalls damals die Augen geöffnet, als ein Bekannter, heute einer meiner besten Freunde (Australier), meinte: “Du wärst eigentlich ganz cool, müsstest nur noch den Stock aus Deinem Arsch ziehen”. Ich entschuldige mich für den Ausdruck, aber der Australier an sich flucht halt gerne.

      P.P.S: Wem der Schuh passt, soll ihn sich anziehen. Der Rest kann ja eine Runde mitschmunzeln …


      Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

      Indie Royale Alpha Collection 150x150Normalerweise sind die Spiele beim Indie Royale Bundle nur für Mac OS X und Windows. Diesmal ist es etwas anders, weil die Games auch für Linux verfügbar sind. Allerdings hat die Sache einen Haken, wie die Überschrift schon vermuten lässt: Es handelt sich um Alpha-Versionen.

      Die Aktion ist dafür gedacht, die Entwicklung der Spiele mit zu fördern. Die Entwickler haben sich laut Ankündigung verpflichtet, regelmäßige Updates zu veröffentlichen, bis die Titel fertig sind. Nun aber zu den Spielen:

      Towns von SMP

      Ein Städtebau- und Management-Spiel mit RPG-Anteilen. Inspiriert wurde es von Dungeon Keeper, Dwarf Fortress und Majesty. Anstatt mit dem Helden durch die Dungeons zu kriechen, verwaltet der Spieler die Helden-Stadt und kümmert sich um deren Bedürfnisse.

      Spieler können einzigartige Waffen erschaffen, zufallsgenerierte Beute ergattern und eine Siedlung bauen, die das Übel aus den Tiefen der darunterliegenden Dungeons zurückschlägt.

      3079 von Phr00t

      Hier holte man sich offenbar Anleihen von Minecraft und Fallout. Rollenspiel gepaart mit First-Person Shooter in einer Blockwelt. Die Gegenden, Gebäude, Qzuests und so weiter werden dabei zufällig generiert, was langzeitigen Spielespaß mit sich bringen soll. In der Alpha-Version funktionieren bereit Single- und Multiplayer.

      Wyv and Keep: the Temple of the Lost Idol von A Jolly Corpse

      Ein verpixeltes 2-D-Puzzle-Plattform-Spiel. Du hast zwei Spiel-Figuren und diese müssen zusammen einen Weg durch die Spiele-Szene finden. Alternativ lässt sich Wyv and Keep auch mit einem Freund zocken – lokal und online. Es hat Anleihen von The Lost Vikings.

      Dieses Spiel steht derzeit nur für Windows zur Verfügung. Versionen für Mac OS X und Linux sind allerdings in der Mache und sollen in den nächsten 3 bis 6 Monaten verfügbar sein.

      Das Bündel

      Bei Indie Royale ist es so, dass man immer ein Minimum schlagen muss, um die Spiele zu kaufen. Zahlt jemand freiwillig mehr als das Minimum, so senkt er damit den Preis für die anderen wieder. Das Minimum ist derzeit bei 5,17 US-Dollar. Das Bundle läuft noch zirka 6 Tage und 7 Stunden und wurde bisher knapp unter 6450 Mal verkauft.

      Du kannst die Spiele dann via Desura herunterladen und aktualisieren.


      Jürgen (jdo) für bitblokes.de, 2012. | Permalink | Twitter

      Rezension HTML5 und CSS3 Video Training von Peter Kr??ner

      Wenn ihr auch zu den Leuten gehört, die sich die ganze Zeit vor HTML5 gedrückt haben, dann sei euch "HTML5 und CSS3 - Die neuen Webstandards im Einsatz" von Peter Kröner empfohlen.

      Ich hatte das Glück ein Rezensionsexemplar des Video-Trainings zugeschickt zu bekommen. Es werden die wichtigsten Neuerungen behandelt, die bis jetzt im Zuge von HTML5 eingeführt wurden.

      Der Inhalt

      Das Video-Training besteht grob aus zwei Teilen: einem HTML5-Teil und einem CSS3-Teil. Vorher führt der Autor eine Begriffsbestimmung durch. Was ist eigentlich HTML5 und wie wird der Begriff in der Praxis eingesetzt. Hier wird mit vielen Mythen aufgeräumt und der Hype um HTML5 ein wenig geerdet.

      Beim Schwierigkeitsgrad fängt der Autor mit einfachen Themen wie neuen HTML-Elementen an und widmet sich dann fortgeschrittenen Themen wie dem neuen Canvas-Element und Offline-Webanwendungen.

      Das Video-Training umfasst folgende Kapitel:

       

      1. Willkommen zu HTML5
      2. (X)HTML5-Grundlagen
      3. Semantisches HTML5
      4. HTML5-Formulare
      5. Einstieg in HTML5-Webapps
      6. Das Canvas-Element
      7. Offline-Webanwendungen
      8. Neue CSS3-Selektoren
      9. Farbverläufe und Schriften
      10. Effekte und Animationen
      11. Die neuen CSS3-Layouts
      12. Responsive Design für mobile Endgeräte

       

      Zusätzlich gibt es noch ein kleines Bonusheft mit weiterführenden Links und einer umfassenden Referenz.

      Die Video-Dateien sind als im Flash-Format auf der DVD gespeichert und können auf jedem Betriebssystem abgespielt werden.

      Der Lehrstil von Peter Kröner ist angenehm locker. Er trifft aus meiner Sicht den richtigen Ton - nicht zu trocken, aber auch nicht zu viel Blabla.

      Peter geht auch immer wieder darauf ein, welche Features wann und mit welchem Browser eingesetzt werden können.

      Fazit

      "HTML5 und CSS3 - Die neuen Webstandards im Einsatz" ist jedem zu empfehlen, der sich endlich mit HTML5 auseinander setzen will, aber keine Lust hat, ein dickes Buch zu wälzen. Es bietet einen guten Überblick über alles, was man zum Thema HTML5 wissen sollte, und hört auch bei fortgeschrittenen Themen nicht auf.

      Schon seit längerem existiert mit Diasp0ra.ca eine Diaspora* Fork, welche zumindest innerhalb der Diaspora* Community einige Aufmerksamkeit erregt hat. Grund für diese Aufmerksamkeit ist das offene Ohr des / der (Haupt-)Entwickler_in (?) “Pistos” für für die Wünsche der Nutzer_innen.

      Pistos hat, in für Diaspora* Verhältnisse erstaunlich kurzer Zeit, eine Menge interessanter und nützlicher Features entwickelt. Neben einem Chat, Gruppen, einer API und einem #Tag-Filter für den Stream gibt es eine Vorschau für Posts und Kommentare, eine Liste populärer Hashtags und die Möglichkeit Posts und Kommentare zu durchsuchen, um nur einige wichtige Neuerungen zu nennen.

      ‘Events’ sind aktuell in Planung und auch die Liste der Features “Under Consideration” hält einige von vielen Nutzer_innen lang gewünschte Features bereit, unter Anderem Posts zu editieren, die Weiterentwicklung der mobilen Diaspora* Seite und End-to-end encryption (E2EE).  Eine Liste aller vorhandenen, geplanten und ‘berücksichtigten’ Features befindet sich im Wiki des Projekts.

      Leider läuft diese Fork erst auf vier Pods (Diaspora* Servern) und zumindest diasp0ra.ca hat während meinen Tests nur sehr langsam reagiert (,was an der Popularität der Fork unter den Diaspora* Nutzer_innen liegen könnte).

      Ein weiteres Problem für die Fork könnte aufgrund der Pläne der Entwickler_innen von Diaspora Inc. (Diasporas Hauptentwickler_innen) entstehen. Diese haben in einer IRC Konferenz am 16.02.12 angekündigt die Kommunikation zwischen den Pods grundlegend zu überarbeiten, wobei die Kompatibilität zum bisherigen System “nicht die höchste Priorität hat” “was bedeutet, dass alle wichtigen Forks unkompatibel” zu Diaspora Inc. Version sein werden (frei Übersetzt Vgl. http://pastebin.com/z1rkBCUN 632 – 633). Bleibt zu hoffen, dass die Diaspora Inc. Entwickler_innen diese Position noch einmal überdenken und auch in Zukunft Verbindungen zwischen den unterschiedlichen Arten von Diaspora* Pods möglich bleiben und Diaspora* nicht nur ein dezentrales sondern auch vielfältiges soziales Netzwerk bleibt.


      Guten Abend allerseits!

      Ich wollte euch nur schnell was über die neusten Entwicklungen über die C++ Beitragsreihe Informieren.

      Ich bin gerade dabei, ein PHP Source Management System(PHPSMY) zu installieren, damit ich euch Live über das neuste meiner Erworbenen Kenntnisse zu Informieren. Ich werde ab und zu dort etwas über meinen Stand bei dem Qt lernen schreiben. Der nächste Beitrag der Kategorie wird also das erst-gelernte von mir in Qt beinhalten.

      UPDATE: Jetzt einsehbar unter code.darksider3.de

      Ich freue mich schon darauf,

      Leon Giesenkämper