ubuntuusers.de

18. April 2011

Die Schweizerischen Bundesbahnen (SBB) werden ihre fahrenden MitarbeiterInnen zukünftig mit Android-basierten Smartphones ausstatten. Dies berichtet das Online-Portal der Pendlerzeitung “20 Minuten”, und bezieht sich auf ein firmeninternes Informationsschreiben der SBB.

Schweizerische Bundesbahnen (SBB/CFF/FFS) Logo

Nicht nur Apples iPhone hat bei der SBB das Nachsehen, sondern auch Monopolist Microsoft (WP 7) und dessen neuer Partner Nokia. Die Nokia-Handys des Typs 3110, welche bisher im Einsatz waren, werden durch ein Konkurrenzprodukt von Samsung Typ Galaxy S ersetzt.

Überraschend ist dieser Schritt für mich allemal. Schliesslich ist das iPhone von Apple in der Schweiz sehr verbreitet und Microsoft scheint sowohl in Bern als auch in anderen Kantonen eine nicht zu unterschätzende Lobbyarbeit zu leisten.

iPhone vs. Samsung Galaxy S (CC BY-SA, Author: Cheon Fong Liew)

Die Schweizer Bahn hat sich für Samsung/Android und gegen das iPhone entschieden. BY-SA liewcf

Insgesamt erhält das Fahrpersonal 5600 Stück des Android-Smartphones, mit denen es unterwegs – anhand des SBB-Mobilfunknetzes (“GSM-R”) – Informationen aus dem Internet und dem Touren-Informationsportal abrufen können wird.

Das Touren-Informationsportal benötigen die SBB-MitarbeiterInnen unter anderem, um sich über Fahrpläne, Ticketpreise, Verspätungen oder Zugausfälle zu informieren.

Auf dem Samsung Galaxy S werkelt Googles mobiles Betriebssystem Android, welches bekanntlich auf einem Linux-Kernel basiert.

Entschieden hat man sich für das Galaxy S unter anderem wegen der austauschbaren normalgrossen SIM-Karte; das iPhone 4 verwendet eine nicht baugleiche Micro-SIM-Karte und hätte allein deswegen den Kommunikationsanforderungen der SBB nicht entsprochen.

Ein weiterer Grund ist das grössere Display des Galaxy S.

Ob die SBB-Angestellten zukünftig sogar mit Android-Tablets arbeiten werden, wird sich noch zeigen.

Fest steht, dass das staatliche Bahnunternehmen seine internen Programme der Android-Plattform anpassen wird. Vielleicht gibt es dann die offizielle SBB-App bald auch für Android. :-)

Links:
Schweizerische Bundesbahnen (SBB)
Samsung Galaxy S

In der neuen Version setzt Ubuntu voll auf die Arbeitsoberfläche Unity. Rein optisch ist Unity gelungen: Ich finde den Desktop von Ubuntu schöner als den anderer Linux-Distributionen.

Aber schön alleine ist zuwenig! Die Entwickler tun dem Ubuntu-Projekt nichts Gutes, wenn sie ihren Anwendern vorschreiben wollen, wie der Desktop zu bedienen ist. Und genau hier liegt das große Problem von Unity. (Dass Gnome 3.0 dasselbe Problem hat, ist nur ein schwacher Trost.)

Soviel gleich vorweg: Der neue Ubuntu-Desktop auf der Basis von Unity zeichnet sich durch viele gute Ideen aus. Bei aller Kritik (die gleich folgt) ist den Entwicklern Respekt zu zollen für das, was sie bereits erreicht haben.

Das Zielgruppenproblem

Unity ist für Linux-Einsteiger konzipiert und für kleine Bildschirme optimiert. Handelt es sich bei der Mehrheit der Ubuntu-Anwender tatsächlich um Linux-Einsteiger? Ich bezweifle es, und zumindest in meinem Freundes- und Bekanntenkreis sind es überwiegend Web-Entwickler, Systemadministratoren und andere IT-Profis, die Ubuntu einsetzen.

Verwendet die Mehrheit der Ubuntu-Anwender tatsächlich ein Netbook? Ich kenne niemanden mehr, der ein unter Linux laufendes Netbook verwendet. Die Unity-Oberfläche funktioniert natürlich auch auf gewöhnlichen Notebooks mit einem 15-Zoll-Bildschirm, aber wer einen Desktop-Rechner mit einem großen Bildschirm verwendet (oder, wie ich, gar zwei), für den ist die übertriebene Platzoptimierung von Unity vollkommen fehl am Platz.

Es ist im Übrigen kein Zufall, dass Unity ursprünglich für die Ubuntu NNetbook Edition konzipiert wurde. Die Ubuntu Netbook Edition wurde mit Version 11.04 in Ubuntu umbenannt, das herkömmliche Ubuntu gibt es nicht mehr. Die Release Notes stellen den Sachverhalt natürlich umgekehrt dar, aber das ist offensichtlich eine Realitätsverweigerung.

Das Konfigurationsproblem

Die Ubuntu-Entwickler glauben, für alle Ubuntu-Anwender bestimmen zu müssen, wie der Desktop aussieht und funktioniert. Nun ist die Entscheidung für Linux aber häufig darin motiviert, eine Alternative zu den von Microsoft oder Apple aufgezwungenen Lösungen zu haben. Der Preis dieser Freiheit ist unter Ubuntu der, dass die Wahlmöglichkeiten nicht steigen, sondern sinken! Zur Unity-Konfiguration ist momentan der folgende Dialog vorgesehen:

Mit anderen Worten: Es gibt genau eine Option, die steuert, unter welchen Umständen der Launcher (das Startmenü) erscheinen soll. Wesentlich länger ist die Liste der Punkte, die nicht ohne weiteres konfigurierbar sind:

  • Das Unity-Dock befindet sich am linken Bildschirmrand. Wer das Dock lieber rechts, unten oder oben hätte -- Pech gehabt.
  • Die Größe der Icons ist fix vorgegeben (kann mit CCSM verändert werden).
  • Fenster sind von Schatten umgeben. Das sieht gut aus -- es sei denn, man will Screenshots erstellen. Früher ließ sich der Schatten mit dem CCSM einstellen -- jetzt nicht mehr (siehe Launchpad). (Abhilfe: Erstellen Sie Ihre Screenshots mit Shutter!)
  • Im Launcher (also im Startmenü) befinden sich außer dem Suchmenü gerade einmal acht Icons (auch wenn der Bildschirm 1920*1600 Pixel groß ist). Die Icons sind fix vorkonfiguriert. Die Folge: Ich arbeite mittlerweile vollkommen ohne Startmenü. Häufig benötigte Programme sind im Dock, den Rest starte ich mit Alt+F2.
  • Unter Unity gibt es ein Zentralmenü im Panel (nicht mehr in der Leiste des jeweiligen Fensters). Auf kleinen Bildschirmen spart das Platz, auf großen Bildschirmen macht es die Bedienung des Menüs aber extrem umständlich. Auch hier keine Wahlmöglichkeit.
  • Der Arbeitsflächenumschalter ist fixer Bestandteil des Docks -- ganz egal, ob Sie Arbeitsflächen verwenden möchten oder nicht. (Und gerade Einsteiger, für die Unity ja anscheinend konzipiert wurde, werden Arbeitsflächen anfänglich wohl eher nicht brauchen.)

Die Liste ließe sich beinahe beliebig lange fortsetzen. Natürlich lassen sich viele Details (nicht alle) sehr wohl verändern, die Einstellmöglichkeiten sind aber schwer zu finden. Die Konfiguration setzt vielfach gutes Linux-Know-how voraus und erfordert teilweise die Installation zusätzlicher Programme, z.B. des CompizConfig Setting Managers (CCSM).

<Zynismus>Erstaunlicherweise kann der Bildschirmhintergrund noch immer frei eingestellt werden -- aber ich bin sicher, dass auch dieses Feature bis zur nächsten LTS-Version eliminiert wird. Ein individueller Hintergrund stiftet nur Verwirrung, niemand braucht das. Außerdem ist der Ubuntu-Standardhintergrund ohnedies so schön!</Zynismus>

Die Alternativen

Natürlich ist niemand gezwungen, Ubuntu einzusetzen. Selbst wer bei Ubuntu bleiben will, hat die Möglichkeit, die herkömmlichen Gnome-2.n-Panels zu verwenden -- wenngleich auch hier diverse Ubuntu-spezfische Ergänzungen unübersehbar sind: Zentralmenü, Indikator-Menüs statt Applets etc. (Die Wahlmöglichkeit für den klassischen Ubuntu-Desktop besteht in Version 11.04 voraussichtlich letztmalig. In Ubuntu 11.10 soll Unity auch ohne 3D-Grafiktreiber funktionieren, der Desktop wird dann ausschließlich auf Unity ausgerichtet.)

Eine weitere Option ist Fedora, das in der kommenden Version voll auf Gnome 3.0 setzt. Ich gebe zu, dass ich Gnome 3.0 noch nicht so ausführlich getestet habe wie Unity, aber es ist erkennbar, dass auch die Gnome-Shell unter den nicht vorhandenen Konfigurationsmöglichkeiten leidet. Die Gnome-Entwickler versuchen wie ihre Unity-Kollegen ihren Anwendern neue Bedienungskonzepte aufzwingen, ohne Wahlmöglichkeiten anzubieten.

Vor einem Jahr habe ich mich darüber geärgert, dass Ubuntu die Fensterbuttons ohne jeden Grund von rechts nach links verschoben haben. Heute muss ich erkennen: Das war ja noch harmlos. Gnome 3.0 schafft die Fensterbuttons gleich ganz ab! Ich bezweifle, das derart radikale Maßnahmen dem Linux-Desktop zum Durchbruch verhelfen. Ich habe im Gegenteil die Befürchtung, das die Entwickler von Gnome und Unity gleichermaßen am besten Weg sind, die ohnedies sehr zarte Desktop-Pflanze ganz umzubringen.

Immerhin ist das ganze Desaster eine Chance für das KDE-Projekt: KDE 4 ist mittlerweile gut ausgereift. Damit besteht erstmalig seit vielen Jahren die Chance, dass sich frustrierte Unity- und Gnome-Anwender zurück auf ihre Wurzeln besinnen -- und die liegt ja bei vielen Linux-Profis in der KDE-Welt.

Update 20.4.2011: Der Blog-Beitrag ist nun auch als Artikel bei pro-linux.de erschienen und wird dort erwartungsgemäß hitzig diskutiert.

Update 28.4.2011: Der Beitrag hat meiner Website nicht nur ungewohnt viele Zugriffe beschert, sondern auch eine Menge Spam bei den Kommentaren. Deswegen ist die Kommentarfunktion momentan moderiert, d.h. ich muss Kommentare manuell freischalten. Sorry.

    Wenn es einen Trend im 21. Jahrhundert im Internet gibt, dann ist es sicherlich das Cloudcomputing. Anbieter hierfür sprießen wie Pilze aus dem Boden, selbst Canonical, die Firma hinter Ubuntu, bietet so etwas mittlerweile an.

    Momentan sind es noch nicht so viele Benutzer, aber ich bin mir sicher dass in den nächsten Jahren dieser Trend immer weiter getrieben wird, bis letztendlich das Alltagsgeschäft über einen fremd gehosteten Dienst abgewickelt wird.

    Über die moralischen Bedenken des Cloudcomputing habe ich hier im Blog bereits das eine oder andere Mal geschrieben, auch viele andere Blogger und Podcaster haben schon oft darüber gesprochen.

    Selbst die Befürworter (zu denen ich mich glaube ich zähle) müssen irgendwann einknicken und gestehen: Technisch ist es selbstverständlich möglich, dass Fremde auf meine Daten zugreifen könnten. Daran gibt es überhaupt keinen Zweifel. Im Idealfall ist es nur der Anbieter des Dienstes, im Extremfall sind es böswillige Hacker von außerhalb.

    Wenn man sich darüber Gedanken macht, wer alles die Daten einsehen könnte, kommt man leicht ins Grübeln und überlegt sich lieber mehrfach, welche Daten für die Wolke geeignet sind und welche nicht. Für skeptische Benutzer ist es natürlich ein gefundenes Fressen, wenn man mit dem Argument kommt: „Lad’ doch nur Sachen hoch, bei denen du kein Problem hätt’st, wenns dei’ Nachbar seh’n würd’“, denn wenn es danach ginge, bräuchte man gleich gar keine Daten in die Cloud laden.

    Doch dieses Argument wird hinfällig, wenn man sich ein paar Minuten mit der Open Source Software Truecrypt auseinandersetzt. Hierbei handelt es sich um ein Verschlüsselungsprogramm. Damit ist es auf den drei gängigen Betriebssystemen (Linux, Mac OS und Windows) möglich, Ordner (sog. Container) zu verschlüsseln und quasi als Datentresore auf der Festplatte oder in der Cloud zu speichern.

    Truecrypt installieren und Container anlegen

    Truecrypt kann man sich für Linux, Mac OS und Windows auf der offiziellen Downloadseite herunterladen. Danach das Archiv entpacken und den Installer ausführen. Für Linux gibt es hier eine ausführlichere Anleitung.

    Interessant wird der Spaß ja erst jetzt, man muss einen Container anlegen. Vorher muss man sich leider über die Größe des Containers im Klaren sein, denn meines Wissens nach gibt es keine Möglichkeit, die Größe im Anschluss daran zu verändern. Also: Was will man in den Safe packen, wieviel Speicherplatz steht mir in der Cloud zu und welche Größe würde meine Internetverbindung mitmachen?

    Das Anlegen des Containers selbst scheint eine Wissenschaft für sich zu sein, ist es im Endeffekt aber nicht. Eigentlich muss man nur auf „Create Volume“ klicken, danach öffnet sich ein Assistent.

    Da wir hier keine gesamte Partition, sondern nur einen Container verschlüsseln wollen, lässt man im ersten Schritt die Standardeinstellung auf „Create an encrypted file container“. Im nächsten Schritt wird man gefragt, ob man einen Standard- oder einen versteckten Container anlegen will, Standard ist hierfür richtig.

    In „Volume Location“ wird es nun interessant. Auf dem Button „select file“ gelangt man in den Standardbrowser des Betriebssystem und wird aufgefordert, einen Speicherort für den Container anzugeben. Ich habe, da ich den Container mit Dropbox synchronisieren möchte, im Dropboxordner einen Unterordner „Privat“ angelegt und darin den Container „Rechnungen“ verpflanzt.

    Danach kommt der Verschlüsselungsalgorithmus. Hier gehen sicherlich die Meinungen auseinander, ich habe mich für die Mischung aus AES, Twofish und Serpent entschieden. Nun muss man die Größe des Containers festlegen. Wie gesagt, oben stehende Gesichtspunkte beachten. 

    Jetzt geht es ans Eingemachte: Passwort festlegen. TrueCrypt motzt solange herum, bis man ein mindestens 20 stelliges Passwort festlegt. Jetzt liegt es natürlich im Auge des Betrachters, wie stark er sein Passwort wählt. Auch Keyfiles können gewählt werden. Bei dieser Methode muss man beachten, dass es sehr unklug ist, die Keyfiles unverschlüsselt in der Cloud zu speichern, dann kann man es auch gleich weglassen. Gut ist es z.B. wenn man es auf einem USB-Stick immer mit sich herumträgt. Blöd ist es nur, wenn man das Keyfile verliert, denn dann hat man sich ausgesperrt…

    Als Filesystem würde ich FAT auswählen, weil dabei sichergestellt ist, dass es alle Betriebssysteme unterstützen.

    Dateien hinzufügen und auch wieder benutzen

    Mit den Containern ist das so: Man hat eine Datei die man nicht öffnen kann, denn eigentlich ist es ein Laufwerk. Mit dem Frontend von TrueCrypt kann man es einhängen und hat danach quasi ein neues Laufwerk, auf dem man Dateien bearbeiten, hinzufügen, löschen oder einfach nur lesen kann. Wenn man es aushängt, ist es wieder verschlüsselt.

    Habt ihr einen Container angelegt, öffnet Truecrypt. Wählt zuerst einen der leeren Slots in der Liste oben im Hauptfenster, klickt danach auf „Select File…“ und wählt euren Container aus. Klickt danach auf „Mount“ unten links im Fenstereck.

    Gebt die Passwörter und ggf. die Keyfiles an, und schon ist der Container offen.

    Wenn die Arbeit im Container abgeschlossen ist, kann man ihn im TrueCrypt Frontend mit einem Klick auf „Dismount“ wieder verschlüsseln. ACHTUNG! Erst jetzt beginnt die Synchronisation mit der Cloud!

    Sonst noch etwas beachten?

    Ja. Der Container hat die festgelegte Größe, egal ob der Container  „voll“ oder „leer“ ist. Bei einer Änderung (z.B. hineinschieben einer kleinen Datei) und dem anschließenden Aushängen des Containers würde die Synchronisations-software den gesamten Container synchronisieren. ALLES, egal wieviel geändert wurde. Doch Caschy hat herausgefunden, dass es auch anders geht.

    Geht im Hauptfenster von TrueCrypt auf Settings → Preferences. Deaktiviert hier den Haken bei „Preserve modification timestamp of file containers“. Nun wird nach dem Aushängen des Containers nicht mehr das gesamte Monstrum, sondern wirklich nur die veränderten Daten hochgeladen.

    Noch kein Dropbox?

    17. April 2011

    Eine Woche nach dem Erscheinen der ersten Betaversion von OpenOffice.org 3.4 hat der Softwarekonzern Oracle angekündigt, die kommerzielle Version des OpenOffice.org-Projekts einzustellen und das Projekt “in die Hände der Community” zu legen.

    OpenOffice.org Logo

    Gibt es noch eine Zukunft für OpenOffice.org?

    Stellt sich nun die Frage, ob und wie es überhaupt weiter geht mit der Büro-Suite. Schliesslich sind die meisten Entwickler im September des vergangenen Jahres zum neugegründeten LibreOffice-Projekt abgesprungen, nachdem sich Oracle bei der Entwicklung von OpenOffice.org mit der Community nicht sehr kooperativ zeigte.

    Ausserdem gab Oracle vor noch nicht allzu langer Zeit bekannt, dass man keine LibreOffice-Mitglieder im OpenOffice-Rat haben wolle.

    LibreOffice, ein Fork (“Abspaltung”) von OpenOffice, wird von der gemeinnützigen The Document Foundation (TDF) organisiert und unterstützt. TDF wird nach der erfolgreichen Spendenkampagne bald als Stiftung in Deutschland offiziell rechtlich anerkannt sein.

    LibreOffice (TDF) Logo

    LibreOffice hat sich in Ubuntu Linux schon einmal zur Standard Office-Suite etabliert.

    Da Oracle die meisten Entwickler an das – aus seiner Sicht konkurrierende – LibreOffice-Projekt verloren hat, ist es mehr als fraglich, ob OpenOffice nach dem Ende der kommerziellen Version noch fortgeführt wird, zumal Oracle offenbar keine Ressourcen mehr in OpenOffice stecken möchte.

    Stattdessen redet man bei Oracle um den heissen Brei herum und stellt klar, dass der Konzern offene Standards wie das Open Document Format weiterhin unterstützen werde.

    Die Zeit von LibreOffice als Nachfolger von OpenOffice scheint nun endgültig gekommen zu sein.
    LibreOffice wird bereits in der in wenigen Tagen erscheinenden Version 11.04 der Linux-Distribution Ubuntu standardmässig vorinstalliert sein. Auch andere Distributoren wie Fedora sind bereits auf den “Nachfolger” von OpenOffice.org umgestiegen.

    Für mich zeigt dies einmal mehr, dass Oracle mit seiner Unfähigkeit mit der Community zu kommunizieren erneut gescheitert ist.

    OpenOffice.org ist Geschichte, LibreOffice ist die Zukunft.

    Links
    LibreOffice
    LibreOffice Download
    The Document Foundation

    Bookmark and Share

    Das Taglist Plugin für Vim ist ein praktisches Tool zum programmieren. Es listet die einzelnen Funktionen (je nach Programmiersprache auch Klassen, Packete und Membervariablen) eines Programms in einem eigenen Splitscreen auf. Diese sind nach Dateien sortiert und man kann so sehr schnell zu einer gewünschten Funktion springen.

    Damit das Plugin funktioniert muss das Paket exuberant-ctags installiert sein. Danach kann man die Datei taglist.vim ins
    Pluginverzeichnis (~/.vim/plugin) kopieren.

    Wenn nun eine Datei mit Quellcode geöffnet ist, kann man das Taglist Plugin durch den Befehl :TList aktivieren, woraufhin sich auf der rechten Seite der Splitscreen mit den Funktionen öffnet. Mit STRG+w w kann man zwischen den Splitscreens hin und her wechseln (Ich habe mir diese Tastenkombination auf + gelegt). Mit j und k kann man nun in den Funktionen hoch und runter scrollen. Drückt man bei der gewünschten Funktion ENTER, so springt der Cursor automatisch wieder auf den Quelltext an der Position, wo die gewählte Funktion beginnt.
    Da sich beim Sprung zu einer Funktion die entsprechende Datei im aktuellen Buffer öffnet, empfiehlt es sich, Buffer statt Tabs zu verwenden.

    Praktisch ist es, sich ein autocommand für Quelltexte zu erstellen, so dass die Taglist automatisch beim Öffnen von Quelltexten geladen wird.

    Dafür wird eine Funktion benötigt, welche die Dateiendung überprüft und bei entsprechenden Endungen die Taglist öffnet. Das folgende Beispiel öffnet die Taglist für Java und Perl Dateien:

    function OpenTlist()
        let myfile = expand("%")
        let myfiletype = expand("%:e")
        if myfiletype == "pl" || myfiletype == "java"
            Tlist
        end
    endfunction

    Nun noch das autocommand:

    au BufRead * call OpenTlist()

    Beides wird in die ~/.vimrc geschrieben.

    Nun kann man sich in der ~/.vimrc noch ein Mapping anlegen um die Taglist mit z.B. F3 ein- und auszublenden:

    map <F3> :TlistToggle<cr>

    Wenn man Programmiert, dann schreibt man natürlich auch neue Funktionen. Diese werden von der Taglist leider nicht sofort erkannt. Daher ist es sinnvoll ein Mapping zu definieren um die Taglist zu updaten. Das folgende Mapping legt das Updaten der Taglist auf F4 (die Datei wird dabei direkt gespeichert):

    map <F4> :w<cr>:TlistUpdate<cr>

    Beim Test von Ubuntu 11.04 auf meinem Netbook fiel mir auf, dass die Verbindung zum Internet äußerst langsam war. Mein erster Gedanke war, dass ich bei der Umstellung auf den neuen Povider irgendeine Einstellung des Routers versemmelt haben könnte, aber ich fand keinen Hinweis darauf. Also testete ich mal durch.
    Easypeasy war plötzlich genau so langsam, Kanotix im Live-Modus ebenso.

    Mir war bis dahin nicht aufgefallen, dass das WLAN so langsam ist, weil ich zuletzt das Netbook direkt neben dem Router platziert hatte. Doch nun, durch ein paar Türen, Wände und Meter vom Router getrennt, stieß ich auf dieses Problem.

    Für Easypeasy habe ich noch den Kernel 2.6.37 installiert, also bootete ich diesen Kernel. Keine Probleme, das Netz war schnell, wie ich es erwarten durfte. Also lag es am Kernel. Alle von mir probierten Versionen, die dieses Verhalten zeigten, verfügten über den Kernel 2.6.38.

    Das Netbook hat einen Atheros-WLAN-Chip eingebaut, der das Modul ath9k im Kernel erfordert. Das Modul ist vorhanden und geladen, was ich mit lsmod | grep ath überprüft habe. lsmod listet die geladenen Kernelmodule auf. Mit diesen Informationen begab ich mich auf die Suche nach der Lösung und fand sie bei aptosid:

    Im Ordner /etc/modprobe.d/ benötige ich die Datei ath9k.conf. In dieser Datei muss die Zeile
    options ath9k nohwcrypt=1 stehen. Das ist das ganze Geheimnis.

    Um in den Ordner /etc schreiben zu dürfen, benötigt man die Administratorrechte. Diese Aufgabe habe ich mit
    sudo gedit erledigt. Einfach die Zeile einfügen und die Datei unter dem Namen /etc/modprobe.d/ath9k.conf abspeichern.

    Update:
    Natürlich wollte ich mal eine Zahl sehen. Die Download-Geschwindigkeit kann sich sehen lassen:


    Nachdem mein System unter Maverick plötzlich der Überzeugung war, dass meine CPU nicht mehr als 800Mhz kann – ich leide mit allen die auf einem solchen System KDE betreiben wollen – und alle Lösungsansätze nichts brachten, war mein nächster Schritt eine Neuinstallation der Beta 2 von Natty. Da ich mein home auf einer separaten Partition habe, war dies kein größeres Problem. Nur die gängigen Programme nachinstallieren und fertig. Immer wieder ein schönes Gefühl ein neues System mit den alten Einstellungen willkommen zu heißen.

    Was mich direkt beim Start wunderte war der hübsche Ladescreen von Kubuntu. Farbverläufe, vernünftig aussehender Text…fremde Welten ;) Nach dem Start von KDE waren die Desktopeffekte bereits verfügbar, da wurde ich dann wirklich stutzig. Hat da Kubuntu evtl. heimlich schon den Nvidia-Treiber (habe eine Geforce 8600M GT) installiert? Muon angeworfen und mal gesucht. Es wurde der Nouveau Treiber installiert.

    Generell finde ich es eine phantastische Idee eine freien Treiber dafür zu haben. Vielleicht sind sie dort etwas schneller und kooperativer als bei Nvidia selbst. Aber zu dem Thema kaputte Treiber, Verhalten von Herstellern und wie Entwickler von Fenstermanagern dagegen arbeiten, empfehle ich den Blog von Martin.

    Also habe ich Nouveau mal einem subjektiven Test unterzogen: Flashvideo laufen fein.  Desktopeffekte sind sehr schnell, aber leider werden keine unterstützt die auf Shadern basieren (der Würfel, Wunderlampe, Gleiten, …). Portal mit Wine spielen? Keine Chance, da auch hier Shader verwendet werden. Aber generell war ich von der Performance sehr begeistert. Ein anderes Teammitglied berichtet aber beim Zusammenspiel von Nouveau und einer Geforce Quadro FX 570M vom genauen Gegenteil: Video ist ruckelig, Flash ebenfalls. Ich vermute dass dies am jüngeren Alter der Karte liegt und der Treiber für diese Karten noch nicht optimiert ist.

    Kudos an die Entwickler und ich wünsche ihnen den langen Atem um den Treiber peu a peu zu verbessern. Bisher rennt Natty ohne große Probleme, außer das PolicyKit kaputt zu sein scheint, aber hey: man kann Pakete auch über ‘ne Konsole installieren.

    Und zu guter Letzt: meine CPU taktet wieder artig.

    16. April 2011

    Ganz cool an meinem NAS DNS-320 ist die Funktion des HTTP / FTP-Downloader! So kommt es bei mir oft vor, dass ich komprimierte Dateien über das NAS herunterladen lasse.
    Das Problem, dass ich hierbei aber habe, wenn ich Dateien als Archiv herunterlade, welche dann entpackt wieder auf das NAS müssen, so muss ich für das Entpacken den Umweg über meinen Computer machen, da das NAS selbst nicht entpacken kann…
    Also habe ich mich mal ein bisschen schlau gemacht in den weiten des WWW und bin über eine Erweiterung für mein DNS-320 namens fun_plug gestolpert.

    Dies missbraucht das abgespeckte Linux, das bereits auf dem NAS läuft und integriert weiter Funktionen wie SSH und Paketquellen.
    Und beim Einloggen via SSH zeigte sich dann auch; es gibt bereits Möglichkeiten zum Entpacken im System selbst via dem Standardtools tar.

    Doch von vorne. Um die Erweiterung fun_plug zu installieren, muss man die folgenden beiden Dateien auf die Hauptplatte Volume_1 kopieren:

    Nun muss man das Maschinchen rebooten, wodurch automatisch telnet aktiviert wird, gefolgt von den folgenden Befehlen, die man absetzen muss, um die Grundkonfiguration zu erstellen.

    1. Erstellen des Passwortes:

    pwconf
    passwd

    2. root aktivieren:

    usermod -s /ffp/bin/sh root
    mkdir -p /ffp/home/root/
    usermod -d /ffp/home/root/ root

    3. Login testen:

    login

    4. Passwort niederschreiben:

    cd /ffp/sbin/
    wget http://blog.encodingit.ch/wp-content/uploads/2011/04/store-passwd.sh
    store-passwd.sh

    5. SSH aktivieren:

    chmod a+x /ffp/start/sshd.sh
    sh /ffp/start/sshd.sh start

    6. Telnet deaktivieren:

    chmod -x /ffp/start/telnetd.sh

    7. Paketquellen zufügen:

    mkdir /ffp/pkg/
    cd /ffp/pkg/
    wget http://blog.encodingit.ch/wp-content/uploads/2011/04/updater.sh
    chmod a+x /ffp/pkg/updater.sh
    sh /ffp/pkg/updater.sh

    Von nun an können Pakete ganz nach belieben installiert werden über den Paketmanager:

    funpkg -i paket.tgz

    Um wieder etwas zu deinstallieren, nimmt man die Option -r:

    funpkg -r paket.tgz

    Nun, da ich aber auch noch RAR will, installiere ich noch das Zusatzpaket unrar-3.9.10-1.tgz:

    funpkg -i /ffp/pkg/additional/app-arch/unrar-3.9.10-1.tgz

    Nun kann ich via SSH auf mein NAS zugreifen und via unrar und tar meine Archive entpacken. Juhee :)
    Vielen Dank an Uli für den Tipp!

    Schon länger habe ich mit dem Gedanken gespielt, mir ein NAS zu zulegen. Grund dafür war vor allem, dass ich Daten von meinem Laptop gerne irgendwohin sichern möchte, ohne andauernd Festplatten ein- und auszustecken. Gleichzeitig möchte ich aber auch noch meine Filme, Musik und Bilder auf meinem Laptop oder meiner Playstation begutachten.
    Da immer über Freigaben zu arbeiten ist sehr aufwendig.

    Und als ich dann vor ein paar Tagen auf Daydeal.ch das NAS DNS-320 von D-Link gesehen habe, musste ich zuschlagen!

    Mittlerweile habe ich das Teil fast eine Woche im Betrieb und bin positiv überrascht.
    Für CHF 99.- bietet mir das kleine Ding zwei Einschübe für Festplatten bis zu 2 TB. Zur Auswahl dafür steht RAID 0 oder 1 wodurch man auf einen Maximalspeicher von 4 TB kommt.
    Auf der technischen Seite gibt es einen integrierten FTP-Server, Windows- & NFS-Freigaben, P2P, Ajaxplorer, FTP/HTTP-Download, iTunes-Server, UPnP, Quotas, Benutzer- und Gruppenrechte und einen Web-Explorer.

    Auf der Front gibt es einen USB-Anschluss mit einem One-Klick-Knopf zum Kopieren von Festplatten und USB-Sticks. Alternativ kann darüber auch ein USB-Drucker zum Netzwerkdrucker umfunktioniert werden.

    Ansonsten gibt es noch einen Gigabit-Netzwerkanschluss, 800MHz CPU und 128MB an RAM.

    Administriert wird alles, wie für ein NAS so üblich, über ein WebGUI.

    Einziges kleines Manko: Ich habe meine 2TB-Festplatte, gefüllt mit Daten, reingesteckt. Doch bevor das NAS diese verwenden wollte, musste ich die Platte formatieren. Und 2TB an Daten herumzukopieren ist sehr mühsam! Aber da dies ein einmaliger Vorgang war, kann ich damit leben.

    Ach ja und da das NAS mit alter Firmware ausgeliefert wurde, musste ich zuerst noch ein Upgrade machen (von 1.0 auf 2.0). Neue Funktionen o.ä. gab es dadurch aber leider nicht, nur die Aufmachung hat sich ein bisschen verändert :(

    Und nun habe ich endlich eine bequeme Möglichkeit, via rsync Daten auf die NFS-Freigabe zu schieben und somit mein gesamter Client zu sichern, ohne jedes Mal eine Festplatte anhängen zu müssen. :)

    Und nun zu euch!

    Note: There is a poll embedded within this post, please visit the site to participate in this post's poll. Note: There is a poll embedded within this post, please visit the site to participate in this post's poll.

    Und was leider nicht in eine Umfrage passt, was für Software verwendet ihr?


    Das könnte dich auch interessieren:

    1. Backup und Restore mit Linux
    2. Wie lange schon?
    3. Nutz du schon Ubuntu 10.10?

    Auf meinem Notebook habe ich nun mal die Beta 2 von Ubuntu 11.04 installiert, um mir den neuen Desktop, Unity, etwas genauer anzuschauen.

    Ich muss zugeben, dass ich nicht wirklich begeistert bin. Hier und da gibt es gute Ansätze, aber vieles ist nicht durchdacht. Das ist natürlich meine rein subjektive Meinung. Einiges davon wird sich sicherlich hier und da in Einstellungen ändern und anpassen lassen.

    Das Global Menu macht vielleicht für ein Netbook Sinn, auf einem Notebook oder sogar am Desktop sind die Wege, um dort hin zu kommen in meinen Augen viel zu weit.

    Zum Beispiel nutze ich gerne Pidgin für Jabber und Co. Die Buddyliste liegt bei mir auf der rechten Seite des Bildschirms, da die Benachrichtigungsanzeige ebenfalls auf dieser Seite im Panel ist. Um an die Einstellungsmöglichkeiten zu kommen muss mit der Maus nun erst wieder nach links ins Panel, um diese im Global Menu zu finden.

    Das nächste Problem ist in meinen Augen der Launcher. Wenn man Programme maximiert laufen hat kann man nicht einfach wie gewohnt in das untere Panel gehen und das Fenster wechseln. Der Launcher, der ausgeblendet wird wenn ein Fenster maximiert ist, lässt sich einbinden, wenn man mit der Maus entweder in die obere linke Ecke oder an die linke Seite fährt. In der Ecke wird der Launcher sofort angezeigt, an der Seite muss man immer noch einen Moment warten bis der Launcher eingeblendet wird.

    Was mir auch überhaupt nicht gefällt: die Anwendungsfenster haben riesige Schatten. Warum? Zudem habe ich gestern Abend 20 Minuten in den Compiz-Einstellungen gesucht, um den Schatten kleiner zu machen. Leider gelang es mir nicht. Ich habe die Option in den Compiz-Einstellungen zwar gefunden, anwenden wollte das Notebook die Änderung jedoch nicht.

    Der nächste Punkt wäre das Anwendungsmenü. Zum einen finde ich die Icons viel zu groß und fühle mich davon erschlagen. Zum anderen sind diese lediglich alphabetisch sortiert. Um diese nach Anwendungsbereich zu sortieren muss man dies jedes mal erst auf der rechten Seite auswählen. Ich finde das nicht besonders nutzerfreundlich.

    Insgesamt bin ich von Unity sehr enttäuscht. Glücklicherweise gibt es ja auch die Möglichkeit den alten bekannten GNOME2-Desktop auszwählen. GNOME 3 und die neue GNOME-Shell wird wohl in Ubuntu 11.10 Einzug erhalten.

    GNOME-Shell hat mir beim kurzen Testen mit einer Fedora Live-CD wesentlich besser gefallen, auch wenn einige Kritikpunkte von Unity auch hier zutreffen und das Bediensystem ähnlich ist. GNOME-Shell wirkte auf mich jedoch einfach durchdachter, aufgeräumter und “fertiger” als Unity.

    Vom GNOME3-PPA für Natty werde ich jedoch erst einmal die Finger lassen, da ich mir damit schon 2 mal ein frisch aufgesetztes System kaputt gemacht habe.

    Pro-Linux berichtet, dass Oracle vorhat OpenOffice.org in eine NPO auszugliedern. Getragen und entwickelt soll das Projekt dann von der Community werden. Interessant. Welche Community? Alle wichtigen Entwickler die nicht direkt bei Sun/Oracle angestellt waren sind bereits zu LibreOffice gewechselt. Oracle hat einfach nicht verstanden, dass ein solches Projekt eine Community braucht die sich darum kümmert und deswegen diese verscheucht.

    Ich persönlich verwende LibreOffice seitdem es die erste stabile Version gibt. OpenOffice.org ist also schon relativ früh bei mir von der Platte geflogen. Entsprechend zufrieden bin ich, dass LibreOffice OpenOffice.org in Natty ersetzen soll. Doch zurück zu Oracle. Es gibt nun mehrere Möglichkeiten: entweder es findet sich tatsächlich wieder eine Community die OpenOffice.org weiterträgt. Sofern Oracle die Namensrechte an diese Organisation abgibt fusionieren OOo und LibreOffice wieder und es gibt OOo weiterhin. Der Vorteil dieser Variante wäre, dass nicht dasselbe Programm zweimal entwickelt wird. Dann wiederum … mir gefällt LibreOffice sowohl vom Namen her besser als auch von der fehlenden Abhängigkeit zu Oracle.

    Eine weitere Möglichkeit wäre, dass OOo und LibreOffice nicht fusionieren. Dann bleibt zu hoffen, dass sich die bestehende Community nicht auf diese zwei parallelen Projekte aufteilt. Zum Schluss gibt es noch die Möglichkeit, dass sich gar keine Community findet und das Projekt im Sand verläuft. Dann ist die Frage was mit den Namensrechten an OpenOffice.org passiert. Oracle hat ja mit diesem Schritt bereits abgelehnt das Projekt finanziell voran zu treiben. Verkauft Oracle dann den Namen und es entsteht ein OpenOffice.org das nichts mit dem Projekt wie wir es heute kennen zu tun hat aber von seinem Namen profitieren kann? Vielleicht sogar ein rein proprietäres Projekt?

    Mir persönlich würde die Fusions-Variante am Besten gefallen wo die Namensrechte an OpenOffice.org an die Document Foundation übergehen.

    Was ist deiner Meinung nach die wahrscheinlichste Variante? Oder habe ich sogar eine vergessen?

    Creative Commons License
    This work is licensed under a Creative Commons Attribution-ShareAlike 3.0 Unported License.

    =-=-=-=-=
    Powered by Blogilo


    Einsortiert unter:Free Software/Open Source, Multimedia, Ubuntuusers
    Kleines, aber feines Tool:

    http://userscripts.org/scripts/show/100690

    Mit diesem Greasemonkey Script könnt ihr Videos direkt aus Youtube heraus an das XBMC senden.



    Funktionsfähig unter Firefox und Chrome / Chromium. Für letztere ist noch zusätzlich Tampermonkey zwingend erforderlich. Zuerst Tampermonkey installieren ( https://chrome.google.com/extensions/detail/dhdgffkkebhmkfjojejmpbldmpobfkfo ) und darüber dann das Greasemonkey-Script einbinden.

    Zum Abspielen der Videos muss natürlich das Youtube Plugin auf dem XBMC installiert sein.

    Weiterhin wird vorausgesetzt, dass der Webserver im XBMC aktiviert ist.
    Sollte dies noch nicht der Fall sein, geht folgendermaßen vor:

    1. Einstellungen -> Netzwerk -> Server
    2. Benutzername und Passwort festlegen (Port kann unverändert bleiben)

    Wenn ihr nun Video auf Youtube aufruft, wird das o.g. Bedienfeld unten rechts angezeigt. Klickt das erste mal nach der Installation bitte zuerst auf das Zahnrad und gebt Benutzername, Passwort, IP und Port ein, wie es im XBMC eingestellt ist.

    Jetzt könnt ihr bequem die Videos auf eurem HTPC abspielen.

    Kleines, aber feines Tool:

    http://userscripts.org/scripts/show/100690

    Mit diesem Greasemonkey Script könnt ihr Videos direkt aus Youtube heraus an das XBMC senden.



    Funktionsfähig unter Firefox und Chrome / Chromium. Für letztere ist noch zusätzlich Tampermonkey zwingend erforderlich. Zuerst Tampermonkey installieren ( https://chrome.google.com/extensions/detail/dhdgffkkebhmkfjojejmpbldmpobfkfo ) und darüber dann das Greasemonkey-Script einbinden.

    Zum Abspielen der Videos muss natürlich das Youtube Plugin auf dem XBMC installiert sein.

    Weiterhin wird vorausgesetzt, dass der Webserver im XBMC aktiviert ist.
    Sollte dies noch nicht der Fall sein, geht folgendermaßen vor:

    1. Einstellungen -> Netzwerk -> Server
    2. Benutzername und Passwort festlegen (Port kann unverändert bleiben)

    Wenn ihr nun Video auf Youtube aufruft, wird das o.g. Bedienfeld unten rechts angezeigt. Klickt das erste mal nach der Installation bitte zuerst auf das Zahnrad und gebt Benutzername, Passwort, IP und Port ein, wie es im XBMC eingestellt ist.

    Jetzt könnt ihr bequem die Videos auf eurem HTPC abspielen.

    So nach langer Zeit komme ich endlich wieder dazu, einen Blogbeitrag zu schreiben. Im Moment stehe ich im Abschluss der Informatiklehre und muss darum Prioritäten setzten ;-) .

    Heute habe ich eine interessante Unterhalten mit jemandem gehabt. Dabei sind wir schnell vom Broadcast auf die MAC-Adresstabelle eines Switches und davon auf MAC flooding gekommen. Damit man das Ganze versteht hole ich ein wenig aus.

    Funktionsweise eines Hubs

    Wir nehmen an, dass 4 Computer und 1 Webserver an einem Hub angeschlossen sind. Ein Computer greifft nun auf den Webserver zu. Der Hub erhält vom Computer ein Packet, in welchem die MAC-Adresse des Webservers steht. Da der Hub aber keine MAC-Adresstabelle führt, sendet er das Packet aus allen Ports raus. Mit einem Netzwerksniffer, wie zum Beispiel Wireshark, kann somit der Netzwerktraffic von allen 4 Computern inkl. dem Webserver gesnifft werden. Hubs werden heute nur noch selten eingesetzt, da sie unnötig Netzwerktraffic verursachen, sich angeschlossene Geräte die Bandbreite teilen müssen und sie einfach veraltet sind.

    Funktionsweise eines Switches

    Wir nehmen an, dass 4 Computer und 1 Webserver an einem Switch angeschlossen sind. Ein Computer greifft nun auf den Webserver zu. Der Switch erhält vom Computer ein Packet, in welchem die MAC-Adresse des Webservers steht. Da er den Webserver noch nicht kennt, sendet er das Packet aus allen Ports raus. Der Webserver meldet sich beim Switch, hey das Packet ist für mich, ich habe diese MAC-Adresse. Jetzt kommt der Unterschied zum Hub. Der Switch trägt jetzt die MAC-Adresse des Webserver und den Port in einer MAC-Adresstabelle ein. Kommt wieder ein Packet, in welchem die MAC-Adresse des Webserver steht, weiss der Switch aus welchem Port er das Packet senden muss. Er sendet das Packet nur noch aus dem richtigen Port und nicht mehr aus allen Ports raus. Somit kann der Netzwerktraffic nicht mehr von einem Gerät, dass am Hub angeschlossen ist, gesnifft werden.

    Den Switch zu einem Hub machen

    Der Speicherplatz des Switches für die MAC-Adresstabelle ist beschränkt. Ist der Speicher voll, werden die ältesten Einträge gelöscht und die Neuen werden eingetragen. Dabei muss ein Packet wieder mindestens einmal aus allen Ports versendet werden, damit der Switch wieder die Zuordung von MAC-Adresse zu Port hat. Flutet man den Switch mit unsinnigen MAC-Adressen, ist die MAC-Adresstabelle ständig voll und Packete müssen wieder an alle im Netzwerk versendet werden, weil die Zuordung von MAC-Adresse zu Port fehlt. Der Switch wird zu einem Hub. Wie bei einem Hub kann der ganze Netzwerkverkehr gesnifft werden.

    Praxis

    Tja, da das Gesetz in der Schweiz ebenfalls enger wurde werde ich mich hüten, hier eine Schritt für Schritt Anleitung zu erstellen. Schade, hätte ich gerne gezeigt ^^. Wie man aber einen Switch oder ein LAN mit MAC-Adressen fluten kann findet man sehr schnell im Internet und wie man Packete snifft wissen die meisten Leser dieses Blogs ebenfalls ;-) . Hier gibt es ein gutes Video, das zeigt, wie bei einem CISCO Switch ein Angriff abgewehrt werden kann: Cisco Layer 3 Switch MAC Flood Attack.

    Vorteile und Nachteile des Angriffs

    Vorteile

    • Sehr einfach umzusetzen
    • Funktioniert in einfachen Netzwerken wie zum Beispiel Heimnetzwerk
    • Für Lernzweck geeignet

    Nachteile

    • Erzeugt starke Last im Netzwerk
    • Angriff wird sehr einfach entdeckt
    • Teurere Switches haben einen grösseren Speicher für die MAC-Adresstabelle
    • Teurere Switches haben diverse Sicherheitsmechanismen um den Angriff abzuwehren

    Fazit

    Dieser Angriff ist sehr einfach umzusetzen, kann dementsprechend auch sehr einfach erkannt und abgewehrt werden. Flutet man einen Switch mit MAC-Adressen wird dies als Angriff gewertet, also auf keine Fall in einem fremden Netzwerk, sondern nur im eigenen Netzwerk testen.

    Ich gehe nach dem Motto, Angriff ist die beste Verteidigung. Nur wenn man Angriffe kennt, kann man diese auch abwehren ;-) .

    15. April 2011

    Matthew Paul Thomas hat auf Developer Mainlinglist von Ubuntu User-Experience-Testergebnisse zu Ubuntu 11.04 mit Unity veröffentlicht. Die Testergebnisse sind meiner Meinung nach sehr erfreulich. Auch die Meinungen zu Ubuntu 11.04, die die Probanden geäußert haben, können als positiv gewertet werden.

    Die wichtigsten Tasks wurden von den Testpersonen gelöst: so war es kein Problem Programme im Launcher zu öffnen und das Anwendungs-Menü wurde trotz Wechselmechanismus erkannt.

    Allerdings gab es auch echte Probleme: das Anlegen von neuen Anwendungen im Launcher erscheint wenig intuitiv, MP3s abzuspielen war ein echtes Problem (von Ubuntu nicht Unity), das Verhalten des Launchers ist in manchen Fällen nicht verständlich.

    Was mich aber am meisten interessiert hat, war der Gesamteindruck der Testpersonen. Dieser war überwiegend positiv. Am meisten begeistert, hat mich folgende Aussage von Testperson 9:

    "Es ist in Ordnung ... Es ist nicht so verwirrend wie ein Mac."
    
    

    Matthew Paul Thomas hat auf Developer Mainlinglist von Ubuntu User-Experience-Testergebnisse zu Ubuntu 11.04 mit Unity veröffentlicht. Die Testergebnisse sind meiner Meinung nach sehr erfreulich. Auch die Meinungen zu Ubuntu 11.04, die die Probanden geäußert haben, können als positiv gewertet werden.

    Die wichtigsten Tasks wurden von den Testpersonen gelöst: so war es kein Problem Programme im Launcher zu öffnen und das Anwendungs-Menü wurde trotz Wechselmechanismus erkannt.

    Allerdings gab es auch echte Probleme: das Anlegen von neuen Anwendungen im Launcher erscheint wenig intuitiv, MP3s abzuspielen war ein echtes Problem (von Ubuntu nicht Unity), das Verhalten des Launchers ist in manchen Fällen nicht verständlich.

    Was mich aber am meisten interessiert hat, war der Gesamteindruck der Testpersonen. Dieser war überwiegend positiv. Am meisten begeistert, hat mich folgende Aussage von Testperson 9:

    "Es ist in Ordnung ... Es ist nicht so verwirrend wie ein Mac."
    
    

    The post Ubuntu 11.04 Desktop gut für Anfänger geeignet appeared first on Rockiger.

    Kürzlich erschien die zweite Betaversion von Ubuntu 11.04 “Natty Narwal”. Also USB-Stick gepackt, Image draufgespielt und ausprobiert. Es kam nur der Standard-Desktop, also kein Unity, weil kein 3D. Das war zu erwarten, denn der vorinstallierte freie Nvidia-Treiber kann für meine Karte kein 3D. Was mich aber verwunderte war, dass mein D-Link DWA 140 WLAN Stick (Ralink-Chipsatz) nicht ging, der Network Manager zeigte nur ein “firmware missing” an. Ich installierte den Natty-Kernel 2.6.38 vom Mainline-PPA unter Maverick und stellte fest, dass das Problem dort auch auftrat. Ein Kernel-Problem also. Ich googelte und stellte fest, dass ich nicht allein war. Da fiel mir ein Artikel aus dem Ubuntu-User-Magazin ein, indem verschiedene WLAN-Sticks auf Linux-Tauglichkeit geprüft wurden. Bei einem stand der Autor vor demselben Problem; es wurden falsche Kernelmodule geladen.

    Normalerweise lädt Ubuntu beim Booten oder beim Anschluss des Geräts das dafür passende Kernelmodul. Danach kann man mit dem Gerät schon loslegen. In diesem Fall aber (und offenbar in vielen anderen Fällen auch) lud Ubuntu zusätzlich zum richtigen Modul noch einige falsche Module für ähnliche Chipsätze. Dies sorgt allerdings dafür, dass das System nun nicht weiß, welches Modul die Kontrolle über den WLAN-Stick haben soll und deswegen kam keine Verbindung zustande.

    Um das Problem zu lösen, sollte man sich ersteinmal alle geladenen WLAN-Module anzeigen lassen. Da mein Stick einen Ralink-Chipsatz benutzt, lautet der Befehl

    $ lsmod | grep rt
    

    Der Hersteller des Sticks bzw. der WLAN-Karte ist unwichtig, wichtig ist nur der Chipsatz (z.B Atheros, Broadcom oder eben Ralink). Wer einen anderen Chipsatz als ich hat, muss in Erfahrung bringen, welches Präfix die entsprechenden Module haben (das ubuntuusers-Wiki ist eine gute Anlaufstelle). Die Ausgabe schaut bei mir folgendermaßen aus:

    parport_pc 36959 0
    parport 46458 3 parport_pc,ppdev,lp
    rt2870sta 450556 0
    rt2800usb 18235 0
    rt2800lib 45181 1 rt2800usb
    crc_ccitt 12667 2 rt2870sta,rt2800lib
    rt2x00usb 20330 1 rt2800usb
    rt2x00lib 49235 3 rt2800usb,rt2800lib,rt2x00usb
    mac80211 294370 3 rt2800lib,rt2x00usb,rt2x00lib
    cfg80211 178528 2 rt2x00lib,mac80211

    Hier sind nur die Module interessant, die mit “rt” anfangen. Diese werden jetzt allesamt entladen:

    $ sudo modprobe -rf rt2870sta rt2800usb rt2800lib rt2x00usb rt2x00lib
    

    Jetzt kommt das Ausprobieren. Man muss jetzt probieren, welches Modul das richtige ist. Also mit

    $ sudo modprobe <modulname>
    

    das Modul laden, ausprobieren, ob das WLAN läuft und wenn nicht, das Modul mit

    $ sudo modprobe -rf <modulname>
    

    wieder entladen. Glücklicherweise wusste ich schon von meiner Maverick-Installation, dass das Modul rt2870sta das richtige ist. Nach dem Laden dieses Moduls funktionierte auch das WLAN wieder.

    Eine Kleinigkeit wäre da noch: Damit man das Prozedere nicht bei jedem Neustart wiederholen muss, sollte man die falschen Module blacklisten. In meinen Fall reicht es, folgende Zeilen zur Datei /etc/modprobe.d/blacklist.conf hinzuzufügen:

    blacklist rt2800usb
    blacklist rt2800lib
    blacklist rt2x00usb
    blacklist rt2x00lib

    Es freut mich zwar, dass das Problem so einfach zu lösen war, aber Anfänger werden dadurch abgeschreckt. Wegen der neuen Unity-Oberfläche wird Natty sowieso ein heikles Release werden. Hoffen wir, dass es nicht das Vista der Ubuntu-Versionen wird ;-)

    Update 2.Juni 2011:

    Wie aus den von mir gemeldeten Launchpad-Bug hervorgeht, hatte ich mit meiner Einschätzung nicht ganz recht. Alle Module, die beim Hochfahren/Einstecken des DWA 140 geladen werden, sind richtige Treiber, die für den Stick geeignet sind. rt2870sta ist ein alter Staging-Treiber, der nicht offiziell zum Kernel gehört, nicht wirklich gepflegt wird und der irgendwann mal verschwinden wird. Der neue Treiber der ihn ersetzen soll ist dieser rt2800usb, welcher auch von den Wifi-Schnittstellen des Kernels besser Gebrauch macht. Die in Natty enthaltene Version dieses Treibers funktioniert aber mit meinem Stick noch nicht, weil linux-firmware zu alt ist. rt2800usb wird also geladen, kann aber nicht arbeiten, daraufhin wird rt2870sta geladen, welcher aber auch nicht arbeiten kann, weil rt2800usb nicht entladen wurde.

    Eine bessere Alternative zu dem oben vorgestellten Lösungsvorschlag ist die Benutzung von rt2800usb mit aktueller Firmware, weil dieser Treiber besser gepflegt wird. Zuerst muss rt2870sta geblacklistet werden:

     
    $ echo 'blacklist rt2870sta' | sudo tee -a /etc/modprobe.d/blacklist.conf
    

    Das Blacklisting der anderen rt-Module muss natürlich rückgängig gemacht werden. Anschließend lädt man sich die neueste Version von linux-firmware herunter und entpackt das Archiv. Einzig die Datei rt2870.bin ist interessant. Nun wird die alte Firmware umbenannt und die neue installiert:

    $ cd <entpackter Ordner>
    $ sudo mv /lib/firmware/rt2870.bin /lib/firmware/rt2870.bin.old
    $ sudo cp rt2870.bin /lib/firmware/rt2870.bin
    

    Nach einem Neustart sollte das drahtlose Netzwerk wieder funktionieren. Am besten, man testet beide Treiber und nutzt dann den, welcher besser läuft.


    In letzter Zeit ging mir Flash doch sehr auf die Nerven, da es auf jeder erdenklichen Webseite die Lüfter meines Notebooks in die Höhe trieb. Aber wie kam das. Da ich das flash-plugin aus der Synaptic genutzt habe, musste diese 32bit Version erst mittels nspluginwrapper (was sich als npviewer.bin in der System-Überwachung ausgibt) auf das 64bit System portiert werden. Das hat unnötig viele Ressourcen gefressen und diese nicht selten sogar annähernd vollständig für sich beansprucht.


    (hier schläft es mal zufällig, da Chromium gerade nicht aktiv darauf zugreift ;-)


    Als ich mich nach Lösungen umgesehen habe, bin ich auf die Möglichkeit gestoßen, Adobe Flash in der 64bit Variante zu nutzen, was allerdings schon eine ganze Weile als "Preview" angeboten wird. Nach der Installation läuft aber das System merklich ruhiger und auch sonst konnte ich bis jetzt keine Nachteile erkennen.

    Wer das Flash-Plugin auch "ausprobieren" möchte (natürlich wie immer alles auf eigene Gefahr und "Fremdpakete können das System gefährden"), der kann das folgendermaßen tun (wer eine Paketquelle nutzen möchte, welche Updates automatisch einspielt, der nimmt die Anleitung 2):

    Anleitung 1:
    Im Terminal eingeben:
    sudo apt-get remove flashplugin-installer nspluginwrapper
    cd Desktop
    wget http://download.macromedia.com/pub/labs/flashplayer10/flashplayer10_2_p3_64bit_linux_111710.tar.gz
    tar xzf flashplayer10_2_p3_64bit_linux_111710.tar.gz

    #Für Firefox und Chromium
    sudo cp libflashplayer.so /usr/lib64/mozilla/plugins/



    Anleitung 2:
    Im Terminal eingeben:
    sudo add-apt-repository ppa:sevenmachines/flash
    sudo apt-get update
    sudo apt-get install flashplugin64-installer


    Danach wird das Plugin brav in Firefox (about:plugins) und Chromium (chrome://plugins) gelistet:

    Firefox:

    bzw.



    Chromium:

    In letzter Zeit ging mir Flash doch sehr auf die Nerven, da es auf jeder erdenklichen Webseite die Lüfter meines Notebooks in die Höhe trieb. Aber wie kam das. Da ich das flash-plugin aus der Synaptic genutzt habe, musste diese 32bit Version erst mittels nspluginwrapper (was sich als npviewer.bin in der System-Überwachung ausgibt) auf das 64bit System portiert werden. Das hat unnötig viele Ressourcen gefressen und diese nicht selten sogar annähernd vollständig für sich beansprucht.


    (hier schläft es mal zufällig, da Chromium gerade nicht aktiv darauf zugreift ;-)


    Als ich mich nach Lösungen umgesehen habe, bin ich auf die Möglichkeit gestoßen, Adobe Flash in der 64bit Variante zu nutzen, was allerdings schon eine ganze Weile als "Preview" angeboten wird. Nach der Installation läuft aber das System merklich ruhiger und auch sonst konnte ich bis jetzt keine Nachteile erkennen.

    Wer das Flash-Plugin auch "ausprobieren" möchte (natürlich wie immer alles auf eigene Gefahr und "Fremdpakete können das System gefährden"), der kann das folgendermaßen tun (wer eine Paketquelle nutzen möchte, welche Updates automatisch einspielt, der nimmt die Anleitung 2):

    Anleitung 1:
    Im Terminal eingeben:

    sudo apt-get remove flashplugin-installer nspluginwrapper
    cd Desktop
    wget http://download.macromedia.com/pub/labs/flashplayer10/flashplayer10_2_p3_64bit_linux_111710.tar.gz
    tar xzf flashplayer10_2_p3_64bit_linux_111710.tar.gz

    #Für Firefox und Chromium
    sudo cp libflashplayer.so /usr/lib64/mozilla/plugins/



    Anleitung 2:
    Im Terminal eingeben:
    sudo add-apt-repository ppa:sevenmachines/flash
    sudo apt-get update
    sudo apt-get install flashplugin64-installer


    Danach wird das Plugin brav in Firefox (about:plugins) und Chromium (chrome://plugins) gelistet:

    Firefox:

    bzw.



    Chromium:

    Die Dropbox-Entwickler haben mit der Version 1.1.23 ein stabiles Release ihrer Software veröffentlicht. Seit der letzten stabilen Version 1.0.10 gibt es zahlreiche Neuerungen, die schon in diversen Forum-Builds vorhanden waren.

    Seit Version 1.1.0 spricht Dropbox auch andere Sprachen, darunter Deutsch und Französisch. Dazu erkennt Dropbox die im System eingestellte Sprache, in den Einstellungen kann man aber alternativ auch selbst die gewünschte Sprache auswählen.

    Zudem wurde unter anderem ein Fehler in LAN Sync behoben, der das Synchronisieren im Netzwerk verhinderte. Weiterhin wurden einige Einstellungsmöglichkeiten überarbeitet und die Stabilität verbessert.

    In Ubuntu 11.04 funktionierte Dropbox zwar auch mit der vorhergehenden Stable Build, allerdings wurde das Dropbox-Icon nicht im Panel angezeigt. Dieses Problem wurde auch behoben.

    Download:
    Linux 32-bit: http://dl-web.dropbox.com/u/17/dropbox-lnx.x86-1.1.23.tar.gz
    Linux 64-bit: http://dl-web.dropbox.com/u/17/dropbox-lnx.x86_64-1.1.23.tar.gz
    Windows: http://dl-web.dropbox.com/u/17/Dropbox%201.1.23.exe
    Mac OS X: http://dl-web.dropbox.com/u/17/Dropbox%201.1.23.dmg

    Das Update ist zumindest bei mir nicht über die automatische Aktualisierung angekommen. Zum Installieren muss Dropbox gestoppt und der Ordner .dropbox-dist im Home-Verzeichnis des Nutzers umbenannt (Backup) oder gelöscht werden. Anschließend entpackt man das Archiv ins Home-Verzeichnis und kann Dropbox wieder starten.

    Fyre ist ein Programm zur Erzeugung von computerbasierten Grafiken auf Basis von Chaosfunktionen. Ich kenne es schon seit geraumer Zeit, hatte aber nie einen Einsatzzweck dafür. Jetzt hat es dazu gedient, einen Header für dieses Blog zu berechnen. Mir persönlich gefallen die Fyre erstellten Grafiken sehr gut, da sie eine mathematische Funktion in einer äußert anschaulichen Weise präsentieren.

    Leider scheint die Entwicklung von Fyre nicht mehr fortgesetzt zu werden. Auf der Projektseite finden sich aber noch Binärpakete für Windows und einige Distributionen. Unter Arch Linux (so wie auch unter Ubuntu) ist das Programm auch direkt aus den Repositorien erhältlich. Mithilfe einer einfachen grafischen Oberfläche lassen sich binnen Sekunden wahre abstrakte Kunstwerke  generieren. Dabei bestimmt man mithilfe von vier Parametern (A, B, C, D) den grundlegenden Verlauf der Grafik. Hat man ein passendes Muster gefunden, kann man direkt im Programm weitere Filter, etwa einen Weichzeichner auf die Grafik anwenden. Auch die Vorder- und Hintergrundfarbe lassen sich beliebig anpassen. Fyre hat sogar ein eigenes kleines Rendertool mit dessen Hilfe man binnen kürzerster Zeit sogar avi Filme rendern kann. Ganz praktisch ist auch die Möglichkeit, die Fotos automatisch “tileable” (kachelnd) zu machen um sie etwa als Header für eine dynamisch Breite Website zu nutzen (wie oben im Blogheader).

    Ich habe eine kleine Gallerie meiner Kunstwerke zusammengestellt. Weitere gelungene Bilder finden sich etwa auf Flickr.

    14. April 2011

    Wie bereits angekündigt habe ich mir das aktuelle Humble Bundle besorgt. Bisher habe ich erst eines der Spiele getestet: Trine. In diesem Spiel kann man alternativ eine Diebin, einen Kämpfer oder einen Magier spielen. Den Charakter kann man während des Spiels wechseln. Trotz der 3D-Darstellung der Figuren und der Welt ist der Aktionsrahmen auf 2D beschränkt. Filmsequenzen sind überhaupt nur Standbilder. Dies als billige Alternative zu bezeichnen trifft es jedoch nicht, da diese Sequzenzen recht gut gezeichnet sind und zum epischen Erzählstil des Spieles passen. Das Spiel selbst liefert neben Englisch auch eine deutsche Sprachausgabe und ist noch in ein paar anderen Sprachen verfügbar.

    Das Spiel selbst ist recht interessant, jedoch lief ich zuerst in ein paar technische Probleme. Mein System ist ein Laptop mit ATI-Grafik-Chip (Mobility Radeon HD 4200; ca. 1,5 GiB Shared), AMD-CPU (Athlon II P320, 2.1 GHz, 64-bit), 4 GiB SODIMM RAM (1333 GHz). Grafiktreiber ist flgrx. An sich sollte das Gerät also wenig Probleme mit neueren (aufwändigeren) Spielen haben. Deshalb entschied ich mich auch dazu das Spiel zuerst mal in voller Auflösung (1366×768) mit vollen Effekten in hoher Qualität auszuprobieren. Problem: im Vollbild-Modus findet das Spiel scheinbar die Maus nicht. Ich war also unfähig im Menü zu navigieren (welches sich scheinbar nicht mit der Tastatur steuern lässt). Zum Glück ließ es sich mit alt+F4 beenden.

    Also versuchte ich es erneut mit denselben Einstellungen, nur im Fenstermodus. Da ich leider übersehen hatte die Auflösung umzuändern verschmierte dies leider die Grafikausgabe, sodass ich den X-Server neu starten musste.

    Beim dritten Versuch nun, ich habe die Auflösung auf 1280×600 gestellt, ließ sich das Spiel reibungslos starten und bedienen. Interessanter Weise Maus und Tastatur während des Spiels im Fenster gefangen. Das macht das Spielen natürlich etwas angenehmer, wenn sich ein Freund im Kopete meldet oder ich irgendetwas im System machen will muss ich jedoch dieses zuerst beenden … Eine Release-Taste wie bei Virtualbox wäre praktisch. Da die grafische Ausgabe des Spieles jedoch recht rucklig war habe ich die Qualitätsstufe von "Hoch" auf "Medium" gestellt.

    Im Menü lassen sich Grafik-, Audio- und Controller-Optionen anpassen. So kann der Spieler z.B. die Standardkonfiguration verwenden oder bis zu drei eigene Konfigurationen erstellen. Scheinbar kann man das Spiel mit bis zu zwei weiteren Spielern zusammen spielen.

    Alles in allem ein interessantes Spiel dem ich, wenn ich die Zeit finde, sicherlich noch mehr Aufmerksamkeit widmen werde.

    Creative Commons License
    This work is licensed under a Creative Commons Attribution-ShareAlike 3.0 Unported License.

    =-=-=-=-=
    Powered by Blogilo


    Einsortiert unter:GNU/Linux, Multimedia, Ubuntuusers, Vermischtes
    Der Netwerkfehler wird durch ein falsches/fehlendes Zertifikat ausgelöstAus Testzwecken habe ich auf meinem Lastesel Ubuntu Natty mit Gnome 3 installiert. Erstaunlicherweise funktioniert alles wunderbar. Neben ein paar kleiner Bugs, welche mich nicht wirklich stören, funktionierte Empathy überhaupt nicht. Aus irgendeinem Grund wollte es nicht mit dem Gesichtsbuch verbinden. Nach dem Google keinen wirklichen Rat auf mein Problem hatte, versuchte ich mein Glück auf Twitter und siehe da, ich wurde fündig. Zwar war die Quelle auf spanisch, aber meine französisch/italienisch Kentnisse reichten aus, um den Bug zu beheben.

    Immer diese Zertifikate...

    Den ersten Teil des Posts verstehe ich nicht zu 100%. Ich gehe aber davon aus, dass man zuerst auf Facebook gehen soll und sich anmeldet, damit das Zertifikat sicher von Firefox gespeichert wird (ob dabei HTTPS aktiviert sein soll weiss ich nicht). Anschliessend geht man im Firefox auf Extras > Einstellungen > Erweitert > Verschlüsselung > Zertifikate anzeigen. Dort sucht man nun das Zertifikat "DigiCert" und exportiert anschliessend "DigiCert High Assurance CA-3" in sein Home. Das "neue" Zertifikat muss auch noch dem System mitgeteilt werden.
    sudo cp ~/DigiCertHighAssuranceCA-3.crt /usr/share/ca-certificates/mozilla/DigiCert_High_Assurance_CA-3.crt
    sudo dpkg-reconfigure ca-certificates
    
    Beim Rekonfigurieren muss das neue Zertifikat ausgewählt sein, ansonst kann man alles bestätigen. Nun sollte der Facebook Chat nach einem Neustart von Empathy wieder funktionieren.

    Bug melden

    An dieser Stelle möchte ich ebenfalls darauf hinweisen, dass es diesen Bug auf Launchpad gibt. Heisst also: Anmelden und Bug bestätigen!

      Sicherlich ist der eine oder andere bereits über das englischsprachige Blog OMG! Ubuntu! gestolpert. Das mittlerweile sehr kommerzialisierte Blog ist wohl das meist besuchteste Ubuntublog weltweit, was nicht nur auf das tolle Design der Engländer zurückgeht, sondern vor allem auf die teilweise wirklich guten Artikel dort.

      Wie die meisten Blogs dieser Größe wird dort viel Geld mit Werbung verdient. Um noch ein paar finanzielle Mittel mehr aus der großen Reichweite zu zaubern, hat sich die Firma hinter dem Blog, Ohso, etwas neues einfallen lassen: Sie haben ein Spiel programmiert.

      Ok, wer jetzt DAS hyper-mega-ober-Spiel erwartet, der ist hier wohl fehl am Platze. Volley Brawl (Facebook Fanpage), so nennt es sich, legt mehr Wert auf Spielspaß und Wettbewerb als auf hochauflösende 3D-Grafik. Es handelt sich um ein Spiel dass man zu zweit gegeneinander oder alleine gegen eine KI spielen kann.

      Man ist hier einem Volleyball Match ausgeliefert. Ziel ist es nichts anderes als den Ball mit maximal drei Berührungen über das Netz zu spielen. Simples Spiel mit viel Spielspaß, dank Multiplayerfunktion. Die Hintergrundmusik ist allerdings fast genauso grässlich wie bei SuperTuxKart :D

      Nun gut, da es sich hierbei nicht um eine PR Aktion des Blogs handeln soll, sondern um ein Weg Geld in die Kasse zu spülen, muss man hierfür $2.99 auf den Tisch legen.

      Das Spiel lässt sich übrigens über das Software Center in Ubuntu installieren (einfach nach dem Titel suchen).

      Ob es sich allerdings lohnt, dieses Spiel käuflich zu erwerben ist fragwürdig. Ich erkenne zum Beispiel keinen nennenswerten Unterschied zum alten Blobby Volley, welches die gleichen Features hat und zudem Open Source und plattformübergreifend ist.

      Wer OMG! Ubuntu! aber unterstützen möchte, (was sie dank der vielen guten und aktuellen Artikel auch verdient hätten) hat hiermit eine gute Möglichkeit gefunden. Mich hat das große Trara um das Spiel und das letztendliche Resultat eher enttäuscht.