ubuntuusers.de

19. April 2011

Für Python-Fans bieten die beiden Module Python-Elementary und Python-Evas eine schnelle und einfache Möglichkeit, grafische Oberflächen für den Enlightenment-Fenstermanager E17 und damit auch für das OpenMoko Betriebssystem SHR zu schreiben. Wer damit unter E17 experimentieren möchte, für den sind die beiden Module in Debian Sid (Unstable) bzw. in Experimental enthalten und unter Ubuntu ab 10.10 Maverick Meerkat, bzw. ab Linux Mint 10. In SHR sind sie schon dabei.

Für eine erste Hallo-Welt-Gui habe ich mich an das Elementary-Beispiel im Wiki von Enlightenment gehalten, das in C geschrieben ist, bzw. an das Beispiel im Wiki von SHR, das allerdings in VALA geschrieben wurde.

#!/usr/bin/python
#
# Example for a GUI written with Python-Elementary.
 
import elementary
import evas
 
class HelloWorldGui(object):
 
	def destroy(self, obj):
		# quit the window (mainloop)
		elementary.exit()
 
	def __init__(self):
		elementary.init()
 
		# new window - do the usual and give it a name, title and delete handler
		self.win = elementary.Window("HelloWorld", elementary.ELM_WIN_BASIC)
		self.win.title_set("Hello")
		# when the user clicks "close" on a window:
		self.win.callback_destroy_add(self.destroy)
 
		# add a standard background
		self.bg = elementary.Background(self.win)
		self.win.resize_object_add(self.bg)
		# do not allow bg to expand
		self.bg.size_hint_weight_set(evas.EVAS_HINT_EXPAND, evas.EVAS_HINT_EXPAND)
		# add object as a resize object for the window
		self.win.resize_object_add(self.bg);
		self.bg.show()
 
		# add a box object - default is vertical. a box holds children 
		# in a row, either horizontally or vertically. nothing more.
		self.mainBox = elementary.Box(self.win)
		# do not allow box to expand
		self.mainBox.size_hint_weight_set(evas.EVAS_HINT_EXPAND, evas.EVAS_HINT_EXPAND)
		# add object as a resize object for the window
		self.win.resize_object_add(self.mainBox)
		self.mainBox.show()
 
		# add a label widget 
		self.lbl = elementary.Label(self.win)
		# set text of the label
		self.lbl.label_set("Hello World!")
		# do not allow label to expand 
		self.lbl.size_hint_weight_set(evas.EVAS_HINT_EXPAND, evas.EVAS_HINT_EXPAND)
		# pack the label at the end of the box 
		self.mainBox.pack_end(self.lbl)
		self.lbl.show()
 
		# add a quit button
		self.btnquit = elementary.Button(self.win)
		# set label for button
		self.btnquit.label_set("Quit")
		# do not allow button to expand 
		self.btnquit.size_hint_align_set(evas.EVAS_HINT_EXPAND, evas.EVAS_HINT_EXPAND)
		# pack the button at the end of the box
		self.mainBox.pack_end(self.btnquit)
		# when button is clicked
		self.btnquit.callback_clicked_add(self.destroy)
		self.btnquit.show()
 
		# size of the window
		self.win.resize(150,80)
		# now we are done, show the window
		self.win.show()
 
		# run the mainloop
		elementary.run()
		elementary.shutdown()	
 
# endof class HelloWorldGui
 
gui = HelloWorldGui()

Die Datei habe ich dann auf das OpenMoko kopiert und dort im Terminal ausgeführt. Das Ergebnis sieht zwar nicht sehr schön aus, kann sich aber sehen lassen.

Vor einem Monat fand die Confoo in Montreal, Kanada statt.  Bei der Konferenz ging es primär um die Entwicklung von Webandwendungen. Die Veranstaltung war also nur bedingt für den normalen Ubuntu-User von Interesse wenn  David Winterbottom dort keinen Vortrag gehalten hätte.

David betreibt die Webseite CommandLineFu. Dort kann man nützliche Befehle für die CLI suchen, einstellen, bewerten oder kommentieren.

In der ~60 Slides langen Präsentation werden wichtige Befehle, Ausgabeumleitung, die Bedienung von SSH und Screen und einiges mehr sehr anschaulich erklärt.

Vor allem User, die ein wenig vor der Kommandozeile zurückschrecken sollten sich die Präsentation unbedingt anschauen. Have Fun!!! :)

CommandLineFu for web developers

Da Ubuntu 11.04 in ein paar Tagen erscheinen wird und die Softwareversionen endgültig feststehen, gibt es hier eine kleine Zusammenfassung, welche Schritte notwendig sein werden um die neue Version vernünftig auf den Chipsätzen der 8xx-Baureihe zum Laufen zu bekommen:

Wie schon im ersten Artikel angesprochen:

Seit Kernelversion 2.6.38 sollten die Stabilitätsprobleme endgültig der Vergangenheit angehören. Da diese Version in Natty mit ausgeliefert wird, entfällt also ein mögliches Gebastel am Kernel vollständig.

Der Grafikkartentreiber von Natty (Version 2.14) sollte auch stabil genug funktionieren um im Alltag so gut wie keine Probleme zu machen. Wer will, kann sich aber jederzeit den Grafiktreiber aus meinem PPA installieren, da die Version 2.15 noch einige Bugfixes für die 8xx-Baureihe enthält, welche vor allem im 3D-Modus zum Tragen kommen.

Soweit so gut. Leider ist im Xorg-Paket von Natty immer noch der Patch enthalten, der allen Chips der 8xx-Baureihe den Framebuffer-Treiber aufzwingt. Man muss also wie schon unter Ubuntu Maverick den Treiber händisch per “xorg.conf”-Datei aktivieren. Ohne Konfigurationsdatei wird immer nur der Framebuffer-Treiber geladen und man kann keine 3D-Beschleunigung einsetzen und die Xvideo-Extension funktioniert auch nicht.

Dienstag, rc-Tag - Linus hat uns den -rc4 beschert. So richtig scheint sich der Traum von einem schnellen Release jedoch nicht zu erfüllen.

Linux Kernel 2.6.39-rc4, Ausschnitt der Ausgabe von „git pull“Wobei man sagen muss, die Entwicklungszeiten der letzten Versionen, besonders 2.6.38 mit nur 69 Tagen, nur schwer zu toppen sind. Aber so ruhig es mit 2.6.39 angefangen hatte, die Zahl der eingereichten (und aufgenommenen) Patches hat sich erhöht. Gegenüber -rc3 scheint die Zahl geänderter Dateien mit 286 gegenüber 2628 verschwindend gering, die war jedoch auf Rechtschreibkorrekturen zurückzuführen die keine funktionale Änderung darstellten.

Dafür sorgte das „block layer plugging“ für Ärger, das in diesem Kernel-Entwicklungszyklus umfangreiche Änderungen erfahren hat. Allerdings soll ein guter Teil davon mit dem -rc4 der Vergangenheit angehören, Torvalds scheint hier zuversichtlich. Dennoch haben die Entwickler hier mit ein paar Eigenheiten des neuen Codes zu kämpfen, so scheint ein fortlaufender Strom an Meldungen über neu eingelegte CD-ROMs hierauf zurückzuführen zu sein.

Quelle: Linux Kernel Mailing List

 

Wer unter Ubuntu 11.04 Natty Narwhal, den Radiostream-Client RadioTray verwenden will, wird enttäuscht sein. Der Indikator von RadioTray wird nicht im Panel angezeigt, so dass das Vernwden der Anwendung nicht möglich ist. Auf webupd8 wurde eine Möglichkeit gezeigt, mit der RadioTray im Panel endlich angezeigt werden kann.

Radiotray ubuntu 11.04 Natty Narwhal Panel Appindicator

Installation von RadioTray über Paketqulle:

sudo add-apt-repository ppa:eugenesan/ppa
sudo apt-get update
sudo apt-get install radiotray

(Ich empfehle nach der Installation diese Paketquelle über das Software-Center zu deaktivieren, da in dieser unteranderem instabile Vorabversionen einiger Programme verfügbar sind)

Installation über die original deb. Datei von Sourceforge:

Download RadioTray 0.6.3

Ist die Anwendung nun installiert, so muss diese gestartet werden, da benötigte Konfigurationsdateien angelegt werden. Mit dem Befehl “killall radiotray” wird RadioTray wieder beendet.

Jetzt ein weiteres Termianl öffnen und den folgenden Befehl ausführen:

sed -i 's/\"enable_application_indicator_support\" value=\"false\"/\"enable_application_indicator_support\" value=\"true\"/' ~/.local/share/radiotray/config.xml

 

Nun steht dem Hören von Radiostreams nichts mehr im Wege.

Für die benötigten Streamadressen empfehle ich im ubuntuusers Wikiartikel Radiostationen vorbei zu schauen. Dort findet sich der Artikel Dort finden sich eine große Auswahl an Streamadressen.

In etwas über einer Woche ist es dann so weit: Ab dem 28.4.2011, also dem Release-Termin der finalen Version von Ubuntu 11.04 (natty), wird knapp die Hälfte der Menschheit endgültig zu blöd für diese Distribution sein. Denn nur so kann man sich erklären, dass in einem kürzlichen Usability-Test der neuen Unity-Oberfläche neben einer ganzen Reihe anderer interessanter Phänomene 5 von 11 Testern das GUI zum crashen brachten.

Ich selber hatte vor einiger Zeit schon mal das Vergnügen, als ich in der aktuellen Ubuntu-Version 10.10 mal vorsichtig Unity testete. Nun kann man ja eigentlich erwarten, dass das Ding zumindest seinen Dienst tut, wenn es auch nicht die Standardoberfläche ist. Die QA einer Distribution sollte ja eigentlich sicherstellen, dass die vorhandenen Pakete keine wirklich abartigen Bugs enthalten. Und im Netbook Remix war Unity ja soweit ich weiß da ja schon Standard. Aber das ging gehörig schief. Nicht nur konnte ich das Teil absolut nicht bedienen, es ging auch alle paar Minuten in einem Segmentation Fault unter. Prost.

Und der schon genannte Usability-Test spricht dann auch irgendwie Bände. Hier mal ein kurzer Überblick über die detailierten Ergebnisse:

  • 7 von 10 Testern brauchen Geschicklichkeitsübungen, um das Fenstermenü zu finden
  • Das Menü Systemeinstellungen wird noch immer von allen Testern vermisst.
  • Nur 5 von 11 Testern haben es geschafft das Launcher-Panel zu bearbeiten. Die meisten versuchten sich mit dem übriggebliebenen GNOME-Menüeditor, der keinem mehr was bringt.
  • 8 Tester haben es nicht geschafft ein Icon zum Launcher hinzuzufügen. Warum weiß keiner so genau, das Ding hat sich halt gewehrt.
  • 9 von 11 Testern haben es geschafft ein Fenster zu schließen. Das klingt jetzt toll, aber die anderen 9 haben sich nur von plötzlich auftauchenden Bugs oder verschwindenden Buttons nicht so sehr ablenken lassen wie die restlichen zwei.
  • 5 von 11 Testern haben Unity beim Testen mal eben komplett gecrashed oder wurden von plötzlich auftauchenden, dauerfokussierten udn nie mehr verschwindenden Fenstern überrascht.

Besonders gefreut habe ich mich ja über diese Formulierung:

9/9 easily saved their LibreOffice Writer document. (P1 recovered
    amazingly well after trying to save "Letter to Mr Smith 08/04/11",
    and getting the vile response "Error stating file '/home/ubuntu
    /Documents/Letter to Mr Smith 08/04': No such file or directory").

Sehr hübsch. Aber lest das am besten alles nochmal selber, es lohnt sich ;) .

Ich bin ja mal gespannt, ob die das noch rechtzeitig gefixt bekommen. Die letzten Releases waren ja drei Tage vor dem Termin auch noch vollständig im A****. Aber so heftig wie das ist, das kann eigentlich gar nicht mehr gut gehen. Bei Felix hat es Unity übrigens gar nicht auf die Reihe bekommen, irgendwas auf den Bildschirm zu malen (X.org und GNOME an sich funktionieren perfekt, wie man da als Unity scheitern kann ist mir ein Rätsel …).

Ubuntu wäre dann damit (außer vielleicht auf Tablets oder Netbooks) wohl vorbei, weil arbeiten kann man mit Unity sowieso nicht vernünftig (mit GNOME Shell dann in Zukunft übrigens auch nicht, aber das vielleicht noch eher). Momentan bin ich mit Debian eigentlich ganz zufrieden, auch wenn die ja “rock solid” immer noch mit “steinalt” übersetzen (da war neulich noch einer ganz stolz dass die jetzt die Security-Patches für Chromium 9 auf ihren Chromium 6 gebackported haben). Aber vielleicht kann man das ja aushalten …

Update: Hier übrigens auch ein netter Artikel dazu von Michael Kofler.

Impressum und Lizenz: http://www.naturalnik.de/wordpress/impressum/

Share

flattr this!

18. April 2011

Die Schweizerischen Bundesbahnen (SBB) werden ihre fahrenden MitarbeiterInnen zukünftig mit Android-basierten Smartphones ausstatten. Dies berichtet das Online-Portal der Pendlerzeitung “20 Minuten”, und bezieht sich auf ein firmeninternes Informationsschreiben der SBB.

Schweizerische Bundesbahnen (SBB/CFF/FFS) Logo

Nicht nur Apples iPhone hat bei der SBB das Nachsehen, sondern auch Monopolist Microsoft (WP 7) und dessen neuer Partner Nokia. Die Nokia-Handys des Typs 3110, welche bisher im Einsatz waren, werden durch ein Konkurrenzprodukt von Samsung Typ Galaxy S ersetzt.

Überraschend ist dieser Schritt für mich allemal. Schliesslich ist das iPhone von Apple in der Schweiz sehr verbreitet und Microsoft scheint sowohl in Bern als auch in anderen Kantonen eine nicht zu unterschätzende Lobbyarbeit zu leisten.

iPhone vs. Samsung Galaxy S (CC BY-SA, Author: Cheon Fong Liew)

Die Schweizer Bahn hat sich für Samsung/Android und gegen das iPhone entschieden. BY-SA liewcf

Insgesamt erhält das Fahrpersonal 5600 Stück des Android-Smartphones, mit denen es unterwegs – anhand des SBB-Mobilfunknetzes (“GSM-R”) – Informationen aus dem Internet und dem Touren-Informationsportal abrufen können wird.

Das Touren-Informationsportal benötigen die SBB-MitarbeiterInnen unter anderem, um sich über Fahrpläne, Ticketpreise, Verspätungen oder Zugausfälle zu informieren.

Auf dem Samsung Galaxy S werkelt Googles mobiles Betriebssystem Android, welches bekanntlich auf einem Linux-Kernel basiert.

Entschieden hat man sich für das Galaxy S unter anderem wegen der austauschbaren normalgrossen SIM-Karte; das iPhone 4 verwendet eine nicht baugleiche Micro-SIM-Karte und hätte allein deswegen den Kommunikationsanforderungen der SBB nicht entsprochen.

Ein weiterer Grund ist das grössere Display des Galaxy S.

Ob die SBB-Angestellten zukünftig sogar mit Android-Tablets arbeiten werden, wird sich noch zeigen.

Fest steht, dass das staatliche Bahnunternehmen seine internen Programme der Android-Plattform anpassen wird. Vielleicht gibt es dann die offizielle SBB-App bald auch für Android. :-)

Links:
Schweizerische Bundesbahnen (SBB)
Samsung Galaxy S

In der neuen Version setzt Ubuntu voll auf die Arbeitsoberfläche Unity. Rein optisch ist Unity gelungen: Ich finde den Desktop von Ubuntu schöner als den anderer Linux-Distributionen.

Aber schön alleine ist zuwenig! Die Entwickler tun dem Ubuntu-Projekt nichts Gutes, wenn sie ihren Anwendern vorschreiben wollen, wie der Desktop zu bedienen ist. Und genau hier liegt das große Problem von Unity. (Dass Gnome 3.0 dasselbe Problem hat, ist nur ein schwacher Trost.)

Soviel gleich vorweg: Der neue Ubuntu-Desktop auf der Basis von Unity zeichnet sich durch viele gute Ideen aus. Bei aller Kritik (die gleich folgt) ist den Entwicklern Respekt zu zollen für das, was sie bereits erreicht haben.

Das Zielgruppenproblem

Unity ist für Linux-Einsteiger konzipiert und für kleine Bildschirme optimiert. Handelt es sich bei der Mehrheit der Ubuntu-Anwender tatsächlich um Linux-Einsteiger? Ich bezweifle es, und zumindest in meinem Freundes- und Bekanntenkreis sind es überwiegend Web-Entwickler, Systemadministratoren und andere IT-Profis, die Ubuntu einsetzen.

Verwendet die Mehrheit der Ubuntu-Anwender tatsächlich ein Netbook? Ich kenne niemanden mehr, der ein unter Linux laufendes Netbook verwendet. Die Unity-Oberfläche funktioniert natürlich auch auf gewöhnlichen Notebooks mit einem 15-Zoll-Bildschirm, aber wer einen Desktop-Rechner mit einem großen Bildschirm verwendet (oder, wie ich, gar zwei), für den ist die übertriebene Platzoptimierung von Unity vollkommen fehl am Platz.

Es ist im Übrigen kein Zufall, dass Unity ursprünglich für die Ubuntu NNetbook Edition konzipiert wurde. Die Ubuntu Netbook Edition wurde mit Version 11.04 in Ubuntu umbenannt, das herkömmliche Ubuntu gibt es nicht mehr. Die Release Notes stellen den Sachverhalt natürlich umgekehrt dar, aber das ist offensichtlich eine Realitätsverweigerung.

Das Konfigurationsproblem

Die Ubuntu-Entwickler glauben, für alle Ubuntu-Anwender bestimmen zu müssen, wie der Desktop aussieht und funktioniert. Nun ist die Entscheidung für Linux aber häufig darin motiviert, eine Alternative zu den von Microsoft oder Apple aufgezwungenen Lösungen zu haben. Der Preis dieser Freiheit ist unter Ubuntu der, dass die Wahlmöglichkeiten nicht steigen, sondern sinken! Zur Unity-Konfiguration ist momentan der folgende Dialog vorgesehen:

Mit anderen Worten: Es gibt genau eine Option, die steuert, unter welchen Umständen der Launcher (das Startmenü) erscheinen soll. Wesentlich länger ist die Liste der Punkte, die nicht ohne weiteres konfigurierbar sind:

  • Das Unity-Dock befindet sich am linken Bildschirmrand. Wer das Dock lieber rechts, unten oder oben hätte -- Pech gehabt.
  • Die Größe der Icons ist fix vorgegeben (kann mit CCSM verändert werden).
  • Fenster sind von Schatten umgeben. Das sieht gut aus -- es sei denn, man will Screenshots erstellen. Früher ließ sich der Schatten mit dem CCSM einstellen -- jetzt nicht mehr (siehe Launchpad). (Abhilfe: Erstellen Sie Ihre Screenshots mit Shutter!)
  • Im Launcher (also im Startmenü) befinden sich außer dem Suchmenü gerade einmal acht Icons (auch wenn der Bildschirm 1920*1600 Pixel groß ist). Die Icons sind fix vorkonfiguriert. Die Folge: Ich arbeite mittlerweile vollkommen ohne Startmenü. Häufig benötigte Programme sind im Dock, den Rest starte ich mit Alt+F2.
  • Unter Unity gibt es ein Zentralmenü im Panel (nicht mehr in der Leiste des jeweiligen Fensters). Auf kleinen Bildschirmen spart das Platz, auf großen Bildschirmen macht es die Bedienung des Menüs aber extrem umständlich. Auch hier keine Wahlmöglichkeit.
  • Der Arbeitsflächenumschalter ist fixer Bestandteil des Docks -- ganz egal, ob Sie Arbeitsflächen verwenden möchten oder nicht. (Und gerade Einsteiger, für die Unity ja anscheinend konzipiert wurde, werden Arbeitsflächen anfänglich wohl eher nicht brauchen.)

Die Liste ließe sich beinahe beliebig lange fortsetzen. Natürlich lassen sich viele Details (nicht alle) sehr wohl verändern, die Einstellmöglichkeiten sind aber schwer zu finden. Die Konfiguration setzt vielfach gutes Linux-Know-how voraus und erfordert teilweise die Installation zusätzlicher Programme, z.B. des CompizConfig Setting Managers (CCSM).

<Zynismus>Erstaunlicherweise kann der Bildschirmhintergrund noch immer frei eingestellt werden -- aber ich bin sicher, dass auch dieses Feature bis zur nächsten LTS-Version eliminiert wird. Ein individueller Hintergrund stiftet nur Verwirrung, niemand braucht das. Außerdem ist der Ubuntu-Standardhintergrund ohnedies so schön!</Zynismus>

Die Alternativen

Natürlich ist niemand gezwungen, Ubuntu einzusetzen. Selbst wer bei Ubuntu bleiben will, hat die Möglichkeit, die herkömmlichen Gnome-2.n-Panels zu verwenden -- wenngleich auch hier diverse Ubuntu-spezfische Ergänzungen unübersehbar sind: Zentralmenü, Indikator-Menüs statt Applets etc. (Die Wahlmöglichkeit für den klassischen Ubuntu-Desktop besteht in Version 11.04 voraussichtlich letztmalig. In Ubuntu 11.10 soll Unity auch ohne 3D-Grafiktreiber funktionieren, der Desktop wird dann ausschließlich auf Unity ausgerichtet.)

Eine weitere Option ist Fedora, das in der kommenden Version voll auf Gnome 3.0 setzt. Ich gebe zu, dass ich Gnome 3.0 noch nicht so ausführlich getestet habe wie Unity, aber es ist erkennbar, dass auch die Gnome-Shell unter den nicht vorhandenen Konfigurationsmöglichkeiten leidet. Die Gnome-Entwickler versuchen wie ihre Unity-Kollegen ihren Anwendern neue Bedienungskonzepte aufzwingen, ohne Wahlmöglichkeiten anzubieten.

Vor einem Jahr habe ich mich darüber geärgert, dass Ubuntu die Fensterbuttons ohne jeden Grund von rechts nach links verschoben haben. Heute muss ich erkennen: Das war ja noch harmlos. Gnome 3.0 schafft die Fensterbuttons gleich ganz ab! Ich bezweifle, das derart radikale Maßnahmen dem Linux-Desktop zum Durchbruch verhelfen. Ich habe im Gegenteil die Befürchtung, das die Entwickler von Gnome und Unity gleichermaßen am besten Weg sind, die ohnedies sehr zarte Desktop-Pflanze ganz umzubringen.

Immerhin ist das ganze Desaster eine Chance für das KDE-Projekt: KDE 4 ist mittlerweile gut ausgereift. Damit besteht erstmalig seit vielen Jahren die Chance, dass sich frustrierte Unity- und Gnome-Anwender zurück auf ihre Wurzeln besinnen -- und die liegt ja bei vielen Linux-Profis in der KDE-Welt.

Update 20.4.2011: Der Blog-Beitrag ist nun auch als Artikel bei pro-linux.de erschienen und wird dort erwartungsgemäß hitzig diskutiert.

Update 28.4.2011: Der Beitrag hat meiner Website nicht nur ungewohnt viele Zugriffe beschert, sondern auch eine Menge Spam bei den Kommentaren. Deswegen ist die Kommentarfunktion momentan moderiert, d.h. ich muss Kommentare manuell freischalten. Sorry.

    Wenn es einen Trend im 21. Jahrhundert im Internet gibt, dann ist es sicherlich das Cloudcomputing. Anbieter hierfür sprießen wie Pilze aus dem Boden, selbst Canonical, die Firma hinter Ubuntu, bietet so etwas mittlerweile an.

    Momentan sind es noch nicht so viele Benutzer, aber ich bin mir sicher dass in den nächsten Jahren dieser Trend immer weiter getrieben wird, bis letztendlich das Alltagsgeschäft über einen fremd gehosteten Dienst abgewickelt wird.

    Über die moralischen Bedenken des Cloudcomputing habe ich hier im Blog bereits das eine oder andere Mal geschrieben, auch viele andere Blogger und Podcaster haben schon oft darüber gesprochen.

    Selbst die Befürworter (zu denen ich mich glaube ich zähle) müssen irgendwann einknicken und gestehen: Technisch ist es selbstverständlich möglich, dass Fremde auf meine Daten zugreifen könnten. Daran gibt es überhaupt keinen Zweifel. Im Idealfall ist es nur der Anbieter des Dienstes, im Extremfall sind es böswillige Hacker von außerhalb.

    Wenn man sich darüber Gedanken macht, wer alles die Daten einsehen könnte, kommt man leicht ins Grübeln und überlegt sich lieber mehrfach, welche Daten für die Wolke geeignet sind und welche nicht. Für skeptische Benutzer ist es natürlich ein gefundenes Fressen, wenn man mit dem Argument kommt: „Lad’ doch nur Sachen hoch, bei denen du kein Problem hätt’st, wenns dei’ Nachbar seh’n würd’“, denn wenn es danach ginge, bräuchte man gleich gar keine Daten in die Cloud laden.

    Doch dieses Argument wird hinfällig, wenn man sich ein paar Minuten mit der Open Source Software Truecrypt auseinandersetzt. Hierbei handelt es sich um ein Verschlüsselungsprogramm. Damit ist es auf den drei gängigen Betriebssystemen (Linux, Mac OS und Windows) möglich, Ordner (sog. Container) zu verschlüsseln und quasi als Datentresore auf der Festplatte oder in der Cloud zu speichern.

    Truecrypt installieren und Container anlegen

    Truecrypt kann man sich für Linux, Mac OS und Windows auf der offiziellen Downloadseite herunterladen. Danach das Archiv entpacken und den Installer ausführen. Für Linux gibt es hier eine ausführlichere Anleitung.

    Interessant wird der Spaß ja erst jetzt, man muss einen Container anlegen. Vorher muss man sich leider über die Größe des Containers im Klaren sein, denn meines Wissens nach gibt es keine Möglichkeit, die Größe im Anschluss daran zu verändern. Also: Was will man in den Safe packen, wieviel Speicherplatz steht mir in der Cloud zu und welche Größe würde meine Internetverbindung mitmachen?

    Das Anlegen des Containers selbst scheint eine Wissenschaft für sich zu sein, ist es im Endeffekt aber nicht. Eigentlich muss man nur auf „Create Volume“ klicken, danach öffnet sich ein Assistent.

    Da wir hier keine gesamte Partition, sondern nur einen Container verschlüsseln wollen, lässt man im ersten Schritt die Standardeinstellung auf „Create an encrypted file container“. Im nächsten Schritt wird man gefragt, ob man einen Standard- oder einen versteckten Container anlegen will, Standard ist hierfür richtig.

    In „Volume Location“ wird es nun interessant. Auf dem Button „select file“ gelangt man in den Standardbrowser des Betriebssystem und wird aufgefordert, einen Speicherort für den Container anzugeben. Ich habe, da ich den Container mit Dropbox synchronisieren möchte, im Dropboxordner einen Unterordner „Privat“ angelegt und darin den Container „Rechnungen“ verpflanzt.

    Danach kommt der Verschlüsselungsalgorithmus. Hier gehen sicherlich die Meinungen auseinander, ich habe mich für die Mischung aus AES, Twofish und Serpent entschieden. Nun muss man die Größe des Containers festlegen. Wie gesagt, oben stehende Gesichtspunkte beachten. 

    Jetzt geht es ans Eingemachte: Passwort festlegen. TrueCrypt motzt solange herum, bis man ein mindestens 20 stelliges Passwort festlegt. Jetzt liegt es natürlich im Auge des Betrachters, wie stark er sein Passwort wählt. Auch Keyfiles können gewählt werden. Bei dieser Methode muss man beachten, dass es sehr unklug ist, die Keyfiles unverschlüsselt in der Cloud zu speichern, dann kann man es auch gleich weglassen. Gut ist es z.B. wenn man es auf einem USB-Stick immer mit sich herumträgt. Blöd ist es nur, wenn man das Keyfile verliert, denn dann hat man sich ausgesperrt…

    Als Filesystem würde ich FAT auswählen, weil dabei sichergestellt ist, dass es alle Betriebssysteme unterstützen.

    Dateien hinzufügen und auch wieder benutzen

    Mit den Containern ist das so: Man hat eine Datei die man nicht öffnen kann, denn eigentlich ist es ein Laufwerk. Mit dem Frontend von TrueCrypt kann man es einhängen und hat danach quasi ein neues Laufwerk, auf dem man Dateien bearbeiten, hinzufügen, löschen oder einfach nur lesen kann. Wenn man es aushängt, ist es wieder verschlüsselt.

    Habt ihr einen Container angelegt, öffnet Truecrypt. Wählt zuerst einen der leeren Slots in der Liste oben im Hauptfenster, klickt danach auf „Select File…“ und wählt euren Container aus. Klickt danach auf „Mount“ unten links im Fenstereck.

    Gebt die Passwörter und ggf. die Keyfiles an, und schon ist der Container offen.

    Wenn die Arbeit im Container abgeschlossen ist, kann man ihn im TrueCrypt Frontend mit einem Klick auf „Dismount“ wieder verschlüsseln. ACHTUNG! Erst jetzt beginnt die Synchronisation mit der Cloud!

    Sonst noch etwas beachten?

    Ja. Der Container hat die festgelegte Größe, egal ob der Container  „voll“ oder „leer“ ist. Bei einer Änderung (z.B. hineinschieben einer kleinen Datei) und dem anschließenden Aushängen des Containers würde die Synchronisations-software den gesamten Container synchronisieren. ALLES, egal wieviel geändert wurde. Doch Caschy hat herausgefunden, dass es auch anders geht.

    Geht im Hauptfenster von TrueCrypt auf Settings → Preferences. Deaktiviert hier den Haken bei „Preserve modification timestamp of file containers“. Nun wird nach dem Aushängen des Containers nicht mehr das gesamte Monstrum, sondern wirklich nur die veränderten Daten hochgeladen.

    Noch kein Dropbox?

    17. April 2011

    Eine Woche nach dem Erscheinen der ersten Betaversion von OpenOffice.org 3.4 hat der Softwarekonzern Oracle angekündigt, die kommerzielle Version des OpenOffice.org-Projekts einzustellen und das Projekt “in die Hände der Community” zu legen.

    OpenOffice.org Logo

    Gibt es noch eine Zukunft für OpenOffice.org?

    Stellt sich nun die Frage, ob und wie es überhaupt weiter geht mit der Büro-Suite. Schliesslich sind die meisten Entwickler im September des vergangenen Jahres zum neugegründeten LibreOffice-Projekt abgesprungen, nachdem sich Oracle bei der Entwicklung von OpenOffice.org mit der Community nicht sehr kooperativ zeigte.

    Ausserdem gab Oracle vor noch nicht allzu langer Zeit bekannt, dass man keine LibreOffice-Mitglieder im OpenOffice-Rat haben wolle.

    LibreOffice, ein Fork (“Abspaltung”) von OpenOffice, wird von der gemeinnützigen The Document Foundation (TDF) organisiert und unterstützt. TDF wird nach der erfolgreichen Spendenkampagne bald als Stiftung in Deutschland offiziell rechtlich anerkannt sein.

    LibreOffice (TDF) Logo

    LibreOffice hat sich in Ubuntu Linux schon einmal zur Standard Office-Suite etabliert.

    Da Oracle die meisten Entwickler an das – aus seiner Sicht konkurrierende – LibreOffice-Projekt verloren hat, ist es mehr als fraglich, ob OpenOffice nach dem Ende der kommerziellen Version noch fortgeführt wird, zumal Oracle offenbar keine Ressourcen mehr in OpenOffice stecken möchte.

    Stattdessen redet man bei Oracle um den heissen Brei herum und stellt klar, dass der Konzern offene Standards wie das Open Document Format weiterhin unterstützen werde.

    Die Zeit von LibreOffice als Nachfolger von OpenOffice scheint nun endgültig gekommen zu sein.
    LibreOffice wird bereits in der in wenigen Tagen erscheinenden Version 11.04 der Linux-Distribution Ubuntu standardmässig vorinstalliert sein. Auch andere Distributoren wie Fedora sind bereits auf den “Nachfolger” von OpenOffice.org umgestiegen.

    Für mich zeigt dies einmal mehr, dass Oracle mit seiner Unfähigkeit mit der Community zu kommunizieren erneut gescheitert ist.

    OpenOffice.org ist Geschichte, LibreOffice ist die Zukunft.

    Links
    LibreOffice
    LibreOffice Download
    The Document Foundation

    Bookmark and Share

    Das Taglist Plugin für Vim ist ein praktisches Tool zum programmieren. Es listet die einzelnen Funktionen (je nach Programmiersprache auch Klassen, Packete und Membervariablen) eines Programms in einem eigenen Splitscreen auf. Diese sind nach Dateien sortiert und man kann so sehr schnell zu einer gewünschten Funktion springen.

    Damit das Plugin funktioniert muss das Paket exuberant-ctags installiert sein. Danach kann man die Datei taglist.vim ins
    Pluginverzeichnis (~/.vim/plugin) kopieren.

    Wenn nun eine Datei mit Quellcode geöffnet ist, kann man das Taglist Plugin durch den Befehl :TList aktivieren, woraufhin sich auf der rechten Seite der Splitscreen mit den Funktionen öffnet. Mit STRG+w w kann man zwischen den Splitscreens hin und her wechseln (Ich habe mir diese Tastenkombination auf + gelegt). Mit j und k kann man nun in den Funktionen hoch und runter scrollen. Drückt man bei der gewünschten Funktion ENTER, so springt der Cursor automatisch wieder auf den Quelltext an der Position, wo die gewählte Funktion beginnt.
    Da sich beim Sprung zu einer Funktion die entsprechende Datei im aktuellen Buffer öffnet, empfiehlt es sich, Buffer statt Tabs zu verwenden.

    Praktisch ist es, sich ein autocommand für Quelltexte zu erstellen, so dass die Taglist automatisch beim Öffnen von Quelltexten geladen wird.

    Dafür wird eine Funktion benötigt, welche die Dateiendung überprüft und bei entsprechenden Endungen die Taglist öffnet. Das folgende Beispiel öffnet die Taglist für Java und Perl Dateien:

    function OpenTlist()
        let myfile = expand("%")
        let myfiletype = expand("%:e")
        if myfiletype == "pl" || myfiletype == "java"
            Tlist
        end
    endfunction

    Nun noch das autocommand:

    au BufRead * call OpenTlist()

    Beides wird in die ~/.vimrc geschrieben.

    Nun kann man sich in der ~/.vimrc noch ein Mapping anlegen um die Taglist mit z.B. F3 ein- und auszublenden:

    map <F3> :TlistToggle<cr>

    Wenn man Programmiert, dann schreibt man natürlich auch neue Funktionen. Diese werden von der Taglist leider nicht sofort erkannt. Daher ist es sinnvoll ein Mapping zu definieren um die Taglist zu updaten. Das folgende Mapping legt das Updaten der Taglist auf F4 (die Datei wird dabei direkt gespeichert):

    map <F4> :w<cr>:TlistUpdate<cr>

    Beim Test von Ubuntu 11.04 auf meinem Netbook fiel mir auf, dass die Verbindung zum Internet äußerst langsam war. Mein erster Gedanke war, dass ich bei der Umstellung auf den neuen Povider irgendeine Einstellung des Routers versemmelt haben könnte, aber ich fand keinen Hinweis darauf. Also testete ich mal durch.
    Easypeasy war plötzlich genau so langsam, Kanotix im Live-Modus ebenso.

    Mir war bis dahin nicht aufgefallen, dass das WLAN so langsam ist, weil ich zuletzt das Netbook direkt neben dem Router platziert hatte. Doch nun, durch ein paar Türen, Wände und Meter vom Router getrennt, stieß ich auf dieses Problem.

    Für Easypeasy habe ich noch den Kernel 2.6.37 installiert, also bootete ich diesen Kernel. Keine Probleme, das Netz war schnell, wie ich es erwarten durfte. Also lag es am Kernel. Alle von mir probierten Versionen, die dieses Verhalten zeigten, verfügten über den Kernel 2.6.38.

    Das Netbook hat einen Atheros-WLAN-Chip eingebaut, der das Modul ath9k im Kernel erfordert. Das Modul ist vorhanden und geladen, was ich mit lsmod | grep ath überprüft habe. lsmod listet die geladenen Kernelmodule auf. Mit diesen Informationen begab ich mich auf die Suche nach der Lösung und fand sie bei aptosid:

    Im Ordner /etc/modprobe.d/ benötige ich die Datei ath9k.conf. In dieser Datei muss die Zeile
    options ath9k nohwcrypt=1 stehen. Das ist das ganze Geheimnis.

    Um in den Ordner /etc schreiben zu dürfen, benötigt man die Administratorrechte. Diese Aufgabe habe ich mit
    sudo gedit erledigt. Einfach die Zeile einfügen und die Datei unter dem Namen /etc/modprobe.d/ath9k.conf abspeichern.

    Update:
    Natürlich wollte ich mal eine Zahl sehen. Die Download-Geschwindigkeit kann sich sehen lassen:


    Nachdem mein System unter Maverick plötzlich der Überzeugung war, dass meine CPU nicht mehr als 800Mhz kann – ich leide mit allen die auf einem solchen System KDE betreiben wollen – und alle Lösungsansätze nichts brachten, war mein nächster Schritt eine Neuinstallation der Beta 2 von Natty. Da ich mein home auf einer separaten Partition habe, war dies kein größeres Problem. Nur die gängigen Programme nachinstallieren und fertig. Immer wieder ein schönes Gefühl ein neues System mit den alten Einstellungen willkommen zu heißen.

    Was mich direkt beim Start wunderte war der hübsche Ladescreen von Kubuntu. Farbverläufe, vernünftig aussehender Text…fremde Welten ;) Nach dem Start von KDE waren die Desktopeffekte bereits verfügbar, da wurde ich dann wirklich stutzig. Hat da Kubuntu evtl. heimlich schon den Nvidia-Treiber (habe eine Geforce 8600M GT) installiert? Muon angeworfen und mal gesucht. Es wurde der Nouveau Treiber installiert.

    Generell finde ich es eine phantastische Idee eine freien Treiber dafür zu haben. Vielleicht sind sie dort etwas schneller und kooperativer als bei Nvidia selbst. Aber zu dem Thema kaputte Treiber, Verhalten von Herstellern und wie Entwickler von Fenstermanagern dagegen arbeiten, empfehle ich den Blog von Martin.

    Also habe ich Nouveau mal einem subjektiven Test unterzogen: Flashvideo laufen fein.  Desktopeffekte sind sehr schnell, aber leider werden keine unterstützt die auf Shadern basieren (der Würfel, Wunderlampe, Gleiten, …). Portal mit Wine spielen? Keine Chance, da auch hier Shader verwendet werden. Aber generell war ich von der Performance sehr begeistert. Ein anderes Teammitglied berichtet aber beim Zusammenspiel von Nouveau und einer Geforce Quadro FX 570M vom genauen Gegenteil: Video ist ruckelig, Flash ebenfalls. Ich vermute dass dies am jüngeren Alter der Karte liegt und der Treiber für diese Karten noch nicht optimiert ist.

    Kudos an die Entwickler und ich wünsche ihnen den langen Atem um den Treiber peu a peu zu verbessern. Bisher rennt Natty ohne große Probleme, außer das PolicyKit kaputt zu sein scheint, aber hey: man kann Pakete auch über ‘ne Konsole installieren.

    Und zu guter Letzt: meine CPU taktet wieder artig.

    16. April 2011

    Ganz cool an meinem NAS DNS-320 ist die Funktion des HTTP / FTP-Downloader! So kommt es bei mir oft vor, dass ich komprimierte Dateien über das NAS herunterladen lasse.
    Das Problem, dass ich hierbei aber habe, wenn ich Dateien als Archiv herunterlade, welche dann entpackt wieder auf das NAS müssen, so muss ich für das Entpacken den Umweg über meinen Computer machen, da das NAS selbst nicht entpacken kann…
    Also habe ich mich mal ein bisschen schlau gemacht in den weiten des WWW und bin über eine Erweiterung für mein DNS-320 namens fun_plug gestolpert.

    Dies missbraucht das abgespeckte Linux, das bereits auf dem NAS läuft und integriert weiter Funktionen wie SSH und Paketquellen.
    Und beim Einloggen via SSH zeigte sich dann auch; es gibt bereits Möglichkeiten zum Entpacken im System selbst via dem Standardtools tar.

    Doch von vorne. Um die Erweiterung fun_plug zu installieren, muss man die folgenden beiden Dateien auf die Hauptplatte Volume_1 kopieren:

    Nun muss man das Maschinchen rebooten, wodurch automatisch telnet aktiviert wird, gefolgt von den folgenden Befehlen, die man absetzen muss, um die Grundkonfiguration zu erstellen.

    1. Erstellen des Passwortes:

    pwconf
    passwd

    2. root aktivieren:

    usermod -s /ffp/bin/sh root
    mkdir -p /ffp/home/root/
    usermod -d /ffp/home/root/ root

    3. Login testen:

    login

    4. Passwort niederschreiben:

    cd /ffp/sbin/
    wget http://blog.encodingit.ch/wp-content/uploads/2011/04/store-passwd.sh
    store-passwd.sh

    5. SSH aktivieren:

    chmod a+x /ffp/start/sshd.sh
    sh /ffp/start/sshd.sh start

    6. Telnet deaktivieren:

    chmod -x /ffp/start/telnetd.sh

    7. Paketquellen zufügen:

    mkdir /ffp/pkg/
    cd /ffp/pkg/
    wget http://blog.encodingit.ch/wp-content/uploads/2011/04/updater.sh
    chmod a+x /ffp/pkg/updater.sh
    sh /ffp/pkg/updater.sh

    Von nun an können Pakete ganz nach belieben installiert werden über den Paketmanager:

    funpkg -i paket.tgz

    Um wieder etwas zu deinstallieren, nimmt man die Option -r:

    funpkg -r paket.tgz

    Nun, da ich aber auch noch RAR will, installiere ich noch das Zusatzpaket unrar-3.9.10-1.tgz:

    funpkg -i /ffp/pkg/additional/app-arch/unrar-3.9.10-1.tgz

    Nun kann ich via SSH auf mein NAS zugreifen und via unrar und tar meine Archive entpacken. Juhee :)
    Vielen Dank an Uli für den Tipp!

    Schon länger habe ich mit dem Gedanken gespielt, mir ein NAS zu zulegen. Grund dafür war vor allem, dass ich Daten von meinem Laptop gerne irgendwohin sichern möchte, ohne andauernd Festplatten ein- und auszustecken. Gleichzeitig möchte ich aber auch noch meine Filme, Musik und Bilder auf meinem Laptop oder meiner Playstation begutachten.
    Da immer über Freigaben zu arbeiten ist sehr aufwendig.

    Und als ich dann vor ein paar Tagen auf Daydeal.ch das NAS DNS-320 von D-Link gesehen habe, musste ich zuschlagen!

    Mittlerweile habe ich das Teil fast eine Woche im Betrieb und bin positiv überrascht.
    Für CHF 99.- bietet mir das kleine Ding zwei Einschübe für Festplatten bis zu 2 TB. Zur Auswahl dafür steht RAID 0 oder 1 wodurch man auf einen Maximalspeicher von 4 TB kommt.
    Auf der technischen Seite gibt es einen integrierten FTP-Server, Windows- & NFS-Freigaben, P2P, Ajaxplorer, FTP/HTTP-Download, iTunes-Server, UPnP, Quotas, Benutzer- und Gruppenrechte und einen Web-Explorer.

    Auf der Front gibt es einen USB-Anschluss mit einem One-Klick-Knopf zum Kopieren von Festplatten und USB-Sticks. Alternativ kann darüber auch ein USB-Drucker zum Netzwerkdrucker umfunktioniert werden.

    Ansonsten gibt es noch einen Gigabit-Netzwerkanschluss, 800MHz CPU und 128MB an RAM.

    Administriert wird alles, wie für ein NAS so üblich, über ein WebGUI.

    Einziges kleines Manko: Ich habe meine 2TB-Festplatte, gefüllt mit Daten, reingesteckt. Doch bevor das NAS diese verwenden wollte, musste ich die Platte formatieren. Und 2TB an Daten herumzukopieren ist sehr mühsam! Aber da dies ein einmaliger Vorgang war, kann ich damit leben.

    Ach ja und da das NAS mit alter Firmware ausgeliefert wurde, musste ich zuerst noch ein Upgrade machen (von 1.0 auf 2.0). Neue Funktionen o.ä. gab es dadurch aber leider nicht, nur die Aufmachung hat sich ein bisschen verändert :(

    Und nun habe ich endlich eine bequeme Möglichkeit, via rsync Daten auf die NFS-Freigabe zu schieben und somit mein gesamter Client zu sichern, ohne jedes Mal eine Festplatte anhängen zu müssen. :)

    Und nun zu euch!

    Note: There is a poll embedded within this post, please visit the site to participate in this post's poll. Note: There is a poll embedded within this post, please visit the site to participate in this post's poll.

    Und was leider nicht in eine Umfrage passt, was für Software verwendet ihr?


    Das könnte dich auch interessieren:

    1. Backup und Restore mit Linux
    2. Wie lange schon?
    3. Nutz du schon Ubuntu 10.10?

    Auf meinem Notebook habe ich nun mal die Beta 2 von Ubuntu 11.04 installiert, um mir den neuen Desktop, Unity, etwas genauer anzuschauen.

    Ich muss zugeben, dass ich nicht wirklich begeistert bin. Hier und da gibt es gute Ansätze, aber vieles ist nicht durchdacht. Das ist natürlich meine rein subjektive Meinung. Einiges davon wird sich sicherlich hier und da in Einstellungen ändern und anpassen lassen.

    Das Global Menu macht vielleicht für ein Netbook Sinn, auf einem Notebook oder sogar am Desktop sind die Wege, um dort hin zu kommen in meinen Augen viel zu weit.

    Zum Beispiel nutze ich gerne Pidgin für Jabber und Co. Die Buddyliste liegt bei mir auf der rechten Seite des Bildschirms, da die Benachrichtigungsanzeige ebenfalls auf dieser Seite im Panel ist. Um an die Einstellungsmöglichkeiten zu kommen muss mit der Maus nun erst wieder nach links ins Panel, um diese im Global Menu zu finden.

    Das nächste Problem ist in meinen Augen der Launcher. Wenn man Programme maximiert laufen hat kann man nicht einfach wie gewohnt in das untere Panel gehen und das Fenster wechseln. Der Launcher, der ausgeblendet wird wenn ein Fenster maximiert ist, lässt sich einbinden, wenn man mit der Maus entweder in die obere linke Ecke oder an die linke Seite fährt. In der Ecke wird der Launcher sofort angezeigt, an der Seite muss man immer noch einen Moment warten bis der Launcher eingeblendet wird.

    Was mir auch überhaupt nicht gefällt: die Anwendungsfenster haben riesige Schatten. Warum? Zudem habe ich gestern Abend 20 Minuten in den Compiz-Einstellungen gesucht, um den Schatten kleiner zu machen. Leider gelang es mir nicht. Ich habe die Option in den Compiz-Einstellungen zwar gefunden, anwenden wollte das Notebook die Änderung jedoch nicht.

    Der nächste Punkt wäre das Anwendungsmenü. Zum einen finde ich die Icons viel zu groß und fühle mich davon erschlagen. Zum anderen sind diese lediglich alphabetisch sortiert. Um diese nach Anwendungsbereich zu sortieren muss man dies jedes mal erst auf der rechten Seite auswählen. Ich finde das nicht besonders nutzerfreundlich.

    Insgesamt bin ich von Unity sehr enttäuscht. Glücklicherweise gibt es ja auch die Möglichkeit den alten bekannten GNOME2-Desktop auszwählen. GNOME 3 und die neue GNOME-Shell wird wohl in Ubuntu 11.10 Einzug erhalten.

    GNOME-Shell hat mir beim kurzen Testen mit einer Fedora Live-CD wesentlich besser gefallen, auch wenn einige Kritikpunkte von Unity auch hier zutreffen und das Bediensystem ähnlich ist. GNOME-Shell wirkte auf mich jedoch einfach durchdachter, aufgeräumter und “fertiger” als Unity.

    Vom GNOME3-PPA für Natty werde ich jedoch erst einmal die Finger lassen, da ich mir damit schon 2 mal ein frisch aufgesetztes System kaputt gemacht habe.

    Pro-Linux berichtet, dass Oracle vorhat OpenOffice.org in eine NPO auszugliedern. Getragen und entwickelt soll das Projekt dann von der Community werden. Interessant. Welche Community? Alle wichtigen Entwickler die nicht direkt bei Sun/Oracle angestellt waren sind bereits zu LibreOffice gewechselt. Oracle hat einfach nicht verstanden, dass ein solches Projekt eine Community braucht die sich darum kümmert und deswegen diese verscheucht.

    Ich persönlich verwende LibreOffice seitdem es die erste stabile Version gibt. OpenOffice.org ist also schon relativ früh bei mir von der Platte geflogen. Entsprechend zufrieden bin ich, dass LibreOffice OpenOffice.org in Natty ersetzen soll. Doch zurück zu Oracle. Es gibt nun mehrere Möglichkeiten: entweder es findet sich tatsächlich wieder eine Community die OpenOffice.org weiterträgt. Sofern Oracle die Namensrechte an diese Organisation abgibt fusionieren OOo und LibreOffice wieder und es gibt OOo weiterhin. Der Vorteil dieser Variante wäre, dass nicht dasselbe Programm zweimal entwickelt wird. Dann wiederum … mir gefällt LibreOffice sowohl vom Namen her besser als auch von der fehlenden Abhängigkeit zu Oracle.

    Eine weitere Möglichkeit wäre, dass OOo und LibreOffice nicht fusionieren. Dann bleibt zu hoffen, dass sich die bestehende Community nicht auf diese zwei parallelen Projekte aufteilt. Zum Schluss gibt es noch die Möglichkeit, dass sich gar keine Community findet und das Projekt im Sand verläuft. Dann ist die Frage was mit den Namensrechten an OpenOffice.org passiert. Oracle hat ja mit diesem Schritt bereits abgelehnt das Projekt finanziell voran zu treiben. Verkauft Oracle dann den Namen und es entsteht ein OpenOffice.org das nichts mit dem Projekt wie wir es heute kennen zu tun hat aber von seinem Namen profitieren kann? Vielleicht sogar ein rein proprietäres Projekt?

    Mir persönlich würde die Fusions-Variante am Besten gefallen wo die Namensrechte an OpenOffice.org an die Document Foundation übergehen.

    Was ist deiner Meinung nach die wahrscheinlichste Variante? Oder habe ich sogar eine vergessen?

    Creative Commons License
    This work is licensed under a Creative Commons Attribution-ShareAlike 3.0 Unported License.

    =-=-=-=-=
    Powered by Blogilo


    Einsortiert unter:Free Software/Open Source, Multimedia, Ubuntuusers
    Kleines, aber feines Tool:

    http://userscripts.org/scripts/show/100690

    Mit diesem Greasemonkey Script könnt ihr Videos direkt aus Youtube heraus an das XBMC senden.



    Funktionsfähig unter Firefox und Chrome / Chromium. Für letztere ist noch zusätzlich Tampermonkey zwingend erforderlich. Zuerst Tampermonkey installieren ( https://chrome.google.com/extensions/detail/dhdgffkkebhmkfjojejmpbldmpobfkfo ) und darüber dann das Greasemonkey-Script einbinden.

    Zum Abspielen der Videos muss natürlich das Youtube Plugin auf dem XBMC installiert sein.

    Weiterhin wird vorausgesetzt, dass der Webserver im XBMC aktiviert ist.
    Sollte dies noch nicht der Fall sein, geht folgendermaßen vor:

    1. Einstellungen -> Netzwerk -> Server
    2. Benutzername und Passwort festlegen (Port kann unverändert bleiben)

    Wenn ihr nun Video auf Youtube aufruft, wird das o.g. Bedienfeld unten rechts angezeigt. Klickt das erste mal nach der Installation bitte zuerst auf das Zahnrad und gebt Benutzername, Passwort, IP und Port ein, wie es im XBMC eingestellt ist.

    Jetzt könnt ihr bequem die Videos auf eurem HTPC abspielen.

    Kleines, aber feines Tool:

    http://userscripts.org/scripts/show/100690

    Mit diesem Greasemonkey Script könnt ihr Videos direkt aus Youtube heraus an das XBMC senden.



    Funktionsfähig unter Firefox und Chrome / Chromium. Für letztere ist noch zusätzlich Tampermonkey zwingend erforderlich. Zuerst Tampermonkey installieren ( https://chrome.google.com/extensions/detail/dhdgffkkebhmkfjojejmpbldmpobfkfo ) und darüber dann das Greasemonkey-Script einbinden.

    Zum Abspielen der Videos muss natürlich das Youtube Plugin auf dem XBMC installiert sein.

    Weiterhin wird vorausgesetzt, dass der Webserver im XBMC aktiviert ist.
    Sollte dies noch nicht der Fall sein, geht folgendermaßen vor:

    1. Einstellungen -> Netzwerk -> Server
    2. Benutzername und Passwort festlegen (Port kann unverändert bleiben)

    Wenn ihr nun Video auf Youtube aufruft, wird das o.g. Bedienfeld unten rechts angezeigt. Klickt das erste mal nach der Installation bitte zuerst auf das Zahnrad und gebt Benutzername, Passwort, IP und Port ein, wie es im XBMC eingestellt ist.

    Jetzt könnt ihr bequem die Videos auf eurem HTPC abspielen.

    So nach langer Zeit komme ich endlich wieder dazu, einen Blogbeitrag zu schreiben. Im Moment stehe ich im Abschluss der Informatiklehre und muss darum Prioritäten setzten ;-) .

    Heute habe ich eine interessante Unterhalten mit jemandem gehabt. Dabei sind wir schnell vom Broadcast auf die MAC-Adresstabelle eines Switches und davon auf MAC flooding gekommen. Damit man das Ganze versteht hole ich ein wenig aus.

    Funktionsweise eines Hubs

    Wir nehmen an, dass 4 Computer und 1 Webserver an einem Hub angeschlossen sind. Ein Computer greifft nun auf den Webserver zu. Der Hub erhält vom Computer ein Packet, in welchem die MAC-Adresse des Webservers steht. Da der Hub aber keine MAC-Adresstabelle führt, sendet er das Packet aus allen Ports raus. Mit einem Netzwerksniffer, wie zum Beispiel Wireshark, kann somit der Netzwerktraffic von allen 4 Computern inkl. dem Webserver gesnifft werden. Hubs werden heute nur noch selten eingesetzt, da sie unnötig Netzwerktraffic verursachen, sich angeschlossene Geräte die Bandbreite teilen müssen und sie einfach veraltet sind.

    Funktionsweise eines Switches

    Wir nehmen an, dass 4 Computer und 1 Webserver an einem Switch angeschlossen sind. Ein Computer greifft nun auf den Webserver zu. Der Switch erhält vom Computer ein Packet, in welchem die MAC-Adresse des Webservers steht. Da er den Webserver noch nicht kennt, sendet er das Packet aus allen Ports raus. Der Webserver meldet sich beim Switch, hey das Packet ist für mich, ich habe diese MAC-Adresse. Jetzt kommt der Unterschied zum Hub. Der Switch trägt jetzt die MAC-Adresse des Webserver und den Port in einer MAC-Adresstabelle ein. Kommt wieder ein Packet, in welchem die MAC-Adresse des Webserver steht, weiss der Switch aus welchem Port er das Packet senden muss. Er sendet das Packet nur noch aus dem richtigen Port und nicht mehr aus allen Ports raus. Somit kann der Netzwerktraffic nicht mehr von einem Gerät, dass am Hub angeschlossen ist, gesnifft werden.

    Den Switch zu einem Hub machen

    Der Speicherplatz des Switches für die MAC-Adresstabelle ist beschränkt. Ist der Speicher voll, werden die ältesten Einträge gelöscht und die Neuen werden eingetragen. Dabei muss ein Packet wieder mindestens einmal aus allen Ports versendet werden, damit der Switch wieder die Zuordung von MAC-Adresse zu Port hat. Flutet man den Switch mit unsinnigen MAC-Adressen, ist die MAC-Adresstabelle ständig voll und Packete müssen wieder an alle im Netzwerk versendet werden, weil die Zuordung von MAC-Adresse zu Port fehlt. Der Switch wird zu einem Hub. Wie bei einem Hub kann der ganze Netzwerkverkehr gesnifft werden.

    Praxis

    Tja, da das Gesetz in der Schweiz ebenfalls enger wurde werde ich mich hüten, hier eine Schritt für Schritt Anleitung zu erstellen. Schade, hätte ich gerne gezeigt ^^. Wie man aber einen Switch oder ein LAN mit MAC-Adressen fluten kann findet man sehr schnell im Internet und wie man Packete snifft wissen die meisten Leser dieses Blogs ebenfalls ;-) . Hier gibt es ein gutes Video, das zeigt, wie bei einem CISCO Switch ein Angriff abgewehrt werden kann: Cisco Layer 3 Switch MAC Flood Attack.

    Vorteile und Nachteile des Angriffs

    Vorteile

    • Sehr einfach umzusetzen
    • Funktioniert in einfachen Netzwerken wie zum Beispiel Heimnetzwerk
    • Für Lernzweck geeignet

    Nachteile

    • Erzeugt starke Last im Netzwerk
    • Angriff wird sehr einfach entdeckt
    • Teurere Switches haben einen grösseren Speicher für die MAC-Adresstabelle
    • Teurere Switches haben diverse Sicherheitsmechanismen um den Angriff abzuwehren

    Fazit

    Dieser Angriff ist sehr einfach umzusetzen, kann dementsprechend auch sehr einfach erkannt und abgewehrt werden. Flutet man einen Switch mit MAC-Adressen wird dies als Angriff gewertet, also auf keine Fall in einem fremden Netzwerk, sondern nur im eigenen Netzwerk testen.

    Ich gehe nach dem Motto, Angriff ist die beste Verteidigung. Nur wenn man Angriffe kennt, kann man diese auch abwehren ;-) .

    15. April 2011

    Matthew Paul Thomas hat auf Developer Mainlinglist von Ubuntu User-Experience-Testergebnisse zu Ubuntu 11.04 mit Unity veröffentlicht. Die Testergebnisse sind meiner Meinung nach sehr erfreulich. Auch die Meinungen zu Ubuntu 11.04, die die Probanden geäußert haben, können als positiv gewertet werden.

    Die wichtigsten Tasks wurden von den Testpersonen gelöst: so war es kein Problem Programme im Launcher zu öffnen und das Anwendungs-Menü wurde trotz Wechselmechanismus erkannt.

    Allerdings gab es auch echte Probleme: das Anlegen von neuen Anwendungen im Launcher erscheint wenig intuitiv, MP3s abzuspielen war ein echtes Problem (von Ubuntu nicht Unity), das Verhalten des Launchers ist in manchen Fällen nicht verständlich.

    Was mich aber am meisten interessiert hat, war der Gesamteindruck der Testpersonen. Dieser war überwiegend positiv. Am meisten begeistert, hat mich folgende Aussage von Testperson 9:

    "Es ist in Ordnung ... Es ist nicht so verwirrend wie ein Mac."
    
    

    Matthew Paul Thomas hat auf Developer Mainlinglist von Ubuntu User-Experience-Testergebnisse zu Ubuntu 11.04 mit Unity veröffentlicht. Die Testergebnisse sind meiner Meinung nach sehr erfreulich. Auch die Meinungen zu Ubuntu 11.04, die die Probanden geäußert haben, können als positiv gewertet werden.

    Die wichtigsten Tasks wurden von den Testpersonen gelöst: so war es kein Problem Programme im Launcher zu öffnen und das Anwendungs-Menü wurde trotz Wechselmechanismus erkannt.

    Allerdings gab es auch echte Probleme: das Anlegen von neuen Anwendungen im Launcher erscheint wenig intuitiv, MP3s abzuspielen war ein echtes Problem (von Ubuntu nicht Unity), das Verhalten des Launchers ist in manchen Fällen nicht verständlich.

    Was mich aber am meisten interessiert hat, war der Gesamteindruck der Testpersonen. Dieser war überwiegend positiv. Am meisten begeistert, hat mich folgende Aussage von Testperson 9:

    "Es ist in Ordnung ... Es ist nicht so verwirrend wie ein Mac."
    
    

    The post Ubuntu 11.04 Desktop gut für Anfänger geeignet appeared first on Rockiger.

    Kürzlich erschien die zweite Betaversion von Ubuntu 11.04 “Natty Narwal”. Also USB-Stick gepackt, Image draufgespielt und ausprobiert. Es kam nur der Standard-Desktop, also kein Unity, weil kein 3D. Das war zu erwarten, denn der vorinstallierte freie Nvidia-Treiber kann für meine Karte kein 3D. Was mich aber verwunderte war, dass mein D-Link DWA 140 WLAN Stick (Ralink-Chipsatz) nicht ging, der Network Manager zeigte nur ein “firmware missing” an. Ich installierte den Natty-Kernel 2.6.38 vom Mainline-PPA unter Maverick und stellte fest, dass das Problem dort auch auftrat. Ein Kernel-Problem also. Ich googelte und stellte fest, dass ich nicht allein war. Da fiel mir ein Artikel aus dem Ubuntu-User-Magazin ein, indem verschiedene WLAN-Sticks auf Linux-Tauglichkeit geprüft wurden. Bei einem stand der Autor vor demselben Problem; es wurden falsche Kernelmodule geladen.

    Normalerweise lädt Ubuntu beim Booten oder beim Anschluss des Geräts das dafür passende Kernelmodul. Danach kann man mit dem Gerät schon loslegen. In diesem Fall aber (und offenbar in vielen anderen Fällen auch) lud Ubuntu zusätzlich zum richtigen Modul noch einige falsche Module für ähnliche Chipsätze. Dies sorgt allerdings dafür, dass das System nun nicht weiß, welches Modul die Kontrolle über den WLAN-Stick haben soll und deswegen kam keine Verbindung zustande.

    Um das Problem zu lösen, sollte man sich ersteinmal alle geladenen WLAN-Module anzeigen lassen. Da mein Stick einen Ralink-Chipsatz benutzt, lautet der Befehl

    $ lsmod | grep rt
    

    Der Hersteller des Sticks bzw. der WLAN-Karte ist unwichtig, wichtig ist nur der Chipsatz (z.B Atheros, Broadcom oder eben Ralink). Wer einen anderen Chipsatz als ich hat, muss in Erfahrung bringen, welches Präfix die entsprechenden Module haben (das ubuntuusers-Wiki ist eine gute Anlaufstelle). Die Ausgabe schaut bei mir folgendermaßen aus:

    parport_pc 36959 0
    parport 46458 3 parport_pc,ppdev,lp
    rt2870sta 450556 0
    rt2800usb 18235 0
    rt2800lib 45181 1 rt2800usb
    crc_ccitt 12667 2 rt2870sta,rt2800lib
    rt2x00usb 20330 1 rt2800usb
    rt2x00lib 49235 3 rt2800usb,rt2800lib,rt2x00usb
    mac80211 294370 3 rt2800lib,rt2x00usb,rt2x00lib
    cfg80211 178528 2 rt2x00lib,mac80211

    Hier sind nur die Module interessant, die mit “rt” anfangen. Diese werden jetzt allesamt entladen:

    $ sudo modprobe -rf rt2870sta rt2800usb rt2800lib rt2x00usb rt2x00lib
    

    Jetzt kommt das Ausprobieren. Man muss jetzt probieren, welches Modul das richtige ist. Also mit

    $ sudo modprobe <modulname>
    

    das Modul laden, ausprobieren, ob das WLAN läuft und wenn nicht, das Modul mit

    $ sudo modprobe -rf <modulname>
    

    wieder entladen. Glücklicherweise wusste ich schon von meiner Maverick-Installation, dass das Modul rt2870sta das richtige ist. Nach dem Laden dieses Moduls funktionierte auch das WLAN wieder.

    Eine Kleinigkeit wäre da noch: Damit man das Prozedere nicht bei jedem Neustart wiederholen muss, sollte man die falschen Module blacklisten. In meinen Fall reicht es, folgende Zeilen zur Datei /etc/modprobe.d/blacklist.conf hinzuzufügen:

    blacklist rt2800usb
    blacklist rt2800lib
    blacklist rt2x00usb
    blacklist rt2x00lib

    Es freut mich zwar, dass das Problem so einfach zu lösen war, aber Anfänger werden dadurch abgeschreckt. Wegen der neuen Unity-Oberfläche wird Natty sowieso ein heikles Release werden. Hoffen wir, dass es nicht das Vista der Ubuntu-Versionen wird ;-)

    Update 2.Juni 2011:

    Wie aus den von mir gemeldeten Launchpad-Bug hervorgeht, hatte ich mit meiner Einschätzung nicht ganz recht. Alle Module, die beim Hochfahren/Einstecken des DWA 140 geladen werden, sind richtige Treiber, die für den Stick geeignet sind. rt2870sta ist ein alter Staging-Treiber, der nicht offiziell zum Kernel gehört, nicht wirklich gepflegt wird und der irgendwann mal verschwinden wird. Der neue Treiber der ihn ersetzen soll ist dieser rt2800usb, welcher auch von den Wifi-Schnittstellen des Kernels besser Gebrauch macht. Die in Natty enthaltene Version dieses Treibers funktioniert aber mit meinem Stick noch nicht, weil linux-firmware zu alt ist. rt2800usb wird also geladen, kann aber nicht arbeiten, daraufhin wird rt2870sta geladen, welcher aber auch nicht arbeiten kann, weil rt2800usb nicht entladen wurde.

    Eine bessere Alternative zu dem oben vorgestellten Lösungsvorschlag ist die Benutzung von rt2800usb mit aktueller Firmware, weil dieser Treiber besser gepflegt wird. Zuerst muss rt2870sta geblacklistet werden:

     
    $ echo 'blacklist rt2870sta' | sudo tee -a /etc/modprobe.d/blacklist.conf
    

    Das Blacklisting der anderen rt-Module muss natürlich rückgängig gemacht werden. Anschließend lädt man sich die neueste Version von linux-firmware herunter und entpackt das Archiv. Einzig die Datei rt2870.bin ist interessant. Nun wird die alte Firmware umbenannt und die neue installiert:

    $ cd <entpackter Ordner>
    $ sudo mv /lib/firmware/rt2870.bin /lib/firmware/rt2870.bin.old
    $ sudo cp rt2870.bin /lib/firmware/rt2870.bin
    

    Nach einem Neustart sollte das drahtlose Netzwerk wieder funktionieren. Am besten, man testet beide Treiber und nutzt dann den, welcher besser läuft.


    In letzter Zeit ging mir Flash doch sehr auf die Nerven, da es auf jeder erdenklichen Webseite die Lüfter meines Notebooks in die Höhe trieb. Aber wie kam das. Da ich das flash-plugin aus der Synaptic genutzt habe, musste diese 32bit Version erst mittels nspluginwrapper (was sich als npviewer.bin in der System-Überwachung ausgibt) auf das 64bit System portiert werden. Das hat unnötig viele Ressourcen gefressen und diese nicht selten sogar annähernd vollständig für sich beansprucht.


    (hier schläft es mal zufällig, da Chromium gerade nicht aktiv darauf zugreift ;-)


    Als ich mich nach Lösungen umgesehen habe, bin ich auf die Möglichkeit gestoßen, Adobe Flash in der 64bit Variante zu nutzen, was allerdings schon eine ganze Weile als "Preview" angeboten wird. Nach der Installation läuft aber das System merklich ruhiger und auch sonst konnte ich bis jetzt keine Nachteile erkennen.

    Wer das Flash-Plugin auch "ausprobieren" möchte (natürlich wie immer alles auf eigene Gefahr und "Fremdpakete können das System gefährden"), der kann das folgendermaßen tun (wer eine Paketquelle nutzen möchte, welche Updates automatisch einspielt, der nimmt die Anleitung 2):

    Anleitung 1:
    Im Terminal eingeben:
    sudo apt-get remove flashplugin-installer nspluginwrapper
    cd Desktop
    wget http://download.macromedia.com/pub/labs/flashplayer10/flashplayer10_2_p3_64bit_linux_111710.tar.gz
    tar xzf flashplayer10_2_p3_64bit_linux_111710.tar.gz

    #Für Firefox und Chromium
    sudo cp libflashplayer.so /usr/lib64/mozilla/plugins/



    Anleitung 2:
    Im Terminal eingeben:
    sudo add-apt-repository ppa:sevenmachines/flash
    sudo apt-get update
    sudo apt-get install flashplugin64-installer


    Danach wird das Plugin brav in Firefox (about:plugins) und Chromium (chrome://plugins) gelistet:

    Firefox:

    bzw.



    Chromium: