ubuntuusers.de

24. Juni 2010

Browser Linux – das Linux als Alternative zum typischen Kiosk PC

Browser Linux ist ein sehr schnelles und kleines (ca.78 MB) Betriebssystem, zum Surfen im Netz.

Im System integriert sind:

* Mozilla Firefox
* Flash 10
* PDF-Reader
* Music Player (Alsaplayer)

Dieses Betriebssystem ist wirklich nicht nur für alte PCs gedacht mit deren Hilfe man gerne ins Internet möchte. Es ist auch eine gute Alternative zu einer typischen Kiosk PC Software oder einer typischen Surfstation.

Beim ersten Herunterfahren können Sitzungsdateien, neu installierte Addons etc. auf einem USB-Stick abgelegt und auch verschlüsselt werden. Beim nächsten Booten ist damit bereits ein angepasstes System vorhanden. Die Festplatte des Rechners und das eventuell zusätzlich installierte Windows bleiben unverändert.

Bei meinen persönlichen Versuchen habe ich normale Desktop PCs ohne Festplatte eingesetzt.

Zur Homepage

http://www.browserlinux.com


Tagged: browser linux, kiosk software, kiosk system, linux open source software computer it, linux open source software downloads, open source, surfstation, ubuntuusers.de, Uncategorized

Der LinuxTag zu Berlin liegt nun schon einige Tage zurück. Dank dem grossen Einsatz von zwei Mitstreitern im Hintergrund von RadioTux sind nun alle Interviews, welche wir am LinuxTag geführt und live gestreamt haben, geschnitten und auf radiotux.de verfügbar. Vielen Dank an Heinz und Tobias! Und damit ist auch der Samstag verfügbar, an dem wir das Thema Ubuntu fokussiert haben. Dazu führten wir ein Interview mit verschiedenen Leuten von ubuntuusers.de, Daniel Holbach war bei uns, wir sprachen über Kubuntu und Communtu und Mark Shuttleworth gab uns auch ein Interview. Aber auch Gnome 3.0 war ein Thema und natürlich Debian. Der gesamte Sendeplan mit den Verlinkungen zu den einzelnen Interviews, welche nun alle als Podcast zur Verfügung stehen, ist hier zu sehen.

Gegen Ende der Messe führten wir am Stand unter den Redaktoren eine Schlussrunde durch, in der wir uns auch etwas daneben benehmen durften. Faxen und Witze, Ulk und Spass gehören in dieser Schlussrunde aus historischen Gründen zum Inhalt. Nach insgesamt fünf Tagen Messe und etlichen Interviews waren wir denn auch ziemlich ausgelaugt und erfreuten uns daher, dass wir einmal ganz locker und spassig sein durften. Unser Erguss ist ebenfalls online verfügbar.

PDF-Datei dieses Artikels erzeugen



Ähnliche Artikel

23. Juni 2010


Foto des Users Doglandsboy auf Flickr zeigt Nagios in einer grösseren Installation.

So, ich habe mich entschieden, für das hier angekündigte Monitoring sollen die Werkzeuge Icinga, Munin und Smokeping zum Einsatz kommen. Jens hatte mir Zabbix empfohlen, was auch das Mittel der Wahl wäre, wenn ich nicht nur einen virtuellen Server mit 5 GB Platte und 200 MB RAM zur Verfügung hätte.

Icinga ist eine Abspaltung von Nagios und sehr gut skript- und erweiterbar.

Munin ist das Mittel der Wahl, wenn mal Grafiken gebraucht werden. Es gibt eine schier unerschöpfliche Menge an Plugins, eigene Plugins sind schnell entwickelt.

Smokeping ist vom Erfinder von RRDtool und eine hervorragende Möglichkeit, Latenzen zu zeigen.

Das Ganze ist ein Hobby-Projekt, was ich nur dann anfasse, wenn ich mal auf andere Gedanken kommen muss.

Die Apple Magic Mouse ist ja schon ein Weilchen auf dem Markt und so langsam zieht auch die nötige Unterstützung der Maus in Linux ein. Kernel 2.6.34 wird die Magic Mouse offiziell unterstützen, doch auch unter dem neuen Ubuntu Lucid Lynx 10.04 könnt Ihr Apples magischen Nager nutzen.

Die “Grundfunktionen” Pairing, Zeiger bewegen, Linksklick und Rechtsklick funktionieren auch unter älteren Ubuntu-Versionen sofort. Doch für die erweiterten Funktionen wie Scrollen, Mittelklick oder gar Multitouch-Gesten braucht es das sich in Arbeit befindliche Kernel-Modul. Das Modul muss man in Ubuntu Lucid nicht von Hand in den Kernel hieven, denn im PPA von Kernel-Entwickler Chase Douglas gibt es das Modul bequem aus einer Paketquelle.

Pairing

Macht euch zuerst einmal daran die Maus mit eurem System bekannt zu machen. Öffnet dazu die Bluetooth-Verwaltung über “System -> Einstellungen -> Bluetooth” und richtet dann über “Neues Gerät konfigurieren” die Magic Mouse ein. Die Maus geht nach dem Anschalten automatisch für eine kurze Zeit in einen Pairing-Modus. Wenn die Maus als nicht gefunden werden sollte, dann schaltet sie kurz ab und wieder ein.

Die Maus wird von Ubuntu gefunden

Als Code gebt Ihr 0000 ein

Nun solltet Ihr euer System schon mit der Maus steuern können und feststellen, dass die Maus fast schneller über euren Schirm huscht, als dass Ihr sehen könnt. Öffnet daher “System -> Einstellungen -> Maus” und setzt die Empfindlichkeit des Mauscursors runter, so dass Ihr präzise mit der Maus arbeiten könnt.

Passt die Zeigergeschwindigkeit an

Ihr werdet nun merken, dass Links- sowie der Rechtsklicks funktionieren, doch die eigentlichen “magischen” Funktionen sind noch nicht möglich. Auch der Mittelklick will noch nicht. Dazu braucht Ihr das passende Kernel-Modul für die Maus.

Multitouch

Wie eingangs erwähnt gibt es im PPA von Chase Douglas das Kernel-Modul für die Maus. Über die Befehle…

$ sudo add-apt-repository ppa:chasedouglas/multitouch
$ sudo apt-get update && sudo apt-get install multitouch-kernel-source

… fügt Ihr die Quelle in euer System ein und installiert auch gleich das nötige Paket. Das Kernel-Modul wird über DKMS erzeugt, es bleibt euch also bei Kernel-Updates erhalten, ohne dass Ihr nochmals etwas basteln müsst. Ich bin mir jetzt nicht ganz sicher, eventuell reicht es aus, dass Ihr euch einmal aus- und wieder einloggt, doch spätestens nach dem nächsten Neustart sollte auch der Mittelklick der Magic Mouse funktionieren.

Hinweis: Es gibt eine weitere Paketquelle mit Paketen, die dem X-Server Multitouch beibringen sollen. Die Quelle nennt sich Multitouch Experimental PPA. In dieser Quelle GAB es eine aktueller Version des Paketes xserver-xorg-input-evdev. Dieses verursachte, dass bei der Berührung der Oberfläche der Maus der Cursor wild auf dem Bildschirm herumsprang (Siehe Bug #578520). Solltet Ihr die Maus selber schon länger besitzen und diese Quelle einmal probiert haben, so erzwingt notfalls über Synaptic die Installation des “Original”-Paketes aus Lucid.

Fazit

Nun sollte die Maus auch bei euch laufen, der Aufwand ist eigentlich gar nicht so groß, man muss nur wissen, was man machen muss. Die Ungeduldigen unter euch – die den Anleitungs-Teil übersprungen haben – wollen nun sicherlich wissen was bei der Magic Mouse unter Ubuntu tut und was nicht geht. Daher hier eine kleine Zusammenfassung…

Was geht sofort

  • Pairing
  • Mauscursor bewegen
  • Linksklick
  • Rechtsklick

Mit Multitouch PPA von Chase Douglas

  • Mittelklick
  • Vertikal Scrollen

Was geht gar nicht

  • Horizontal Scrollen
  • Gesten

Im Großen und Ganzen kann man also mit der Maus arbeiten, wenn auch die “magischen” Funktionen unter Linux noch nicht nutzbar sind. Die Erkennung von Gesten, also das eigentliche Killer-Feature, tut bislang noch gar nicht. Auch das Scrollen mit der Maus ist noch etwas nervig, da sich die Scroll-Geschwindigkeit nicht einstellen lässt (Siehe Launchpad und bugzilla.gnome.org). Somit muss man den Finger ziemlich oft über die Sensorfläche bewegen, um eine längere Webseite zu lesen. Was bekommt man also gerade für sein Geld? Eine stromsparende kabellose Bluetooth-Maus ohne mechanische Komponenten mit Potenzial für die Zukunft :)

Dies ist der zweite Teil der Serie Linux leicht gemacht. Der erste Teil ist bei JUICEDBlog verfügbar.

Die Paketverwaltung
Nachdem man Ubuntu installiert hat, will man bestimmt weitere Software installieren. Dies funktioniert unter Linux ein wenig anders. Unter Windows ist es üblich, ein Programm von einer Webseite herunterzuladen. Man erhält dann meist eine .exe-Datei, die ein Installationsprogramm enthält, welches das eigentliche Programm dann an die richtigen Stellen im System verteilt.

Unter Linux geht so etwas auch, allerdings wird das selten gemacht. Für gewöhnlich startet man einfach ein Programm, das Paketverwaltung heißt, gibt den Programmnamen ein und klickt auf Installieren. Das Entfernen geht genauso, nur, dass man eben auf Entfernen klickt.

Dabei bezieht die Paketverwaltung die Software aus einer Paketquelle. Eine Paketquelle ist eine Softwaresammlung auf einem Server oder einer CD. Die Paketquelle stellt eine Liste von Programmen bereit, außerdem bietet sie diese Programme zum Download an. Die Paketverwaltung schaut also nach, ob ein Programm mit diesem Namen existiert, und lädt es von der Paketquelle automatisch herunter.

Unter Ubuntu ist normalerweise nur eine Standard-Paketquelle aktiviert, die von Canonical und der Ubuntu-Community betrieben wird. Dort findet sich alle mögliche Software, wie Firefox, Thunderbird, OpenOffice oder GIMP. Der Vorteil ist, dass man nicht erst nach einem Programm suchen muss, sondern es durch Eingabe des Namens direkt von einer vertrauenswürdigen, sicheren Quelle herunterladen kann. Kennt man den Namen nicht, so kann man in den Kategorien stöbern. Updates werden so auch erleichtert: Die Paketverwaltung informiert einen darüber, ob eine neue Version einer Software verfügbar ist und bietet ein Update an (System->Systemverwaltung->Aktualisierungsverwaltung). Das klappt für Betriebssystem und Programme. Das Konzept ist mit dem des App Stores des iPhones vergleichbar.

Möchte man Software installieren, die nicht in den offiziellen Quellen vorhanden ist, so kann man eine weitere Quelle einbinden. Allerdings sollte man das nur machen, wenn es absolut notwendig ist. Die Fremdquelle kann die Sicherheit und die Stabilität des Systems beeinträchtigen. Einige Quellen werden von normalen Nutzern betrieben, meist ohne böse Absicht. Es ist jedoch kein Problem, auch Schadsoftware darüber zu verteilen. Ist ersichtlich, dass die Paketquelle von vertrauenswürdigen Leuten betrieben wird, z.B von einer Firma wie Oracle im Beispiel unten, so ist das OK. Die Stabilität ist in Gefahr, wenn die Quelle Updates für Systemkomponenten enthält wie den Kernel oder den X-Server (die Software, die unter Linux für die Grafik zuständig ist. Ist sie kaputt -> kein Bild). Dann kann es sein, dass das System nicht mehr startet, weswegen man auf solche Basteleien lieber verzichten sollte. Ein nette Geschichte zu dem Thema ist in diesem Ikhaya-Artikel zu finden.

Möchte man nun so eine Quelle hinzufügen, so benötigt man die APT-Zeile, die es auf der Webseite der Quelle gibt. Beispiel für die Virtualisierungslösung VirtualBox:

deb http://download.virtualbox.org/virtualbox/debian lucid non-free

Das “lucid” am Ende gibt an, dass die Quelle für die aktuelle Ubuntu-Version, 10.4 Lucid Lynx gedacht ist. “non-free” gibt den Bereich an, in diesem Fall ist es der unfreie Bereich, da diese Quelle die unfreie Version von VirtualBox anbietet.

Zusätzlich sollte man auch den GnuPG-Schlüssel der Quelle hinzufügen. Dieser stellt die Identität der Quelle und dessen Software sicher. Wie man das macht, steht meist auf der Webseite der Paketquelle. Bei Paketquellen von der Entwickler-Plattform Launchpad wird der Schlüssel automatisch importiert.

Proprietäre Software: Multimedia-Codecs und Treiber

Viele Linux-Software ist freie Software, aber es gibt natürlich auch proprietäre Programme. Nicht jeder Entwickler ist gezwungen, sein Programm unter eine Open Source Lizenz zu stellen, nur weil er für Linux entwickelt. Manche Software ist unter Umständen von Patenten betroffen, so dass ihr Einsatz in einigen Ländern möglicherweise nicht ganz legal ist. Dies ist beispielsweise der MP3-Codec. Natürlich können auch MP3s unter Linux angehört werden. Da man für Linux normalerweise kein Geld zahlt, zahlt man logischerweise auch nicht irgendwelche Patentgebühren mit, wie das bei kostenpflichtiger Software der Fall sein kann.

Unter Ubuntu gibt es zwei Paketquellen, die proprietäre oder von Patenten belastete Software enthält. Das wäre einmal die Multiverse und einmal die Partner-Quelle. Unter System->Systemverwaltung->Software-Paketquellen muss man unter dem Tab Software von Ubuntu die Option Urheberrechtlich eingeschränkte Software (multiverse) aktivieren. Die Partner-Quelle befindet sich unter Andere Software. Nach einem Neueinlesen der Quellen kann mit der Installation begonnen werden.

Die Faulen können sich jetzt einfach das Meta-Paket

  • ubuntu-restricted-extras

installieren. Dann werden die ganzen Codecs, Flash usw. auf einmal installiert. Wer jedoch genau festlegen will, was er braucht, der kann sich die Pakete auch einzelnen installieren:

  • adobe-flashplugin oder flashplugin-installer: Der Flash-Player, wie man ihn von Windows her kennt.
  • sun-java6-jre: Die offizielle Java-Runtime von Sun/Oracle.
  • openjdk-jre: Auch eine Java-Runtime, allerdings Open Source. Funktioniert genauso wie obige, manche Applets und Programme machen aber Probleme.
  • acroread: Der Adobe Reader. Ubuntu bringt mit Evince bereits einen PDF-Reader mit, für komplexe PDFs kann man den Adobe-Reader verwenden.
  • gstreamer0.10-fluendo-plugins-mp3-partner: Codec, um sich MP3s anhören zu können. Legal, weil von Canonical lizenziert.
  • skype: Die bekannte VoIP-Software.
  • unrar: RAR-Dateien entpacken.

Falls man irgendeinen Codec vergessen hat, ist dies auch nicht weiter schlimm: Falls der Video-Player Totem eine Datei abspielen soll, für die er keinen Codec hat, so bietet er die Installation automatisch an.

Nun zu den Treibern. Die meisten Treiber sind Open Source. Diese sind oft Bestandteil des Kernels und werden bei Ubuntu mitgeliefert. Die Hardware läuft „out-of-the-box“, also gleich nach der Installation. Für manche Hardware, besonders Grafikkarten, müssen proprietäre Treiber installiert werden.

Benutzer von ATI-Karten haben drei Treiber zur Verfügung: radeon (frei), radeonhd (frei) und fglrx (unfrei). Für Nvidia-Benutzer gibt es ebenfalls drei Treiber: nv (frei), nouveau (frei) und nvidia (unfrei). Normalerweise wird ein freier Treiber vorinstalliert. Leider sind diese Treiber oft langsamer als die unfreien, hersteller-eigenen Treiber, oder man kann Funktionen wie 3D ohne den unfreien Treiber gar nicht nutzen.

Um auf einen unfreien Treiber umzustellen, gibt es unter Ubuntu ein extra Programm. Dies öffnet man mit System->Systemverwaltung>Hardware-Treiber. Dort wird dann angezeigt, welche proprietären Treiber für den Computer verfügbar sind, außerdem kann man sich die gleich installieren. Dabei wird die Paketverwaltung genutzt.

Was bedeutet /media oder /usr? – die Verzeichnisstruktur

Unter Windows ist man die Laufwerksbuchstaben gewohnt. Die Systempartition befindet sich unter C:\, das Diskettenlaufwerk unter A:\ und das CD-ROM-Laufwerk unter D:\. Auch externe Festplatten und USB-Sticks kriegen einen Buchstaben zugewiesen.

Unter Linux funktioniert das anders. Dort gibt es nur einen einzigen Verzeichnisbaum mit der Wurzel “/”. “/” ist die Systempartition. Weitere Partitionen können als Ordner in den Verzeichnisbaum eingehängt werden. Legt man eine CD ein, findet sich der Inhalt unter /media/cdrom0 wieder (manchmal wird cdrom0 auch durch den Namen der CD ersetzt). Es ist auch möglich, Datenträger von entfernten Rechnern (FTP z.B) als Ordner einzuhängen. All das mag einen Windows-User erst verwirren, so waren früher Ordner doch immer Bestandteil eines Laufwerks, und es fing auch nie irgendwo ein neues Laufwerk an.

Vorteil ist, dass man sich seine Partitionierung komplett selbst gestalten kann. Viele Leute legen ihre eigenen Daten auf einer extra Partition ab, damit sie nach einer Neuinstallation noch vorhanden sind. Unter Windows gibt es die “Eigenen Dateien”. Diese liegen für gewöhnlich irgendwo unter C:\. Erstellt man nun eine neue Partition, z.B unter E:\ für seine Dateien, dann speichern Programme die Dateien immer noch in den “Eigenen Dateien”.

Linux-User haben das Problem nicht. Der persönliche Ordner liegt unter /home/Benutzername. Möchte man sein Home-Verzeichnis nun auf einer anderen Partition haben, so erstellt man bei der Installation eine zusätzliche Partition und gibt als “Einhängepunkt” /home an. Dadurch landet alles, was in den Ordnen unter /home gespeichert wird, automatisch auf der neuen Partition. Es ist sogar möglich, dies nach der Installation zu machen. Das geht deshalb, weil sich aus Sicht der Programme nichts ändert. Sie greifen einfach auf /home zu und bekommen ihre Daten. Auf welcher Partition diese liegen, darum müssen sie sich nicht kümmern.

Ich habe mit /media und /home schon zwei Standard-Verzeichnisse aufgeführt. Es gibt aber noch weitere, diese sind mit dem File Hierarchy Standard für alle Distributionen definiert:

  • /boot: enthält zum booten benötigte Dateien
  • /bin und /sbin: enthalten Programme, die wichtige Aufgaben übernehmen, wie cp für das Kopieren einer Datei oder shutdown für das Herunterfahren
  • /dev: enthält Gerätedateien, über die Geräte angesprochen werden können
  • /etc: enthält Einstellungen und Konfigurationsdateien
  • /lib: enthält essentielle Bibliotheken
  • /lost+found: ist bei jeder Linux-Partition vorhanden, enthält Dateifragmente, die bei einer Überprüfung/Reparatur des Dateisystems gefunden wurden
  • /mnt: temporär eingehängte Geräte
  • /tmp: Temporäre Dateien
  • /opt: optionale Software, die nicht mit der Paketverwaltung installiert wurde
  • /proc und /sys enthalten Dateien, die laufende Prozesse repräsentieren und Schnittstellen zu Kernelfunktionen
  • /root: Home-Verzeichnis für den Benutzer root, dem Superuser unter Linux
  • /usr: enthält durch die Paketverwaltung installierte Programme und Bibliotheken
  • /var: enthält Protokolle und Daten von Diensten

Der letzte Teil der Serie ist wieder bei JUICEDBlog zu lesen.


Interview mit Mark Shuttleworth (Ubuntu Linux / Canonical) bei RadioTux auf dem LinuxTag 2010

Initiiert wurde das Ubuntu-Projekt durch den südafrikanischen Multimillionär Mark Shuttleworth.
Er selbst finanziert einerseits einen Großteil des Projektes, wodurch dieses weitaus größere finanzielle Mittel zur Verfügung hat als die meisten anderen Distributionen, ist aber auch selbst als Entwickler tätig. Das Unternehmen Canonical Ltd. ist Sponsor der Debian-basierten Linux Distribution Ubuntu und bietet zusätzlich Unterstützung bei der Installation und Konfiguration von Ubuntu und offiziell unterstützter Derivate an.

Das Interview mit Mark Shuttleworth auf dem LinuxTag 2010 finden Sie bei RadioTux.

Schwerpunkte des Interviews waren:

+ Whats new in ubuntu land?
+ Shuttleworth Rolle bei Canonical
+ Product Design für Ubuntu
+ Ziele im Bereich mobile computing
+ Integration von Touchscreens
+ Beziehung zum Debian-Projekt
+ Ziele für die Zukunft

Interview bei RadioTux: [Weiter]

http://blog.radiotux.de/2010/06/22/mark-shuttleworth-whats-new-in-ubuntu-land/

Interview bei Linux-Community.de: [Weiter]

http://www.linux-community.de/Internal/Nachrichten/LinuxTag-2010-Keynote-von-Mark-Shuttleworth

Blog von Mark Shuttleworth: [Weiter]

http://www.markshuttleworth.com

Homepage zu Mark Shuttleworth Raumflug: [Weiter]

http://www.firstafricaninspace.com

Infos über Mark Shuttleworth bei Wikipedia: [Weiter]

http://de.wikipedia.org/wiki/Mark_Shuttleworth

Infos über Ubuntu bei Wikipedia: [Weiter]

http://de.wikipedia.org/wiki/Ubuntu

Infos über Canonical bei Wikipedia: [Weiter]

http://de.wikipedia.org/wiki/Canonical_Ltd.


Tagged: Canonical, debian, Distribution, Interview, linux, Mark Shuttleworth, mobile computing, touchscreeen, ubuntu, ubuntu product design, ubuntuusers.de

22. Juni 2010

Samstag den 12. Juni war ja bei RadioTux im Livestream vom LinuxTag so zu sagen Ubuntu Day. Wir hatten jede Menge Gäste zu Themen rund um Ubuntu zu Gast, auch einige Leute, die sich bei ubuntuusers.de engagieren oder Ubuntu-Berlin. Die meisten dieser Interviews wurden von Roman vom ubuntublog.ch geführt. Nach seiner Keynote “A whole new level of awesome” war dann auch Mark Shuttleworth bei RadioTux auf unserer kleinen Bühne in der Messehalle zu Gast.

Ingo hat mit ihm über seine Rolle bei Canonical und innerhalb des Product Design für Ubuntu gesprochen, über die Ziele im Bereich mobile computing zum Beispiel der Integration von Touchscreens, über die Beziehung zum Debian-Projekt und seine nächsten Ziele.

Seit dem wir wieder zu Hause sind, kamen immer wieder Anfragen wann denn das Interview veröffentlicht wird. Nun ist es soweit, das Interivew mit Mark Shuttleworth ist veröffentlicht und ihr könnt es hier finden.

Anfang November 2009 wurde von Skype bekannt gegeben, dass man das Frontend des Linux-Clients als Open Source veröffentlichen möchte. Jetzt, nach mehr als einem halben Jahr, wurde die Basis dafür geschaffen. Damit “x-beliebige” Anwendungen oder Geräte auf Skype als Dienst zurückgreifen können, braucht es eine einheitliche und öffentliche Programmierschnittstelle (aka API) sowie Bibliotheken. Diese gab es bislang nicht (bzw. wurde nur einer zahlenden Kunden zur Verfügung gestellt).

Heute hat Skype jedoch die neue “kopflose” Variante SkypeKit vorgestellt. SkypeKit ist praktisch Skype, jedoch ohne eine Oberfläche. Entwickler können somit eigene Skype-Clients und Frontends bauen. Laut eigenen Angaben gibt es SkypeKit für zahlreiche Chipsätze und Betriebssysteme. Ich vermute mal stark, dass man Linux hier nicht vergessen hat, immerhin gibt es ja mit Android und den immer populäreren Web-Tabletts mit Linux zahlreiche potentielle Kunden.

Die Beta steht ausgewählten Kunden wohl schon länger zur Verfügung. Ab 23.6. kann jeder Entwickler sich für einen Zugang zum SkypeKit Beta Programm bewerben. Ich wage mal die kühne Prognose, ab Ende des Jahres können wir mit einen brauchbaren Skype-Client für Linux rechnen.

21. Juni 2010

Vor 2 Tagen ist ja der erste Release Candidate von openSUSE 11.3 veröffentlicht worden und gestern war nun Zeit ihn herunterzuladen und zu testen. openSUSE 11.3 setzt nun doch weiterhin auf Sys-V-Init anstatt auf upstart zu wechseln. Grund dafür ist das upstart mehr Hauptspeicher benötigt und mit Systemd demnächst eine Alternative zu erwarten ist, die upstart überflüssig machen könnte. Upstart kann allerdings bei openSUSE 11.3 alternativ verwendet werden. Neu ist das LXDE mit LXDM als Windowmanager daherkommt, der nicht nur schmaler sondern optisch wesentlich besser aussieht, von Features mal ganz zu schweigen. Btrfs kann mit dem YaST-Partionierungswerkzeug bearbeitet und eingesetzt werden. Von einem produktiven Einsatz sollte man aber weiterhin absehen. Ansonsten bietet openSUSE 11.3 hauptsächlich Softwareaktualisierungen. KDE ist in der Version 4.4.3 und bei Gnome in der Version 2.90 dabei. Eine Voransicht von Gnome 3.0 wird ebenfalls geliefert. Was Gnome betrifft ist openSUSE derzeit näher am Upstream als Ubuntu und ob man die derzeitigen Änderungen und Eigenentwicklungen, weiterpflegen wird wird die Zeit zeigen. Jedenfalls ist die Aufnahme einiger Entwicklungen abgelehnt worden.

Ebenfalls enthalten wird OOo mit den hauseigenen Weiterentwicklungen sein, intern tragt OpenOffice die Versionsnummer 3.2.1. Es wurde zum Beispiel Multimedia-Unterstützung in Impress mit dem Gstreamer-Framework implementiert. Auserdem zusätzliche Importfilter für Works-Dokumente und Wordperfect-Grafiken und bessere Unterstützung für VBA. Einen bekannten Fehler gibt es derzeit noch und zwar können LVM-Partitionen nicht eingebunden werden, da Udev-Dienst die entsprechenden Hardwareknoten beim Start löscht. Golem schreibt zwar, das 11.3 1GB RAM verlangt für die Installation, dass ist aber nicht ganz richtig, ich bin auch mit weniger ausgekommen, ich habe aber im Gegensatz nicht die kombinierte Live/Installationsversion benutzt. Insgesamt wird openSUSE 11.3 was die technische Seite betrifft auf jeden Fall eine runde Sache. Der geplante Releasetermin 15. Juli wird wohl eingehalten werden können. Ein Wermutstropfen bleibt für mich allerdings persönlich. 11.3 wirkt grafisch für mich inkonsistent.

19. Juni 2010

Vor kurzem ist MonoDevelop erschienen. Wer mit Mono entwickelt möchte auch möglichst die neuste Version auf dem Rechner installiert haben.

Ubuntu Screenshot

MonoDevelop

Nun stellt sich die Frage: Woher beziehe ich Mono bzw. MonoDevelop? Und möglichst in der Art und Weise, dass es immer auf dem neusten Stand ist?

Die Antwort: badgerports

Dieses kleine Projekt hat auf deren Servern die immer aktuellste Version von Mono und MonoDevelop gehostet.
Um dieses Repo nutzen zu können muss man nur folgende Zeile in die Datei /etc/apt/sources.list anhängen.

deb http://badgerports.org lucid main

Jetzt noch den Schlüssel importieren:

gpg --keyserver subkeys.pgp.net --recv 0E1FAD0C

Danach müssen die Softwarelisten neu geladen werden. Dies geschiet mit dem Befehl:

sudo apt-get update

Danach aktualisiert man die Software mit:

sudo apt-get upgrade && sudo apt-get dist-upgrade

Alles mit J beantworten und installieren lassen.

Das wars. Schon ist man immer auf dem aktuellsten Stand, was Mono betrifft.

Have Fun!

Wie ich ich hier schon einmal geschrieben habe, war ich nicht nur für RadioTux in Berlin zum LinuxTag sondern hatte am Samstag Morgen auch einen Vortrag zu “Open Source & Film”. Bereits im Vorfeld haben ja einige angefragt ob ich die Slides zum Vortrag online stellen würde, habe ich bisher immer ausnahmslos getan. Macht aber dieses Mal relativ wenig Sinn, da man ohne den Vortrag gehört zu haben relativ wenig anfangen kann. Denn insgesamt sind es nur 8 Folien und darauf befindet sich meist nur eine Frage und nachher eine Antwort ohne weitere Punkte. Natürlich macht ein Vortrag über Film ohne etwas in der Richtung aus meiner Sicht wenig Sinn, deshalb hab ich einige Videoausschnitte gezeigt. Einige wollten ja auch noch einmal eine Liste mit den Filmen haben. Deshalb habe ich mich entschlossen den Vortrag hier im Blog nocheinmal kurz aufzuarbeiten.

Die erst Folie, war eine reine Bildfolie zu der ich einen kurzen Überblick über die Entstehungsgeschichte des Copyrights gegeben habe und wie es dazu gekommen ist und wann sich daran etwas ändern muss.
Die Folie zeigt einen Mönch in einem Scriptorium so ging jahrhundertelang die Produktion von Büchern von statten. In Klöstern schrieben dutzende von Mönchen Bücher ab oder/und übersetzten und illustrierten diese.
Das ging solange gut, bis der auf dem nächsten Bild gezeigte Johannes Gutenberg, den Buchdruck entscheidend verbesserte. Gutenberg hat den Buchdruck nicht erfunden, den gab es in Form von Druckplatten schon vorher er hat ihn nur durch Entwicklung von präziser gegossenen Drucklettern, Verbesserung der Druckpresse und Weiterentwicklung der Druckerschwärze entscheidend verändert.
Bis zu Gutenberg gab es nicht sehr viele gedruckte oder geschriebene Bücher, die Bibliotheken der Klöster enthielten nur wenige Werke. Die Autoren, waren eher an der guten Verbreitung durch Abschrift interessiert, sie lebten von ihrem Namen und der Verbreitung ihrer Werke durch die sie Anstellung fanden. Der “Markt” für Abnehmer gedruckter Werke war begrenzt, nur wenige konnten lesen. Nicht wenige Druckereien verdienten daher in dieser Zeit ihr Geld mit dem Druck von Ablaßbriefen und ähnlichem was wir heute Formulare nennen würden.

Es gab allerdings auch andere, sogenannte Verleger die schriftgewandte und belesene Wissenschaftler und Autoren begannen für die Erstellung von Schriftwerken zu bezahlen. Sie tätigten also Investitionen in Neue, vorher nicht erschienene Werke. Die Autoren lieferten Manuskripte für die sie entlohnt wurden, auch hier je bekannter ein Autor war umso mehr Geld konnte er vom Verleger verlangen. Ein Voltaire soll ja seine Bekanntheit durch eigene Produktion von Raubdrucken ja selbst gesteigert haben. Die Autoren störten sich also wenig an Raub-/Schwarzdrucken oder Graudrucken, für ihre Zwecke war der nur dienlich. Der Verleger hingegen hatte einen Schaden. Störend waren für den Autor allerdings Plagiate, Bücher mit dem gleichem Inhalt unter anderem Namen. Mit der Idee die Autoren auch noch am Umsatz zu beteiligen änderte sich die Situation ein weiteres Mal und unser heutiges Copyright entstand.
Fazit am Ende technische Neuerungen und soziale Veränderungen verändern Märkte, Schöpfungsprozesse und verlangen eine Anpassung des Rechtssystemes. Und für diese Anpassung steht das letzte Bild auf der Folie, dass Logo von Creative Commons als wohl bekannteste Lizenz zur Veröffentlichung kreativer Werke.

Heute gibt es das Internet und leistungsfähige Computer. Software (egal ob frei oder proprietär) zur Erstellung von Videos ist nahezu für jedermann verfügbar. An dieser Stelle habe ich das erste Video gezeigt um das aufzuzeigen. Ich habe bewußt einen nicht freien Film gewählt um auf die nächste Frage überleiten zu können.
Ein paar Worte zum gewähltem Film: Star Wars Revelation, der Film ist wie bereits erwähnt nicht frei, allerdings im Internet frei verfügbar. Frei aus vor allem einem Grunde nicht, er greift Handlungstränge, Gestalten, Umgebungen usw. aus einem anderem Werk auf. Im Jargon spricht man dann immer vom “Universum”, dieser Film spielt also im Universum von Star Wars. Derartige Werke werden als “Fan Fiction” bezeichnet und die rechtlich Situation in diesem Fall ist, dass der Schöpfer des Star Wars-Universum, die Macher dieser Filme gewähren läßt solange sie kein Geld für ihre Werke verlangen. Diese Gentlemen Agreement ist allerdings nirgendwo schriftlich niedergelegt, man kann aber beobachten, dass George Lucas ab und an, auf entsprechenden Plattformen, wie http://www.theforce.net anzutreffen ist und dort auch Kritiken zu den entsprechenden Werken abgibt.

Da der entsprechende Film ein nichtfreier Film ist, kommt natürlich die Frage auf was ist ein freier Film oder noch mehr was ist ein Open Source Film. Diese Frage habe ich mir vor einigen Jahren bereits im Presserummel um die Veröffentlichung des ersten Creative Commons Filmes “Route 66″ gestellt. Die Frage wurde mir allerdings erst sehr viel später beantwortet, als Tim Baumann im Zuge seiner Diplomarbeit in Zusammenarbeit mit der OSI, Ton Roosendaal und Schöpfern von Open Source Filmemachern wie Stefan Kluge und Solomon Rothmann eine Definition für Open Source Filme schuf. Sie umfaßt folgende Punkte:

  1. Die Lizenz des Filmes ist zugelassen für freie kulturelle Werke. Dies trifft insbesondere auf die Creative Commons Lizenzen by und by-sa zu.
  2. Die im Film verwendeten Materialien (Quellen) sind auch unter einer Lizenz verfügbar, die für freie kulturelle Werke zugelassen ist.
  3. Der Film und seine Quellen sind öffentlich über einen online Download beziehbar oder über andere Wege, die entweder kostenlos sind oder deren Kosten den Reproduktions- und Verbreitungskosten entsprechen.
  4. Die Quellen müssen mit Free/Open-Source-Software uneingeschränkt ansehbar und editierbar sein. Ist dies nicht der Fall, so muss gewährleistet sein, dass sie mit Free/Open-Source-Software in solch ein Format konvertiert werden können. Das Gleiche muss auch auf den Film selbst zutreffen.
  5. Es sollte möglich sein, den Film mit Hilfe der Quellen zu remontieren oder zu reproduzieren.

Weltraffer from nichtgedreht on Vimeo.

Hier folgte ein weiterer Videobeitrag um eine Überleitung zur Situation im Bereich freierer Filmwerke und Open Source Filme zu schaffen. Der gewählte Beitrag ist wiederherum ein nichtfreier Film. Im Zuge meiner Recherchen für die Nacht der freien Filme auf den Chemnitzer Linux-Tagen bin ich auf den Film Zeitraffer von http://nichtgedreht.de gestoßen. Ein “Brickfilm” der 2008 den Publikumspreis auf der Steinerei mit nach Hause genommen hat. Ich habe weil mir das Werk einfach zu gut gefallen hat kurzerhand Kontakt zu den Machern aufgenommen. Auf die Nachfrage, warum man nicht auf “freiere Lizenzen” setzt, erhielt ich zur Antwort “man habe da noch wirklich sich damit beschäftigt” und das obwohl die Macher des Filmes schon Ärger deswegen hatten. Sie haben ein Video zu einem Song produziert und hatten sogar das Einverständnis der Band dazu und die haben das Video auf ihrer Webpräsenz sogar weiterverbreitet. Das Plattenlabel der Band fand es allerdings weniger witzig. Fazit hier, den Kreativen sind die Chancen die sie mit der Veröffentlichung ihrer Werke unter freieren Lizenzen haben noch überhaupt nicht bewußt. Das bestätigen auch Aussagen im Gespräch mit Stefan Kluge vom VEB Film Leipzig.

Es folgte ein weiterer Videobeitrag mit dem eindeutig aufgezeigt werden sollte, dass es auch mit freien Lizenz möglich ist Geld zu verdienen. Es handelt sich dabei um ein Video namens “Animator vs. Animation“.

Alan Becker hat mit diesem Kurzfilm mehrere zehntausende Dollar nur durch die Einblendung von Werbebannern auf Webseiten verdient. Die Fortsetzung des Filmes “Animator vs. Animation II” wurde zur Exclusivveröffentlichung auf einer Videoplattform verkauft, auch hier gab es einige tausende Dollar dafür.
Nach diesem Film wurden einige andere Wege für die Geldschöpfung mit freien Filminhalten genannt. Diese Methoden stehen den freien Filmen nicht exclusiv zur Verfügung sondern werden auch in kommerziellen Filmen teilweise genutzt. Nicht eingegangen wird auf weitere Geschäftsmodelle, die eher der weiteren Verbreitung und dem “Markenaufbau” der/des Filmproduzenten dienen. Wie zum Beispiel Beilage zu Zeitschriften oder den Film als Werbung für seine Produktionsfirma zu veröffentlichen Beispiel: iRomance.

Sponsoring: das Filme durchaus das Konsumverhalten beeinflussen können, dürfte inzwischen bekannt sein. Das Australien einen deutlichen Anstieg des Tourismus nach der Veröffentlichung von Crocodile Dundee zu verzeichnen. So hat Tourism Western Australia 1 Million $ für Werbung rund um das Epos “Australia” ausgegeben. Ein ebensolcher Anstieg von Besuchern Neuseelands ist nach Lord of the Rings zu verzeichnen. Die Effekte könnten bei freien Filmen ein vielfaches mehr betragen, das die Verbreitung um ein vielfaches höher sein kann.

Crowd Financing: Crowd Financing ist das was die Blender Foundation bisher bei all ihren Filmen angewendet hat. Fans von Blender tragen durch die Vorfinanzierung zur Produktion des Filmes bei und erhalten im Gegenzug dafür als allererstes eine DVD mit dem Werk. Auch Energija Productions hinter der die Macher von Star Wreck in the Pirkening stecken, versucht auf diesem Wege durch den Verkauf von “War Bonds” die Produktionskosten von “Iron Sky” teilweise zu decken.

Donation: Auf der republica07 hat man sich noch über Stefan Kluge lustig gemacht, Spenden wären wohl kein Geschäftsmodell. Dem ist allerdings nicht so, dass Menschen denen etwas gegeben wird durchaus auch manchmal etwas zurückgeben, zeigt der VEB Film selbst, nach Veröffentlichung von Route66 kamen sehr schnell die ersten 5.000 Euro für den nächsten Film zusammen. Auch wenn man sich bei Jamendo einige Bands herauspickt und einfach mal die dort monatlich verzeichneten Spenden anschaut, wird einem klar, dass einige der bekannteren davon auch ihren Lebensuntheralt bestreiten können.

Product Placement: Wie bereits beim Sponsoring erwähnt, Filme können das Konsumverhalten beeinflussen. Ob nun Mutter Beimer in der Serie demonstrativ eine Marken-Nuß-Nougatcreme auf den Tisch stellt (obwohl Schleichwerbung gemäß Rundfunkstaatsvertrag eigentlich verboten ist) oder der Assistent von Sandra Bullock im “Proposal” die ersten 20 Minuten des Filmes mit dem Pappbecher einer bestimmten Kaffeeeinzelhandelsunternehmen oder Gibbs in Navy CIS demonstrativ immer nach einem Kaffee verlangt der ihm auch demonstrativ in der Tasse mit dem entsprechendem Logo serviert wird. Product Placement ist eine der effektivsten Werbeformen, dem Zuschauer wird suggeriert es sei normal ein bestimmtes Produkt zu konsumieren. Um ein wievielfaches höher kann dann diese Werbeform erst sein, bei einem Film der den Anschein hat von “normalen” Menschen gemacht wurde und der eine hohe Verbreitungszahl aufweisen wird? Übrigens wurde diese Werbeform schon in einem freien Film angewendet, in CH7 war demonstrativ ein Restaurant zu sehen, das man gratis benutzen durfte für die Dreharbeiten.

Versioning: Versioning dürfte in der Welt der freien Software eigentlich bekannt sein. Es gibt viele Softwareunternehmen, die eine Software als sogenannte Community- und als Enterpriseversion gegen Bezahlung bereitstellen. Das geht natürlich auch mit Filmen, eine kürzere oder Version in niedrigerer Auflösung gibt es umsonst, hochauflösend oder mit Bonus-Material gibt es gegen Bezahlung. Versionierung wird seit geraumer Zeit von der Filmindustrie für die Ankurbelung der DVD-Verkäufe angewandt, so befindet sich meist Bonus-Material auf den DVD wei Makingof etc. Auch das ist mit freien Filmen durchaus umsetzbar.

Sell it, Free it: Bei diesem Modell wird der Film anfangs nicht unter einer freien Lizenz veröffentlicht sondern erst nach erreichen des Geschäftszieles, sei es durch Absatz einer bestimmten Anzahl von DVD oder dem Erreichen einer gewissen Besucherzahl im Kino oder am Ende durch erreichen einer gewissen Laufzeit. Zum Beispiel 2 Jahre lang nur als Kaufversion, dannach frei.

Pay what u want: Bei diesem Geschäftsmodell darf der Konsument einfach frei wählen, wieviel er für das Produkt ausgeben möchte. Egal ob ein Grundpreis verlangt, der die Material- und Versandkosten deckt oder auch Kleinstsummen möglich sind, die den AUfwand nicht decken. Die Möglichkeit gegen Zahlung eines selbsgewählten Preises die Vollversion von World of Goo zu erwerben, ging ja auch ausreichend durch die Medien. Ähnlich bietet der VEB Film seine Produkte an, eine Fixsumme für den Versand der DVD ist vorgegeben. Die Erfahrung zeigt, dass die Konsumenten durchaus in der Masse gerechte Preise auch gegenüber dem Produzenten bezahlen.

Accesoring (Merchandizing): Merchandizing spielt auch in der proprietären Filmindustrie eine nicht unbedeutende Rolle. Die Rolle dieser Einnahmen wurde wohl dem oben bereits erwähnten George Lucas als erstem bewußt, so verschenkte er damals nahezu die Rechte am Film gegen die Zusicherung der Rechte an Merchandizing. Heute 30 Jahre später wird klar, dass er das größere Stück vom Kuchen bekommen hat. In den 30 Jahren wurden rund 30 Milliarden Dollar mit Star Wars Merchandizing-Artikeln umgesetzt. Dem gegenüber steht ein eher mageres Einspielergebnis von Star Wars: The Clone Wars von rund 70 Millionen, die Produktionskosten des Vorgängers betrugen rund 120 Millionen und man kann davon ausgehen, dass in etwa die gleiche Summe für Marketing aufgewendet wurde. In derartigen Filmen wie Big Buck Bunny steckt durchaus das Potential für Merchandizing Produkte. Bei Produktionen wie Route66 oder Valkaama kann es durchaus durch den Verkauf von Postern oder Soundtrack-CDs zur Ergänzung der Einnahmen dienen.

Nach diesem etwas längerem Ausflug in die Möglichkeiten der Finanzierung freier Filme, folgten zahlreiche Filme und Filmausschnitte um einen Überblick auf freie Filme/Open Source Filme im sogenannten programmfüllenden Sektor zu geben und die Frage zu klären, warum der Erfolg sich für diesen Sektor bisher nicht eingestellt hat. Gezeigt wurden:

Ein Auschnitt von “Route66 - ein amerikanischer Albtraum
Ein Auschnitt aus Valkaama
Ein Auschnitt aus CH7
und ein Chapter aus “Sita sings the Blues

Am Ende steht das Fazit, dass die Masse der bisher veröffentlichten Filme, nicht von vornherein als Open Source Filme geplant waren und die wirtschaftliche Planung trotz aller kreativer Freiheit die in diesem Filmen eine Rolle spielt, eine Rolle spielen muß um auch wirtschaftlichen Erfolg zu haben. Der Bonusfaktor zu den ersten zu gehören, die einen solchen Film veröffentlicht haben ist langsam vorrüber. Ich hoffe, dass der Überblick, denn ich über das Thema geben wollte ausreichend ist. Am Ende ist es ein sehr komplexes Thema, welches man nur entweder auszugsweise im Überblick streifen kann oder mit sehr viel Zeitansatz vorstellen kann. Um auf zu zeigen, wie man mit derartigen Filmen Geld verdienen kann, muss man z.B erst einmal darstellen wie wird mit “normalen” Filmen Geld verdient.

Wer sich weiter mit dem Thema beschäftigen möchte, die Diplomarbeit von Tim Baumann steht hier zum download bereit, außerdem pflegt er die Wikipedia-Seiten zum Open Source Film, auf denen die wirklich wenigen Exemplare zu finden sind, die den Kriterien entsprechen. Fragen und Anregungen, wie immer in die Kommentare ;)

Vergangene Woche bin ich auf OMG! Ubuntu! auf den Bootloader BURG („Brand-new Universal loadeR from Grub“) gestoßen, welcher wunderschöne und teilweise animierte Bootbildschirme zur Betriebssystem-Auswahl bereitstellt. Wie der Name vermuten lässt, basiert der BURG auf dem weit verbreiteten Bootloader GRUB.

Installation

Ein wichtiger Hinweis vorweg: Installiert BURG nur, wenn ihr euch der Risiken bewusst seid. Wenn etwas schief läuft, startet im schlimmsten Fall kein Betriebssystem mehr und ihr seit dann gezwungen GRUB neu zu installieren (bis Ubuntu 9.04)!

Die Installlation gestaltet sich als überraschend unkompliziert. Zunächst wird ein PPA dem System hinzugefügt, anschließend die Paketliste aktualisiert und schließlich wird der Bootloader mit samt einiger Themes installiert:

sudo add-apt-repository ppa:bean123ch/burg
sudo apt-get update
sudo apt-get install burg burg-themes

Nach der Installation von BURG startet im Terminal automatisch die Konfiguration, bei der aber in der Regel nicht eingefriffen werden muss, da die Einstellungen von GRUB ausgelesen und übernommen werden. Dennoch sollte man alle Einstellungen überprüfen und vor allem die richtige Festplatte für die Installation auswählen (wenn man danach gefragt wird, mit den “Pfeiltasten” zum richtigen Gerät navigieren, mit der “Leertaste” auswählen und anschließend mit “Enter” bestätigen).

Zur Sicherheit solltet ihr anschließend noch unbedingt diesen Befehl ausführen, um das Menü zu aktualisieren:

sudo update-burg

Themes

Die Themes wechselt man direkt im BURG-Menü durch das Drücken der Taste “t”. Eine Vorschau ist mit einem Emulator zudem im laufenden Betrieb möglich:

sudo burg-emu -D

burg-theme-radiance burg-theme-sora-extended

burg-theme-ubuntu burg-theme-ubuntu2

burg-theme-winter

(Mehr Screenshots)

Anpassungen

BURG lässt sich über die Konfigurationsdatei “/etc/default/burg” konfigurieren. Damit die Änderungen nach dem Bearbeiten übernommen werden, muss folgender Befehl ausgeführt werden:

sudo update-burg

Auflösung

Wenn BURG die falsche Bildschirmauflösung verwendet, sollte man zunächst herausfinden, welche Auflösung maximal überhaupt möglich ist. Dazu muss man bei BURG die Taste “c” drücken und in der Konsole das Kommando “vbeinfo” eingeben. Nicht immer ist dort die gewünschte Auflösung zu finden – so schafft BURG bei meinem Netbook nur eine maximale Auflösung von 800×600 Pixel und das Bild ist entsprechend verzerrt.

In der Datei “/etc/default/burg” kann man nun die Zeile “GRUB_GFXMODE=saved” durch folgende ersetzen (dabei natürlich die Auflösung entsprechend anpassen):

GRUB_GFXMODE=1280x1024
GRUB_GFXPAYLOAD_LINUX=1280x1024

Bootmenü aufräumen

Das BURG-Menü sieht um einiges besser aus, wenn sich die Anzahl der Einträge in Grenzen hält. Daher findet ihr hier noch 2 Möglichkeiten, um unwichtige Einträge zu entfernen.

Alte Kernel-Versionen entfernen

Wird ein Kernel-Update eingespielt, werden die alten Versionen nicht automatisch entfernt, was zur Folge hat, dass das Bootmenü immer länger wird. Um alle Kernel, abgesehen von dem derzeit verwendeten, zu entfernen, kann folgender Befehl verwendet werden:

dpkg -l 'linux-*' | sed '/^ii/!d;/'"$(uname -r | sed "s/\(.*\)-\([^0-9]\+\)/\1/")"'/d;s/^[^ ]* [^ ]* \([^ ]*\).*/\1/;/[0-9]/!d' | xargs sudo apt-get -y purge -s
# "-s" am Ende entfernen, um die Änderungen durchzuführen

Alternativ kann man natürlich auch wie Wiki von ubuntuusers.de vorgehen und die Softwareverwaltung nutzen.

Recovery-Modus ausblenden

Ich habe mir noch den Recovery-Modus ausgeblendet, da ich diesen ohnehin nur selten benötige. Dennoch muss man nicht vollkommen darauf verzichten, denn mit den entsprechenden „Startoptionen“ lässt sich der Recovery-Modus auch manuell starten.

Um die Einträge auszublenden, einfach in der Datei “/etc/default/burg/” die Zeile folgende Zeile auskommentieren (die Raute # entfernen):

GRUB_DISABLE_LINUX_RECOVERY="true"

Falls der Recovery-Modus benötigt wird, kann im BURG-Menü mit der Taste “e” in ein Fester zum Bearbeiten der Kerneloptionen gewechselt werden. In der Zeile, die mit “linux /vmlinuz” beginnt, alles nach dem “ro” durch “single” ersetzen. Um nun zu booten “Strg+C” oder “F5″ drücken und nochmals mit “Enter” bestätigen.

burg-edit

Bug: BURG wird bei Kernelupdates nicht aktualisiert

Wenn der Benutzer den Kernel aktualisiert wird derzeit nur GRUB aktualisiert und nicht BURG (Bug bei Launchpad). Das hat dann natürlich zur Folge, dass neue Kernelversionen nicht geladen werden.

Abhilfe schafft das manuelle Ausführen von “sudo update-burg” oder das Ersetzen von “update-grub” durch “update-burg” in der Datei “/etc/kernel-img.conf”. Wenn man BURG deinstalliert um wieder GRUB zu verwenden, darf man nicht vergessen, die “kernel-img.conf” wieder in ihren Ursprungszustand zu versetzen.

Tastenkombinationen

Folgende Tasten können im BURG-Menü verwendet werden. Es gibt noch weitere Tastenbelegungen, doch haben nicht alle bei mir funktioniert.

t Theme-Menü öffnen
n zum nächsten Eintrag der selben Klasse springen
w zum nächsten Windows-Eintrag springen
u zum nächsten Ubuntu-Eintrag springen
e Kommando des aktuellen Boot-Eintrags bearbeiten
c Terminal-Fenster öffnen
2 2 Terminal-Fenster öffnen
h Hilfe-Dialog anzeigen (nur bei dem Theme Sora)
i Über-Dialog anzeigen (nur bei dem Theme Sora)
q zum alten GRUB-Menü zurückkehren
F5 / Strg+x Bearbeiten beenden
F8 zwischen Grafik- und Text-Modus umschalten
F9 Herunterfahren
F10 Neustart
Esc aktuelles Popup-Menü schließen

Zum Schluss

BURG lässt sich noch viel detallierter anpassen, als ich es in diesem Beitrag beschrieben habe. Informationen dazu findet ihr zum Beispiel im Wiki von BURG.

Ich würde es begrüßen, wenn Ubuntu BURG oder wenigstens ein angepasstes BURG2-Theme standardmäßig verwenden würde. Gerade weil Ubuntu in letzter Zeit vermehrt Wert auf eine ansprechende Optik legt.

Die Mono-Entwickler haben MonoDevelop in der Version 2.4 freigegeben. Mono ist die Open-Source-Variante von .NET mit dem Ziel, die Programmiersprache C# sowie die .NET-Klassenbibliotheken auch unter Linux zugänglich zu machen. MonoDevelop ist damit das Gegenstück zu Visual Studio.

Die neue Version 2.4 bringt viele Verbesserungen mit sich und schließt einige Bugs (mal sehen, ob Stetic endlich mit Gettext zusammenarbeitet). Deshalb wollte ich auf die neue Version updaten, leider gibt es keine Pakete für Ubuntu, sondern nur für SLED/SLES, OpenSuse sowie Windows und OS X. Das wäre ja kein Problem gewesen, schließlich könnte man sich auch das Programm aus den Quellen bauen und installieren. MonoDevelop 2.4 benötigt aber Mono 2.6, in Ubuntu ist aber nur Mono 2.4 enthalten. Man müsste sich also alle Mono-Bibliotheken einzeln aus den Sources bauen, worauf ich nicht wirklich Lust hatte.

Glücklicherweise bin ich auf das Projekt badgerports gestoßen. Dieses Projekt hat sich zum Ziel gemacht, aktuelle Mono-Pakete für die jeweilige LTS-Version von Ubuntu zugänglich zu machen. badgerports wird vom Debian- und Ubuntu-Maintainer Jo Shields betrieben, hier findet man seine Launchpad-Seite.

Der Eintrag für die sources.list lautet:

deb http://badgerports.org lucid main #Badgerports

Nun muss noch der Schlüssel für die Quelle eingespielt werden:

$ wget http://badgerports.org/directhex.ppa.asc
$ sudo apt-key add directhex.ppa.asc
$ rm directhex.ppa.asc

Anschließend müssen die Paketquellen neu eingelesen werden:

$ sudo apt-get update

Danach muss man die Aktualisierungsverwaltung starten, welche uns gleich mit folgender Warnung begrüßt:

Das ist deshalb so, weil Mono eine grundlegende Bibliothek von Ubuntu ist und viele Ubuntu-Programme darauf aufbauen. Soweit ich weiß wird kein normales apt-get upgrade ausgeführt. sondern ein apt-get dist-upgrade, es werden also auch komplett neue Pakete installiert, sowie auch vorhandene entfernt. Darum sollte man sich genau überlegen, ob man wirklich Mono 2.6 installieren will. Beim Erscheinen und Update auf Ubuntu 10.10 sollte man auch im Hintergrund behalten, das man unoffizielle Pakete benutzt, und ggf. wieder auf die offiziellen Pakete downgraden.

Entschließt man sich zur Installation, werden die Pakete heruntergeladen und installiert.

Danach hat man MonoDevelop 2.4 und Mono 2.6 auf dem Rechner.


Die freien Mesa Treiber haben in den letzten Jahren tolle und wichtige Fortschritte gemacht. Mesa ist eine der wichtigsten Komponenten des freien Desktops heutzutage. Für mich als KWin Entwickler die wichtigste Upstream Komponente – auch wenn ich selbst Mesa Treiber nicht nutze. Von Mesa ist es abhängig, ob man Compositing standardmäßig hat, ob Blur eingeschaltet wird und andere wichtige visuelle Eigenschaften. Die Treiber sind aber auch unglaublich wichtig für die Geschwindigkeit des Systems. Viele (vermutlich alle) Beschwerden über den langsamen KDE 4 Desktop lassen sich auf den Treiber zurückführen (proprietär und frei). Dies ist gerade in 4.5 sehr wichtig, weil wir Blur standardmäßig aktivieren werden, sofern der Treiber es unterstützt. Wir müssen uns also darauf verlassen können, dass die Entwickler nur das in der API anbieten, was die Hardware wirklich unterstützt.

Ich werde nun einige der Probleme beschreiben, die wir so mit den Mesa Treibern haben. Das ist aber kein Rant – ich schätze die Arbeit der Mesa Entwickler und bin ihnen sehr dankbar und freue mich darauf bald einen freien Treiber auch auf meinem System einsetzen zu können (Nouveau unter Debian unterstützt noch kein DRI).

KWin führt eine Whitelist über die Treiber, welche Compositing unterstützen. Also wir parsen den Version String, den man auch unter OpenGL Version in glxinfo findet, und ermitteln daraus den Treiber. Wäre das ganze standardisiert, dann wäre es richtig einfach. Ein vorbildliches Beispiel hier von NVIDIA:

OpenGL version string: 3.2.0 NVIDIA 195.36.24

Solange ich jetzt für KWin arbeite hat das bei NVIDIA nie Probleme verursacht. Zuerst die OpenGL Version, dann Hersteller und Treiber Information. Bei NVIDIA aktivieren wir falls die Version mindestens 173.14.12 ist. Die freien Treiber machten sich aber scheinbar einen Spaß daraus die Treiber Information immer wieder an eine andere Stelle zu schreiben und unsere Annahmen wichtige Information steht z.B. an zweiter Stelle haben dann plötzlich nicht mehr funktioniert. Das führte dann dazu, dass der Treiber nicht mehr in der Whitelist war und somit Compositing nicht mehr aktiviert wurde. Mittlerweile haben wir einen extra Parser für Mesa Treiber. (Richtig toll wäre natürlich wenn man sich auf die OpenGL Version verlassen könnte, aber das ist unmöglich, denn es gibt auch noch den Software Rasterizer und der nennt sich auch Mesa).

Im 4.4 Entwicklungszyklus hatten wir das Problem, dass einige Mesa Treiber die Anwendung in den Tod gezogen hatten, wenn man versuchte die Version zu ermitteln. Das Problem hierbei ist, dass man einen OpenGL Kontext braucht um die Version zu ermitteln und der Treiber die Anwendung in den Tod gezogen hat, wenn man einen Kontext erstellt. Das führte dann dazu dass KWin nicht mehr startete, denn wir schauen immer ob Compositing unterstützt ist. Zum Glück haben wir Logik um Crashes zu erkennen und deaktivieren dann sicherheitshalber mal Compositing. Schwieriger wurde es in den Systemsettings. Dort ist die gleiche Logik um zu schauen ob man Effekte einschalten kann mit dem Resultat, dass Systemsettings abstürzen sobald man auf "Desktop" geklickt hat. Das ganze wurde kurz vor Beta 1 zu solch einem Problem, dass wir noch schnell eine Sicherheitslösung eingebaut hatten, die etwas zu weit gegriffen hat und in der Beta mal eben Effekte für einige freie Ati Treiber deaktivierte.

In 4.5 verlangen wir den Treibern nun bedeutend mehr ab. Wir haben zwei grafische Effekte, welche programmierbare GPUs erfordern. Zum einen den neuen Blur Filter, zum anderen einen Filter um bessere Thumbnails zu erhalten. Diese Filter werden natürlich nur verwendet, wenn die Grafikkarte das auch unterstützt. Zum Glück macht es OpenGL einem einfach: es gibt Erweiterungen auf die man testen kann. Unsere neuen Filter brauchen die Erweiterungen GL_ARB_fragment_program, GL_ARB_fragment_shader, GL_ARB_framebuffer_object und GL_ARB_shading_language_100. Wir überprüfen, ob die Erweiterungen vorhanden sind und aktivieren die Filter – so weit die Theorie. Unsere Effekte haben eine statische Methode welche aufgerufen wird bevor der Effekt geladen wird. Diese Methode führt die Überprüfung aus und sagt "Ja, ich funktioniere" oder "Nein, ich funktioniere nicht". Wenn Blur meint, dass er funktioniert, dann informiert er Plasma sofort darüber und Plasma verwendet nun bedeutend stärker transparente Hintergründe für die Popups. Nun wird so ein Popup mit starker Transparenz angezeigt, Blur Effekt springt an und versucht ein framebuffer object zu bekommen und hoppla funktioniert nicht. Somit kein Blur und das Popup ist unlesbar, weil zu transparent (siehe Bug 240956).

Das heißt also wir können nicht darauf vertrauen, dass das was der Treiber sagt was er unterstützt auch unterstützt ist. Also müssen wir manuell die Überprüfung durchführen, was natürlich unnötige Rechen- und Speicherzeit für alle Nutzer verschwendet. Es wird nun beim Start versucht ein framebuffer object der richtigen Größe zu erstellen und nur wenn das funktioniert wird Blur aktiviert. Gut Blur ist nun deaktiviert, Plasma verwendet nicht zu transparente Hintergründe – Problem gelöst.

Naja nicht wirklich: die Grafikkarte behauptet ja, dass Blur funktioniert also muss es machbar sein. Die Erklärung liegt im direkten und indirekten Rendering. Die benötigten Erweiterungen stehen nur bei direktem Rendering zur Verfügung. Wir verwenden für Mesa Treiber jedoch indirektes Rendering, d.h. alle OpenGL Befehle werden zuerst an den X Server übermittelt und von diesem an die Grafikkarte weitergereicht. Also unser oben beschriebenes Problem liegt darin, dass der Treiber behauptet Erweiterungen zu unterstützen welche nur mit einem direct rendering Kontext verfügbar sind.

Also brauchen wir einen direct rendering context. Wir haben auch Code, der ermittelt ob wir einen direct rendering context verwenden können. Dieser überprüft auf die glX Version. Wir brauchen die Funktion glXCreatePixmap(), welche seit glX 1.3 verfügbar ist. Also alles unter 1.3 kann kein direct rendering. Naja stimmt nicht ganz über eine Extension ist das auch in früheren Versionen verfügbar und Mesa unterstützt die. Also Code geändert und auf die Extension überprüft und nun gibt’s auch direktes Rendern für Intel Karten und somit Blur. Mission erfüllt: glückliche Anwender.

Schön wärs. Nun haben wir direktes Rendern, aber es gibt Karten, die sind einfach zu alt für Blur. Ergebnis: KWin startet und schaltet Compositing sofort aus (siehe Bug 242113). Der Treiber unterstützt OpenGL Shading Language für Grafikkarten, die das ganz bestimmt nicht können. Nun sind wir also kurz vor den RCs und bei vielen Nutzern werden die Effekte nicht mehr funktionieren, weil der Treiber etwas unterstützt, was die Hardware nicht kann. Wir könnten nun einfach direktes rendern wieder ausschalten für diese Treiber, aber das würde auch Effekte zerstören, die keine Shader brauchen, aber direktes Rendern – zum Beispiel den Logout Effekt.

Auch wenn ich nun viel über Intel geschrieben habe, gibt es auch Probleme mit anderen Mesa Treibern. Z.B. mit dem Treiber für Ati R600 Chips im kommenden OpenSUSE 11.3. Bei diesem werden alle Thumbnails und Fenster in Present Windows auf dem Kopf stehen (siehe Bug 240354). Das Problem ist im Treiber Entwicklungszweig bereits behoben und wir wollten das daher eigentlich ignorieren – bis ich gestern openSUSE auf meinem Zweitrechner mit R600 installierte…

Nun kann ich mir Gedanken dazu machen, wie wir am Besten eine Blacklist erstellen, die einfach von uns und den Distributionen erweitert werden kann. Vor allem wie man Treiber wieder von der Blacklist herunterbekommt ohne mit jeder neuen Treiberversion die Blacklist aktualisieren zu müssen. Whitelist funktioniert nicht – haben wir ja schon, wissen wir dass es eine schlechte Idee ist. Und ich glaube wir verwenden eine Whitelist, weil Blacklist bei Compiz zu Problemen geführt hatte…

=-=-=-=-=
Powered by Blogilo

Ja es ist wieder soweit – ein weiteres Jahr ist vorbei. Bits, Bytes and my 5 cents wird schon ganze 2 Jahre alt!!
In der Zwischenzeit und nach den 2 Jahren haben sich nicht nur viele Artikel eingefunden, es kamen auch immer mehr Leser und dadurch auch die eine oder andere interessante Diskussionen dazu :)

Dieses Blog habe ich vor zwei Jahren gegründet, um über tägliche Probleme und Situationen aus meine täglichen Leben als Informatiker zu berichten. Zu Beginn waren meine Beiträge noch hauptsächlich über Windows und haben sich dann immer mehr und mehr zu den Themen Linux und OpenSource entwickelt. Und besonders seid ich auch auf der Arbeit dem Linux / Unix-Team unterstellt bin, werden Windows-Probleme immer rarer, was ich aber nicht als besonders schlimm befinde :)

Nun bleibt mir nicht mehr viel übrig als euch für eure Treue und Unterstützung zu danken und mich auf viele weitere erfolgreiche Jahre mit euch zu freuen!!

18. Juni 2010

Selten waren Darwin und Moses so einträchtig – SyncEvolution und Genesis sind in neuen Versionen erschienen und bringen PIM-Synchronisierung unter GNOME wieder einen Schritt voran.

SyncEvolution ist mittlerweile kein Freizeitprojekt mehr, sondern die offizielle Sync-Lösung von Moblin/MeeGo. Kein Wunder, dass die Entwicklung seit der letzten stabilen Version deutliche Schritte voran gemacht hat. Neu ist eine eigene GUI, aber auch unter der Haube hat sich einiges getan. Wer sich für die Details interessiert, dem sei die offizielle Release-Mitteilung ans Herz gelegt.

Schon zwei Tage vor dem Release von SyncEvolution 1.0 ist die darauf aufbauende Version 0.6 von Genesis, meinem leichtgewichtigen SyncEvolution-Frontend, erschienen. Die neue Version trägt dem geänderten Umfeld Rechnung, in dem Genesis steht: Der SyncEvolution-Kern bietet bessere Möglichkeiten, Frontends anzubinden und mit sync-ui bringt SyncEvolution nun selbst ein mächtiges Konfigurationswerkzeug mit. Aber auch Ubuntu hat mit dem AppIndicator das Benachrichtigungsfeld kräftig umgekrempelt und nebenbei schon wieder ein neues Icon-Thema für Panel-Icons etabliert.

All das hat dazu geführt, Genesis noch einmal (fast) von Grund auf neu zu schreiben. Es ist nur noch der Code aus den bisherigen Versionen übernommen worden, der nach wie vor gebraucht wird. Genesis setzt diesmal auf Quickly auf (über das ich ja schon einmal ausführlicher geschrieben habe). Dies soll vor allem neue Releases einfacher machen, da Quickly sich um den Paketbau und den Upload ins PPA kümmert. Auch für Quickly war dies ein guter Alltagstest, und nebenbei konnten ein paar Bugs identifiziert und behoben werden.

Viel Spaß mit der neuen Version!

Nachdem ich ja einen Desktop und einen Server auf Ubuntu laufen habe, läuft auf meinem Netbook (Samsung NC10) Windows XP. Oder sagen wir besser: “lief”.

Da ich auf die Möglichkeiten eines komfortablen Linux nicht verzichten wollte, habe ich mit Wubi ein Ubuntu installiert, welches ich gestern auf Lucid aktualisiert habe. Dummerweise habe ich dabei einen kleinen Fehler gemacht und in der Auswahl einer Partition für GRUB2 meine Rootpartition ausgewählt, in der Annahme, es sei die Root-Partition des Virtuellen Filesystems.

Nun habe ich ein Netbook, das extrem schnell bootet. In die “grub rescue>”-Shell.

Heute abend werde ich mal gucken, was sich da mit einem Boot-USB-Stick retten lässt. Leider ist der Bootsektor nämlich so unbrauchbar, dass ich nichtmal die Rescue-Funktion booten kann. Vielleicht ist das dann doch der Anstoß, das System auf Linux umzustellen. Wir werden es sehen.

Auch diesmal wieder kein großes Update für izulu, dem Skript, das den Bildschirmhintergrund dem Wetter anpasst. Ist aber auch gar nicht nötig, soweit ich weiß.

Stattdessen gibt es einen Bugfix: Wenn man von den Zusatzfunktionen nur die Temperaturanzeige aktivierte, wollte diese in eines der Bilder unter /usr/share/izulu/ gebannt werden - weniger gut, und durch die fehlenden Rechte auch nicht möglich. Außerdem habe ich zwei weitere Regenzustände entdeckt, "Heavy Rain" und "Rain Showers". Daher der Titel, denn mehr Regen ist bei einem Wetteranzeigeprogramm ja nicht was schlechtes.

Download: izulu-0.2.5.3.deb

17. Juni 2010

Vor kurzem habe ich aufgrund der Catalysts Grant Aktion an die Creative Commons Organisation etwas Geld gespendet. 100.000 $ sollen an Ersteller freier Inhalte gehen. Ich fand das in Ordnung. Ok, ich fand das eigentlich mehr als in Ordnung, denn die Idee des freien Wissens und Inhalten für alle ist einfach nur wunderbar. Es fällt mir schwer in Worte zu fassen was das Video in der About-Beschreibung aussagt. Am besten ihr seht es am besten selbst an.

Inhalte
Seit mittlerweile einem Jahr habe ich alle Blogposts, HowTos, Publications und Projekte die ich hier veröffentliche, schreibe oder vorstelle unter die CC-BY-NC-SA Lizenz gestellt. Im Klartext bedeutet das: Alle Inhalte dürfen komplett frei benutzt, verändert und weitergegeben werden. Unter ein paar winzigen Bedinungen.

CC-BY-NC-SA
Namensnennung
Keine kommerzielle Nutzung der Inhalte
Weitergabe unter gleichen Bedingungen

Software
Bei Software oder Scripts die ich hier schreibe, gilt ähnliches. Die GPL-Software-Lizenz ist weit verbreitet unter Linux-Benutzern und auch hierfür stellt Creative Commons eine Informationsseite in vielen Sprachen zur Verfügung.

CC-GNU-GPL
1. Die Möglichkeit, das Programm für jeden Zweck zu benutzen.
2. Die Möglichkeit, die Funktionalitäten des Programms auf Code-Ebene zu verstehen und sie an Ihre Bedürfnisse anzupassen.
3. Die Möglichkeit, Vervielfältigungen des Programms weiterzuverbreiten, so dass es allen nützt.
4. Die Möglichkeit, das Programm zu verbessern und Ihre Verbesserungen zu veröffentlichen: Auf diese Weise profitieren alle.

Einsatzgebiet?
Wo benutzt man sowas nun. Nunja einfachstes Beispiel wird warscheinlich dieses Blog-Theme sein. Ich habe Clouds von ali asariaerhalten, der das Thought Cloud Theme von Heather Rivers für WordPress portiert hat. Ich durfte es dank Creative Commons weiterentwickeln und (unter Namensnennung) wiederrum (inklusive meiner Änderungen/Anpassungen) unter der selben Lizenz weitergeben. Zumindest werde ich es bald releasen :) Dauert aber noch etwas. Desweiteren bietet auch die Foto-Plattform Flickr eine wunderbare Möglichkeit Fotos unter Creative Commons zu veröffentlichen und vor allem zu finden.

Donation
Aufgrund meiner Spende habe ich heute Post aus San Francisco bekommen :)

creative commons post

creative commons shirt

In diesem Sinne,
Freie Inhalte ftw.

Vorgestern habe ich mir einen neuen Fernseher gekauft. Ich bin begeistert von diesem Gerät und könnte davon noch einiges mehr erzählen, dies soll jedoch nicht der Inhalt dieses Beitrags sein.

Der Fernseher hat einen Netzwerkanschluss und ist DLNA fähig. Das heißt, sofern ein DLNA Server im Netzwerk vorhanden ist, kann er über diesen Medien abrufen/abspielen. Genau dies ist mit Ubuntu relativ einfach möglich. 
Die erste Lösung welche ich gefunden hatte war Mediatomb, jedoch gab es damit einige Probleme bei mir mit bestimmten Dateien und teilweise nicht gefundenen Ordnern. Also machte ich mich weiter auf die Suche und hatte uShare gefunden. Auf der offiziellen Seite steht leider nichts von einem offiziellen Ubuntupaket, doch es gibt eines und das sogar in den vorhandenen Quellen von Ubuntu.

Also als erster Schritt uShare installieren.

sudo apt-get install ushare

Ist alles installiert als nächstes mittels

sudo dpkg-reconfigure ushare

den Wizard starten. Hier kommt zuerst die Abfrage nach dem Namen im Netzwerk.
Als nächstes wird man nach der Schnittstelle gefragt über welche der Dienst angesprochen werden darf (meistens eth0).
Nun noch den Pfad angeben welcher bereitgestellt werden soll (es werden automatisch alle Unterordner und Dateien bereitgestellt!).

 

Schon wäre alles soweit erledigt, obwohl ein bisschen was fehlt noch.

 

sudo nano /etc/ushare.conf

 

Und hier noch den Wert 49200 für USHARE_PORT vergeben und den Wert yes für USHARE_ENABLE_WEB . Das wars nun aber wirklich.

Ab sofort könnt ihr von einem TV aus z.B. auf alle eure Medien zugreifen und diese dort abspielen. Sofern der Fernseher DLNA versteht.

Zum ersten Mal habe ich es unter KDE SC 4.3 ausprobiert. Vielleicht hast du dich auch schon an den teils interessanten optischen Möglichkeiten gelabt. Von was die Rede ist? Von Aurorae, einer Theme-Engine welche seit Karmic in Kubuntu verfügbar und seit KDE SC 4.4 Teil des Fenstermanagers ist (siehe uu.de Wiki). Neben Reproduktionen der Standard-Themes von KDE4, GNOME, Windows und Mac OS gibt es eine Menge an schönen bis hin zu verrückten Themes welche über die KDE-Systemeinstellungen einfach installiert werden können. Manche Themes sind so eigenwillig, dass das Aussehen der Plasmoide und das Farbschema der Fenster unangenehm hervorstechen. In diesem Fall musst du auch diese anpassen. Wenn du Glück hast existiert ein passender Style für beides.

Aurorae verwenden

In den Systemeinstellungen (zu finden unter K-Menü -> Computer) kannst du in der Kategorie "Erscheinungsbild & Verhalten" unter dem Punkt "Erscheinungsbild" die optische Darstellung der Oberfläche verändern.

Um die Theme-Engine Aurorae zu verwenden musst du den Punkt "Fenster" anklicken. Wechselst du hier im Reiter "Fensterdekoration" in der obersten Auswahlliste von "Oxygen" zu "Aurorae Decoration Theme Engine" kannst du darunter das Aurorae-Theme deiner Wahl auswählen. Die Vorschau hat bei mir für Aurorae-Themes nichts angezeigt. Man muss also auf "Anwenden" klicken um das Ergebnis zu sehen.

Die für die Anpassung des Desktops wichtigsten Punkte werden hier kurz erklärt:

Stil: Im Reiter "Arbeitsfläche" kannst du das Aussehen der Plasma-Oberfläche festlegen und neue Stile installieren.
Farben: Hier kannst du verschiedene Farbzusammenstellungen für die Oberflächen von Fenstern finden, installieren, verändern oder selbst neu erstellen.
Fenster: Hast du noch keine Themes installiert kannst du das mit den Knöpfen gleich über der Vorschau erledigen. "Neues Theme installieren" hilft dir eine lokale Theme-Datei zu installieren. "Neue Themes holen" öffnet einen Dialog mit dem du direkt eine Fülle von Themes von kde-looks.org ohne Browser installieren kannst. Den Knopf zum direkten Installieren findest du im übrigen bei den beiden anderen Punkten ebenfalls.

Aurorae Beispiele

Mac OS X

Du wolltest immer schon deinem System das Aussehen von Mac OS X geben? Die Zeiten des ewigen Herumgefrickels mit instabilen Programmen bis alles passt sind vorbei. Dieses Bild lässt sich in vier Schritten erzeugen:

Aurorae Mac OS X
Auf das Bild klicken um eine größere Version zu sehen.

Stil: Zunächst installieren wir über "Neues Theme holen" das Theme "Metalized" und wählen es aus.
Farben: Als Farbschema empfiehlt sich "WarnaMac-Modified" welches über "Neues Schema holen" installiert werden kann. Auch hier muss natürlich das Theme ausgewählt werden.
Fenster: Die Fensterdeko die den Mac-Look fast perfekt macht heißt schlicht "OS X" und kann über "Neues Theme holen" installiert werden. Als Engine muss Aurorae ausgewählt sein.

Knöpfe: Da die Fensterknöpfe in Mac OS X anders angeordnet sind als überall sonst (außer Ubuntu :) ) müssen diese natürlich entsprechend angepasst werden. In KDE4 geht das über K-Menü -> Computer -> Systemeinstellungen -> Erscheinungsbild -> Fenster -> Knöpfe. Hier muss der zweite Punkte angehakt werden, dann kann darunter per Drag&Drop die Position der Knöpfe angepasst werden.

Diese Umstellung kommt einem Mac OS X so nahe wie es mit einfachen Mitteln geht. Natürlich fehlen Dinge wie ein Dock, eine Mac OS typische Menüleiste die

Windows 7

Einfacher stellt sich da schon die Umwandlung des Desktops in ein Windows 7 System dar:

Aurorae - Windows 7
Auf das Bild klicken um eine größere Version zu sehen.

Die Umstellungen lassen sich genauso wie unter Mac OS X beschrieben vornehmen. Hier nur die von mir verwendeten Themes:

Stil: svista
Farben: MyBlueHeaven
Fenster: seven

Windows 7 war laut Microsoft: "Vista ohne die Fehler". Ich würde den entsprechen angepassten KDE dann so bezeichnen: "Windows 7 ohne die Einschränkungen". Wäre doch ein netter Slogan für einen Linux-Neuling.

Ghost

Zum Abschluss der Beispiele ein Theme welches etwas sehr außergewöhnlich anmutet. Zum Glück hat es zusätzliche Unterstützung durch passende Farb- und Widget-Themes:

Aurorae - Ghost
Auf das Bild klicken um eine größere Version zu sehen.

Laut dem Autor des Themes ist es vom Anime Ghost in the Shell inspiriert. Das düstere, klare und futuristische Aussehen zieht sich durch alle drei Themes (zumindest wenn das Theme nicht vom jeweiligen Plasmoid ignoriert wird).

Stil: Ghost
Farben: Ghost Color Scheme
Fenster: Ghost

Bei diesem Theme empfiehlt sich auch eine Anpassung anderer Programme die sonst mit ihrem eigenen Theme aufwarten. Auf kde-look.org findet sich für K3B das Theme "Laser Light -blue" welches ganz gut zu "Ghost" passt.

Fazit

Aurorae, die alternative Engine deKorator und natürlich die "normalen" KWin-Themes haben sehr viel zu bieten. Wer sich von seinem System also mehr wünscht als das Standardaussehen, der sollte sich hier umsehen. Zusätzlich zu der hier vorgestellten Installationsmethode bietet sich auch ein Besuch auf kde-look.org an. Dort findet sich nicht nur in den vorgestellten Kategorien wesentlich mehr Auswahl. Die Seite bietet auch einen Überfluss an Wallpapers und Themes für andere KDE-Programme (Kopete, K3B, Amarok, …).

Direkt nach dem Anpassen kann es hie und da bei Programmen die zum Zeitpunkt des Umstellens liefen zu kleinen Fehlern bei der Darstellung kommen. Bei mir betraf das meistens Schriftfarben die noch vom vorherigen Theme hängen geblieben sind. Sobald das entsprechende Programm neu gestartet wird ist das Problem behoben. Bestimmte Programme passen sich leider grundsätzlich nicht dem Theme an. Dazu gehört der Firefox. Interessanterweise hat mein Thunderbird sich jedoch automatisch nach einem Neustart umgestellt.

Das in den Screenshots verwendete Wallpaper ist im Übrigen ein Screenshot des kommenden Blender-Films "Sintel".

Viel Spaß beim Anpassen!

Creative Commons License
This work by Stefan Ohri is licensed under a Creative Commons Attribution-ShareAlike 3.0 Austria License

=-=-=-=-=
Powered by Blogilo


Einsortiert unter:Anime, GNU/Linux, KDE, Kubuntu, Ubuntuusers
  1. Content Scramble System (DVD)
  2. AACS bei HD DVDs
  3. Un CDs
  4. Sony Rootkit
  5. AACS auf der PS 3
  6. Spotify als Rückkehr des DRM
  7. Ebooks, die fast alle mit DRM geschützt sind (z.B.: Amazons Löschaktion von "1984")

Stallmans Rede gestern abend in der TU-Darmstadt hatte viel mit diesen Punkten zu tun. Beschreiben sie doch eine Sache: Firmenmaßnahmen, die Kontrolle über Dateien auf Nutzer-PCs ausüben sollen. Seine Rede handelte nämlich nicht über freie Software, sondern über das Copyright bzw. allgemein über die Frage, was dem Nutzer mit welchen Daten wie erlaubt sein sollte.

Natürlich gab es vorher eine Einführung in seine Sichtweise auf freie Software, was gut so war, denn es ist eine seiner Anfangsaussagen, die sich als Grundlage durch seinen ganzen Vortrag zog:

Freie Software lässt dem Nutzer die Kontrolle, proprietäre kontrolliert den Nutzer

Klar, dass bei DRM-Systemen (die er konsequent Digital Restriction Management nennt) diese Sichtweise besonders angebracht ist.

Dass die Nutzer überhaupt kontrolliert werden sollen im Namen des Urheberrechts und sonstigen Rechten der (Medien-)Konzerne führt er auf eine Ausweitung des Copyrights zurück. Die wiederum fuße auf der historischen Entwicklung: Während früher jede Kopie aufwändig war, war es mit der Druckerpresse die Massenkopie deutlich einfacher als die Einzelkopie, und inzwischen ist jede Kopie mit wenig Aufwand möglich, wenn auch die Einzelkopie immer noch ein bisschen teurer ist. Diese technische Entwicklung verbunden mit der Rechtsauffassung vergangener Tage und dem aus der Zensur abstammenden Copyright, als es eben noch nicht schlimm war, das Recht auf Kopien aufzugeben, weil man die damals kaum anwenden konnte, sorge nun für die Probleme.

Die Liste von oben beschreibt mehr als irgendwelche DRM-Kopierschutzmaßnahmen: Sie zeigt auch, dass diese immer weiter ausgeweitet wurden. So wie die Firmen das handhaben, handeln auch die Regierungen: Nicht nur wurde in den USA und anderen Ländern das Copyright immer vor dem Auslaufen verlängert, sondern auch in der Anwendbarkeit verstärkt - war es früher kein Problem, von einem Buch eine Kopie anzufertigen oder es jemanden auszuleihen, werde das nun im Namen von Rechten, die einst gar nicht gegen die Nutzer gerichtet gewesen seien, bekämpft. "Three Strikes Down"- und das Abmahnmodell brauchte er für diese These gar nicht erst anzuführen. Stallmans Meinung nach sei das ein klarer Hinweis dafür, dass heutige Demokratien nicht mehr ihre Bürger vertreten, sondern von der Industrie gesteuert werden. Das DMCA beispielsweise sei von der Industrie gekauft.

Es gibt Gegenmodelle zum jetzigen Zustand, und auch Stallman hat eines:

  1. Das Copyright auf 10 Jahre reduzieren, allerdings beginnend nach Veröffentlichung.
  2. Seine Anwendbarkeit reduzieren, in drei Kategorien: "Rezepte" (z.B. Code) sollte frei sein und kopiert werden dürfen, "Essays" sollten kopiert werden dürfen und "Entertainment und Kunst", was kopiert werden und von dem Remixe erlaubt werden sollten.

Kopieren über das Internet sollte also erlaubt sein, auch von Musik und Filmen. Gesellschaftlich wichtig sei es nicht, die Vertreiber am Leben zu erhalten, sondern die Ersteller der Werke zu unterstützen. Dafür nannte er wiederum ein Modell:

  1. Künstler sollten aus einer Steuer gesamtgesellschaftlich bezahlt werden, Ausschüttung nach Popularität, aber nicht der absoluten, sondern ihrer wurzel dritten Wurzel, um zu bekannte Künstler nicht unangemessen hoch zu entlohnen.
  2. In jedem Player sollte ein Spendenknopf sein, gekoppelt an ein freies anonymes Bezahlsystem, um Kleinstbeträge direkt beim Hören zu spenden. Er meine damit Beträge von nicht mehr als ~1€ die Woche, je nach Verdienst.
  3. Der dritte Punkt ging akustisch etwas unter. Wenn ich das richtig verstanden habe war das, dass Unternehmen, die solche Medien nutzen, an die ISP etwas von ihrem Gewinn zahlen, die das dann wiederum an die jeweiligen Künstler weiterleiten

Insgesamt war es eine lange Rede, aber man merkte Stallman an, dass er sowas oft und schon lange macht: seine Sprache ist klar, sein Englisch auch für einen Deutschen gut verständlich. Seine Sichtweise ist in vielen Punkten extrem, seine vollständige Ablehnung von unfreier Software beispielsweise, und er nimmt sich komplett ernst. Wenn er zum zehnten Mal "quote Intellectual Property unquote" sagt, weil er den Begriff verwerflich findet und ihn nicht benutzen will, aber auch das erstmal formulieren muss und ihn dafür braucht, ist das für den Hörer anstrengend. Ab und an löste solche Ernsthaftigkeit sogar Gelächter aus. Aber: Je mehr klar wurde, dass er das komplett ernst meint, weil es ihn eben nicht um technische, sondern um politische Überzeugungen geht und er völlig sicher ist, dass nur auf seinem Wege in unserer technisierten Welt die Freiheit jedes einzelnen bewahrt werden kann, desto leiser wurde das Lachen. Beim Hinausgehen sah man sehr viele nachdenkliche Gesichter, er erntete viel Applaus.

Und sein Modell, dass den Kampf gegen das Schwarzkopieren beenden soll? Meiner Meinung nach könnte das funktionieren und es wäre fair. Was meint ihr?

16. Juni 2010

Den -rc2 habe ich verpasst, der Nachfolger wurde von Torvalds mit dem Kommentar abgeliefert hoffentlich beseitigt er mehr Probleme als er mitbringt (So -rc2 is out there, and hopefully fixes way more problems than it introduces.).

Bereits bei Veröffentlichung der zweiten Vorabversion kündigte er an keine Änderungen, nur Korrekturen für -rc3 aufzunehmen. Er erwies sich als stur genug, das durchzuziehen und somit liegen nun in erster Linie Korrekturen für in -rc2 eingeführte Fehler vor. Letzterer wurde ein wenig umfangreicher als üblich, da Torvalds noch Commits einpflegte, die zwar während des Merge Window schon vorgeschlagen, jedoch zum -rc1 nicht berücksichtigt wurden. Darunter waren in erster Linie Treiber im staging-Bereich sowie Aktualisierungen an den Grafik-Treibern i915 und radeon.

Leider brachte die zweite Vorabversion auch ein Speicherproblem mit, das verhältnismäßig viele Nutzer des 2.6.35er Kernels traf und das sich in vielen Varianten zeigte, je nachdem welcher Speicherbereich betroffen war. Dafür und einige andere Probleme z.B. im radeon- oder nouveau-Treiber sind die Korrekturen nun im -rc3 enthalten.

Quellen: Linux Kernel Mailing List (-rc2), Linux Kernel Mailing List (-rc3)


Kernel-Quellen:

 

Lange war es nicht möglich Blu-ray Medien unter Linux abzuspielen, was von vielen Umsteigern – egal ob sie nun selber überhaupt über Blu-ray Medien verfügen, oder nicht – angeprangert wurde. Vier Studenten der französischen Hochschule Ecole Supérieure d’Informatique, Electronique, Automatique haben nun in einem Projekt Abhilfe in Form des Programms lxBDPlayer geschaffen.

Der Player basiert auf der Bibliothek DumpHD (zum Auslesen der Inhalte einer Blu-ray Disk), auf MakeMKV (um den Media Key Block auszulesen), sowie mplayer zum Ausgeben des Videos.

lxBDPlayer

lxBDPlayer im Vollbild

Somit müsste es möglich sein handelsübliche Blu-ray Filme mit lxBDPlayer unter Linux abzuspielen. Ich besitze weder Blu-ray Filme noch einen Blu-ray Player, daher kann ich das leider nicht selber austesten, sondern muss auf Sekundärquellen und ein YouTube-Video ausweichen…

Auf der Homepage gibt es einen Link zu einem .deb-Paket, das sich unter Ubuntu oder Debian installieren lassen müsste. Anscheinend gibt es auch ein Paket im AUR für Arch-Linux. Den Quelltext findet Ihr auf sourceforge.net.

(via korben-info und hackurx.info, Bilder von sourceforge.net)