ubuntuusers.de

28. September 2009

Seit kurzem bin ich stolzer Besitzer eines laut surrenden, 27 Kilo schweren HP DL380 g3.

In der Hoffnung möglichst viel aus dem Server herauszuholen, habe ich mich für ein ESXi als Betriebssystem entschieden.

Die Wahl viel eigentlich relativ schnell, da ich so mehrere Server betreiben kann. Ein weiterer Vorteil von ESXi gegenüber allen anderen Virtualisierungssystemen die ich kenne ist, dass man mehr einer vMaschine mehr Ressourcen zuordnen kann als eigentlich vorhanden ist. Und da ich “nur” 2x 2.8Ghz und 4GB Ram (soll bald auf 6GB aufgerüstet werden) zur Verfügung habe, kann dies noch ganz praktisch sein.

Doch bevor ich das OS installierte, wollte ich erst noch das RAID einrichten. (Vorab; im Server stecken zwei 18GB und zwei 72GB Platten.)

Aufgrund der Konstellation der Platten fiel meine Wahl recht schnell. So wurden die beiden 18GB Platten mittels RAID 1 und die 72GB Platten zu einem RAID 0 zusammengefasst.

So war das Betriebssystem, welches auf den 18er beherbergt wurde durch ein RAID geschützt.

Doch zurück zur Installation: So schnell die Wahl auch viel, umso länger dauerte die Installation. Begonnen habe ich mit dem normalen ESXi 4.0 von der VMware-Seite.

Als ich mich nach einem erfolglosen Installationsversuch weiter umgesehen habe, bin ich auf ein ESXi 4.0 for HP gestossen. Doch auch dies wollte den modifizierten  Linuxkernel, welcher die Basis von ESX und ESXi bildet nicht booten lassen.

Nach erneuter Suche habe ich ganz am unteren Ende der VMware-Seite einen unscheinbaren Link ausgemacht:

“VMware ESXi 4.0 is certified to run on a broad range of 64-bit hardware. For 32-bit hardware support, download the previous version, VMware ESXi 3.5.”

Also habe ich auch noch ESXi 3.5 auf CD gebrannt und gebootet. Und siehe da!! Nach gerade mal 15 Minuten war das Betriebssystem installiert und konnte gestartet werden.

Einrichten und Konfigurieren des ganzen geht problemlos über die ein bisschen farblose Oberfläche. Und viel mehr als eine statische IP muss man hier auch nicht tun. Praktisch hierbei war für mich, dass ich, dank dem iLO Port (ähnlich einer Remote Management Karte), das ganze ohne weiteren Bildschirm und Tastatur managen konnte.

ilo

Dann war es endlich soweit!

Vom Server selbst kann man dann den VMware Infrastructure Client herunterladen, welche, entgegen meinen Erwartungen, nicht nur für Windows verfügbar ist.

vmware

Diese kurz installiert und schon wird auf den Server verbunden. Als erstes sollte man hier das Passwort ändern, ausser man steht auf Überraschungsbesucher :)

Nachdem auch das erledigt ist, kann man schon seine ersten virtuellen Server anlegen. Besonders gut gefällt mir hier, die Möglichkeit ein ISO oder Laufwerk vom lokalen Computer direkt dem Server zu übergeben.

Das Aufsetzten einer neuen VM ist sichtlich einfach und genau gleich gehalten wie bei allen anderen VMware Produkten. Dadurch war schon nach kurzer Zeit mein erster Ubuntu 8.04 LTS Server verfügbar und online.

vmtoolsDoch bevor ich loslegte, wollte ich erst noch die VMware Tools installieren. Dazu gibt es den Menupünkt “Install VMware Tools” unter VM.

Nach einem Klick darauf habe ich auf eine Rückmeldung meines Servers gewartet – leider vergebens. Unwissend ob es nun geklappt hat oder nicht, machte ich mich auf die Suche nach einer Hilfestellung und bin dabei über einen Beitrag von Roman gestolpert, womit sich auch dieses kleine Problem lösen liess.

Da der DL380 Server alles andere als Stromsparend ist, wollte ich auch noch WOL aktivieren. Vom Einrichten von WOL auf einem Client wusste ich noch, wie mühsam es sein kann, war jedoch umso erstaunter, als sich die ganze Konfiguration in einem Punkt im BIOS verflüchtigte.

Nach ca 2 Stunden war mein ESXi-Server aufgesetzt und konfiguriert und mein erster virtueller Server online und ich glücklich :)

Fotos folgen noch :)

Über das neue Magazin der LinuxNewMedia  den UbuntuUser habe ich ja bereits einmal berichtet. Damals war das noch in den Planungen. Mittlerweile ist nun die zweite Ausgabe dieses neuen Magazines erschienen. Mit einem Exklusivinterview von Mark Shuttleworth und einer DVD mit gleich 6 *buntus. Audioexperte Dave Phillips erklärt, wie man mit freier Software ein Heimstudio einrichten kann. Ausserdem geht es wie der Titel verrät um Cloudcomputing. Man schwebt über den Wolken und fragt warum für man für Cloudservices bezahlen soll, wenn man mit Eucalyptus doch seine eigene Cloud aufsetzen kann. Es gibt ausserdem Anleitungen, wie mn mit Scribus ein eigenes Magazin gestallten kann, Krita&Karbon sind auch im Angebot und eine Menge mehr. Communitymanager Jono Bacon den Ubuntuspirit entdecken. Logisch  dass er da gleich die Werbetrommel rührt. Aber er darf ja eigentlich immer für dieses Magazin schreiben, er hat da ja ein Kolumne über die Ubuntu-Community. Scheinbar hängt der Absatz doch hinter den Erwartungen zurück. Bereits im ersten Artikel schrieb ich ja, dass die LinuxNewMedia plant das Magazin im “Laufe des Jahres” auf den deutschen Mark zu bringen. Das Jahr ist nicht mehr wirklich lang ;) Wir sind gespannt, wenn das auf dem deutschen Markt “released” wird und ob überhaupt.

Das sich ein team gebildet hat, welches die DebConf nach Deutschland holen will, habe ich ja bereits berichtet. Auf dem LinuxTag sollte dazu ein Arbeitstreffen sein, dass aber weder ich noch Mario Behling gefunden hat. Das lag wahrscheinlich daran, dass ich mal wieder vom Internet abgeschnitten war. Zur FrOSCon in Sankt Augustin hat man sich dann doch getroffen, aber da war ich ganz mit anderen Dingen beschäftigt. Pläne die DebConf nach Deutschland zu holen existieren ja bereits seit längerer Zeit. Nun scheint der Austragungsort festzustehen, wenn man dem Dent von Floschie glauben schenken darf. Man wird sich wohl mit München als Austragungsort für die DebConf 11 bewerben. Das ist keine so schlechte Wahl, die Stadt München die ja mit LiMux ihr eigenes Debian-Derivat für ihre Stadtverwaltung entwickelt, wird sich wohl hinter das Projekt stellen. In München ist ausserdem die LinuxNewMedia ansässig, auch mit deren Unterstützung wird man wohl rechnen können.

Ob die DebConf dann wirklich nach München kommt hängt dann allerdings immer noch von der Entscheidung auf der DebConf 10 in New York ab. Allerdings sind die Chancen bisher sehr gut, bisher stehen nur Bosnien, Thailand und eben Deutschland auf den Planungsseiten im Wiki zur Planung der DebConf. Die Chancen für Bosnien sind wahrscheinlich gering, dort gibt es keine derart feststrukturierte Debian_Community, auf den Seiten für die Planungen zu einer eventuellen Durchführung der DebConf in Thailand ist man allerdings bei weitem noch nicht soweit wie in Deutschland. Warten wir aber trotzdem ab, wie es ausgeht.

Exotische ApplikationenDie Parade zu den exotischen Linux-Anwendungen läuft noch drei Tage, bis zum 30. September 2009. Danach erstelle ich eine Zusammenfassung und werde sie gerne auf diesem Blog präsentieren. Falls Du also Applikationen kennst, die sich als “exotisch” bezeichne lassen, schreibe bitte einen Beitrag auf einem Blog dazu, oder nenne die Applikation in den Kommentaren, natürlich kannst Du auch einfach ein Mail schreiben. Was ich unter “exotisch” verstehe, habe ich ich im Startartikel der Parade notiert.

In der Zwischenzeit sind wieder einige Vorschläge und Beiträge zu diesem Thema eingetroffen, die ich hier noch kurz aufzeigen will:

  • Mathias schreibt zu traceroute und einigen Alternativen beziehungsweise Erweiterungen
  • Und noch einmal Mathias: Kismet ist eine Applikation für die Konsole, um Informationen über die umliegenden AccessPoints im Bereich WLAN zu erhalten.
  • Und noch einmal Dirk: Er nennt und beschreibt das Programm Podracer, mit dem man in der Konsole Podcasts herunterladen und verwalten kann.
  • Benjamin schwört auf die Applikation motion, mit der sich eine Webcam steuern lässt. Sieht ganz spannend und interessant aus!

Bis jetzt sind gesamthaft 25 Vorschläge zum Thema “exotische Linux-Applikationen” eingetroffen. Vielleicht schaffen wir die Schwelle zu 30 noch. Wir haben noch drei Tage Zeit dafür. Vielen Dank an alle, die sich bis jetzt an dieser Parade beteiligt haben!

Ähnliche Artikel

27. September 2009

Meinen ersten Versuch mit Karmic habe ich aufgrund von Grafikproblemen schnell abgebrochen. Trotzdem habe ich mich noch einmal herangetraut, diesmal mit positivem Ergebnis. Vielleicht war es bei Alpha-4 mit dem Kernel 2.6.31-rc5 einfach zu früh, der machte als selbstkompilierte Version unter Jaunty mit meiner GM965-Grafik auch schon Probleme.

Die aktuelle Alpha-6 funktioniert aber bislang ohne große Fehler - dafür mit Einschränkungen. So steht leider kein (funktionierendes) Paket von Dropbox für Karmic zur Verfügung. Das ist zwar kein Beinbruch, aber unkomfortabel.

Zum Glück gibt es die Quellen für den Selbstbau der Anwendung auf der Download-Seite. Nach dem Herunterladen und Entpacken der Quellen installiere ich Dropbox mittels checkinstall, da ich von Haus aus bequem bin. checkinstall übernimmt das Installieren eines Kompilats und ersetzt damit den Befehl make install. Zusätzlich wird dabei ein .deb-Paket erstellt und auch gleich installiert. checkinstall wird über das gleichnamige Paket aus den Paketquellen installiert.

Vor dem Kompilieren von Dropbox müssen jedoch noch einige Abhängigkeiten erfüllt werden. Hierzu werden die folgenden Pakete über die Paketverwaltung installiert:

  • docutils-writer-manpage
  • libnautilus-extension-dev
  • libnotify-dev

Danach folgt der Dreisatz der Linux-Welt:

./configure
make
sudo checkinstall

checkinstall fordert zur Eingabe einer Beschreibung auf. Diese erleichtert es später, das dann erstellte Paket wieder zu entfernen, wenn Dropbox später eine offizielle Version für Karmic nachliefert.

Aus irgendeinem Grund hat das erste Anstarten nach der Installation über das Menü nicht funktioniert und das Programm hat sich stillschweigend wieder beendet, aber wozu hat Dropbox eine Kommandozeilen-Schnittstelle? Diese verwenden wir, um Dropbox zu starten und die proprietären Bestandteile herunterzuladen, nachdem wir erst einmal alle Nautilus-Instanzen getötet haben:

killall nautilus
dropbox start -i

Nach dem Herunterladen des eigentlichen Dienstes kommt der Dialog zum Eingeben von Benutzername und Kennwort, danach beginnt Dropbox mit dem Synchronisieren der Daten vom Server auf den Rechner.

 

Über den Tux-Droiden hab ich ja hier schon vor einer ganzen Weile einmal geschrieben. Auf die Dauer hilft aber nur Power und da ist mit dem kleinen Atmel im Droiden nicht viel her. Klar man kann ihn winken lassen, wenn eine Mail eintrudelt und die Augen leuchten wenn Gwibber eine neue Nachricht hat.

Nun gibt es ein neues Gadget in der Richtung, das ist zwar im wahrsten Sinne ein flugunfähiger Vogel. Also weder leuchtende Augen noch irgendwelchen Drehungen. Dafür ist aber ein Miniboard in diesem verbaubar, dass ein embedded Linux enthält und via Ethernet ansprechbar ist. Hier gehts dann zum Gehäuse und hier zum Board. Ist ja bald wieder Weihnachten.


So lange die Suche bei ubuntuusers.de nicht funktioniert, kann man sich mit Google und Co behelfen. In das Suchfeld trägt man den Suchbegriff gefolgt von site:ubuntuusers.de ein.

Möchte man nur im Forum suchen, dann wäre dies:

SUCHBEGRIFF site:forum.ubuntuusers.de

und für das Wiki entsprechend:

SUCHBEGRIFF site:wiki.ubuntuusers.de

Aber wird ja bald wieder funktionieren. :)   Und liebe NPD-Wähler nicht vergessen: morgen, Montag, ist Bundestagswahl!

Gruß ans Webteam

ubuntu-logoMit der Zeit hat sich hier im Blog einiges zum Thema Ubuntu angesammelt, da wurde es Zeit, die Themen übersichtlich zu sortieren. Ab sofort findet ihr oben im Menü den Punkt “Ubuntu”, hier gibt es nodch.de Artikel zum Thema Ubuntu.

Aktuell finden sich dort Beiträge zu den Themen Videoschnitt, Bildbearbeitung, BitTorrent, Backup, Konvertierung von Videoformaten für iPod und Rockbox, Jabber Server und dem Android SDK.

Die Liste wird ab nun immer dann gepflegt wenn es einen neuen Artikel auf nodch.de gibt und bietet für Ubuntu Interessierte eine zentrale Anlaufstelle, ohne grossartiges Suchen.

Viel Spass mit der Ubuntu Artikelsammlung!

26. September 2009

Die Welt der freien PDF-Reader für Windows ist mit dem Release von GNOME 2.28 etwas größer geworden. Evince, der PDF-Reader der GNOME Desktopumgebung, wurde jetzt für Windows portiert.

Evince lässt sich recht einfach auf Windows installieren. Auf live.gnome.org könnt Ihr eine .msi-Datei herunterladen, über die Ihr Evince für Windows via ein Installationsprogramm installieren könnt.

Noch hackt der Installer etwas, so wurde bei mir kein Eintrag im Startmenü erzeugt, sondern nur ein Icon (ohne Bild) auf dem Desktop abgelegt. Das Programm selber funktioniert jedoch wunderbar.

Evince für Windows

Evince für Windows

Endlich gibt es mal wieder ein bisschen frischen Wind bei den PDF-Readern für Windows. Fehlt nur noch eine portable Version :)


Comments

Weil ich mit einigen Tools, die JPEGs in PDF-Dateien konvertieren das Problem hatte, dass die resultierenden PDF-Dateien nicht im DINA4 Format vorlagen, sondern viel größer waren, musste ich die Auflösung der JPEG-Dateien entsprechend ändern. In einem Blog wurde für diesen Zweck ein nettes Programm für die Kommandozeile namens exiftool von Phil Harvey vorgeschlagen. Das kann jedoch weit mehr und ist meiner Meinung nach für jeden, dem EXIF (Exchangeable Image File Format) etwas sagt, ein Muss. Mittlerweile wurde auch eine grafische Oberfläche entwickelt, um das Tool noch einfacher bedienen zu können – leider nur für Windows.
Unter Ubuntu lässt sich das exiftool durch folgenden Befehl installieren:

sudo apt-get install libimage-exiftool-perl

Anschließend kann man durch den Befehl

exiftool -Xresolution=150 -Yresolution=150 -ResolutionUnit=inches *.jpg

die Auflösung aller JPEG-Dateien im aktuellen Verzeichnis auf 150 dpi setzen. Der Befehl erscheint trivial, aber bis ich herausgefunden hatte, dass ohne den Parameter ResolutionUnit das exiftool gar nichts verändert, verging einige Zeit. Jetzt werden natürlich einige fragen, warum so kompliziert, wenn man das doch mit jedem Bildbearbeitungsprogramm wie GIMP & Co einfacher erreichen kann. Mit GIMP ist jedoch keine verlustfreie (losless) Änderung der Auflösung möglich. GIMP hätte beim Öffnen zunächst die JPEG-Datei dekomprimiert und dann beim Speichern erneut komprimiert, so dass es unweigerlich zu einem Qualitätsverlust gekommen wäre.

In Ubuntu Karmic (9.10) wird es ja einen neuen Standard-IM Client geben: Empathy. Diese Woche habe ich einen Artikel gelesen, wie man Themes vom ebenfalls sehr bekannten IM Client Adium in Empathy verwenden kann. Dies ist aber nur in der aktuellen Version 2.28 möglich, welche u.a. in Ubuntu Karmic enthalten ist. Die Installation ist denkbar einfach. Man lädt sich sein gewünschtes Theme hier herunter und entpackt es entweder nach ~/.local/share/adium/message-styles/ oder nach /usr/local/share/adium/message-styles/. Danach kann man sein neues Theme unter Bearbeiten → Einstellungen → Erscheinungsbilder auswählen.

Auf der Wikiseite von Empathy auf live.gnome.org findet sich auch eine Liste von Adium Themes, welche aufzeigt, wie gut diese mit dem neuen Ubuntu IM Client zusammenspielen.

Hier noch ein Screenshot mit Modern Bubbling Theme:

Empathy mit Adium Theme

Ähnliche Artikel:

  1. [Update2] Palm webOS Emulator unter Ubuntu (9.04 & 9.10)
  2. BibleZ 0.4
  3. SaleZ – die erste webOS eBay App!

Kommentar hinzufügen

Die Vorbereitungen zur Ubucon 2009, die dieses Jahr in Göttingen stattfinden wird, laufen schon auf Hochturen.

Vor kurzem wurde auch schon der Hashtag der Ubucon veröffentlicht: #ubcde09 Damit soll dann eine Twitterwall erstellt werden und live auf der Ubucon gezeigt werden.

Um schon jetzt alle Tweets zur Ubucon – sowohl von Twitter, als auch von Identi.ca auf einen Blick sehen zu können – habe ich schon mal eine “Ubucon 2009-Twitter+Identi.ca-Wall” erstellt: http://www.yetanotherlinuxblog.de/devchannel/ubucon09wall/

Zur Zeit wird die Wall nur alle 15 Minuten aktualisiert, da sowieso noch fast keine Tweets dazu geschrieben werden. Rechtzeitig zur Ubucon werde ich die Zeit dann auf eine Minute verkürzen, sodass die Tweets praktisch “live” zu sehen sind. Die Webseite läd sich mittels Ajax dann automatisch neu.

Außerdem kann man ein paar Statistiken zum Hashtag sehen. Am Design werde ich wohl in den nächsten Tage noch etwas feilen ;)

Vor Kurzem hat martingr für Ikhaya einen Artikel zu Kubuntu und Notify-OSD geschrieben. Darin beleuchtet er Nachteile von Ubuntus Notify-OSD gegenüber KNotify. Die Integration von Notify-OSD in KDE sei daher ein Rückschritt gegenüber den Fähigkeiten, die KDE von Haus aus mitbringt.

Die Situation in KDE kann ich als GNOME-Nutzer gar nicht beurteilen. Aber auch der Einzug von Notify-OSD in GNOME, das mit notification-daemon ja ebenfalls ein eigenes Benachrichtigungssystem hat, sorgte für einige Diskussionen. Wie so oft ist vieles natürlich Ansichtssache, und einige Positionen lassen sich auch nicht miteinander in Einklang bringen. Um den Meinungsbildungsprozess ein bisschen ausgewogener zu gestalten, möchte ich an dieser Stelle einmal ein paar Argumente pro Notify-OSD anführen.

Dass ich dabei Martins Ausführungen zum Anlass nehme, soll dabei nicht heißen, dass ich seine Position für falsch halte. Aber in der Gegenüberstellung von Argument und Gegenargument lassen sich vielleicht einige Punkte verdeutlichen.

Argument 1: Für Notify-OSD müssen bestehende Anwendungen gepatcht werden.



Martin schreibt über die GNOME-Version von Notify-OSD:

Für die GNOME Implementierung müssen die existierenden Anwendungen angepasst werden.


Das Argument scheint auf den ersten Blick schwer zu entkräften, schaut man sich die lange Liste von Anwendungen an, die noch gepatcht werden müssten, um mit Notify-OSD kompatibel zu sein.

Wozu genau sind aber diese Anpassungen notwendig? Es geht, wie auch Martin schreibt, darum, dass Notify-OSD keine Actions unterstützt, also in die Benachrichtigung eingebettete Buttons. Ist damit nicht Notify-OSD unvollständig, und sollte nicht lieber dieser Bug in Notify-OSD behoben werden, anstatt alle Anwendungen anzupassen? An dieser Stelle kommen Standards und desktopübergreifende Spezifikationen ins Spiel: notification-daemon und KNotify implementieren eine Spezifikation des Galago-Projekts. Das ist auch sehr nützlich, denn so funktionieren Benachrichtigungen unabhängig vom Desktop.

Warum implementiert Notify-OSD diese Spezifikation dann nicht? Denn offenbar ist Notify-OSD ja umständlicher als die bisherigen Systeme. Der Eindruck entsteht zumindest, wenn Martin schreibt, es

sollen die Anwendungen einzeln überprüfen, ob der Benachrichtigungsprozess Aktionen unterstützt, dann sollen sie global verworfen werden.


Doch dies ist genau das, was die Spezifikation vorsieht: Nicht alle Implementierungen müssen alle möglichen Details umsetzen. Statt dessen gibt es eine Methode, mit der Anwendungen abfragen können, welche Fähigkeiten sie voraussetzen können, und welche nicht.

Damit muss man es also eigentlich genau andersherum formulieren: Die Änderungen, die die Ubuntu-Entwickler an den Anwendungen vornehmen, sind Bug-Fixes. Diese Bugs bestehen darin, dass die Anwendungen die Spezifikation nicht korrekt umsetzen, sondern sich daran orientieren, was de facto von den beiden bisherigen Implementierungen dieser Spezifikationen unterstützen. Das entspricht aber gerade nicht dem Sinn solcher Spezifikationen.

Warum aber implementiert Notify-OSD nicht einfach diese Aktionen in Benachrichtigungen? Das hängt mit dem zweiten Punkt zusammen:

Argument 2: Notify-OSD zeigt störende Dialoge, während KNotify ohne Dialoge auskommt.



Es geht bei dieser These um den Fall, dass eine Benachrichtigung eine direkte Aktion des Benutzers ermöglichen soll. Bisherige Benachrichtigungssysteme betten in diesem Fall einfach einen Button in das Benachrichtigungsfeld ein. Martin schreibt hierzu:

Die Plasma Benachrichtigungen haben das Ziel den Arbeitsfluss des Anwenders nicht zu unterbrechen und folgen dem Kein-Dialog Ziel für die Desktop Shells. Das Problem mit Dialogen ist, dass diese aus Versehen aktiviert werden können. Ein Dialog öffnet sich – wie der Name schon nahe legt – im Dialog mit einer Anwendung. Ein Dialog welcher nicht durch eine Interaktion des Nutzers geöffnet wird, ist daher falsch und der Fenstermanager verhindert zum Beispiel, dass dieser fokussiert werden kann.


Es bietet sich aber auch eine ganz andere Deutung an: Die Benachrichtungsfelder von KNotify (und übrigens auch von notification-daemon) sind eigentlich Dialoge. Sie haben zwar keine Fensterrahmen, aber sie bieten die Möglichkeit zur Interaktion mit dem Benutzer an. Die angesprochenen eingebetteten Buttons sind genau ein solcher Fall. Das Argument, dass solche Buttons versehentlich aktiviert werden können, trifft also auf klassische Dialoge ebenso zu wie auf Notification-Felder mit Buttons.

Die Entscheidung, Actions in Notify-OSD nicht zu implementieren, ist deswegen die eigentliche Neuerung: Ein Benachrichtigungssystem soll Benachrichtigen, aber eben keine Interaktionen ermöglichen. Deswegen kann man auch durch eine Benachrichtigung von Notify-OSD „hindurchklicken“. Praktisch etwa, wenn man ein Fenster schließen will, während oben rechts eine Benachrichtigung erscheint. Man klickt nicht versehentlich auf die plötzlich auftauchende Benachrichtigung, sondern, wie beabsichtigt, auf den Schließen-Knopf des Fensters.

Deswegen hat Martin auch die Ideen des Projektes etwas verzerrt wiedergegeben:

Nun sieht die Ayatana Implementierung vor, dass Dialoge anstelle von Aktionen in Benachrichtigungen angezeigt werden.


Die Implementierung zeigt Dialoge an, falls Anwendungen (fälschlich, wie ich oben dargestellt habe) Aktionen vorsehen, ohne die Fähigkeiten der Implementierung abgefragt zu haben. Damit ist das Anzeigen von Dialogen anstelle der Aktionen gerade nicht gewollt, sondern eine Übergangslösung für fehlerhafte Anwendungen. Bei der Implementierung von Notify-OSD wurde gerade sehr darauf geachtet, möglichst gut in der aktuellen Situation zu funktionieren, ohne die Vorteile des neuen Systems aufzugeben.

In einem Punkt muss ich Martin jedoch Recht geben: Auch ich bin nicht wirklich überzeugt davon, ob die vorgesehene Dauerlösung mit den Indikator-Applets wirklich der beste Weg ist. Es ist das eine, eine spezifikationskonforme Implementierung eines Standards zu entwickeln. Es ist aber etwas anderes, ein eigenes Aktions-System zu entwerfen, was von den Anwendungen upstream umgesetzt werden soll, ohne dass dieses System mit breiterer Beteiligung verschiedener Projekte entwickelt und spezifiziert wurde.

Ein Vorschlag für eine Spezifikation besteht, und es werden auch Kommentare erbeten. Um wirklich breite Akzeptanz für die meiner Auffassung nach richtige Idee zu finden, sollte der Prozess aber deutlicher von Ubuntu gelöst werden. Vielleicht wäre Freedesktop.org ein geeigneterer Ort für diese Diskussion als das Ubuntu-Wiki.

Den folgenden Dialog habe ich heute im Ubuntusers-Forum entdeckt. Ein Kunde ruft bei der Alice-Störungsstelle, weil er oft Probleme mit seiner Internetverbindung hat. Der Kunde hat sogar eine MP3-Aufnahme des Gesprächs. Schon der Wahnsinn,  wie schlecht informiert mancher Support ist. Wenn man keine Ahnung hat, dann sagt man lieber nichts, bevor man so einen Mist verzapft. Made my day.

..“

Störungsstelle: „Welches Betriebssystem verwenden Sie?“

Ich: „Das hat damit überhaupt nichts zu tun. Bitte schauen Sie sich
das letzte Ticket an und verbinden Sie mich mit einem Techniker.“
Störungsstelle: „Sie sind zur Mitarbeit verpflichtet. Bitte beantworten
Sie meine Fragen oder ich beende das Gespräch.“

Ich: „Linux“.

Störungsstelle: „Dann haben wir den Fehler doch schon gefunden.“

Ich: „Wieso? Ich kann Ihnen nicht folgen!“

Störungsstelle: „Linux ist sehr schlampig programmiert und nicht Internet-kompatibel.“ Das ist auch der Grund für Ihre Verbindungsabbrüche. Da wird Ihnen auf Dauer auch kein Techniker weiterhelfen können. Am besten Sie installieren Windows XP oder Vista um einen Internet-kompabiles System zu haben. Dann wird man Ihnen auch weiterhelfen können.“

Ich: (sprachlos und aufgelegt)
…“

Dass Firefox manchmal bei einem Rechtsklick willkürlich die verschiedensten Befehle ausführt, sei es nun das Anzeigen des Quelltextes, der Seiteninformationen oder das Zurückspringen zur letzten Seite, ist ein bekannter Bug. Als Workaround habe ich nun herausgefunden, dass die Mouse Gesture Redox Erweiterung Abhilfe schafft. Nach der Installation der Erweiterung konfiguriert man sie so, dass nirgends ein Häkchen gesetzt ist. Seit der Installation der Erweiterung traten bei mir die oben geschilderten Probleme nicht mehr auf.

Mit Wally sieht man sich an seinem Hintergrundbild nie satt. Das kostenlose Programm wechselt in einstellbaren Abständen das Hintergrundbild deines Desktops. Als Quelle kann das Programm Order, einzelne Datein, Flickr!, Yahoo!, Panoramio, Pikeo, Ipernity, Photobucket, Buzznet, Picasa oder Scummug verwenden. Es speichert auch auf Wunsch alle Wallpaper für einen angegebenen Zeitraum. Diese sind unter dem Punkt “Historie” wiederzufinden. Wally integriert sich super in die Linux-Dateimanager: KDE3, KDE4, Gnome, XFCE4, Fluxbox, Blackbox, FVWM und WindowMaker. Das Programm liegt auf der Herstellerseite als .deb-Paket vor. Ich persönlich verwende Wally unter Ubuntu 9.04, funktioniert einwandfrei.

Dieses Jahr ist es doch etwas mehr als im Vorfeld erwartet geworden.

Am Programm der Ubucon beteilige ich mich mit vier Programmpunkten. Das führt natürlich auch dazu, dass ich nicht all das besuchen kann, was mich interessiert.

Momentan sieht mein Plan wie folgt aus:

Freitag, 14:00-16:00 Uhr: ubuntu-de Events
Um auf dem Laufenden zu bleiben. Im normalen Alltag läuft alles rund um Events irgendwie an mir vorbei. Mittlerweile mit dem Wohn- und Arbeitsort in der Schweiz wird es besonders schwierig.

Freitag, 16:00-18:00 Uhr: Lightning Talks
Das wird spannend, ich freue mich schon drauf.

Samstag, 09:00-11:00 Uhr: LaTeX-Einsteiger
Eine gute Gelegenheit für mich, mich nach 15 Jahren Pause mal wieder ausführlicher mit LaTeX auseinanderzusetzen. OpenOffice.org brauche ich nicht für die wenigen Texte, die ich schreibe.

Samstag, 11:00-13:00 Uhr: Praktische Administration
Mache ich selber. Hier geht es um erprobte Verfahren, gute Ideen und weniger um die Technik.

Samstag, 14:00-16:00 Uhr: Struktur global / ubuntu-de
Hört sich sehr trocken an, ist aber sicher spannend. Wie funktioniert Ubuntu eigentlich global und auch runtergebrochen auf deutsche Community? Welche Aufgaben hat der Community Council? Was alles zum ubuntu-de LoCo-Team dazugehört, hat Julius schon letztes Jahr erklärt.

Samstag, 16:00-18:00 Uhr: Muschelsuppe
Mache ich auch selber. Hier geht es um ein paar Tipps und Tricks für erfahrenere Shell-Nutzer. Das ist nicht für Einsteiger geeignet.

Sonntag, 09:00-11:00 Uhr: Fragestunde Server
Und hier ist der Platz für technische Fragen. Kein Programm, keine Vorbereitung, ausser durch die Teilnehmer ... Falls keiner kommt, gehe ich Kaffee trinken :-)

Sonntag, 11:00-13:00 Uhr: Podcasting mit und über Linux
Das machen Roman und ich zusammen und werden es auch veröffentlichen.

Sonntag, 14:00-16:00 Uhr: Abschlussveranstaltung
Yip. Kommt ja immer zum Schluss.

Da ich am Freitag relativ früh da bin und am Sonntag relativ spät zurück fliege, wird natürlich auch noch beim Auf- und Abbau geholfen.

Zwischendurch findet noch die nichtöffentliche Vereinsversammlung des ubuntu Deutschland e. V. statt. Roman und ich versuchen, noch ein paar Interview-Partner für unseren Podcast zu finden.

Ach, ja: Auch wenn ich am Keysigning nicht teilnehmen kann, können wir das trotzdem "nebenbei" noch erledigen. CAcert-Punkte darf ich mittlerweile auch vergeben, allerdings erwarte ich dann auch zwei amtliche Ausweise zu sehen.

25. September 2009

skweez.net 25. September 2009 19:19

Screen

Screen ist für mich die wichtigste Anwendung für UNIX Server geworden. Es rüstet einige Features nach, die ich nicht mehr missen möchte, wenn ich per SSH einen Server administriere. Es ermöglicht mehrere Tabs über eine einzige SSH Sitzung zu benutzen und es speichert den aktuellen Stand bis man sich das nächste Mal anmeldet. So kann man angefangene Arbeit leicht wieder aufnehmen, oder längere Prozeduren, wie Aktualisierungen, laufen lassen, ohne dass man angemeldet ist und ohne dass irgendwelche Konsolenausgaben im Nirwana verschwinden.

Ich möchte hier meine Screenkonfiguration vorstellen und erläutern. So kann jeder Screen für seine Bedürfnisse anpassen und den maximalen Nutzen daraus ziehen.

Als erstes muss man Screen natürlich installieren. Unter Debian oder Ubuntu zum Beispiel mit

apt-get install screen

Individuelle Einstellungen für Screen nimmt man in der Regel in der .screenrc-Datei in seinem Home-Verzeichnis vor. Als erstes habe ich bei mir die Visual Bell ausgeschaltet mit

vbell off

Damit wird ein Ton ausgegeben und es blinkt nicht das ganze Fenster. Das ist sehr wohl Geschmackssache. Scrollen kann man mit

termcapinfo xterm* ti@:te@

aktivieren. Dann kann man im eigenen Terminal zurück scrollen.

Was Screen auch sehr nützlich macht, ist die Hardstatus-Zeile. Diese ist immer in der untersten Zeile des Terminals. In dieser kann man sich beliebige nützliche Informationen über den Rechner anzeigen lassen. Meine Hardstatus-Zeile sieht so aus:Screen Hardstatus-Zeile

Um die Hardstatus-Zeile zu aktivieren muss man als erstes folgende Zeile in die .screenrc schreiben:

hardstatus alwayslastline

Was in der Zeile angezeigt werden soll, wird in der nächsten Zeile mit dem folgenden Befehl angegeben:

hardstatus string '...'

Wenn man in der Hardstatus-Zeile mehr als nur Hostname, Load oder Datum anzeigen lassen will, muss man eigene Scripte schreiben, die die gewünschten Informationen bereitstellen. In meinem Fall wird noch die Arbeitsspeicherauslastung, die Swap-Auslastung und die angemeldeten Benutzer angezeigt. Für die Arbeitsspeicherauslastung ist folgendes Script zuständig:

#!/bin/bash
free -m | grep Mem | awk '{print $3 "MB ("($3/$2)*100"%)"}'

Es gibt den belegten Arbeitsspeicher in MB an und die Belegung in Prozent. Das Script kann in einem Ordner im Home-Verzeichnis gespeichert werden, zum Beispiel /home/elm/.screen/mem.sh In die .screenrc muss man das Script dann mit backtick einbinden. Dazu wird folgender Eintrag in die .screenrc geschrieben:

backtick 1 10 10 /home/elm/.screen/mem.sh

Die 1 ist dabei die ID mit der man die Ausgabe des Scripts abfragen kann. Die erste 10 steht für die Gültigkeitsdauer der Ausgabe in Sekunden und die zweite 10 gibt an, nach wie vielen Sekunden das Script erneut aufgerufen werden soll.

Das Script für die Swap-Auslastung ist folgendes:

#!/bin/bash
free -m | grep Swap | awk '{print $3 "MB (" $3*100/$2 "%)"}'

mit folgendem Eintrag in der .screenrc:

backtick 2 10 10 /home/elm/.screen/swap.sh

Entsprechend für die Anzeige der angemeldeten Benutzer:

#!/bin/bash
users | tr " " "\n" | sort -u | tr "\n" " " | sed -e 's/ /, /g;s/, $/\n/'

Diese Anzeige wird nur alle 30 Sekunden aktualisiert:

backtick 3 30 30 /home/elm/.screen/who.sh

Nun kommt die eigentliche Hardstatus-Zeile. Als erstes werden alle Einstellungen zurückgesetzt und der Hintergrund auf Schwarz und die Standardtextfarbe auf helles Grün gestellt. Dazu trägt man folgendes in die hardwarestatus string Zeile ein:

hardstatus string '%{= kG}'

Als nächstes kommt %H für den Hostname und die Farbe des Doppelpunktes soll danach helles Weiß (%{W}) sein:

hardstatus string '%{= kG}%H%{W}: '

Danach wird das erste eigene Script aufgerufen, dass die aktuelle Arbeitsspeicherauslastung in Gelb anzeigen soll:

hardstatus string '%{= kG}%H%{W}: %{y}%1`'

Das Hochkomma bedeutet, dass es sich bei %1 um die Ausgabe den backtick-Aufrufs mit der ID 1 handelt.
Als nächstes kommt ein Weißer Strich und die Belegung des Swap in Gelb:

hardstatus string '%{= kG}%H%{W}: %{y}%1`%{W}|%{y}%2`'

Die Anzeige der Tabs soll in der Zeile zentriert erscheinen. Dazu muss nun ein dynamischer Freiraum (%= ) eingefügt werden. Dieser passt sich immer so an, dass aller freier Platz belegt wird. Wird so ein Freiraum zweimal eingefügt, dann wird der freie Platzt zwischen beiden aufgeteilt.

hardstatus string '%{= kG}%H%{W}: %{y}%1`%{W}|%{y}%2`%='

Nun sollen alle Tabs angezeigt werden, die vor dem aktuell aktiven Tab liegen. Mit -w werden alle Tabs vor dem aktuellen angezeigt. Das L vor dem w bewirkt, dass zusätlich zu der Nummer und dem Namen des Tabs auch noch die Attribute des Tabs angezeigt werden. Das gleiche gilt für die Tabs, die nach dem aktuellen kommen, nur anstelle des - wird ein + verwendet. Das Ergebnis in Weiß:

hardstatus string '%{= kG}%H%{W}: %{y}%1`%{W}|%{y}%2`%=%{w}%-Lw...%{w}%+Lw'

Nun fehlt noch der aktuelle Tab. Dieser soll in Rot angezeigt werden. Die Nummer des Tabs bekommt man mit %n, die Flags mit %f und den Namen mit %t. Zwischen der Nummer und den Flags soll außerdem noch einen * stehen.

hardstatus string '%{= kG}%H%{W}: %{y}%1`%{W}|%{y}%2`%=%{w}%-Lw%{r}%n*%f%t%{w}%+Lw'

Nun kommt der zweite Freiraum, der dafür sorgt, dass die Tabs in der Mitte stehen:

hardstatus string '%{= kG}%H%{W}: %{y}%1`%{W}|%{y}%2`%=%{w}%-Lw%{r}%n*%f%t%{w}%+Lw%='

Jetzt kommt in hellem Grün das Wort User dann ein weißer Doppelpunkt und in Gelb die angemeldeten User:

hardstatus string '%{= kG}%H%{W}: %{y}%1`%{W}|%{y}%2`%=%{w}%-Lw%{r}%n*%f%t%{w}%+Lw%=%{G}User%{W}: %{y}%3`'

Zuletzt noch das Datum und die aktuelle Uhrzeit:

hardstatus string '%{= kG}%H%{W}: %{y}%1`%{W}|%{y}%2`%=%{w}%-Lw%{r}%n*%f%t%{w}%+Lw%=%{G}User%{W}: %{y}%3` %{B}%d.%m.%Y %{W}%c:%s'

Damit ist die Hardstatus-Zeile fertig.

Meine ganze .screenrc sieht damit so aus:

vbell off

termcapinfo xterm* ti@:te@

backtick 1 10 10 /home/elm/.screen/mem.sh
backtick 2 10 10 /home/elm/.screen/swap.sh
backtick 3 30 30 /home/elm/.screen/who.sh

hardstatus alwayslastline
hardstatus string '%{= kG}%H%{W}: %{y}%1`%{W}|%{y}%2`%=%{w}%-Lw%{r}%n*%f%t%{w}%+Lw%=%{G}User%{W}: %{y}%3` %{B}%d.%m.%Y %{W}%c:%s'

phpSysInfo ist ein PHP-Script überschaubarer Größe, das ausführliche Informationen zu Hardwarezustand  und Systemauslastung aggretiert und ansprechend, als  Webseite gestaltet, darstellt.

In der Standardkonfiguration zeigt phpSysInfo die IP, Distribution, Kernel, Load, Uptime, ausführlich Informationen über die Hardware, Verbrauch des Arbeitsspeichers, Dateisysteme die gemountet sind und laufende Prozesse an. Außerdem unterstützt es eine mehrsprachige Ausgabe in verschiedenen Themes.

.

Installation und Konfiguration

Für Debian existiert ein Paket in den Paketquellen, dass einen Webserver, sowie einen PHP Interpeter, als Abhängigkeit fordert. Es wird üblicherweise wie folgt eingerichtet:

# apt-get install phpsysinfo

Anschließend ist es unter /var/www/phpsysinfo/ verfügbar. Die Konfigurationsdatei befindet sich in /etc/phpsysinfo/. Dort kann angeben werden welche  Sprachen und Layout standardmäßig angezeigt werden soll. Mit den Parametern:

define('hideMounts', '');
define('hideFstypes', '');
define('hideNetworkInterface', '');

können bestimmte Mountpoints, Partitionen oder Netzwerkinterfaces versteckt werden. Neben des Auslesens der Lüfterdrehzahl und der Temperatursensoren, kann phpSysinfo auch die Temperatur von  S.M.A.R.T kompatiblen Festplatten auslesen. Auch können apcupsd kompatible  UPSs ausgelesen werden.

.

Lüfter und Temperaturüberwachung

Wie oben schon erwähnt können mit phpSysInfo  auch  Lüfter- und Temperaturanzeigen  überwacht werden. Dies kann man recht einfach einrichten; Wenn nicht schon geschehen, muss man hierzu lm-sensors installieren:

# apt-get install lm-sensors

Nach der Installation muss man zunächst durch sensors-detect die verfügbaren Sensoren erkennen lassen. Hierzu fragt sensors-detect gängige Sensorenkonfigurationen ab und gibt am Ende eine Liste aus mit der passenden Module, die via modprobe geladen werden sollten. Wenn mit sensors die korrekte Funktionsweise überprüft worden ist kann lm-sensors durch service lm-sensors start als Service eingerichtet werden. Um die Sensoranzeige in phpSysinfo zu aktivieren muss nun nurnoch die Konfigurationsdatei  /etc/phpsysinfo/config.php modifiziert werden. Aus

define('sensorProgram', false);

wird nun

define('sensorProgram', 'lmsensors');

Bei nächsten Laden der Seite werden nun zusätzlich Lüftergeschwindigkeiten und Temperaturen angezeigt.

.

Fazit

Wichtig ist es die Seite mittels .htaccess oder einer anderen Authentifizierung zu schützen , da sonst eventuell brisante Systeminformationen an die Öffentlichkeit gelangen. Einzig negativer Aspekt ist das bei meinem Test die Prozessor-Auslastung meines Computers beim Laden der dynamischen js-Version der Version 3.0 RC9 auf 100% ausgeschlagen ist. Für längerfristigen Gebrauch bietet sich daher eher die statische Seite an. Um die Datensammelwut von phpSysInfo mit eigenen Scripten oder Programmen weiter zu verarbeiten bietet phpSysInfo zusätzlich eine XML-Ausgabe.

Weiterführende Links:


Comments

„Der Weg ist das Ziel“ - Was bezogen auf die meisten Programme eine Lüge ist, stellt die Daseinsberechtigung für eine ganze Reihe an Werkzeugen dar. Sie stellen den Weg von Paketen durch die Wirren des Router-Dschungels komplexer Netzwerke dar.

Kann man keine Verbindung mit z.B. einem Webserver herstellen, teilt einem ein ping nur mit, ob dieser erreichbar ist, so dessen Admin die Antwort darauf überhaupt zulässt. Möchte man jedoch wissen, wer daran Schuld hat, so muss man dem Weg der IP-Pakete folgen und hier kommt traceroute ins Spiel. Das Kommando steht unter Ubuntu derzeit in vier Implementierungen zur Verfügung, dies dürfte auch bei den anderen gängigen Linux-Distributionen der Fall sein.

  • traceroute
    Das klassische traceroute sendet mehrere ICMP-Pakete mit von 1 an steigender TTL (Time To Live - sozusagen der Lebensdauer eines IP-Pakets) in Richtung des Ziels ab und listet auf, ob und nach welcher Zeitspanne eine Antwort darauf zurückkommt. Diese werden nacheinander aufgelistet und bilden so den Pfad von Paketen im Netzwerk ab. IP-Adressen werden standardmäßig aufgelöst.
    traceroute www.example.net
  • traceroute-nanog
    Dieses Paket stellt ein traceroute-Kommando mit erweiterten Möglichkeiten zur Verfügung. Achtung! Das traceroute-Kommando dieses Pakets verdeckt das des originären traceroute.
    Es werden Superuser-Privilegien benötigt.
    sudo traceroute www.example.net
  • tcptraceroute
    Die zunehmende Verbreitung von Firewalls führt unter anderem dazu, dass ICMP-Pakete nicht mehr unbedingt beantwortet werden. tcptraceroute setzt daher auf TCP-Pakete auf z.B. dem Port 80 (Webserver), die von den meisten Firewalls zugelassen und weitergeroutet werden.
    IP-Adressen werden standardmäßig aufgelöst, es werden keine Superuser-Privilegien benötigt.
    tcptraceroute www.example.net
  • paris-traceroute
    Die klassischen traceroute-Derivate bekommen bei asynchromen Routing (Hin- und Rückweg für die Pakete sind unterschiedlich) Probleme und stellen unter Umständen nicht den korrekten Pfad dar. paris-traceroute manipuliert daher TCP-Header, die zum Routing herangezogen werden und damit sogar aufzeigen, ob eine Paket- oder Flowbasierte Lastverteilung zum Einsatz kommt. paris-traceroute benötigt Superuser-Rechte.
    sudo paris-traceroute www.example.net

Wer die Konsole scheut, oder sich eine zweite Meinung von einem anderen System einholen möchte, kann auch Traceroute-Webdienste wie zum Beispiel von Iptools verwenden.

Dieser Artikel nimmt an der Blogparade „Exotische Linux-Applikationen gesucht“ teil.

 

bejonet 25. September 2009 01:57

Gnome-Shell

Nachdem bald (nächstes Jahr) GNOME 3.0 erscheint, kann man jetzt schon einen Blick auf auf einige elementare Komponenten werfen, darunter die neue Gnome-Shell und Zeitgeist, ein Tool zum Dateien verwalten/durchsuchen.
Wie man die Gnome-Shell auf seinen Ubuntu-Rechner bekommt, das zeigen wir heute.

Installation

Um die Gnome-Shell installieren zu wollen braucht man ein normales Linux-System und einen Grafiktreiber, der 3D-Fähigkeiten hat (radeon, radeonhd, vesa etc. reichen also nicht aus)

Karmic

In Karmic ist dies relativ einfach, da die Gnome-Shell in den Quellen mit drin ist. Einfach in ein Terminal

sudo apt-get install gnome-shell

eingeben, oder das grafische Frontend seiner Wahl nutzen.

Jaunty

In Jaunty ist das Installieren der GNOME-Shell schon etwas schwieriger, aber bei weitem nicht unmöglich.
Als erstes muss man sich das Installationsskript hier herunterladen

wget http://svn.gnome.org/svn/gnome-shell/trunk/tools/build/gnome-shell-build-setup.sh

danach führt man das Skript aus

./gnome-shell-build-setup.sh

Dabei werden schon ein paar Dateien heruntergeladen.
Man wird danach noch aufgefordert, ein paar Abhängigkeiten zu installieren, was genau fehlt wird einem immer angezeigt. Bei mir hat allerdings noch das Paket libgnome-desktop-dev zusätzlich zu den genannten Paketen gefehlt. Wenn noch was fehlt, dann meckert das Programm im Verlauf der Installation und man kann es noch nachinstallieren.
Wenn die ganzen Abhängigkeiten Installiert sind, führt man diesen Befehl aus:

 ~/bin/jhbuild build

Dies kann nun abhängig von der Internetverbindung und der Rechnergeschwindigkeit etwas dauern, da sieben Programme heruntergeladen und kompiliert werden müssen.
Wenn dabei keine Probleme auftreten, hat man seine Gnome-Shell nun fertig kompiliert.

Fedora und andere Distris

Das Installationsskript ist neben Ubuntu auch an Fedora angepasst, also werden auch die fehlenden Abhängigkeiten für Fedora ausgegeben. Für andere Distributionen muss man sich die fehlenden Abhängigkeiten selbst zusammensuchen, wenn man die Äquivalente zu diesen Ubuntupaketen installiert hat, ist man auf der richtigen Seite:

build-essential automake gnome-common flex bison curl git-core subversion gtk-doc-tools mesa-common-dev xulrunner-1.9-dev libdbus-glib-1-dev libffi-dev libgconf2-dev libgtk2.0-dev libgl1-mesa-dev libgstreamer-plugins-base0.10-dev python2.5-dev libwnck-dev libreadline5-dev librsvg2-dev libgnomeui-dev

Die weitere Installation erfolgt dann wie bei Jaunty.

Update

Für Karmic natürlich kein Problem, unter allen anderen Versionen/Distributionen mit diesen Befehl leicht realisierbar:

 ~/bin/jhbuild build –force –clean

Hierbei wird alles nochmal neu heruntergeladen und kompiliert.

Starten

die Gnome-Shell wird mit

~/install/bin/gnome-shell --replace

Dabei wird Metacity, Kwin, oder was man sonst benutzt durch die Gnome-Shell ersetzt.
Nun kann man die Gnome-Shell als Window-Manager benutzen.

Fazit

Wenn man sich die Gnome-Shell mal anschaut, dann fällt einem schon auf, dass die Gnome-Shell zum einen noch nicht wirklich fertig, und zum anderen, dass sie komplett anders als ein normales Gnome 2.x ist.
Wenn man auf Aktivitäten klickt, dann wird der Desktop ein bisschen verkleinert und man kann die geöffneten Anwendungen in dem Menü sehen, sowie die zuletzt geöffneten Dokumente betrachten. Natürlich kann man auch neue Anwendungen starten oder Dokumente mittels des Dateibrowsers öffnen.
Neu ist, dass man Standardmäßig nur einen Desktop hat, man aber beliebig viele hinzufügen kann.
Was ein bisschen schade ist, dass die Gnome-Shell noch nicht wirklich mit Compiz zusammenarbeitet, aber das kommt vielleicht noch.
Man kann sagen, dass sich die Gnome-Entwickler sicher was Gutes dabei gedacht haben, allerdings empfinde ich, soweit ich dies bis jetzt sehen kann, nicht wirklich als Fortschritt. Ich finde Gnome 2.x in Kombination mit Compiz einfach unschlagbar (außer vielleicht in der Geschwindigkeit ;) ). Gerade an Gnome gefällt mir dieses dreigliedrige Menü mit Anwendungen, Orte und System, was jetzt durch ein unübersichtliches Menü, ähnlich des K-Menüs, geopfert wird. Auch dass man zu einem Wechsel der Arbeitsfläche über dieses Menü gehen muss, finde ich nicht gut.
Naja, vielleicht wird da ja noch was verbessert.
Abschließend kann man sagen, als Add-On zu einem normalen Gnome ist es ja ganz nett, aber so als Ersatz noch nicht ganz durchdacht und ausgereift. Aber bis zum Release dauert es ja noch ein halbes Jahr, und da kann ja bekanntlich viel passieren.

hier noch ein paar Bilder:

Gnome-Shell Gnome-Shell Gnome-Shell Gnome-Shell Gnome-Shell Gnome-Shell Gnome-Shell Gnome-Shell Gnome-Shell
Gruß Jonas

24. September 2009

Gestern und Heute war wie schon so oft die OpenExpo. Dieses mal war Winterthur der Gastgeber.

Zur gleichen Zeit auch war die Business-Messe topsoft, welche mich aber nicht so begeistern konnte.

Auch dieses Jahr waren wieder viel interessante OpenSource Projekte anwesend. Unter anderem:

  • LPI
  • Drupal / Typo3
  • CA Certificat
  • Ubuntu CH / Fedora / FreeBSD / Gentoo
  • Moodle
  • amarok

Sehr interessant für mich war das Gespräch am Stand von LPI. Da ich in den Vorbereitungen von 101 bin und LPI die Prüfungen umgestellt hatte, konnte ich so viele nützliche Informationen erhalten.

Auch gab es endlich wieder eine neue Ubuntu-Swiss-Remix-CD (Was für ein Wort :) ). Die 7.04er die ich noch hatte war wohl doch ein bisschen veraltet :D

Besonders cool fand ich aber die offiziellen Vorträge mit eingeladenen Gästen und den Security Lap, wo Privatpersonen referieren konnten. Besonders den Vortrag über RFID und ePässe waren klasse und sehr lehrreich.

Insgesamt muss ich sagen, es hat sich sehr gelohnt :) Nächstes Jahr wieder!

Wer war auch da?

Sonst vergess ich es sowieso wieder:

find . -exec ls -d {} \;

gibt den vollständigen Datei-Pfad aus.
Sollte ausser mir nochjemand mal seinen shoutcast trans mit einer Playlist befüllen müssen und aus Gründen der total Pfusch-Config soetwas brauchen.