ubuntuusers.de

22. Oktober 2009

Die aktuelle von Fefe angestossene Diskussion zur Lösch(un)praktik der Wikipedia ist für mich mal ein Grund die Wikipedia mit dem Wiki von Ubuntuusers zu vergleichen. Ich denke bei der Wikipedia – zumindest der Deutschen – läuft seit einiger Zeit einiges falsch. Es ist ja nicht die erste Löschdiskussion und gerade die “Relevanzkriterien” sind bei mir schon öfter mal sauer aufgestossen. Mittlerweile schaue ich bei jedem Artikel auch auf die Englische Wikipedia. Zum Vergleich: wenn ich ein Linux “Problem” habe, ist meine erste Anlaufstelle das Ubuntuusers Wiki und erst wenn ich dort nicht fündig werde, gehe ich zur Suchmaschine.

Nun lässt sich überhaupt die Wikipedia mit dem uu Wiki vergleichen? Auf den ersten Blick nein. Die Wikipedia ist eine Enzyklopädie, das uu Wiki ist eine kleine Sammlung von technischen Artikeln. Jedoch gibt es große Übereinstimmungen:

  • Beides sind Wikis
  • Beide leben vom Mitmachen der Leute
  • Beide sind freie Projekte
  • Beide haben eine selbstgeschriebene Softwarelösung
  • Beide sind in ihrem Umfeld die Nummer 1 in Deutschland
  • Bei beiden gibt es eine Gruppe Ausgewählter, die das letzte Wort haben

Ich denke bei Ubuntuusers läuft es besser. Aber warum? Ich sehe da zwei Gründe:

  1. MediaWiki eignet sich nicht zur Diskussion
  2. Ubuntuusers hat das Baustellen Konzept

Die Diskussion bei der Wikipedia erfolgt im Rahmen der Möglichkeiten von MediaWiki und das ist ein Wiki. Es gibt daher zu jedem Artikel einen Anhang als Diskussion, welcher wiederum eine Wiki Seite ist. Ein Wiki ist aber kein Diskussionsmedium. Schaut man sich die aktuell so schönen öffentlichen Diskussionen an, sieht man, dass man mit einer Wiki Seite keine sinnvolle Diskussion erreichen kann.

Ubuntuusers verwendet zur Diskussion verknüpfte Forenthreads. Ein Forum ist ein Diskussionsmedium und bietet damit eine gute Grundlage um konstruktiv und sinnvoll zu diskutieren. In einem Forum sieht man sofort wer wo wann gepostet hat, es steht nicht alles untereinander, sondern ist sinnvoll strukturiert. Man sieht bei ubuntuusers sofort ob der Schreiber gerade eine Wikimoderator, Supporter, ehemaliger oder sonstwas ist. Dazu gibt es noch den Postcounter und das Anmeldedatum, die angezeigt werden. Klar nicht wirklich aussagekräftig, aber es hilft doch die Sockenpuppen aufzudecken. Gäbe es bei uns eine Diskussion wie die zum Löschantrag von Fefes Blog würde sofort auffallen, dass es Sockenpuppen sind und wir könnten mit den Forenmoderatoren zusammen eine gute Reaktion ausarbeiten.

Den zweiten Vorteil von Ubuntuusers ist das Baustellenkonzept. D.h. neue Artikel können nicht direkt im Wiki angelegt werden, sondern nur in der Baustelle. Das ist bei einem technischen Forum essentiell wichtig, da nur so sichergestellt werden kann, dass keine fehlerhaften oder gefährliche Anleitungen ins Wiki eingebaut werden. Für den Schreiber hat es auch den Vorteil, dass er sich erst mal austoben kann und erst wenn er fertig ist, sich den Moderatoren stellen muss ;-) Ich denke dieses Konzept wäre auch für die Wikipedia nützlich. Der aktuelle Fall zeigt es ja wieder: würde zuerst der Artikel komplett erarbeitet werden inklusive der Relevanzbeweise, dann hätte man nicht schon nach wenigen Minuten eine Löschdiskussion. Größere Überarbeitungen werden übrigens auch nur in der Baustelle vorgenommen und solange wird der eigentliche Artikel gesperrt. Das hat den Vorteil für den Schreiber, dass er sich austoben kann und auch den kompletten Artikel erst mal kaputt machen kann und für den Wikimod, der die Änderungen korrigiert (vielen Dank an der Stelle noch mal an das Webteam für den RSS Fead – dafür gibt’s ein Bier beim nächsten Teamtreffen), dass er diese Änderungen erst mal ignorieren kann. Wäre für die Wikipedia auch interessant.

Nun klingt das alles ja ganz toll, aber woher soll man nun wissen, dass es wirklich besser ist? Dazu möchte ich einfach mal anmerken, dass wir in den etwa 1,5 Jahren, die ich im Wikiteam nun bin, keine einzige Seite sperren mussten wegen einem Editwars. Wir haben auch meines Wissens nach noch nie einen User sperren müssen. Gut wir zwingen die Anmeldung am Portal um Änderungen vornehmen zu können – muss aber auch sein, sonst könnte der User nicht mitdiskutieren.

Auch bietet uns die Software noch mehr nette Möglichkeiten. So haben wir – ja man glaubt es kaum – einen internen Diskussionsbereich und einen geschützten Wikibereich. Dass unsere interne Diskussion nach Außen getragen wird und plötzlich bei Fefe verlinkt ist, kann uns nicht passieren ;-) (Nein wir diskutieren nichts schlimmes intern, meistens geht es nur um Sachen wie Verbesserungen an unseren Vorlagen. Das geht im kleinen Kreis halt einfacher. Wikiartikel selbst diskutieren wir öffentlich).

Nun und jetzt noch etwas zum Löschen. Ja wir löschen auch. Aber nur ganz selten. Wir löschen eigentlich nie Artikel aus dem Wiki. Ist ein Artikel veraltet so wird er ins Archiv verschoben. D.h. er ist immer noch vorhanden. Gründe für so etwas ist nicht mehr vorhandene Software wie z.B. Beryl. Gelöscht werden maximal Artikel, die unsere “Relevanzkriterien” nicht erfüllen und das sind dann “nur” Artikel in der Baustelle. Das kommt sehr selten vor und wird immer nur nach dem Vielaugen Prinzip angewandt (und wir bieten dem Autor immer auch an den Artikel auf seine Benutzerseite zu stellen). Ein Beispiel wäre ein Artikel zu einem Windowsspiel welches ohne Anpassung mit Wine läuft. Dafür braucht man einfach keinen Artikel ;-)

Auch wenn das uu Wiki viel kleiner ist, könnte die große Wikipedia meiner Meinung nach von uns Lernen. Ich hoffe auch dass die Löschdiskussion nicht abebbt, sondern zum Umdenken in der Wikipedia führt. Ich denke die Wikipedia schadet sich selbst. Wenn in der englischsprachigen Wikipedia mehr steht zu aktuellen deutschen politischen Ereignissen, dann ist das für mich ein deutliches Indiz dass was falsch läuft. Ich denke für die Wikipedia sollte gelten: “Verbessern statt Löschen”

=-=-=-=-=
Powered by Blogilo


Natürlich habe ich es verpasst, ubuntuusers.de zum Geburtstag zu gratulieren. Schande über mich.

Mir persönlich hat ubuntuusers.de sehr viel gebracht. Ich war lange Zeit Moderator, zwischendurch Projektleiter, und bin nach wie vor Mitglied – wenn auch momentan inaktiv.

Trotz alledem: ohne ubuntuusers.de hätte ich nicht so leicht zu Ubuntu gefunden. Gäbe es ubuntuusers.de nicht, man müsste es erfinden.

Auf die nächsten 5 Jahre! Alles Gute!

Linux, ATI und Treiber. Diese drei Worte reichen. um mich mit den Zähnen knirschen zu lassen. Wer ebenfalls Besitzer einer ATI-Grafikkarte und zugleich Linux-Benutzer ist weiß, warum.

Warum? Nun, der Grund liegt darin, dass ATI nunmal keine gescheiten Treiber für Linux anbietet. Es gibt zwar eine Linux-Version des Catalyst-Treibers (fglrx), doch die läuft nur mit neueren Karten, während sich Besitzer älterer Modelle mit den freien Treibern (radeon und RadeonHD) begnügen müssen. Die hinken den Original-Treiben natürlich deutlich hinterher. Wer auf die Idee kommt, damit Spiele spielen zu wollen: Vergisst es!

Glücklicherweise schreitet die Entwicklung relativ schnell voran und deshalb lohnt es sich, mal einen Blick auf den Unstable-Zweig der freien Treiber zu werfen und ihn auszuprobieren, denn die Treiber laufen deutlich besser, als die stabilen Versionen aus den Ubuntu-Paketquellen.

Um auf den Unstable-Zweig zu aktualisieren fügt man sich ein PPA in seine sources.list hinzu:

deb http://ppa.launchpad.net/xorg-edgers/ppa/ubuntu jaunty main

Dann wird noch der passende GnuPG-Key benötigt:

$ sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-keys 8844C542

Nach einem

$ sudo apt-get update && sudo apt-get upgrade

werden die neuen Treiber installiert, u.a wird aber auch X.org ansich aktualisiert. Man sollte sich gut überlegen ob man dies möchte, da, abgesehen von irgendwelche Bugs der instabilen Treiber,  man sich so auch das Update auf Karmic verbauen kann.

Wie oben angesprochen, gibt es zwei freie Treiber für aktuelle ATI-Karten der Radeon-Serie: einmal radeon sowie RadeonHD welche sich in dem Paket xserver-xorg-radeon bzw xserver-xorg-radeonhd befinden. Der Unterschied besteht darin, dass sich RadeonHD auf Karten ab der X1550 konzentriert, während radeon auch Unterstützung für ältere Karten bietet. Am besten, man probiert beide Treiber aus und nimmt den, der besser funktioniert. RadeonHD schleudert mich kommentarlos auf die Konsole, radeon allerdings ermöglicht mir zumindest Compiz und mit der Unstable-Version endlich auch das Spielen (!) von Warsow, UrbanTerror und Sauerbraten auf mittleren Einstellungen. Unter Windows ist die Performance zwar wesentlich besser, aber immerhin sind die Unstable-Treiber schonmal ein Fortschritt.


Ubuntu-Derivate gibt es mittlerweile wie Sand am Meer. Das liegt zum einen darin, dass es ja für nahezu jede Desktopumgebung ein eigenes Derivat gibt, sei es nun kubuntu mit KDE oder fluxbuntu mit fluxbox. Daneben gibt es aber auch Dutzende Derrivate, die sich nur um bessere Lokalisierung kümmern da seien Arabian Linux, Runtu für vollen Support des Russischen, Tilix für bulgarisch sprechende Nutzer oder Baltix Gnu/Linux für die baltischen Sprachen Litauisch und Estnisch. Da gibt es aber eben nicht nur sprachliche Unterschiede sondern auch religiöse und so gibt es natürlich auch Ubuntu-Derivate für Christen Ichthux oder die Ubuntu Christian Edition (die satanische soll es wohl auch geben) auch den Muslims ist eine eigene Distribution gewidmet Sabily (vorher Ubuntu Muslim Edition).
Dann gibt es noch einige Distributionen für Netbooks (EasyPeasy und “noch” eeebuntu), einige Privacy-Remixe oder Rettungs- und Forensikdistributionen und auch die Multimediafreaks müssen mit einigen Ubuntuablegern zurechtkommen. Alle diese Distributionen sind aber mehr oder minder bekannt.

Ziel der Distributions-Salate war aber immer interessant oder unbekanntere Distributionen vorzustellen. Daher habe ich aus der endlosen Liste einmal vier herausgepickt.

CrunchBang Linux verfolgt einenminimalistischen Ansatz um eine gute Funktionalität bei guter Rechengeschwindigkeit zu bieten. CrunchBang benutzt ein minimales Ubuntuysystem und setzt auf die leichtgewichtige Openbox als Windowmanager mit GTK+ Applikationen darauf. CrunchBang kommt zum Beispiel mit vorinstallierten Firefox mit Flashsupport, Rythmbox mit Mp3-Support und installierten Skype daher. CrunchBang ist zwar als Livedistribution zu haben allerdings erzielt man bessere Ergebnisse mit einer Installation derselbigen.

Entwickelt wurde Kurumin Linux von Carlos E. Morimoto, er benannte diese Linuxdistribution nach dem Tupiwort für Kind - Kurumin. Gestartet hat dasGanze als Derivat von Knoppix und damit als Debianderivat. Kurumin hat damit immer auf KDE als Desktopumgebung gesetzt. Die beliebte brasilianische Distribtion wurde allerdings mittlerweile eingestellt (Januar 2008). Ziele der Distribution waren eine geringe Installationsgröße und komplette Unterstützung des brasilianischen portugiesisch.

Maryan Linux kam nur in seinem ersten Release auf Basis von Ubuntu daher, mittlerweile setzen die Entwickler auf Arch Linux als Basissystem für zukünftige Versionen. Die Version 2 Codename Bulnesia setzt bereits auf Arch Linux. Mayran Linux ist ein leichtgewichtiges Linuxsystem, welches vor allem auf den Enlightenment 17 Desktop setzt. LXDE, Fluxbox oder pekwm können aber als Alternativen eingesetzt werden.

Poseidon Linux ist eine Gnu/Linux-Distribution speziell für den Einsatz im akademischen Umfeld und im wissenschaftlichem Bereich. Poseidon Linux enthält deshalb nicht nur allgemein übliche Software wie eine Office-Suite, Internetbrowser oder IRC-Client sondern vor allem auch Entwicklungsumgebungen zur Softwareentwicklung, Werkzeuge zur Grafikbearbeitung, Werkzeuge zur Bearbeitung von Karten und für 2D/3D Visualisierung ebenso wie Tools für Statistiken.

CAINE (Computer Aided INvestigative Environment) ist eine Livedistribution für digitale Forensik und wurde vom Interdepartmental Centre for Research on Security (CRIS) mit Unterstützung der Universität Modena und der Region Emilia in Italien entwickelt. Anders als bei anderen Distributionen sind hier die Werkzeuge komplett in eine nutzerfreundliche Desktopumgebung integriert. Die Werkezuge sind trotz allem die gleichen, wie bei anderen derartigen Distributionen.

ThunderbirdThunderbird ist schon eine ganze Weile auf meinem Rechner installiert. Ich nutze das Teil – nebst andern Klienten und Webmailern – recht gerne. Da ich seit je her IMAP nutze, kann ich ohne Weiteres mit verschiedenen Programmen auf meine Mails zugreifen. Ich brauch jeweils bloss die Kosmetik des Klienten meinen Bedürfnissen anzupassen. Das ist sehr praktisch, auch wenn ich mobil per Telefon darauf zugreifen will. Die Version 3 des Donnervogels gibt es ja schon ziemlich lange in Entwicklungsversionen; aktuell in der 4. Beta (3.0b4). Ich habe mir diese Version heruntergeladen und angesehen. Der erste Eindruck ist recht positiv, wenn ich auch noch Sunbird oder besser gesagt Lightning als vorinstalliertes Goodie vermisse.

Das Archiv lässt sich hier herunterladen. Wer Thunderbird bloss testen will, entpackt es an einem beliebigen Ort und startet dann das Shell-Skript thunderbird aus dem Root des entpackten Ordners. Die individuellen Daten werden im Home-Verzeichnis unter .thunderbird abgelegt.

Nach dem ersten Start wird ein Konto importiert oder ein neues angelegt. Beim Anlegen eines neuen Konto gibt es neu ein Wizard, der dem Nutzer helfen will, das Konto richtig einzurichten. Das klappt aber oft nicht, weil Thunderbird offenbar davon ausgeht, dass der Benutzername bloss der Alias einer E-Mail-Adresse ist. Meisten ist das aber wohl die gesamte Mail-Adresse.

Konto einrichten

Das “Problem” bestand aber schon bei den älteren Versionen. Das GUI des Programms hat sich stark verändert, aber auch bei den Features sind einige dazugestossen. Aufgefallen ist mir dabei die Archiv-Funktion. Jene ist so intelligent, dass sie ein neues Archiv direkt auf dem IMAP-Server anlegt, so dass es von überall her erreichbar bleibt. Sinnreich ist das meiner Meinung nach. Mit dem Archiv lassen sich – wie wohl zu erwarten ist – Nachrichten archivieren, wobei Thunderbird eine Ordner-Hierarchie nach Jahre anlegt.

Posteingang - Mozilla Thunderbird 3.0 Beta 4

Verschiedene Bedienungselemente wie Weiterleiten oder Archivieren stehen viel “näher” per Button zur Verfügung. Insgesamt lässt sich das Mailprogramm einfacher und schneller bedienen, wenn man die Maus nutzt. Aber auch per Tatstatur-Kürzel kann man die Applikation natürlich nutzen. Die Indexierung habe ich noch nicht angeschaut, ebenso die genauen Funktionen der Archivierung nicht. Standardmässig wird der Posteingang ausserhalb des jeweiligen Kontos an einem zentralen Ort angezeigt, ebenso der Mülleimer.

Eigenschaften

Auch die Eigenschaften der einzelnen IMAP-Ordner präsentieren sich neu. Gefällt mir ganz gut, auch wenn mein Server nicht alle Features unterstützt. Man könnte so auch Ordner teilen. Nach wie vor wird aber der Fehler nicht abgefangen, wenn die Applikation zwei mal geöffnet wird. Sie blockiert zuerst und verabschiedet sich dann. Mir passiert es halt ab und zu, dass ich Thunderbird zwei mal öffne, weil ich zu flüchtig darauf achte, ob ich die Applikation bereits gestartet habe. Das ist mein Fehler, aber es ist trotzdem lästig. Beispielsweise Audacity fängt diesen Fehler sauber ab.

Thundervbird 3 in der vierten Beta-Version präsentierte sich mir in einer stabilen Weise. Diverse neue Funktionen sind hinzugekommen. Der erste Freigabe-Kandidat ist auf November 2009 geplant.

Ähnliche Artikel

Ein gleichermaßen kleines, wie auch nützliches Programm, welches ich in den ersten Tagen meines Mac-Daseins entdeckt habe heißt Caffeine. Dieses sorgt dafür das mein Macbook keine Stromsparmechanismen verwendet, also z.B. das Display dimmt. Sehr praktisch zum Beispiel für Präsentationen oder wenn man mal ein etwas längeres Flash-Video schauen möchte.

Caffeine Mac

Caffeine auf dem Mac

Umso mehr freut es mich zu sehen, das es jetzt auch eine Implementierung für Linux gibt. Caffeine für Linux liegt sogar schon in Version 1.0 vor. Auch ein PPA für Jaunty und Karmic wurde eingerichtet.

Caffeine unter Linux

Caffeine unter Linux

Funktioniert recht einfach, nur das Programm starten, worauf eine kleine (leere) Kaffeetasse im Tray auftaucht. Klickt man auf diese, wird sie nicht nur gefüllt, sondern deaktiviert auch alle Stromsparmechanismen des Rechners. Auch eine Aktivierung für eine bestimmte Zeitspanne ist möglich.

via [aptgetupdate]

Tags: | | | |
bejonet 22. Oktober 2009 01:42

Glest

Das man mit Linux nicht nur arbeiten, sondern auch ganz gut Spielen kann, haben wir ja schon ein paar mal gezeigt. Während es Ego-Shooter für Linux nahezu wie Sand am Meer gibt (wenn auch viele mit der gleichen Basis:Quake3). Aber vor allem im Echt-Zeit-Strategie Bereich sind die Angebote etwas rarer gesäht, aber ein paar Perlen gibt es auch hier. Eine möchte ich hier kurz vorstellen: Glest

Installation

Glest ist für viele verschiedene Plattformen verfügbar, neben Windows, Linux, Mac auch für FreeBSD.
Glest lässt sich in vielen Distributionen recht einfach installieren, da es meist in den Quellen ist. Für Ubuntu reicht daher

sudo apt-get install glest

Neuere Versionen von Glest gibt es immer auf getdeb, es lohnt sich also immer, mal dort zu schauen.

Konfiguration

Glest wird über eine einzige Konfigurationsdatei, der ~/.glest/glest.ini konfiguriert. Dort kann man die Auflösung, die Lautstärke der Musik und der Töne einstellen, oder aber auch Sachen, die für das Spielgeschehen wichtig sind, wie ob es einen Nebel des Krieges geben soll oder nicht. Die meisten dieser Einstellungen lassen sich aber auch im Spiel im Einstellungsmenü grafisch erledigen.

Glest-Menü

Glest-Menü

Um zumindest die Texte in Glest einzudeutschen, läd man sich diese Sprachdatei herunter, entpakt sie, und verschiebt sie nach ~/.glest/data/lang. Danach muss man noch in der ~/.glest/glest.ini in Zeile 26 english durch german ersetzen. Die Tondateien kann man leider noch nicht eindeutschen.

Erweiterungen

Man kann Glest auch ein bisschen Erweitern, unter anderem mit neuen Karten.
Die Karten müssen hier heruntergeladen werden, dann entpackt werden und nach ~/.glest/maps entpackt.
Wer neue Scenarios sich installieren will, der wird hier fündig. Einfach entpacken und nach ~/.glest/scenarios verschieben.
Wem es ein bisschen zu langweilig ist, immer nur den Wald im Winter oder im Sommer zu sehen, der kann sich noch weitere Tilesets hier herunterladen. Wieder entpacken und, wer hätte es gedacht, nach ~/.glest/tilesets verschieben.
Hier noch eine kleine Warnung: Es kann passieren, dass sich der Multiplayer-Modus nicht starten lässt, auch wenn alle Mitspieler diese Erweiterungen installiert haben. Aber die Standardkarten reichen eigentlich ja auch aus.

Spiel starten

Bildschirmfoto-Glest-1

Glest-Menü

Wenn man ein Spiel Starten will, hat man drei Möglichkeiten, die Gegener zu wählen. Zum einen gibt es den Gegner CPU. Dies ist ein leichter Computer-Gegner, der nur am Anfang Schwierigkeiten bereitet, aber nach ein paar Spielen hat man es raus, wie man sich gegen diesen Gegner zur Wehr setzen kann.
CPU (Ultra) ist schon schwieriger, und man kann sich stundenlang mit ihm beschäftigen, wenn man denn will. Aber wie das immer so ist, irgendwann durchschaut man den Computer und es wird mit der Zeit vorhersehbar.
Am meisten macht das Spiel eh übers Netzwerk gegen richtige Menschen. Dazu muss man nur die Gegner auf Netzwerk stellen, und die anderen können sich einloggen, indem sie die IP des Hosters eingeben. Bei Spielen übers LAN reicht die Interne IP (192.168.x.x meistens). Um übers Internet spielen zu können, muss der Port 61357 des Hoster für TCP und UDP geöffnet sein. Zusätzlich braucht man natürlich die globale IP des Hosters.
Zum Mehrspielermodus ist zu sagen, dass unbedingt alle Spieler die gleiche Plattform und auch die gleiche Glest-Version benutzen müssen, sonst kann man das Spiel nicht starten.

Glest-Tech-Fraktion

Glest-Tech-Fraktion

Hat man sich erstmal auf eine Spielweise festgelegt, muss man sich nur noch eine Rasse aussuchen. Es gibt zwei verschiedene Rassen, zum einen die Magier und auf der anderen Seite die Techs. Die Techs sind die Menschen, die viele technische Geräte haben, wie beispielsweise Luftschiffe oder Roboter. Die Magier haben als Äquivalent dazu Drachen und Golems. Beide Seiten haben ihre Vor- und Nachteile sind aber im Wesentlichen gleich stark. Es gibt mehrere Rohstoffe, die alle für unterschiedliche Sachen gebraucht werden. Die Rohstoffe sind nicht unendlich vorhanden, so dass bei einem längeren Spiel gegen einen menschlichen Gegner schon einmal die Rohstoffe ausgehen können.
Wenn man dann erstmal im Spiel ist, muss man, wie in eigentlich allen Strategiespielen, Rohstoffe sammeln, Gebäude bauen, Soldaten ausbilden und dann sich gegen die Angriffe des Gegners zur Wehr setzen und letztendlich den Gegner komplett besiegen.

Fazit

Glest ist ein sehr schönes Echtzeitstrategiespiel, dass vor allem im Mehrspielermodus sehr viel Spaß macht. Die Grafik kann natürlich nicht mit kommerziellen Spielen mithalten, ist aber dennoch ganz ansehnlich.

Artikel teilen: Digg del.icio.us Facebook Google Bookmarks Identi.ca MisterWong Reddit Slashdot Twitter Yahoo! Buzz Yigg

21. Oktober 2009

IBM und Canonical haben nun eine Zusammenarbeit beschlossen unter dem Namen IBM Client for Smart Work. Dies ist ein Paket welches das Betriebssystem (Ubuntu), einen Cloud-Computing-Dienst und versch. Anwendungen, wie z.B. eine modifizierte OpenOfficeversion genannt Lotus Symphony, enthält.

Laut IBM verringern sich die Anschaffungskosten um 50 %. Klar denn es entfallen jegliche Lizenzen.

Für Linux, im speziellen für Ubuntu, ist dies außerdem eine gute Werbung, denn so bekommen Endanweder direkt bei einem Neukauf Ubuntu mit bzw. schon auf dem PC vorinstalliert.

Die Zusammenarbeit gilt für alle Bereiche also Netbooks, Notebooks und Desktop PC’s. Wer sich nähere Informationen zu diesem Programm bzw. zu dieser Zusammenarbeit beschaffen will, kann dies hier machen.

Die neu bezogene MacVillage-Außenstelle hat nun auch ein stabiles WLAN! Der örtliche Anbieter Unitymedia legt seinem Angebot ja, wie viele anderen Provider auch, den WLAN-Router DIR-300 von D-Link kostenlos bei. Der Router an sich ist leicht über ein Webinterface zu konfigurieren, so dass das Errichten des WLAN eigentlich eine Sache von Sekunden ist. Eigentlich.

Nun sind wir in der Außenstelle nicht alleine und es gibt eine Menge Störfaktoren (andere WLANs) um uns herum. Konkret äußert sich das darin, dass die Verbindung in unregelmäßigen Abständen zusammenbricht und erst nach ein paar Minuten wiederhergestellt werden kann. Selbst die sorgfältige Kanalwahl mildert die Verbindungsabbrüche nicht.

Weitere Recherchen führen schließlich zu einem mysteriösem Wert in den erweiterten WLAN-Einstellungen des Routers namens Beacon Interval. Dieser regelt die Zeitabstände, in denen der Router versucht, die Clients zu synchronisieren. Eine Verkleinerung des werksseitig auf 100ms eingestellten Werts soll angeblich die Stabilität der Verbindung positiv beeinflussen. Interessanterweise ist hier genau das Gegenteil der Fall: Eine Verlängerung des Werts auf 500ms resultiert in einer stabileren Verbindung, während ein Verkürzung dazu führt, dass die Verbindung noch öfter abbricht. Zum Glück muss ich das nicht verstehen…

Zwei Ubuntu-Geburtstage hintereinander, da kommt man ja aus dem Feiern nicht raus. Den Geburtstag von Ubuntuusers.de habe ich leider verpasst, dennoch möchte ich der gesamten Community gratulieren. Das was hier zusammen von über 100.000 Mitgliedern erschaffen wurde ist unglaublich.

Und auch Ubuntu selber wird heute 5 Jahre alt. Gruatulation an alle Entwickler und die gesamte Community rund um Ubuntu. Und natürlich auch an Debian, ohne dass es ein Ubuntu nicht gäbe. Einen wirklich schönen Beitrag über die Geschichte von Ubuntu hat Ubuntu-Flo vom Ikhaya zusammengestellt. Und wer ein bisschen “Geschichte” auf dem Desktop haben möchte, der hat vielleicht Spaß an diesem Wallpaper…

Lizenziert unter CC-BY-SA 3.0 EN von *doctormo

Lizenziert unter CC-BY-SA 3.0 EN von *doctormo

Ihr könnt es in voller Auflösung von deviantart.com herunterladen. Dort findet ihr auch einen Link zur genutzten Vorlage, die eigentlich das Release von Karmic feiert. Ach ja, kennt Ihr noch das hier? ;)

Liebe Planet- und Feed-Leser. Das eingebettete Video kann eventuell bei Euch nicht angezeigt werden. Kommt auf das Blog, um das Video sehen zu können.

War ja der Running Gag zu Zeiten von Breezy Badger…


Comments

Gestern habe ich mit ODBC und dem Mysql Connector einige Reports in OpenOffice erstellt. Das hat wunderbar funktioniert. Das einzige was etwas kniffelig war, ist das Encoding. Default mäßig wird das System Charset verwendet ( so sagt es zumindest OO). Leider wird diese Einstellung nicht berücksichtigt und man muss von Hand einen Eintrag in der odbc.ini Datei machen.

[DB-NAME]
Charset         = utf8

Weitere Artikel:

Wenn ich mich etwas frage, dann ist das warum, wenn ich ein Wallpaper mache alle ankommen und sagen “mach das doch auch nocht mit Distribution xyz”. Nach der Veröffentlichung des SuperDebian Wallpaper, kamen wieder einige an, mach das doch bitte noch für openSUSE. Da kommt man sich manchmal vor, wie der persönliche Wallpaper oder Bildchenerstellsklave.

Das hier ist jetzt für Raul Libório und alle anderen, die deshalb gefragt haben. Bitte kommt aber jetzt nicht noch an und fragt, bitte mach das doch noch für Ubuntu und dann drängelt auch noch. Dafür muß man auch mal Zeit haben ;) Logischerweise gibt es auch das bei KDE-look zum Download.

update: 1400×1050px und 1280×1024

Es ist fast wie bei der Rückkehr der Jedi-Ritter. Dort kehrte zwar bloss Luke als noch einziger Jedi-Ritter zurück – wenn man von seiner Schwester absieht – aber hier in Zürich werden es wohl einige Ubuntu-Nutzer sein, die sich wieder am legendären Stammtisch zu Zürich vereinen. Die Ausrichtung des Treffens wird sich ein klein wenig ändern, aus meiner Sicht in die richtige Richtung. Der Fokus darf und soll sich auf Ubuntu und seine Philosophie bündeln, für allgemeine Linux-Anliegen kennen wir ja die LUGS. Ich freue mich auf das Treffen!

Der erste “neue” Stammtisch findet morgen Abend, am 22. Oktober 2009 in der Zürcher Hochschule der Künste (ZHdK) Vertiefung Mediale Künste am Shilquai 131 in Zürich statt. Er beginnt um 18:00 Uhr und dauert bis ca. 22:00 Uhr. Weitere Informationen zu diesem Social-Event gibt es auf gnupingu.ch zu lesen.

Ähnliche Artikel

Gestern Abend gab es die erste Ubuntuparty in Andelfingen, was das genau ist (bzw. war) hat Roman in Schweizerdeutsch als Podcast aufgenommen. Ein Mini-Fazit von mir: Es war klein und fein!

Hoffentlich war das der Startschuss für weitere Veranstaltungen dieser Art. Die anwesenden Gäste haben sich mit vielen Fragen gerüstet, die wir hoffentlich zur Zufriedenheit beantworten konnten. Roman hat allgemeines zu Open Source erzählt und später mit seinem Netbook einiges vorgeführt, aufgrund der fehlenden Internet-Verbindung hat er sein Telefon als Modem eingesetzt. Daniel hat einen tieferen Einblick in die Akzeptanz von Open Source, gerade auch in der Schweiz, gegeben und viel zur von ihm erstellten Swiss Remix DVD erzählt. Zwischendrin durfte ich noch etwas zur Entstehung und Philosophie von Ubuntu wie auch von Vorteilen, die ein Linux-System gegenüber dem Marktführer bietet, erzählen.

Es gab einige Diskussionen über das Unverständnis, wie Open Source Software Qualitätssicherung betreibt: Wenn alle ändern dürfen, könnte ja auch jeder Schrott produzieren. Glücklicherweise ist es nicht so und wir konnten den Interessierten erklären, dass die Software "natürlich" erst getestet wird bevor sie freigegeben wird und dadurch, dass die Pakete signiert werden, ist Sabotage so gut wie ausgeschlossen.

Es gab einige Verblüffung darüber, dass man mit nur einem Befehl Programme und System aktualisieren kann und dass nur in seltensten Fällen ein Neustart erforderlich ist.

Nicht gut angekommen ist die Aussage, dass man umlernen muss, wenn man von (beispielsweise) Windows auf Ubuntu im Speziellen oder Linux im Allgemeinen umsteigt. Entschärft wurde dies allerdings dadurch, dass auch die Umsteiger auf Mac OS X einen entprechenden Umlernprozess vor der Brust haben. Um im Bild von gestern Abend zu bleiben: Ein Betriebssystem ist kein Auto, dass immer die gleichen Bedienelemente an den gleichen Stellen bietet.

20. Oktober 2009

Heute wollte ich mal wieder über die Konsole ein Programmupdate holen. Also mittels

gksudo gedit /etc/apt/sources.list

die neue Paketquelle für das Programm eingetragen und das ganze gespeichert. Anschließend noch ein

sudo apt-get update

gefolgt von einem

sudo apt-get upgrade

und siehe da es wurde soweit alles neue upgedatet nur ein Paket nicht, hier kam die Meldung

Die folgenden Pakete sind zurückgehalten worden: programmname.

Nun dachte ich mir warum haltet das System es zurück wenn es doch weiß das es ein Update gibt. Nach kurzem hin und her dachte ich mir, ich versuche es mal mit

sudo apt-get install programmname

was dann auch funktionierte. Später fand ich dann übers Wiki von ubuntuusers.de heraus, dass dies passiert wenn das System einen Paketkonflikt erkennt und man somit das Programm selbst bzw. manuell installieren muss, was dann auch einwandfrei funktionierte.

Spende an freie Projekte

Spende an freie Projekte

Anlässlich der anstehenden Veröffentlichung von Windows 7 und der Flut der mit diesem System vorinstallierten PCs, möchte ich die überzeugten Linux-Nutzer unter den Lesern animieren, etwas Gutes zu tun, nämlich zu spenden. Spendet an freie Projekte, an die Linux Distribution eures Vertrauens, oder jede weitere Einrichtung oder Organisation, die euch geeignet erscheint.

Viele PCs die man kauft, kommen mit OEM Lizenzen von Windows, Weihnachten ist auch nicht mehr weit entfernt und der eine oder andere Hardwarekauf wird bis zum Jahresende noch über die Bühne gehen. Häufig braucht man die Windowslizenz nicht und will Windows ohnehin nicht nutzen, mittlerweile ist für jeden Hardwarefall, auch für die Netbooks, eine Alternative erwachsen, die Windows nicht nur ersetzen, sondern verschiedenste Mehrwerte bieten kann. In einem solchen Fall hat man seine Windowslizenz ungenutzt im Schrank liegen.

Dagegen ist ein Kraut gewachsen: Gebt eure Lizenzen zurück, nutzt das vorinstallierte System gar nicht erst, oder dokumentiert eure Ablehnung der Nutzungsbestimmungen (per Foto/Video) und tretet mit dem Hardwarehersteller in Kontakt, die meisten Hersteller sind hier sehr Kundenfreundlich und erstatten euch die Lizenzkosten der installierten OEM Version und überweisen das Geld auf euer Konto.

Hier nun mein Aufruf: Nutzt dieses Geld und investiert in den Weiterbestand freier Software und spendet das erhaltene Geld an ein Projekt, sicher fallen euch hier sofort viele Projekte ein, deren Software ihr im regelmässigen Einsatz habt. Jeder Euro zählt und das Geld ist als Spende für ein Projekt wesentlich besser angelegt, als als verstaubte Windows DVD im Regal.

Erkundigt euch bei eurem Hardwarehersteller zuvor welche Schritte diese fordern um eine Rückerstattung durchzuführen! Die vorinstallierte Windows version darf nicht benutzt werden, einige Hersteller wollen den PC gar nicht erst angeschaltet haben und es reicht wenn ihr telefonisch den Nutzungsbestimmungen widersprecht, andere wollen eine explizite Ablehnung im Aktivierungsprozess, alle wollen aber die DVD zurück und eine Kopie des Kaufbelegs. Die Festplatte muss natürlich anschliessen formatiert werden, aber das hättet ihr zur Linuxinstallation ohnehin gemacht, von daher macht es kaum mehr Arbeit noch mit dem Hersteller in Kontakt zu treten, kostenfreie Servicenummern habe fast alle, der Rest hat eine Kontaktadresse für E-Mail Korrespondenz.

Tragt den Aufruf weiter!

Eure Spenden können überall gebraucht werden, daher mache ich auch absichtlich keine Werbung für ein bestimmtes Projekt.

bejonet 20. Oktober 2009 20:34

ripperX

Heute will ich euch mal ein Programm vorstellen, was vielleicht nicht ganz so viele von euch kennen, durchaus aber ganz praktisch ist. Es geht um RipperX. RipperX ist wie der Name schon sagt, ein grafisches Programm zum rippen von Audio-CDs.

Installation

Die Installation von RipperX ist relativ einfach, da es in den Quellen ist. Es reicht also ein einfaches

apt-get install ripperX 

um das Programm zu installieren.
Um es aber richtig nutzen zu können, sollte man noch einen MP3-Encoder (lame) und einen Ogg-Vorbis-Encoder (vorbis-tools) installiert haben, um die Lieder auch von .wav in .mp3 oder .ogg umwandeln zu können.

Benutzung

Die Benutzung ist eigentlich relativ einfach
Man startet RipperX entweder über ripperX oder über das Startmenü aus.
Unter config kann man einstellen, wie man die Titel benannt haben will, und ob man sie in ein anderes Format umwandeln will, und wenn ja mit welcher Bitrate dies geschehen soll. Dann gibt es noch einige weitere kleinere Einstellungen wie, wo die Titel gespeichert werden sollen, und welcher Datenbankserver für die CDs benutzt werden sollte. Hier kann man die Standardwerte ruhig stehen lassen.

ripperX

ripperX


Nun legt man eine Audio-CD ein und drückt auf Scan. Dann muss man auswählen, welche Titel man gerippt haben will. Diese kann man dann manuell benennen oder es automatisch machen lassen, in dem man auf CDDB drückt. Dann sucht er automatisch nach den Titeln in der vorher eingestellten Datenbank. Hierzu muss man sagen, dass dies meistens zum Erfolg führt und auch selbst ewig alte Bravo-Hits-CDs erkannt werden.
Nun drückt man auf Go und die Lieder werden von der CD kopiert. Die Dauer hängt jetzt nun davon ab, ob man sie noch als MP3 macht, und dann natürlich von der eingesetzen Hardware.

Fazit

RipperX ist ein ganz nettes Programm um mal eben schnell Audio-CDs in MP3s umzuwandeln. Durch die Anbindung an eine CD-Datenbank muss man sich nichteinmal darum bemühen, die Titel zu benennen. Und wenn man ein bisschen tiefer in das Konfigurationsmenü einsteigt, kann man dort auch alles mögliche einstellen, was das Herz begehrt.

Artikel teilen: Digg del.icio.us Facebook Google Bookmarks Identi.ca MisterWong Reddit Slashdot Twitter Yahoo! Buzz Yigg

Heute war ich in der Schule und wollte auf meine Remote-Console über iLO auf meinen Server zu Hause zugreiffen. Dummerweise habe ich es nicht fertig gebracht, die auf Java basierende Konsole durch die Firewall zu schleusen, weshalb ich auf SSH und die ASCII basierte Konsole ausweichen wollte.

Doch als ich mich mittels dem openssh-client und dem Befehl "ssh user@meinserver.ch" einloggen wollte erhielt ich einen Fehler:

shell request failed on channel 0

Also habe ich auch gleich versucht mich mittels Putty zu verbinden, um eine zweite Meinung einzuholen, weil ich erst dachte, mein Router hätte mich blockiert...

Doch komischerweise hatte Putty überhaupt keine Probleme!!

Als nächstes dachte ich mir, ob es vielleicht an der Version liegen kann, da, wie mir mal zu Ohren gekommen ist, iLO 1 nur SSH1 funktionieren soll. Doch leider wollte auch dies nicht funktionieren.

Also habe ich mich nochmals mittels "SSH" versucht zu verbinden, nur dass ich mir diesmal die Debug Informationen anzeigen liess:

ssh -v user@meinserver.ch

Abgebrochen wurde die Verbindung sobald der openssh-client versuchte, meine Sprache zu übertragen:

debug1: Sending env LANG = de_CH.UTF-8

Nach längerem hin und her, und mehreren gescheiterten Versuchen habe ich dann mit "unset LANG" meine Sprache "gelöschen". Und man glaubt es kaum, ich konnte mich auch mit dem openssh-client verbinden.

Dummerweise muss ich das nun jedes mal machen, bevor ich mich verbinden kann.

Wenn also jemand eine Lösung hat, immer her damit :-)

Digg This
Reddit This
Stumble Now!
Buzz This
Vote on DZone
Share on Facebook
Bookmark this on Delicious
Kick It on DotNetKicks.com
Shout it
Share on LinkedIn
Bookmark this on Technorati
Post on Twitter

Vor ca. 15 Jahren war ich verliebt. Mit 12 also. In Autorennspiele, bei denen man von oben auf die Welt hinabsieht. Dabei waren Slicks’n'Slide, das mir auf einer Shareware-CD in die Hände gefallen ist und:

Death Vally (Wine)

Death Rally (Wine)

Death Rally! Mit Waffen, Autos und Geld. Für Windows. Und es läuft unter WINE, das alte Auto-Killerspiel.

Remedy Entertainment hat das Spiel “Death Rally” für Windows neu aufgelegt, die kompletten Menügrafiken wurden überarbeitet. Das Rennen selbst hat ein herrlich nostalgisches VGA-Bild und ich habe mich eben ca. 15 Jahre in die Vergangenheit zurückversetzt gefühlt.

Death Rally bei Remedy Entertainment herunterladen. Legal und kostenlos. (via)

Als wir in Berlin zu LinuxTag das Interview mit Joe Zonker Brockmeier hatten, sprach dieser davon auch in Zukunft Podcasts produzieren zu wollen. Über seinen Twitterfeed kam letztens, dass er ein Interview mit Vncent Untz gemacht habe und kurz vor der openSUSE Konferenz gab es einen gemeinsamen Podcast mit Andreas Jäger. Das scheinen alles Tests gewesen zu sein um das passende Format für einen Podcast zu finden. Nun scheint es soweit. Der erste openMic Podcast with Zonker ist erschienen. Dieses Mal “In the Linux Driver Seat with Kernel Developer Greg Kroah-Hartman“. Also ich bin gespannt, welche Interviewpartner Zonker mit der Zeit so zu Gast haben wird, der Untertitel “Get an insider’s view on what’s hot and new in the open source community” läßt darauf schließen, dassdas nicht nur Novell und openSUSE Leute sein werden, ich jedenfalls bin schon mal auf die nächste Ausgabe gespannt.

Ein Bildschirmschoner bzw. der Energiesparmodus des Bildschirm werden erst nach einer voreingestellten Zeitspanne, in der keine Aktionen via Maus oder Tastatur erfolgen, aktiv. Stephen Tarzia von der Northwestern University hat sich mit seiner Forschungsgruppe daran gemacht diese Zeit zu verkürzen. Nachdem der Benutzer den Arbeitsplatz verlässt, soll der Monitor sofort und ohne Interaktion des Benutzers in den Standby gehen.

Dies soll über Ultraschall-Signale geschehen, die über von einer Software generiert werden, über die Boxen des Computers abgespielt und von ein Mikrofon aufgenommen werden. Die Signale mit über 20kHz sollen vom menschlichen Ohr nicht wahrnehmbar sein. Für Windows gibt es fertige ausführbare Dateien des Sonar Power Managers, unter Linux muss man sich sonarPM selber kompilieren…

Den Quellcode könnt Ihr von der Homepage herunterladen und anschließend entpacken. In der README findet Ihr dann eigentlich alle nötigen Informationen um sonarPM zu installieren. Ich gebe Euch trotzdem alle Infos Schritt für Schritt, so könnt Ihr auch ohne große Basteleien sonarPM austesten…

$ tar -xzf SonarPM*.tar.gz
$ cd sonar_dist/

Um sonarPM nun kompilieren zu können, braucht ihr folgende Bibliotheken.So wie ich das sehe, müsste es diese Bibliotheken für alle Ubuntu-Versionen und Debian ab Lenny geben.

$ sudo apt-get install portaudio19-dev libxss-dev libwxgtk2.8-dev

Habt Ihr die Bibliotheken installiert, könnt Ihr Euch dran machen sonarPM zu kompilieren. Ihr könnt direkt make ausführen, ein configure-Skript wird nicht benutzt…

$ make sonar_gui
$ make sonar_tui

Da das Programm nicht in der Lage ist für seine Konfigurationsdateien im Home-Verzeichnis einen Ordner anzulegen, müsst Ihr das machen.

$ mkdir ~/.sonarPM

Nun seid Ihr fertig und könnt die GUI von sonarPM via…

$ ./sonar_gui

… starten. Bei diesem ersten Start müsst Ihr die passenden Audio-Geräte auswählen. Unter Ubuntu Karmic funktionierte PulseAudio recht gut. Das Mikrofon habe ich jedoch direkt ausgewählt.

Die richtigen Audiogeräte müssen ausgewählt werden

Die richtigen Audiogeräte müssen ausgewählt werden

Anschließend startet sonarPM und fängt an Signale auszugeben. Anfangs hört man noch deutlich Signale, die nach und nach verschwinden. Nach rund 30 Sekunden Kalibrierung blieb sonarPM für mein Höhrempfinden (fast) lautlos.

SonarPM in Aktion

SonarPM in Aktion

Bei mir klappte das Abschalten des Bildschirmes, allerdings nicht wirklich zuverlässig. Manchmal ging der Bildschirm aus, obwohl ich noch vor dem Rechner saß. Manchmal bleibt er an, obwohl ich nicht am Rechner sitze. Eventuell liegt das am Mikrofon meiner Webcam, das leider einen etwas zu dumpfen Klang liefert. Vielleicht entstehen die leisen Klicks, die ich ab und zu höre, auch durch das schlechte Mikrofon. Auch scheinen die Boxen mancher Laptops zu limitiert zu sein. Oft können die Brüllwürfel billiger Laptops die nötigen 20kHz nicht liefern. sonarPM eignet sich daher eher zum rumspielen und ausprobieren, am besten ist sowieso der schnelle Griff zum Ein-/Aus Schalter des Monitors…


Comments
Da es jedes Mal ein Lacher ist, wenn es die Zuhörer noch nicht kennen, hier noch einmal ein Wort zu meiner Präsentationstechnik: Ich stehe mit Programmen wie Impress oder Powerpoint auf Kriegsfuss, da ich mich dort mehr um das Programm als um die Inhalte kümmern muss. Gute Erfahrungen habe ich mit Textdateien gemacht.

Die kurze Anleitung dazu (klappt auf fast jedem Rechner):

Syntax-Highlighting von vim benutzen. Dazu /usr/share/vim/vim72/vimrc_example.vim nach ~/.vimrc kopieren und irgendwo noch "set nu" für die Zeilennummern hinzufügen. Bei ubuntu liegen die Daten im Paket vim-runtime, das bei jeder vim-Installation mitinstalliert wird. (Bei anderen Distributionen einfach danach suchen: find /usr/share -name 'vimrc*').

Ein Terminal-Fenster öffnen (oder Konsole oder was man auch immer am liebsten hat). Das Fenster auf 86 Zeichen auf 26 Zeilen einstellen, das Fenster so gross wie möglich machen und die Datei mit vim öffnen.

Fertig.

Ihr könnt Euch das mit der angehängten Vorlage einmal anschauen: template.txt (Wenn Ihr das auch so machen wollt, wäre ich an einer Kopie Eurer Präsentationen interessiert).

Die Dateien liegen alle in meinem privaten Subversion-Repository auf dem root-Server, so dass ich auch bei einem Rechnerwechsel schnell am Start bin. Danke noch einmal an Hampa für das Ausleihen des Notebooks.

Dropbox

Bis vor kurzem gab es noch keine Paketquelle der Dropbox für die kommende Ubuntu-Version 9.10 (Karmic Koala). Diese wurde aber nun freigegeben.

Die Paketquelle kann man nutzen, wenn man folgende Zeilen in die /etc/apt/sources.list hinzufügt:
## Dropbox
deb http://linux.getdropbox.com/ubuntu karmic main
deb-src http://linux.getdropbox.com/ubuntu karmic main

Installiert werden kann das Paket nach dem Aktualisieren der Paketquellen mit sudo apt-get install nautilus-dropbox. Hat man bereits das Paket aus Jaunty installiert reicht ein sudo apt-get update && sudo apt-get upgrade aus, das Paket nautilus-dropbox sollte dann aktualisiert werden.

Wie das Entwicklerteam von eeebuntu bekannt gab, wird die Version 4.0 dieser Netbookdistribution nicht mehr auf Ubuntu als Grundlage setzen. Stattdessen wird man mit Debian unstable weiterarbeiten.

“This is not an attempt at Ubuntu bashing, there are enough people around to take that mantle, this is a strategic development decision to help move our distribution along. “

Debian Unstable is good enough for Ubuntu then it is certainly good enough for us.

Ubuntu als Grundlage wird für die Entwickler von Eeebuntu immer schwerer handhabbar und so wollen sie mehr Kontrolle über das was sie releasen gewinnen. Ebenfalls geändert wurden damit die Releasezyklen, die in Zukunft mehr einem rollendem Relase ähneln und jedes Quartal soll es Snapshots geben. Ausserdem will man sich nicht mehr rein auf Netbooks konzentrieren sondern in Zukunft auch für den “normalen” Desktop entwickeln. Neben diesen ganzen Neuerungsentscheidungen wurde auch der Relasetermin für eeebuntu 4.0 bekannt gegeben - diese Version wird Ende Dezember erscheinen.