ubuntuusers.de

13. Juli 2009

Im vergangenen Jahr nötigte Hotmail Ubuntu-Nutzer schonmal zur Umstellung des User Agents im Firefox, um Emails mit dem Webmail-Dienst bearbeiten zu können. Mit der Installation von Firefox 3.5 steht man wieder vor einem ähnlichen Problem. Hintergrund ist, dass sich der neue Firefox unter Ubuntu als "Shiretoko" ausweist, womit Hotmail ein Problem hat. Wenn man eine E-Mail beantworten will, kann man im Nachrichtenfeld keinen Text mehr schreiben. Erst wenn man unter about:config den Eintrag general.useragent.extra.firefox von Shiretoko/3.5 nach Firefox/3.5 geändert hat, kann man E-Mails wieder "normal" beantworten.

Beim letzten Mal hatte Hotmail das Problem nach etwa einem Monat behoben. Man darf gespannt sein, wie lange es diesmal bei Firefox 3.5 dauert. Sicherlich könnte man das Problem auch lösen, indem man einfach sein Hotmail-Konto löscht. Aber leider ist das Löschen einer Email-Adresse nicht immer ganz so einfach umzusetzen.

Heute stelle ich kurz und bündig ein paar interessante links vor. Viel Spaß!

„Good to see that even amongst the rough, there are some people out there starting young in the Open Source world.“

Das Betriebssystem WattOS - ein „grünes“ Energiesparubuntu ?
http://www.linux-community.de/Internal/Nachrichten/WattOS-Beta-3-Das-Energiespar-OS

Im englischsprachigen Ubuntuforum ist ein umfassender Artikel zum bootloader GRUB2 erschienen. Well done.
http://ubuntuforums.org/showthread.php?s=e4cc5df749da36e4732ea23db156079b&p=7505203#post7505203

Das Ubuntu Center hat den Webeditor „Bluefish“ ausführlich unter die Lupe genommen:
http://www.ubuntu-center.de/978/webeditoren-unter-ubuntulinux-teil-4-bluefish/

Linus Torvalds gibt Einblicke in seine persönliche online Situation und erklärt, warum er von DSL auf Kabel gewechselt hat.
http://www.linuxfoundation.org/news-media/blogs/browse/2009/07/not-so-evil-empire

Martin Meredith darf erfahren, wie sehr junge Menschen Open Source erleben.
http://www.sourceguru.net/its-nice-to-see-young-people-getting-into-open-source

Die Zustammenstellung dieser Artikel wurde durch den feedreader Liferea möglich gemacht.


CaC steht für “Catch and Convert” ist eine Open-Source-Software zum herunterladen und umwandeln von Videos für den Windows- und Linux-Desktop. Das Programm liegt in der Version 0.2.0.0 vor und trägt noch den Zusatz “Beta”. Geschrieben wurde CaC in FreePascal. Die Verwaltung des Projekts läuft über SourceForge.

CaC

CaC funktioniert derzeit mit YouTube, MyVideo und Google Video. Unter Ubuntu funktioniert das deb-Paket. Man beachte aber, dass Fremdpakete das System gefährden können.

Nach Eingabe der URL des Videos kann man einen Ausgabeort und ein Format festlegen, in das umgewandelt werden soll. Zur Verfügung stehen mehrere Qualitätsstufen als mp3-Datei sowie wav und ogg. Als Video kann in XVid, mpeg, vmv oder auch mp4 umgewandelt werden. Mit den nötigen Kenntnissen können diese Einstellungen aber auch noch editiert werden.

Weitere Screenshots für das Programm stehen auf der Projektseite zur Verfügung.

Nachdem das Gesetz zu Web-Sperren den Bundesrat passiert hat, liegt es nun an Bundespräsident Köhler, die Verabschiedung dieses Gesetzes zu verhindern. Laut heise.de hat der Arbeitskreis gegen Internetsperren und Zensur den Präsidenten in einem offenen Brief aufgefordert, diese Gesetzesvorlage nicht zu unterzeichnen. Aber der Bericht geht noch weiter.

‚Internetausdrucker‘ Eckhard Fischer, Wirtschaftsreferent der SPD-Bundestagsfraktion, sprach mit heise online und beschwerte sich darin auch über den Kommentar im Heiseforum, wo der User „Turbo Tux“ unter anderem die Verwendung alternativer DNS-Server ankündigte. Näheres findet Ihr im Originalbeitrag. Besonders den einen Satz finde ich interessant:

Durch das „massenhafte“ Umgehen der geplanten Stopp-Seiten könnten sich Päderasten besser in der Menge verstecken und eine Strafverfolgung vermeiden.

Die von mir unterstrichenen Wörter haben mich verblüfft. Was sollen diese bitte schön bedeuten? Die Passage in dem Gesetzesentwurf, welche die geplante Filterung ‚Providern mit mehr als 10 000 Kunden‘ zur Auflage macht, bekommt in meinen Augen eine ganz neue Bedeutung. Ist das vorgesehene Stoppschild nur zum Schein gedacht? Hat man es  mit der Überwachung eher auf die kleinen Provider und alternativen DNS-Server abgesehen? Will man diese (still und heimlich) kontrollieren und so Pädokriminellen und anderen ‚unliebsamen Mitbürgern‘ auf die Spur kommen?

Wenn man den Satz so liest und an die (nicht vorhandenen) Fähigkeiten und (vorhandenen) Begehrlichkeiten der Politiker denkt, kann ich nur sagen: Denen ist alles zuzutrauen!

Moin liebe Lesergemeinde,

heute mal einen Blogeintrag in eigener Sache. Seit ein paar Tagen werde ich mit automatischen Spam-Kommentaren zugemüllt, die ich immer händisch löschen muss. Ich hab mittlerweile zwar ein paar Wörter in der Blacklist bei mir in Wordpress stehen, aber es kommen nach wie vor 5-10 Kommentare pro Tag durch. Und das nervt einfach! *Vor Wut koch* *Tod allen Spammern* – ‘Tschuldigung musste raus.

Leider kann ich Akismet nicht nutzen, da mein Provider den Zugriff auf externe Ressourcen per Skript nicht erlaubt, leider nicht einmal gegen Aufpreis.

Nun die Frage an euch Blogger – wie schützt ihr euch gegen Spam Kommentare? ‘Nen Captcha-System will ich eigentlich nicht einbinden, da ich die Dinger selber sehr ungern nutze. Einige der Plugins auf die ich für Wordpress gestoßen bin, werden leider nicht mehr weiterentwickelt.

Danke schon mal für eure Kommentare!

[Eine aktuelle Anleitung für Ubuntu 10.04 Lucid Lynx findest du hier.] Ich habe ein MacbookPro der 4ten Generation, und da ich gerade einen Ubuntu-Flow habe, installiere ich auch auf diesem Ubuntu 9.04 Jaunty (Eine Anleitung zur Installation auf die zweite Festplatte eines MacPro findet sich hier). Hierfür bin ich wie folgt vorgegangen… Installation Besorge dir die aktuelle UBUNTU-Desktop-CD. Ein ISO-Image dieser CD kannst du z.B. hier downloaden und auf CD brennen

Nachdem man sich nun entschieden hat, Multimediadateien über HTML zu implementieren, sollte man sie auch in ein Format bringen, dass die meisten Browser ohne zusätzliche Codecs unterstützen, weil sie lizenzfrei verwendet werden dürfen. Vor allem Firefox 3.5 ist hier hervorzuheben, welcher die freien OGG unterstützt. Für Tondateien handelt es sich um das so genannte ogg-Vorbis Format, für Videos gibt es ogg-Theora. Für Bilddateien gibt es das freie „Portable Network Graphics“ – kurz PNG. Es ist ein sehr modernes Grafikformat und kann neben Transparenzen via Alphakanal auch Animationen speichern.

Um Videos und Musik in freie Formate zu konvertieren braucht man bestimmte Encoder wie MEncoder oder FFmpeg. Das Programm ffmpeg2theora benutzt FFmpeg und erleichtert die Umwandlung, da schon alle Feinheiten eingestellt sind. Für die Bildkonvertierung genügt das mächtige Paket „Imagemagick“.

Installation: FFmpeg, MEncoder, mp32ogg, ffmpeg2theora und imagemagick sind in jeder ordentlichen Distribution in den Repositorys enthalten und können dann mit dem bevorzugten Paketmanager einfach installiert werden.

Videos

Benutzung FFmpeg:

FFmpeg LogoUm Videos mittels FFmpeg zu konvertieren, benutzt man ein Terminal seiner Wahl, öffnet es im Ordner, welcher das Video entählt, und gibt folgendes ein:

 ffmpeg -i input.wmv output.ogv

Weitere Parameter gibt es in der Manpage von ffmpeg.
Einfacher geht es allerdings mit ffmpeg2theora:

Benutzung FFmpeg2theora:

Man öffnet ein Terminal seiner Wahl, wechselt in den Ordner, indem das Video liegt und gibt ein:

ffmpeg2theora input.avi

Dies geht nicht nur mit avi-Videos, sondern auch mit allen anderen Formaten, die FFmpeg unterstützt, darunter auch wmv, mp4 oder flv.
Man kann mit einigen Optionen noch das ausgebende Video beeinflussen:

  • -v, –videoquality [0-10] Standard: 5
  • -a, –audioquality [-2-10] Standard: 1
  • -x, –width (Breite in Pixeln)
  • -y, –height (Höhe in Pixeln)
  • -o, –output (Dateiname des Ausgegebenen Videos) Standard: inputdatei.ogv

Umwandlung per Firefox:

Höchstwahrscheinlich für faule Benutzer wurde eine Firefoxerweiterung namens Firefogg geschrieben. Diese Erweiterung verspricht dem Anweder, dass Videos direkt beim Hochladen in das freie ogg-Theora umgewandelt werden. Getestet habe ich es bisher noch nicht. Auch das Prinzip dieses Plugins habe ich nicht durchblickt. Aber ihr könnt gerne eure Erfahrungen in den Kommentaren niederschreiben!

Musik

Benutzung mp32ogg

Man öffnet wieder ein Terminal im Ordner mit den Musikstücken und gibt ins Terminal ein:

mp32ogg datei.mp3

Dann wird die Datei datei.mp3 in datei.ogg umgewandelt. Ersetzt man den Dateinamen durch einen Stern werden alle mp3s im Ordner in ogg-Vorbis umgewandelt.

Benutzung von FFmpeg

Um alle möglichen anderen Audiodateien in ogg-Vorbis-Dateien umzuwandeln, kann man FFmpeg benutzen.
Man gibt dazu einfach dies in ein Terminal ein:

ffmpeg -i input.wav output.ogg

Andere Parameter findet man wieder in den man-Pages von FFmpeg.

Ton und Bild zusammenfügen

Für den Fall, dass man das (stumme) Video und den Ton getrennt umgewandelt hat und man beide nun zusammenfügen möchte, genügt folgende Anweisung für den MEncoder:

mencoder -oac copy -ovc copy -audiofile input_ton.ogg input_video.ogv -o output.ogv

Bilder

imagemagickUm Bilder in ein freies Format zu konvertieren, genügt das Tool convert, welches zum mächtigen Paket „Imagemagick“ gehört.

convert bild.jpg bild.png

Der Vorteil dieser Methode, dass etliche Bildformate unterstützt werden und es relativ schnell geht.

Grafische Frontends

Wer ein grafisches Frontend bevorzugt, der ist mit winFF, einer GUI für FFmpeg, sicherlich ganz gut beraten. Wer lieber grafisch Bilder konvertiert, kann hierfür beispielsweise GIMP nutzen.

Hinweis: Bei allen Umwandlungsvorgängen hängt die Umwandlung stark vom genutzten Prozessor ab. Je besser der Prozessor, um so schneller die Umwandlung.

bluefish

Bluefish ist DER Gnome-Webeditor. Lange Zeit wurde an dem Editor gearbeitet und gefeilt, bis dann endlich 2005 die Version 1.0 erschien. Aktuell wird 1.0.7 mit Ubuntu ausgeliefert. Es wird weiterhin an Bluefish gearbeitet, aktuell ist man bei Version 1.3.5-unstable (Juni 2009).

Nun stellt sich die Frage, welchen Editor teste ich? Ich habe mich für die Unstable-Version entschieden, werde aber auch hier und da auf 1.0.7 eingehen. Bluefish war der erste Webeditor, den ich vor Jahren unter Linux testete und auch der Erste bei meinem Umstieg auf Ubuntu (Edgy). Nun ja, er verhielt sich damals recht behäbig, die Schrift sah grausam aus, Suchen und Ersetzen dauerte bei großen Dokumenten eine Ewigkeit und er stürzte auch gern ab. Mit gemischten Gefühlen ging ich dann an den Test für diese Serie. Was soll ich sagen – jetzt bin ich richtig baff und habe mich fast in ihn verliebt. :cool:

Installation der Unstable-Version

In den Ubuntupaketen ist die Version 1.0.7 vorhanden. Wer die Unstable-Version installieren möchte (bitte beachten, dass Ihr das auf eigene Gefahr macht!), kann die einzelnen Dateien als .deb-Pakete hier herunterladen (lasst Euch nicht von der Überschrift „Intrepid“ täuschen) oder bindet gleich die Quellen in /etc/apt/sources.list ein:

  deb     http://debian.wgdd.de/debian unstable main contrib non-free
  deb-src http://debian.wgdd.de/debian unstable main contrib non-free

Weiterhin wird der Archivschlüssel benötigt. Ladet diesen hier herunter, öffnet ein Terminal und bindet ihn mit folgender Anweisung ein, wenn die Datei auf dem Desktop liegt:

  sudo apt-key add Desktop/wgdd_archive_key.asc

Anschließend die Paketinfos updaten und Bluefish installieren:

  sudo apt-get update
  sudo apt-get install bluefish-unstable

Die Unstable-Version wird neben einer eventuell vorhanden Bluefish-Version aus den Ubuntupaketen installiert. Es lassen sich also beide nebeneinander nutzen! Ich weiß jetzt nicht, ob auf diese Art auch die Plugins gleich mitinstalliert werden, denn ich verwendete Synaptic. So sieht das dann aus:

screenshot2

Die 4 markierten Pakete sollten installiert sein.

Funktionen

Wie sieht es mit den Voraussetzungen aus? Erste Überraschung: Die neue Version erfüllt alle Vorgaben für den Test! Calltipp‑ und Autocomplete-Funktionen haben Einzug gehalten. Diese sind zwar etwas anders gelöst, die Projektverwaltung ist gegenüber der stabilen Version umständlicher anders zu handhaben und auch die komfortable Snippetverwaltung ist nun einem Plugin gewichen.  Darüber kann man aber gern hinwegsehen, das ist reine Gewöhnung. Letzteres geschah wohl zu Gunsten eines übersichtlicheren und leichter zu wartenden Quellcodes des Hauptprogrammes. Was kann das Programm noch? Hier eine Zusammenfassung:

  • Mehrere geöffnete Dateien möglich, mit Tabs zur Anwahl
  • Blöcke können zusammengefaltet werden (neudeutsch: Code-Folding)
  • komfortable Lesezeichen
  • Sonderzeichen‑Übersicht
  • Infobrowser (umfangreiche Dokumentationen zu PHP, CSS, (X)HTML u.v.a.)
  • komfortabel anpassbare Shortcuts (siehe Tipps & Tricks)
  • frei schwebende Menüs möglich (siehe Tipps & Tricks)
  • unterschiedliche Zeichencodierungen werden unterstützt
  • jede Menge Assistenten (im Menü Dialoge und in den Symbolleisten)
  • Bilder einfügen mit automatischer Thumbnailerstellung
  • umfangreiche Konvertierungen möglich
  • Frei  schwebende Fenster (siehe Tipps & Tricks)
  • Zugriff über FTP
  • Synchronisierung von ganzen Ordnern
  • HTML‑ und CSS-Funktionen sind übersichtlich in Tabs organisiert
  • Mit dem Tab „Schnellzugriff“ lassen sich die meist benötigten Funktionen individuell zusammenfassen
  • u.v.m.

Projektverwaltung richtig konfigurieren

Widmen wir uns nun der Projektverwaltung und der Möglichkeit, PHP-Seiten über den Webserver zu starten (also über http://localhost/…). Früher konnte man die Pfade im Dialogfenster „Neues Projekt“ eingeben und es funktionierte sofort. So sah es noch in Version 1.0.7 aus:

screenshot4In der neuen Version fehlen die Felder Basisverzeichnis und URL-Vorschau. Ich habe Olivier Sessink angeschrieben und gefragt, ob das ein Bug oder Feature ist. Er antwortete zum Glück sehr schnell → die Funktion ist nur verschoben! Man muss jetzt im Filemanager (in der Sidebar) den Projektordner suchen, mit der rechten Maustaste darauf klicken und den Punkt Set as Documentroot wählen. Jetzt erreicht man die beiden Felder, die im Projektdialog entfallen sind. Etwas seltsam, ich vermute, so kann man in einer Session die Pfade festlegen, ohne gleich ein Projekt anlegen zu müssen. Edit: Olivier bestätigte mir diesen Grund in einer zweiten Mail!

Leider funktioniert die Vorschau von PHP-Dateien immer noch nicht. Wenn man auf den Browserknopf klickt, startet zwar Firefox, bietet die Datei aber zum Download an. Abhilfe fand ich dann in den Einstellungen unter Externe Befehle. Dort ändert man den Befehl für den Firefox in:

  firefox '%p'

Et Voila, jetzt klappt es mit dem Nachbarn. ;-) Die Einstellungen solltet Ihr Euch in Ruhe anschauen und Schritt für Schritt durchgehen. Das Programm ist äußerst flexibel. Wichtig! Wenn Ihr Änderungen vorgenommen habt, immer noch einmal den Menüpunkt Bearbeiten → Einstellungen speichern wählen und wenn Ihr mit Projekten arbeitet, sicherheitshalber auch unter Projekt den Punkt Speichern wählen. Sicher ist sicher.

Arbeiten mit Snippets

Ich erwähnte schon, dass die Snippets in ein Plugin ausgelagert wurden. Schaut bitte in den Einstellungen nach, ob diese auch aktiviert sind. Es sollte in der Sidebar ein eigenes Fenster existieren. Und so funktioniert es:

screenshot41screenshot21screenshot3

  1. Wie auf dem Bild links zu sehen ist, muss in der Sidebar die Snippetsübersicht gewählt werden. Beim ersten Start ist sie leer.
  2. Über das Contextmenü (mit der rechten Maustaste) lassen sich diverse Aktionen aufrufen. Wählt als Erstes „Neuer Schnipsel“. Es erscheint ein Dialogfenster wie auf dem mittleren Bild. Da sich die Schnipsel auch ordentlich gruppieren lassen, wählt man zuerst den ersten Punkt „Gruppe“ und gibt im folgenden Dialog dieser einen Namen. Im Beispiel nenne ich sie „PHP“. Ist die  Gruppe angelegt, klickt man (wieder mit der rechten Maustaste) darauf und wählt einen der nächsten Punkte. Die Bedeutung sollte klar sein. Ich nehme jetzt „Zeichenkette“.
  3. Im darauf folgenden Dialog gibt man dem Schnipsel einen Namen und kann eine Beschreibung hinzufügen (erscheint später als Tooltipp). Danach erscheint das Fenster wie im Bild rechts. Jetzt gebt den Text für den Schnipsel ein. Der Umgang mit diesem Dialog ist gut beschrieben.  Eine feine Sache sind die einfügbaren Platzhalter (%0, %1 … %9). Es lassen sich also 10 Abfragen für variable Einträge einfügen. Wie im Bild zu sehen, können diese auch mehrmals verwendet werden! An der gewünschten Stelle setzt man einfach den Platzhalter ein und in den 10 Feldern rechts formuliert man die Frage, die dazu gestellt werden soll.

Die Schnipsel von Bluefish bieten ein mächtiges Werkzeug, immer wiederkehrende Aktionen zu hinterlegen und über die 3. Funktion in der Auswahl (mittleres Bild) auch Suchen‑ und Ersetzen-Muster. Damit lassen sich sogar reguläre Ausdrücke speichern!

Die Krönung ist dann die neue Funktion Export/Import von Schnipseln. Ganze Gruppen lassen sich so im XML-Format speichern. Das ist gut für Backups und man kann interessante Gruppen auch anderen Usern zur Verfügung stellen. So wäre die Weitergabe ganzer API-Kataloge denkbar, z.B. für TemplateTags, JavaScript-Framworks, usw. Ich hoffe, dass aus der Community heraus nach und nach eine feine Sammlung entsteht.

Tipps & Tricks

Hier noch ein paar Tipps zum Umgang mit Bluefish:

  • Anpassen der Shortcuts: Das ist ganz einfach gelöst. Einfach im Menü den gewünschten Punkt auswählen (nicht anklicken!) und den neuen Shortcut drücken. Dauerhaft speichern lassen sich diese über den Menüpunkt Bearbeiten → Shortcuts speichern.
    Von meinem Editor war ich es gewohnt, den Zeilenumbruch mit Shift+Return, sowie ein geschütztes Leerzeichen mit Shift + Leertaste einzugeben. Im Menü Tags → Formatierung allgemein konnte ich das einfach übernehmen.
  • Frei schwebende Menüs: Das ist ein interessantes Feature, welches ich bei anderen Programmen vermisse. Jedes Menü und Untermenü hat als ersten Eintrag eine gestrichelte Linie. Klickt man darauf und zieht die Maus an einen freien Platz auf dem Desktop, wird das entsprechende Menü dort platziert. Momentan werden beim Programmende diese Einstellungen noch nicht gespeichert, ich habe das als Idee aber schon an Olivier weitergegeben und stieß zumindest nicht auf Ablehnung.
  • Frei schwebende Fenster: Wer kennt das nicht. Oft benötigt man mehrere Dateien, um Code zu vergleichen oder Teile von der einen Datei in der anderen wieder zu verwenden. Das Umschalten über Tabs ist da nicht die beste Lösung. Deshalb können Fenster aus den Tabs „herausgenommen“ werden. Probiert es einfach mal aus. Fenster aktivieren und den Menüpunkt Dokument → Freie Fenster anwählen.
  • Der Dateibrowser in der Sidebar lässt sich auch vielseitig konfigurieren, geht einfach mal die Punkte im Contextmenü durch.
  • Arbeitet man mit Projekten, empfiehl es sich – nachdem man den Projektordner gewählt hat – über das Contextmenü den Punkt Als Basisverzeichnis setzen anzuwählen und das Projekt noch einmal zu speichern. Nach erneutem Start und Auswahl des Projektes werden nur die Projektordner angezeigt, das ist viel übersichtlicher.
  • Der Geschmack ist zwar individuell, in Bluefish macht sich als Schrift die Liberation Mono sehr gut. Diese kann über folgende Zeile im Terminal einfach installiert werden:
  sudo apt-get install ttf-liberation

Fazit

Bluefish hat mich wirklich überrascht. Das Programm ist schnell, stabil und sehr komfortabel geworden. Schon Version 1.0.7 bietet zumindest dem Hobbyprogrammierer einiges an Komfort und ausreichend Unterstützung. Wer auf die Autocomplete-Funktion verzichten kann, sollte diesen Editor nehmen, er ist in den Ubuntu-Paketen enthalten. Aber schon für die Erstellung von CSS-Dateien ist es eine enorme Hilfe.

Der Kontakt zu den Programmierern verlief auch schnell und sie haben ein offenes Ohr! Olivier hofft, dass die Version 2.0 Ende des Sommers fertig wird, vielleicht schafft sie es ja in den Karmic Koala? :-)

Für mich hat die lange Suche nach einem guten Editor endlich ein Ende. Ich werde aber trotzdem noch die anderen besprechen, wenn vielleicht auch nicht so ausführlich. Im nächsten Teil schaue ich mir dann mal die Editoren aus der Eclipse-Ecke an (Eclipse, Aptana, Easy Eclipse).

Bis dahin, Turicon

Navigation

In vielen Unternehmen welche mit OpenSource ihr Geld verdienen ist es üblich, den Mitarbeitern Freiraum zu geben sich auch an Projekten der Community zu beteiligen. Bei QT gibt es zum Beispiel den Creative Friday. Und auch bei Novell gibt es seit einiger Zeit so etwas, die HackWeek. Die Mitarbeiter von Novells Open Platform Solutions-Abteilung haben demnächst wieder die Möglichkeit, eine ganze Woche während ihrer Arbeitszeit an Projekten zu arbeiten, die nichts mit ihrer eigentlichen Arbeit zu tun haben. Wieviel Spaß den Mitarbeitern von Novell und SUSE die HackWeek bereitet kann man dem Interview entnehmen, welches RadioTux im vergangenen Jahr auf der FrOSCon mit Marko Jung und Martin Lasarsch geführt hat. Bisherige Hack Weeks haben zu Projekten wie Tasque, Giver, Debian-Paketunterstützung im openSUSE Build Service und vielen anderen Dingen geführt. Aber auch die Library für KDEs neuen Social Desktop hat Cornelius Schumacher während einer Hackweek geschrieben (der plan an einer Xing-Client Lib zu arbeiten). Aber auch ausserhalb von Novell oder SUSE kann man sich an der Hackweek beteiligen, Ideen für Beiträge werden in openFATE gesammelt. Wer sich an der Implementierung einer Idee helfen will sollte die bereits eingetragenen Ideen einmal anschauen (in openFATE einfach HackWeek IV als Produkt wählen). Die Hack Week ist für Novell-Mitarbeiter eine Möglichkeit, mit Helfern aus der openSUSE-Gemeinschaft zusammenzuarbeiten, um openSUSE zu verbessern. Aber nicht nur das auch Entwickler aus anderen Communitys können sich daran beteiligen, solche Projekte wie: Debian-Paketunterstützung im openSUSE Build Service zeigen das. Wer jetzt noch Fragen hat, kann sich an Olaf Krich wenden oder direkt im IRC (irc://freenode.net/opensuse-project) vorbeischauen. Als nächste Woche heißt es vom 20. bis 24. Juli wieder Happy Hacking.

12. Juli 2009

Mein Lieblingskonsolentool ist yakuake.

Es legt sich vollkommen transparent in den Hintergrund und kann über Tastenkombination eingeschaltet werden. Ich nutze das Tool täglich und kann darauf nicht mehr verzichten.

Welche nutzt ihr ?

Weitere Artikel:

Ubuntu Netbook Remix ist ja die Ubuntu-Version für Netbooks. Ich verwende allerdings die ganz normale Ubuntu-Version für meine Netbooks, da mir der Startbildschirm von der Netbook-Version nicht behagt. Die normale Version von Jaunty Jackalope läuft übrigens “out of the box” bei meinen Netbooks (EEE PC 900 und EEE PC 1000H) und mit einer akzeptabel Performance. Dazu habe ich lediglich noch die Pakete gftp, filezilla, wammu, cheese, gwibber, vlc, bluefish, audacity, gnome-commander, keepassx und thunderbird mit enigmail sowie wie einige Fremdpakete installiert.

Will man nun tatsächlich die Netbook-Version installieren, eignet sich dazu am besten ein USB-Stick als Installationsmedium, da die Netbook-Dinger kein CD-Rom eingebaut haben. Dieser muss natürlich bootable sein, was heute in der Regel kein Problem ist. Aber die Netbook-Version liegt in einer *.img-Datei vor, damit kann der USB-Startmedien-Ersteller, der standardmässig bei Ubuntu mitinstalliert wird, nichts anfangen.

Von Dirk habe ich gestern gelernt, dass es dazu den USB-Imagewriter gibt, welcher mit img-Datein umgehen und daraus einen bootablen USB-Stick zimmern kann. Steht natürlich auch auf ubuntuusers.de geschrieben.

ImageWriter

Installiert wird der ganz einfach über das GUI oder per Konsole:

sudo apt-get install usb-imagewriter

Ist ganz praktisch, dieses Teil und man kann es wohl auch brauchen, wenn man keine Netbook-Version (die es aus meiner Sicht wirklich nicht braucht), sondern etwas anderes auf einen USB-Stick bringen will. Zum Glück lernt man nie aus, sonst würde es langweilig.

Ähnliche Artikel

Habe gerade den Phoronix-Link auf Facebook gefunden. Dort wird mit einer Standard-Ubuntu Installation mit den neueren Dateisystemen ein Performance-Test ausgeführt.

Als Referenzsysteme halten XFS und ext3 her.

Wenn die Stabilität stimmt, werde ich vermutlich ebenfalls mit meinem Notebook auf ext4 umstellen. Auf Servern gefällt mir die Kombination ext3 für das System und XFS für die Daten sehr gut.

Ich bin ein Ina Müller Fan. Nur kommt einer der besten Sendungen von ihr, Inas Nacht, erst um 0:00 Uhr. Und dann auch noch mit meinem zweiten Liebling Jürgen von der Lippe.

Ok, VDR ist ja immer noch mit dem Hund raus, also mit meinem Smart mx 40 aufgenommen. Super Sache, das. Doch der Nachteil ist, ich kanns auch nur mit dem Smart wieder abgucken.  Dabei habe ich für solche Fälle ja meinen WDTV mit modifizierter Firmware, der spielt wunderbar direkt vom NFS Fileserver. Also die 2,2 GB Datei auf den Fileserver kopiert und ausprobiert. Super! das Bild ist hervorragend, nur der Ton wird nicht abgespielt. (Audiokanal nicht unterstützt). Tja, mein erster Gedanke, transcode. Eine sehr schöne Seite ist hier, die brachte mich auch auf die richtige Spur. Das Wunderscript erledigt ja praktisch alles, nur kann es kein *.ts. Nach ein wenig probieren habe ich nun die Lösung:  ffmpeg -i Inas\ Nachtv\[2009-07-11-00-00-17\].ts -vcodec copy -acodec ac3 Inas.ts
Es dauert nur ca. 5-6 Minuten (auf meinem Notebook, der Server würde länger brauchen :-) ), ich denke, die Zeit kann man investieren.

Nachtrag, Optimal ist es nicht, komischerweise leidet die Bild- und Tonqualtität...hhhm



Ich bin ein Ina Müller Fan. Nur kommt einer der besten Sendungen von ihr, Inas Nacht, erst um 0:00 Uhr. Und dann auch noch mit meinem zweiten Liebling Jürgen von der Lippe.

Ok, VDR ist ja immer noch mit dem Hund raus, also mit meinem Smart mx 40 aufgenommen. Super Sache, das. Doch der Nachteil ist, ich kanns auch nur mit dem Smart wieder abgucken.  Dabei habe ich für solche Fälle ja meinen WDTV mit modifizierter Firmware, der spielt wunderbar direkt vom NFS Fileserver. Also die 2,2 GB Datei auf den Fileserver kopiert und ausprobiert. Super! das Bild ist hervorragend, nur der Ton wird nicht abgespielt. (Audiokanal nicht unterstützt). Tja, mein erster Gedanke, transcode. Eine sehr schöne Seite ist hier, die brachte mich auch auf die richtige Spur. Das Wunderscript erledigt ja praktisch alles, nur kann es kein *.ts. Nach ein wenig probieren habe ich nun die Lösung:  ffmpeg -i Inas\ Nachtv\[2009-07-11-00-00-17\].ts -vcodec copy -acodec ac3 Inas.ts
Es dauert nur ca. 5-6 Minuten (auf meinem Notebook, der Server würde länger brauchen :-) ), ich denke, die Zeit kann man investieren.

Nachtrag, Optimal ist es nicht, komischerweise leidet die Bild- und Tonqualtität...hhhm



Broken SD-CardAus aktuellem Anlass:
Wenn eure Kamera sagt, das sie die Speicherkarte nicht mehr lesen kann, und auch Windows nicht mehr auf die Karte zugreifen kann, lohnt es sich ein Linux im Haus zu haben.
In meinem Fall war schlicht die Partitionstabelle unwiederherstellbar verschwunden. Dank dem kleinen Programm PhotoRec, war es aber trotzdem möglich alle Bilder und Videos zu retten.

Folgendes Vorgehen würde ich dafür empfehlen:

  1. Gerätedatei der Speicherkarte herausfinden:
    sudo fdisk -l

    Dabei wird sich wahrscheinlich ein Gerätename wie '/dev/mmcblk0' zeigen, falls nicht hilft auch ein Blick ins syslog

  2. Ein Image der Speicherkarte erstellen (das sollte bei allen Datenrettungsversuchen, egal ob Speicherkarte oder Festplatte, immer gemacht werden):
    sudo apt-get install ddrescue
    sudo dd_rescue /dev/mmcblk0 mmcblk0.img

    Hierbei natürlich die Gerätedatei anpassen.

  3. Dateien aus dem Image extrahieren:
    Photorec befindet sich im Paket 'testdisk'

    sudo apt-get install testdisk
    sudo photorec mmcblk0.img

    Weitere Optionen für photorec erhält man nach Eingabe von 'man photorec' und anschließendem Druck auf Enter

  4. Gerettete Dateien befinden sich im Verzeichnis 'recup_dir.1' (oder ähnlich)

Um die Karte anschließend wieder benutzbar zu machen, setzt man diese einfach in die Kamera ein und formatiert sie über die Menüfunktion der Kamera.

PS: Bei Speicherkarten, die aussehen, wie die oben im Bild, könnte es mit der Datenrettung eventuell etwas schwierig werden ;-)

Bild: flickr

Tags: | | | | |

umkleide
Und nun geht es schon zur vierten Podcast-Folge. Er handelt von einer Welt in der der VLC-Player tatsächlich in der Version 1.0 existert, Google ein eigenes Betriebssystem angekündigt hat und ich unter anderem über die Konzeptionierung dieses Podcasts diskutiere.
Releases:

Blogschau

Tutorials

Sonstiges

Feedback

  • Benni
  • Bürgermeister
  • Florian/Bugie
  • serenity
  • Dirk
  • Christoph

weiteres Feedback gerne an:

  • Email: info [at] tuxtux [punkt] org
  • Hier im Blog kommentieren
  • Twitter
  • Identi.ca

Podcast abonnieren:

pixelstats trackingpixel

Ich hoffe ja, dass es sich mittlerweile rumgesprochen hat, dass sich die neueste Ausgabe des beliebten Webbrowsers Firefox in Ubuntu Jaunty einfach durch die Eingabe der magischen Worte

sudo apt-get install firefox-3.5

installieren lässt. Ohne Jonglieren mit Fremdquellen oder PPAs, einfach so.

Doch einige Webseiten versuchen den jungen Hüpfer als Geheimagenten zu entlarven und verweigern Firefox 3.5, der sich als »Shiretoko« ausweist, den Eintritt in ihre heiligen Hallen. Ein echter Geheimagent lässt sich davon natürlich nicht beirren und zaubert einfach einen neuen Reisepass aus seinem »about:config«-Hut. Er kramt hastig den »general.useragent.extra.firefox«-Ausweisgenerator hervor und stellt sich einen neuen Passierschein auf den Namen »Firefox/3.5« aus. Da er sich damit als legitimer Nachfolger des berühmten und hochdekorierten Agenten »Firefox/3.0« identifiziert, lassen sich die Wächter der heiligen Webseiten davon täuschen und gewähren ihm den Zutritt.

Shiretoko wird in Firefox geändert

Da der Shiretoko-Geheimagent wohl bei einigen Webseiten dieses Problem hat, hat er auch schon einen Antrag gestellt, seine Hauptidentität offiziell in »Firefox/3.5« ändern zu lassen. Doch die Mühlen der Behörden mahlen langsam und weisen die Schuld erst einmal auf die Webseitenwächter. Diese sollen doch gefälligst »Shiretoko« in ihre Gästelisten aufnehmen, da ja bekannt ist, dass der langsam in die Jahre kommende Agent »Firefox/3.0« demnächst in seinen verdienten Altersruhestand gehen will. Also behilft sich Shiretoko bis dahin mit dem gefälschten Ausweis. Und wenn sie nicht gestorben sind, dann surfen sie noch heute…

Diese Woche in der Konsole

  1. Shell-Ausgaben in die Zwischenablage bekommen mit xsel. Im Beispiel landet die Ubuntu Version in die Zwichenablage und kann mit CTRL v eingefügt werden.
    cat /etc/issue | xsel --clipboard
  2. Backup einer PostgreSQL Datenbank. Das Backup (dump.gz) wird mit gzip komprimiert.
    pg_dump meine_datenbank | gzip > dump.gz
  3. Nachschauen welches Programm den Port 1234 in Verwendung hat. Nützlich wenn man sich nicht sicher ist was da eigentlich läuft.

    netstat -plantu | grep :1234
  4. Vergleichen, mit vimdiff von einer lokalen (local.txt) und einer am Server (remote.txt) liegenden Datei.

    vimdiff local.txt scp://meinname@meinserver/remote.txt
  5. Nur bestimmtes Kommando für Benutzer auf Server über eine ssh-Verbindung zulassen.
    In ~/.ssh/authorized_keys wird vor den Schlüssel des Benutzers command und das Kommando eingetragen.

    command="/bin/ls -al" ssh-rsa AA...PmQ== benutzer@host
    

    Der Benutzer darf jetzt am Server, über ssh nur mehr ein ls -al ausführen.

Share/Save/Bookmark

11. Juli 2009

Das Problem mit den Brennern ist ja, das man manchmal neue Medien nicht mehr brennen kann, weil die Firmware diesen Typ nicht Kennt, oder man das Medium nur ganz langsam brennen kann, weil es unbekannt ist. Da hilft dann ein flashen einer neueren Firmware.

Das zweite Problem ist, das man die Firmware erst mal finden muß.

Danach hat man das Problem, das man (fast) nie ein Tool für Linux bekommt.

Um es vorweg zu sagen: Keine Garantie! Bei mir hat es allerdings prima geklappt. Wer also kein W$ mehr hat, kann es so wie ich machen. Im Asus G1 steckt ein HL-DT-ST DVDRAM GSA-4084N. Firmaware Version K01. Man besorge sich die kleine Software von The Dangerous Brothers Present.... (Nebenbei bemerkt sind das echte Freaks)

und rufe KQ09AUTO.EXE mit wine als root auf. Etwa eine Minute später ist es überstanden. Danach muss man booten (wirklich), damit die Firmware aktiv ist und auch mit Hardinfo angezeigt wird. Noch ein Hinweis, die Dangerous Brothers haben eigentlich ganz andere Ziele, nämlich das abschalten Der Regionbeschränkungen in Consumer Elektronik. Aber es ist mir nicht gelungen, eine nuerer Firmware auf anderen Servern zu finden. Schon gar nicht auf der LG Homepage. Diese Javascript Verwurstung hat mich fast zur Verzeiflung getieben. Könnt ihr euch ja mal antun :-)

Das Problem mit den Brennern ist ja, das man manchmal neue Medien nicht mehr brennen kann, weil die Firmware diesen Typ nicht Kennt, oder man das Medium nur ganz langsam brennen kann, weil es unbekannt ist. Da hilft dann ein flashen einer neueren Firmware.

Das zweite Problem ist, das man die Firmware erst mal finden muß.

Danach hat man das Problem, das man (fast) nie ein Tool für Linux bekommt.

Um es vorweg zu sagen: Keine Garantie! Bei mir hat es allerdings prima geklappt. Wer also kein W$ mehr hat, kann es so wie ich machen. Im Asus G1 steckt ein HL-DT-ST DVDRAM GSA-4084N. Firmaware Version K01. Man besorge sich die kleine Software von The Dangerous Brothers Present.... (Nebenbei bemerkt sind das echte Freaks)

und rufe KQ09AUTO.EXE mit wine als root auf. Etwa eine Minute später ist es überstanden. Danach muss man booten (wirklich), damit die Firmware aktiv ist und auch mit Hardinfo angezeigt wird. Noch ein Hinweis, die Dangerous Brothers haben eigentlich ganz andere Ziele, nämlich das abschalten Der Regionbeschränkungen in Consumer Elektronik. Aber es ist mir nicht gelungen, eine nuerer Firmware auf anderen Servern zu finden. Schon gar nicht auf der LG Homepage. Diese Javascript Verwurstung hat mich fast zur Verzeiflung getieben. Könnt ihr euch ja mal antun :-)

Ich habe gerade einen gebrauchten Laptop bekommen. Der Akku hält nur noch 40 Minuten, hieß es, Windows Vista lief ein paar Minuten, dann war der Akku leer.

Da habe ich mal Linux drauf laufen lassen, die Energieverwaltung für die GNOME-Desktop-Umgebung hats gleich gemerkt.

Unter W$ war gar nix, der Rechner wurde einfach in den Standby Modus versetzt. Fairerweise muß ich dazu sagen, es lief gerade die Erstinstallation, ihr wißt schon, dieses typische Setup, wenn man einen neuen Rechner mit W$ drauf kauft. Aber egal, ich fands toll. Der Ersatzakku war ja schon vor dem Notebook angekommen :-)

Nach so viel Lob Hudelei ein kleiner Wermutstropfen. Der Akku ist ja nun Neu, und sollte auch wieder 3,5 Stunden halten, Der Gnome-Powermanager meint aber immer noch der Akku halte nur 2h und 20 Minuten. Das ist in etwa der Wert, den der alte Akku auch hatte...Powertop mein was anderes. Wie überrede ich den Power-Manager dazu, seine Werte zu aktualisieren? Also entsprechende Dateien habe ich weder in dpkg -L gnome-power-manager noch in dpkg -L powermgmt-base gefunden. Wo werden die Daten gespeichert?


Ich habe gerade einen gebrauchten Laptop bekommen. Der Akku hält nur noch 40 Minuten, hieß es, Windows Vista lief ein paar Minuten, dann war der Akku leer.

Da habe ich mal Linux drauf laufen lassen, die Energieverwaltung für die GNOME-Desktop-Umgebung hats gleich gemerkt.

Unter W$ war gar nix, der Rechner wurde einfach in den Standby Modus versetzt. Fairerweise muß ich dazu sagen, es lief gerade die Erstinstallation, ihr wißt schon, dieses typische Setup, wenn man einen neuen Rechner mit W$ drauf kauft. Aber egal, ich fands toll. Der Ersatzakku war ja schon vor dem Notebook angekommen :-)

Nach so viel Lob Hudelei ein kleiner Wermutstropfen. Der Akku ist ja nun Neu, und sollte auch wieder 3,5 Stunden halten, Der Gnome-Powermanager meint aber immer noch der Akku halte nur 2h und 20 Minuten. Das ist in etwa der Wert, den der alte Akku auch hatte...Powertop mein was anderes. Wie überrede ich den Power-Manager dazu, seine Werte zu aktualisieren? Also entsprechende Dateien habe ich weder in dpkg -L gnome-power-manager noch in dpkg -L powermgmt-base gefunden. Wo werden die Daten gespeichert?


Nur ein kurzer Hinweis am Rande und an jene, die ein permanentes Rauschen hören, so bei mir geschehen.

Durch einen kleinen Konfigurationsfehler hat es mir also permanent in den Ohren gerauscht und hätte ich nicht mehr oder minder durch Zufall die Lautstärke-Option geöffnet um auch hier dem Rauschen auf den Grund zu gehen, würde ich noch immer suchen. Dies war der Fehler:




So habe ich in den Einstellungen bei Wiedergabe "Mic Boost" aktiviert als ich wohl mein internes Mikrophon gesucht habe und sämtliche Optionen durchprobiert habe. Stellt man dieses zurück auf Stumm so verschwindet auch sofort das Rauschen.

Die letzte Woche war ich auf dem Gran Canaria Desktop Summit, der erstmalig gemeinsamen Konferenz von GNOME und KDE. Ich muss sagen es hat sich gelohnt und hoffe, dass in Zukunft öfter aKademy und Guadec zusammen stattfinden werden.

Ich war am Freitag in Las Palmas angekommen. Das Wetter war bei weitem nicht so schlimm, wie ich befürchtet hatte - es war richtig angenehm. Der starke Seewind und die Bewölkung machten die Hitze durchaus erträglich. Trotzdem: die Sonne ist gefährlich - das sagt mir zumindest mein Rücken ;-)

Am Freitag Abend war das erste Social Event gesponsort von Canonical. Es war somit die erste Möglichkeit die GNOME Leute kennen zu lernen. Wenn man sich so umgeschaut hat, sah man aber, dass die KDE Leute mit den KDE Leuten sprachen, die GNOME Leute mit den GNOME Leuten. War ja irgendwie zu erwarten - man kennt sich halt ;-) Dennoch gab es wohl auch einige Gespräche über die Grenzen hinweg und ich hab ein ausführliches Gespräch mit einem GNOME Shell Entwickler gehabt und Ideen ausgetauscht.

Am Samstag morgen begann die Konferenz - trotz Party am Vorabend gut besucht. Das Konfernzgebäude war einfach gigantisch. Die Mitarbeiter wurden aber wohl nicht richtig darauf vorbereitet, dass eine freie Software Konfernz nicht wie eine normale Konfernz ist. Bei Lightning Talks jeweils neues Wasser und ein Namensschild zum Rednerpult zu bringen ist irgendwie overkill ;-)

Die Konferenz wurde von einigen Vertretern von Gran Canaria/Spanien eröffnet. Leider hab ich keine Ahnung was sie uns sagen wollten, da sie auf Spanisch gesprochen hatten. Am Besten war ein Redner der anfing mit “mein Englisch ist nicht wirklich gut, daher halte ich meine Rede auf Spanisch”. Bei schlechtem Englisch hätte ich ja was verstanden, bei Spanisch leider nicht.

Nach der Eröffnung folgten die drei Keynotes. Ich war ja besonders an der Stallman Keynote interessiert. Da er ja zuvor schon auf Mono rumgehackt hatte, hatte ich erwartet, dass er auf die Problematik eingeht. Und ich wurde in dem Punkt nicht enttäuscht: seine ganze Rede ging eingentlich um die Mono Problematik. Die Rede war sehr gut aufgebaut: er begann mit einem Rückblick auf die Qt Problematik und wie es zu GNOME führte. Dass damals die freie Software bedroht war, weil der einzige freie Desktop auf eine unfreie Komponente aufbaute. Er erwähnte auch, dass dieses Problem heute gelöst ist. Mit diesem Rückblick motivierte er die Mono Diskussion: da Microsoft Patente auf C# hat, stellt das Entwickeln in dieser Sprache seiner Meinung nach eine Gefahr dar. Es sei schwer zu sagen an welchem Punkt es gefährlich wird, einzelne Anwendungen sind ok, aber komplett darauf aufzubauen nicht. So könnte man sagen, dass Tomboy ok ist, weil man es problemlos durch Gnote ersetzen kann. Also falls MS jemals auf die Idee kommt die Patente einzusetzen, wäre nichts verloren. Wie sich am Anschluss seiner Diskussion zeigt, kennt er sich jedoch mit der Problematik nicht wirklich aus. Er weiß nicht welche Teile patentiert sind, er weiß nicht in wie weit MS versprochen hat, keine Patente einzusetzen und seine Argumentation dreht sich um den Punkt “MS ist böse, MS hat gesagt sie wollen freie Software zerstören, also dürfen wir keine MS Technologie verwenden”. Auch wenn ich persönlich die gleiche Argumentation für mich folge und daher C# nicht verwenden würde, klingt seine Argumentation in meinen Ohren als FUD. Besonders die Empfehlung Lisp anstatt C# als Sprache zu verwenden, ist nun ja irgendwie weltfremd.

Ich persönlich habe vor der Rede ja auch eine Meinung zu Stallman gehabt und die ist nicht wirklich positiv. Er hat tolles für freie Software geleistet, aber irgendwie glaube ich nicht, dass er heute noch die richtige Person dafür ist. Und leider wurde meine in diesen Punkten ablehnende Haltung bestätigt. Nach seinem Mono Bashing verwandelte er sich in “St. IGNUcius of the Church of Emacs”. Eine meiner Meinung nach sehr peinliche Vorstellung und ich habe mit niemandem gesprochen der dieses gut geheißen hat. Es gab zwar viel Gelächter und Applaus aber irgendwie glaube ich mitlerweile die Leute haben ihn eher ausgelacht als das gutgeheißen. Für mich war dieser Teil der Rede ein “nein ich will nichts mit soetwas zu tun haben”. Da sage ich dann doch lieber ich bin ein Open Source Programmierer und kein Freie Software Programmierer. Ich kann mir nicht vorstellen, dass Microsoft ihn Ernst nimmt, wenn er als “Heiliger” mit Heiligenschein auftritt. Für eine Keynote bei solch einem Ereignis eine sehr schwache Nummer und ich war nicht der einzige, der sich daran störte.

Nach den Keynotes folgten die ersten Talks - zuerst einige Lightning Talks mit zum Teil grandiosen Projekten. Am nächsten Tag begannen die eigentlichen Vorträge, jeweils vier gleichzeitig - ich muss noch einige Videos anschauen. Es wird an doch bedeutend mehr Stellen zusammengearbeitet als ich dachte.

Nachmittags begann dann die eigentliche aKademy mit einer sehr guten Keynote von Glyn Moody. Ein schöner Rückblick wie Freie Software die Welt bereits veränderte. Die folgenden anderthalb Tage war ich also damit beschäftigt mir Talks anzuhören ;-)

Am Dienstag war mein freier Tag, da ich nicht im e.V. und somit nicht zur Hauptversammlung gehen konnte. Die Zeit ein bißchen am Strand verbracht und ein bißchen für 4.4 gehackt.

Mittwoch wurde die Konferenz in die außerhalb Las Palmas gelegene Universität verlegt. Obwohl sie erst 20 Jahre alt ist ohne Klimaanlage - recht überraschend. Zumindest war hier das Internet - im Gegensatz zum Konferenzgebäude - top. An jedem Platz Ethernetkabel und Steckdose. Perfekt für Akademy. Die erste BOF session betraf die Umstellung auf git. Der Raum war komplett voll und überhaupt nicht wie ein BOF sein sollte. Es gibt einiges zu tun und es haben sich einige Freiwillige gefunden. Grober Zeitplan bis zum 4.4 Freeze - also wohl noch dieses Jahr :-)

Am Donnerstag war das wichtige Plasma/KWin Treffen und es wird einiges tolles kommen - ich verrate jetzt mal noch nichts. Wir haben tolle und ehrgeizige Ideen, die wir aber erst noch weiter ausarbeiten müssen.

Am Mittag war der Tourist Trip. Tja Tourist Trip auf Gran Canaria bedeutet wohl nur, man geht an den Strand. Dass wir dazu mit dem Bus zum Süden der Insel fahren mussten, verstehe ich nicht wirklich - schönen Strand gab es auch in Las Palmas. Am Abend ging es für mich dann zum Flughafen, da ich einen Nachtflug hatte (wie konnte ich nur so blöd sein - ich weiß doch dass ich im Flugzeug nicht schlafen kann).

Insgesamt war es eine richtig tolle Woche und ich freue mich schon auf die aKademy nächstes Jahr. Die Community ist einfach richtig toll und es macht super Spaß in ihr zu arbeiten. Auch mit den GNOME Leuten war es eine sehr angenehme Erfahrung - aber man sieht doch Unterschiede. Mir kam es eigentlich die ganze Woche so vor, als ob mehr KDE Leute anwesend waren. Vermutlich ein rein subjektives Wahrnemen, da wir alle beim Social Event das Kubuntu T-Shirt angezogen haben und bei den Vorträgen unsere Laptops benutzten und man daher überall nur KDE sah.

Nur, um es noch einmal gesagt zu haben:
Wenn man zur Quelle will, muss man gegen den Strom schwimmen.
Ergänzend dazu:
Mit dem Strom schwimmt nur totes Gut.
Und jetzt mal den Bezug zur Betriebssystemwahl herstellen oder zu technischen Geräten, die alle haben müssen oder ...