ubuntuusers.de

30. Juli 2010

Die meisten von uns haben Probleme Vokabeln, Fachbegriffe oder Befehle zu lernen. Woran liegt das? Weil wir Gelerntes nicht oft genug wiederholen und weil wir es zum falschen Zeitpunkt wiederholen.

Mnemosyne hilft

Hier kommt Mnemosyne ins Spiel.

Mnemosyne funktioniert wie ein intelligenter Nachhilfe-Lehrer, der euch immer dann das fragt, was ihr üben solltet, wenn ihr es üben solltet.

Wenn ihr etwas auswendig lernen wollt ist Mnemosyne eurer Partner. Legt zum Beispiel einfach eine Vokabel an. Mnemosyne fragt sie ab, dann bewertet ihr wie gut eure Antwort war. Mnemosyne versucht dann das nächste mal die Vokabel wieder zum besten Zeitpunkt abzufragen.

Tipps

Ich benutzt immer dann, wenn ich:

  • im englischsprachigen Internet unterwegs bin und ein Wort nicht weiß. Dann schlage ich es nach und trage es sofort in Mnemosyne ein.
  • ein Lehrbuch durcharbeite und bestimmte Fakten lernen muss.

Download

Für die Installation in Ubuntu einfach hier klicken:

Installbutton Mnemosyne

Für alle anderen Betriebssysteme gibt es hier was zum downloaden: Mnemosyne-Download

The post Der ideale Nachhilfe-Lehrer appeared first on Rockiger.

    Fernsehen über das Internet ist eine super Sache, ob Zuhause, im Internetcafe, im Zug, am Strand, am Flughafen, im Schnellrestaurant, man kann viel flexibler fernsehen als mit dem heimischen Heimkinoset. Heute bin ich über ein kleines Programm gestolpert, was das ganze auch noch professionell für Linux betreibt: FreetuxTV.

    Worum gehts?

    Das Internet-TV und -radioprogramm basiert auf VLC und hat eine GTK2+ Oberfläche. Das von französischen Entwicklern erstellte Programm hat eine Menge voreingestellte Channels, sortiert nach Ursprungsländern. Das laufende Programm kann man mittels Mausklick aufzeichnen.
    Die Auswahl an deutschen Channels ist in der Voreinstellung leider ziemlich rar. Es umfasst folgende TV-Sender:

    • EinsExtra
    • ZDF
    • Astro TV
    • Bahn TV
    • DW-TV
    • München TV
    • und noch ein paar kleine Sender, deren Namen ich noch niemals gehört habe.

    Anders sieht es schon bei fremdsprachigen Programmen aus: Die englische Channellist umfasst schon sage und Schreibe 83 Sender, die französische sogar über 100. Da sind dann schon bekannte Sender wie BBC 2, Euronews, Fox oder NBC dabei.

    Installation

    Die Installation ist genauso einfach wie die Bedienung des Programms. Lediglich diese beiden Terminaleingaben sind notwendig:

    sudo add-apt-repository ppa:freetuxtv/freetuxtv
    sudo apt-get update && sudo apt-get install freetuxtv

    Fazit

    Für deutsche TV-Gucker lohnt es sich nicht wirklich, wenn man eine große Programmfülle erwartet. Wer sich auf das ZDF und die kleinen Sender beschränken möchte, dem sei diese Anwendung empfohlen. Da es, im Gegensatz zu Zatoo, keinen Flashstream benutzt, ist die CPU-Last auch relativ gering.
    Für Leute, die gerne ausländisches Fernsehen schauen, vor allem englisch oder französisch, ist diese Anwendung prima geeignet. Es gibt auch noch viele weitere voreingestellte Länder-Gruppen, z.B. spanisch, japanisch, italienisch, schwedisch usw. Die Masse an fremdsprachigen Sendern macht FreetuxTV sehr interessant.

    (via geekdefrance.fr)

    29. Juli 2010

    Seit einiger Zeit nutze ich Voice-over-IP unter Ubuntu in Form von SIP. In der Paketverwaltung finden sich auch mehrere Clients mit mehr oder weniger intuitiver Benutzeroberfläche. Allerdings fehlt mir bei allen Clients aus den Paketquellen die Möglichkeit eine Rufnummer aus einem ENUM-Verzeichnis aufzulösen.

    ENUM ist ein relativ simples System um ‘gewöhnlichen’ Telefonnummern eine SIP-Adresse oder auch andere Daten (z.B. Jabber-Daten, Website, eMail-Adresse) zuordnen zu können. Ist einer Telefonnummer eine SIP-Adresse zugeordnet kann man diese Nummer – ohne den Umweg über das normale Telefonnetz machen zu müssen – über das Internet anrufen. Es wird also direkt der SIP-Account angerufen. Vorteil: Es entstehen keine Gesprächskosten für den Anruf. Außerdem kann man so, sogar mit einem kostenlosen SIP-Account (z.B. von Ekiga.net) eingetragene Nummern anrufen. Nachteil: Einige Provider verbieten Anrufe, welche direkt auf die SIP-Adresse zeigen, außerdem gibt es bis dato noch nicht allzu viele Nummern, welche in einem ENUM-Verzeichnis eingetragen sind. Tja, und nun fehlt mir diese Möglichkeit noch im Client, doch zumindest dazu habe ich mir mit einem kurzen bash-Script Abhilfe schaffen können (Leider können bei meinem Script Nummern mit regulären Ausdrücken nicht berücksichtigt werden. Für Hinweise bin ich dankbar!).

    Vielleicht nutzt ja der eine oder andere Leser hier auch einen SIP-Account – oder findet sogar eine Möglichkeit, Rufnummern mit regulären Ausdrücken zu verarbeiten – weshalb ich das Script auch zur Verfügung stelle. Ich selbst bin keiner, der allzu oft Scripts schreibt. In diesem Script habe ich aber zumindest das nötigste um Ekiga (bzw. Twinkle oder Linphone) aufzufordern die Nummer anzurufen, wenn ein Eintrag vorhanden ist. Weiters eine Anzeige des Orts in OpenStreetMaps, falls Koordinaten angegeben sind, und letztlich gibt er die Adresse aus, wenn ein Adresseintrag für die Nummer existiert. Vielleicht mag sich das ja einer ansehen / sich damit beschäftigen ;)

    Hier könnt ihr euch das Script ansehen: enumhandler

    P.S.: Vielleicht möchte jemand seine SIP-Adresse und Rufnummer in ein ENUM-Verzeichnis eintragen. Prüft dazu vorher, ob diese Nummer von einem Account eines anderen Providers aus erreichbar ist und meldet euch anschließend bei e164.org an.

    Keine ähnlichen Posts

    Gerade habe ich eine Mail bekommen, in der ich zur Private Beta von Ubuntu Stackexchange eingeladen wurde, weil ich mich vor ein paar Wochen dort mal registriert habe. Aber vielleicht sollte ich erst erklären, was Ubuntu Stack Exchange eigentlich ist.

    Vielleicht haben einige von euch bereits von StackOverflow.com gehört. StackOverflow.com ist eine Frage/Antwort-Plattform für Programmierer. Der Unterschied zu einem Forum besteht darin, dass die Fragen und die Antworten möglichst allgemein gehalten werden sollen, sodass sie leicht von anderen weiterverwendet werden. Ein Beispiel wäre (einfach mal so herausgegriffen): Is LinkedList thread-safe when I’m accessing it with offer and poll exclusively? (Java). Statt das in Foren ständig die gleichen Fragen gestellt werden, kann so eine Frage einmal beantwortet werden und derjenige, der die Antwort sucht, braucht nur noch nachzuschlagen.

    Ähnlich ist es bei Ubuntu Stack Exchange. Stack Exchange ist eine Plattform, auf der jeder eine Seite ähnlich Stack Overflow erstellen kann, und nun hat das eben jemand für Ubuntu gemacht. Auch bei Ubuntu und Linux im Allgemeinen tauchen in Foren immer wieder dieselben Fragen auf, ob man denn auch auf Windows-Partitionen zugreifen kann, ob Spiele funktionieren, ob Linux wirklich kostenlos ist (ja, ich weiß, Freiheit, nicht Freibier), ob man unter GNOME auch KDE-Programme verwenden kann und so weiter. Oftmals wird auf eine FAQ verwiesen, woraus man sich die Antwort erschließen könne. Ubuntu Stack Exchange ist im Prinzip genau das: Eine ständig sich selbst erweiternde FAQ. Beispiele für Fragen wären etwa How can I install a package without root access? oder How do I move the window buttons back to the right for all users?

    Fragen können verschlagwortet, bewertet und natürlich beantwortet werden. Aktive User bekommen auch sogenannte Badges, die man in seinem Nutzerprofil sammeln kann, je nach der Aktivität auf der Seite. Es gibt auch noch eine Meta-Seite, auf der über Ubuntu Stack Exchange selbst Fragen gestellt werden können.

    Um bei Ubuntu Stack Exchange mitzumachen, braucht man nur eine OpenID. Wer ein WordPress.com-Blog betreibt, der kann einfach seine Blog-URL nehmen. Auch Launchpad-Accounts besitzen eine OpenID. Ansonsten kann man sich bei einem beliebigen OpenID-Provider eine erstellen. Momentan befindet sich Ubuntu Stack Exchange noch in einer geschlossenen Beta, die offene Beta wird am 4. August beginnen.

    Insgesamt gibt es schon rund 100 Fragen zu Ubuntu. Die Zahl wird sich sicherlich erhöhen, wenn die Public Beta startet, denn zur Zeit sind neben mir nur 593 weitere User registriert.

    Alles in allem halte ich Ubuntu Stack Exchange für eine sinnvolle Ergänzung zu den bisherigen Hilfe-Ressourcen, wenn man auch langsam den Überblick verlieren kann. Vielleicht machen wir einfach eine Q&A-Seite, auf der erklärt wird, wofür die einzelnen Hilfeservices gut sind ;-) . Jedenfalls sollten wir mal abwarten, wie sich das ganze entwickelt.

    Gerade habe ich eine Mail bekommen, in der ich zur Private Beta von Ubuntu Stackexchange eingeladen wurde, weil ich mich vor ein paar Wochen dort mal registriert habe. Aber vielleicht sollte ich erst erklären, was Ubuntu Stack Exchange eigentlich ist.

    Vielleicht haben einige von euch bereits von StackOverflow.com gehört. StackOverflow.com ist eine Frage/Antwort-Plattform für Programmierer. Der Unterschied zu einem Forum besteht darin, dass die Fragen und die Antworten möglichst allgemein gehalten werden sollen, sodass sie leicht von anderen weiterverwendet werden. Ein Beispiel wäre (einfach mal so herausgegriffen): Is LinkedList thread-safe when I’m accessing it with offer and poll exclusively? (Java). Statt das in Foren ständig die gleichen Fragen gestellt werden, kann so eine Frage einmal beantwortet werden und derjenige, der die Antwort sucht, braucht nur noch nachzuschlagen.

    Ähnlich ist es bei Ubuntu Stack Exchange. Stack Exchange ist eine Plattform, auf der jeder eine Seite ähnlich Stack Overflow erstellen kann, und nun hat das eben jemand für Ubuntu gemacht. Auch bei Ubuntu und Linux im Allgemeinen tauchen in Foren immer wieder dieselben Fragen auf, ob man denn auch auf Windows-Partitionen zugreifen kann, ob Spiele funktionieren, ob Linux wirklich kostenlos ist (ja, ich weiß, Freiheit, nicht Freibier), ob man unter GNOME auch KDE-Programme verwenden kann und so weiter. Oftmals wird auf eine FAQ verwiesen, woraus man sich die Antwort erschließen könne. Ubuntu Stack Exchange ist im Prinzip genau das: Eine ständig sich selbst erweiternde FAQ. Beispiele für Fragen wären etwa How can I install a package without root access? oder How do I move the window buttons back to the right for all users?

    Fragen können verschlagwortet, bewertet und natürlich beantwortet werden. Aktive User bekommen auch sogenannte Badges, die man in seinem Nutzerprofil sammeln kann, je nach der Aktivität auf der Seite. Es gibt auch noch eine Meta-Seite, auf der über Ubuntu Stack Exchange selbst Fragen gestellt werden können.

    Um bei Ubuntu Stack Exchange mitzumachen, braucht man nur eine OpenID. Wer ein WordPress.com-Blog betreibt, der kann einfach seine Blog-URL nehmen. Auch Launchpad-Accounts besitzen eine OpenID. Ansonsten kann man sich bei einem beliebigen OpenID-Provider eine erstellen. Momentan befindet sich Ubuntu Stack Exchange noch in einer geschlossenen Beta, die offene Beta wird am 4. August beginnen.

    Insgesamt gibt es schon rund 100 Fragen zu Ubuntu. Die Zahl wird sich sicherlich erhöhen, wenn die Public Beta startet, denn zur Zeit sind neben mir nur 593 weitere User registriert.

    Alles in allem halte ich Ubuntu Stack Exchange für eine sinnvolle Ergänzung zu den bisherigen Hilfe-Ressourcen, wenn man auch langsam den Überblick verlieren kann. Vielleicht machen wir einfach eine Q&A-Seite, auf der erklärt wird, wofür die einzelnen Hilfeservices gut sind ;-) . Jedenfalls sollten wir mal abwarten, wie sich das ganze entwickelt.


    In dem meisten Beiträgen auf Linux Und Ich versuche ich praktische Themen zu behandeln, die ich hier testen kann und die Ihr zuhause auch umsetzen könnt. Dadurch fallen jedoch viele interessante Themen durch das Raster und bleiben unerwähnt. Von daher möchte ich in der Reihe “Heiße Eisen” interessante Entwicklungen oder Programme vorstellen, die noch in den Kinderschuhen stecken, aber bald auch bei euch auf dem Desktop landen könnten.

    Als Start dieser Reihe möchte ich auf das äußerst spannende und aufregende Thema “In das System Einloggen” eingehen. Unter Linux ist dafür Linux-PAM (das Pluggable Authentication Modules for Linux) zuständig. Dieses lässt sich durch zusätzliche Module erweitern, so dass man sich über zentrale Server einloggen kann oder auch mit einem Fingerabdruck. Eine kleine Gruppe an Entwicklern macht sich nun daran, dass man sich per Gesichtserkennung einloggen kann.

    Das Projekt nennt sich pam-face-authentication a Pluggable Authentication Module for Face Authentication und ist auf Google Code zu finden. Aktuell ist die Implementation in KDM schon ziemlich weit vorangeschritten, das Video der Entwickler zeigt den Stand der Dinge ziemlich gut…

    (Direktlink zu YouTube)

    Die Installation und Konfiguration ist alles andere als einfach, doch die Autoren sind bemüht das PAM-Modul als Paket in alle größeren Linux-Distributionen zu bekommen. Früher oder später wird es sicherlich möglich sein, das Plugin über die Paketquellen zu installieren.

    (Direktlink zu YouTube)

    Wie eingangs gesagt: Das Ding ist noch ein heißes Eisen, verbrennt euch beim Rumspielen nicht die Finger… Aktuelle Informationen zum Projekt bekommt Ihr auf Facebook, Twitter und natürlich auf der Projektseite.

    28. Juli 2010

    Heute ist endlich die deutschsprachige Version der Ubuntu-Dokumentation Erste Schritte mit Ubuntu 10.04 erschienen. Die Eigendefinition des Handbuchs:

    

    Erste Schritte mit Ubuntu 10.04 ist ein umfassender Leitfaden für Menschen, die zum ersten Mal mit dem Betriebssystem Ubuntu arbeiten. Es wurde unter einer Open-Source-Lizenz geschrieben und darf von Ihnen frei heruntergeladen, gelesen, verändert und verteilt werden.

    Das Handbuch hilft Ihnen dabei, tagtägliche Arbeiten wie im Internet surfen, Musik hören und Dokumente zu scannen zu erledigen. Da die Anleitungen einfach nachvollziehbar sind, ist es für alle Erfahrungsstufen geeignet.

    Die weiteren Merkmale sind:

    

    Einfach zu verstehen – Unser Handbuch verfügt über Schritt-für-Schritt-Anleitungen und ist frei von Fachbegriffen

    Ein Bild sagt mehr als tausend Worte – Viele Bildschirmfotos, um Ihnen Funktionen zu erläutern

    Alles an einem Ort – Angenehmerweise in einer Datei zusammengefasst, so dass Sie nicht überall im Internet nach Hilfe suchen müssen

    Ansteigende Lernkurve – Beginnend mit den Grundlagen lernen Sie mit jedem Kapitel mehr und mehr

    Dutzende Sprachen – Übersetzt in mehr als 52 Sprachen, inklusive lokalisierten Bildschirmfotos

    CC-BY-SA-Lizenz – Laden Sie es herunter, bearbeiten, kopieren und verteilen Sie es so oft Sie wollen

    Kostenlos – Unsere Dokumente wurden von Mitgliedern der Ubuntu-Gemeinschaft geschrieben und stehen zur kostenlosen Benutzung bereit

    Druckfreundlich – Wir bieten eine für den Druck optimierte Variante, der Umwelt zuliebe

    Hilfestellung zur Fehlerbehebung – Um Ihnen dabei zu helfen, häufige Probleme mit Ubuntu schnell zu lösen

    Meiner Meinung nach ein tolles Projekt (hab selber auch bei der Übersetzung mitgeholfen…) und wünsche diesem viel Erfolg.

    Links

    Projekthomepage: http://ubuntu-manual.org/

    German text below. / Deutscher Text weiter unten.

    The next part of my mini series about Taskwarrior is about dates, dateformat, due dates and wait dates.

    Previous part

    The standard date format is m/d/Y. That means the following:

    m minimal-digit month, for example 1 or 12
    d minimal-digit day, for example 1 or 30
    y two-digit year, for example 09
    D two-digit day, for example 01 or 30
    M two-digit month, for example 01 or 12
    Y four-digit year, for example 2009
    a short name of weekday, for example Mon or Wed
    A long name of weekday, for example Monday or Wednesday
    b short name of month, for example Jan or Aug
    B long name of month, for example January or August
    V weeknumber, for example 03 or 37
    H two-digit hour, for example 03 or 11
    N two-digit minutes, for example 05 or 42
    S two-digit seconds, for example 07 or 47


    And, you guess it, it is configurable. Since I am not familiar with the American way of printing dates, I modified the dateformat for everything to YMD. This can be done in ~/.taskrc

    $ grep ^dateformat ~/.taskrc
    dateformat=YMD # Preferred input and display date format
    dateformat.holiday=YMD # Preferred input date format for holidays
    dateformat.report=YMD # Preferred display date format for reports
    dateformat.annotation=YMD-HN # Preferred display date format for annotations


    With this in mind, you can set dates to your tasks. "due" manages the due date of your task, "wait" edits a task to not show up in lists before that specific day.

    task shell # makes it a lot easier since you do not need to type the word "task" before any command
    task> add Pay rent
    Created task 1
    task> list

    ID Project Pri Due Active Age Description
    1 8 secs Pay rent

    1 task
    task> 1 due:20100731
    Modified 1 task
    task> list

    ID Project Pri Due Active Age Description
    1 20100731 1 min Pay rent

    1 task
    task> quit


    Did you notice that the color changed?

    I want to do that task tomorrow and I do not want to be bothered with seeing it before tomorrow.

    task> 1 wait:20100729
    Modified 1 task
    task> list
    No matches.


    Apart from using abolut dates, you can use relative ones as well.

    task ... due:today
    task ... due:yesterday
    task ... due:tomorrow
    task ... due:23rd # next occuring 23rd
    task ... due:eow # end of week
    task ... due:eom # end of month
    task ... due:eoy # end of year
    task ... due:fri # next occuring Friday
    task ... due:wed # next occuring Wednesday (not today!)


    The next version of taskwarrior will have the "start of" commands as well.

    With this very basic knowledge you can already do a lot of work, I will talk/write about recurring tasks later on.

    task add due:20100731 wait:20100724 Pay rent
    task add due:20100831 wait:20100824 Pay rent
    task add due:20101225 wait:eom Buy christmas presents


    To be continued ...

    Deutscher Text. / German text.

    In diesem zweiten Teil über Taskwarrior geht es um Daten (Termine), Datumsformate, Zieltermine und Wartetermin.

    Letzte Episode

    Das Standard-Datumsformat ist m/d/Y, was das folgende bedeutet:

    m minimale Ziffern für den Monat, beispielsweise 1 oder 12
    d minimale Ziffern für den Tag, beispielsweise 1 or 30
    y zwei Ziffern für das Jahr, beispielsweise 09
    D zwei Ziffern für den Tag, beispielsweise 01 oder 30
    M zwei Ziffern für den Monat, beispielsweise 01 oder 12
    Y four-digit year, beispielsweise 2009
    a Kurzname des Wochentags in englischer Sprache, beispielsweise Mon oder Wed
    A Langname des Wochentags in englischer Sprache, beispielsweise Monday oder Wednesday
    b Kurzname des Monats (Englisch), beispielsweise Jan oder Aug
    B Langname des Monats (Englisch), beispielsweise January oder August
    V Wochennummer, beispielsweise 03 oder 37
    H die Stunde mit zwei Ziffern, beispielsweise 03 oder 11
    N die Minute mit zwei Ziffern, beispielsweise 05 oder 42
    S die Sekunde mit zwei Ziffern, beispielsweise 07 oder 47


    Und, wie Ihr wahrscheinlich vermutet, ist das konfigurierbar. Da ich mit dem amerikanischen Datumsformat nichts anfangen kann, habe ich es auf YMD gesetzt (D.M.Y) wäre auch möglich. Das kann in der Datei ~/.taskrc eingestellt werden.

    $ grep ^dateformat ~/.taskrc
    dateformat=YMD # präferiertes Ein- und Ausgabedatumsformat
    dateformat.holiday=YMD # Bevorzugtes Eingabedatumsformat für Urlaub und Feiertage
    dateformat.report=YMD # Bevorzugtes Ausgabedatumsformat für Reports
    dateformat.annotation=YMD-HN # Bevorzugtes Ausgabedatumsformat für Anmerkungen


    Mit dem im Hinterkopf könnt Ihr Daten an Eure Aufgaben hängen. "due" für Zieltermine, "wait" für Wartezeiten bis zu dem die Aufgabe in den Übersichten ausgeblendet wird.

    task shell # das macht es ein bisschen einfacher, da braucht man nicht mehr "task" vor jedem Kommando zu tippen
    task> add Miete zahlen
    Created task 1
    task> list

    ID Project Pri Due Active Age Description
    1 8 secs Miete zahlen

    1 task
    task> 1 due:20100731
    Modified 1 task
    task> list

    ID Project Pri Due Active Age Description
    1 20100731 1 min Miete zahlen

    1 task
    task> quit


    Habt Ihr gesehen, dass sich die Farbe geändert hat?

    Ich möchte die Aufgabe morgen erledigen und heute nicht mehr in meiner Liste haben.

    task> 1 wait:20100729
    Modified 1 task
    task> list
    No matches.


    Losgelöst von absoluten Datumsangaben können auch relative verwendet werden (immer in englischer Sprache)

    task ... due:today # Heute
    task ... due:yesterday # Gestern
    task ... due:tomorrow # Morgen
    task ... due:23rd # der nächste 23te
    task ... due:eow # Ende der Woche
    task ... due:eom # Ende des Monats
    task ... due:eoy # Ende des Jahres
    task ... due:fri # der nächste Freitag
    task ... due:wed # der nächste Mittwoch (nicht heute!)


    In der nächsten Version von Taskwarrior wird es auch die "start of" Daten geben (sow, som, soy).

    Mit dem bis jetzt erreichten Basiswissen, kann bereits eine grosse Menge an Arbeit erledigt werden. Über wiederkehrende Aufgaben schreibe ich später.

    task add due:20100731 wait:20100724 Miete zahlen
    task add due:20100831 wait:20100824 Miete zahlen
    task add due:20101225 wait:eom Weihnachtsgeschenke kaufen


    Fortsetzung folgt ...

    Hier noch ein Nachtrag zum Fall GeoGebra. Für die, die es nicht wissen: GeoGebra ist eine weit verbreitete, in Java geschriebene Software für die Erstellung und Berechnung mathematischer Figuren.

    Eigentlich sollte GeoGebra in die Debian Paketquellen, jedoch wollten die Entwickler – dem Anschein nach – GeoGebra auf keinen Fall in den Paketquellen haben. Man sollte nach ihrer Meinung entweder die Java-Webstart Anwendung von GG nutzen, oder aber GeoGebra nur aus den von ihnen bereitgestellten Quellen installieren.

    Die Gründe für dieses Verhalten blieben für mich rätselhaft, das Paket wurde von Giovanni Mascellani trotzdem in Debian integriert. Inzwischen sind die Entwickler (in der Debianwelt als “upstream” bezeichnet, da sie das “Rohmaterial” für ein Paket liefern) auch mit der Situation zufrieden. Also habe ich mal nachgefragt, warum denn eigentlich die Upstream-Entwickler so gegen eine Aufnahme des Paketes waren: Giovanni meinte, der hauptsächliche Grund dafür, dass die Entwickler GG nicht in Debian haben wollten war das Problem, dass extrem viele Versionen von GeoGebra in Umlauf sind, und man nicht für alle Fehlerkorrekturen bereitstellen kann. Außerdem wäre das verwirrend für die Nutzer. Das Ganze war also letztendlich (wie schon zuvor vermutet) nur ein großes Missverständnis.

    Inzwischen arbeiten die GG-Entwickler wohl sehr eng mit Giovanni, der Paket-Maintainer für GeoGebra ist, zusammen, und diese Arbeit läuft perfekt und für beide Seiten produktiv. (Giovanni bedankt sich ausdrücklich beim Team von GeoGebra für die Hilfe beim paketieren)

    Im Grunde war der Hauptgrund für dieses Verhalten also in etwa der selbe wie bei Mozillas Firefox: Man wollte schlicht und einfach nicht so viele Versionen lange Zeit supporten, oder verbuggte Versionen in einer Distribution wie Debian halten.  (Was ich sehr gut verstehen kann, vor allem bei kleinen Teams ist das ein fast unmöglicher Aufwand)

    Bei Mozilla kam dann auch noch die aggressive Markenpolitik hinzu, was dann dazu führte, dass Debian seinen eigenen Firefox-Fork pflegt. (Identisch mit Firefox, bis auf Name und Branding) Aber das ist auch ein anderes Thema.

    Schlussendlich war das ganze “Problem” also nichts weiter als eine Serie von gegenseitigen Missverständnissen und ist auch eigentlich keinen Blogpost mehr wert. Da dieser Fall hier aber schon länger geschildert wird, musste natürlich eine Richtigstellung sein. Also letztendlich Vielen Dank an die GeoGebra-Entwickler für die Unterstützung, auch wenn’s am Anfang extrem chaotisch war.

      Firefox 4.0 ist heute in der zweiten Betaversion veröffentlicht worden. Betatester können nun die neue Version des Browsers auch in Deutsch und 23 anderen Sprachen herunterladen und testen. Das geht sogar vergleichsweise einfach: Auf der Internetseite das Paket herunterladen, entpacken und die Datei firefox im entpackten Ordner ausführen. Danach öffnet sich Firefox 4.0 mit allen Änderungen, Verbesserungen und Features.

      Firefox 4.0 Beta 2 mit „Tabs on Top“

      Falls noch nicht geschehen, kann man mittels Rechtsklick neben der Adresszeile die Tabs nach oben, über die Adresszeile, schieben (Tabs oben). Außerdem kann man noch die schon die überall bekannten Personas auswählen, einfach auf die Internetseite getpersonas.com und eine entsprechende Tapete aussuchen.

      Was man nun auch kann, ist das Anlegen von so genannten App Tabs. Ein App Tab ist ein Tab wie jeder andere auch, mit dem Unterschied, dass er einige Vorzüge geniest (die noch nicht alle umgesetzt wurden). Erstens bleiben sie immer bestehen, auch bei jedem Neustart des Browsers, es sei denn, man deaktiviert ihn. Sie werden also immer geladen. Zweitens besteht ihre Kennzeichnung nur aus dem Favicon, nicht aus dem Seitentitel wie man es von den anderen Tabs gewöhnt ist. Ihre Position ist links von den anderen Tabs. Wenn sie aufgerufen werden, verschwindet die Adresszeile und gibt mehr Platz im Fenster für die Webanwendung frei (wie bereits erklärt; noch nicht umgesetzt).

      Erfunden und eingeführt wurden sie für Webanwendungen, die über die Funktionalität von normalen Webseiten hinausgeht, etwa soziale Netzwerke wie Twitter oder Facebook. Auch webseitenbasierende Feedreader, Webmail, Musikseiten, Chatdienste usw. sollen von dieser Erfindung profitieren.

      Grundsätzlich kann man jede Internetseite zu einem App Tab machen. Einfach die Seite öffnen und mit einem Rechtsklick auf den Tab das Kontextmenü aufrufen und „In App-Tab umwandeln“ auswählen. Aber um ehrlich zu sein: so ganz funktioniert die Geschichte noch nicht. Aber es ist ja noch Beta!

      Ich freue mich schon wie ein kleines Kind auf die restlichen Neuerungen, die alle sehr vielversprechend (aber auch leistungshungrig) klingen, etwa die Tab-switch Funktion (bei Eingabe einer Adresse in die Adresszeile werden die bisher geöffneten Tabs berücksichtigt, so dass man direkt zu diesem Tab wechseln kann), oder Tab Candy (seht euch ruhig mal die Prästentation von Aza Raskin an!)- der sehr mächtigen Tabverwaltung. Damit kann man Tabs gruppieren und so besser die Übersicht behalten.

      Alle anderen Neuerungen wurden entweder schon zerredet oder finden sich in den Releasenotes.

      Seit geraumer Zeit ist die Musikvisualisierungssoftware projectM in den Debian-Paketquellen verfügbar. Leider waren die Pakete von projectM verwaist (=niemand, der sich um deren Instandhaltung kümmert), veraltet und zudem zersplittert in viele Einzelpakete.

      Dass ein Bedarf an projectM besteht, zeigt ein unglaublich umfangreicher Thread im englischen UbuntuForum, und da ich das Projekt auch gut finde, habe ich neue Pakete für Debian erstellt und mit dem Multimedia-Team die Maintainerschaft über die Pakete übernommen. Soweit, so gut.

      Blöderweise gibt es noch einen kritischen Bug, der verhindert, dass die neuen projectM-Pakete in die offizielle Distribution aufgenommen werden können. So crasht das Programm “projectM-pulseaudio” direkt nach dem Start auf manchen Systemen.

      Daher ist das neue projectM erstmal nur auf der experimental-”Spielwiese” von Debian enthalten. (Und damit kommt projectM auch nicht in die Ubuntu-Quellen) Bis der Bug behoben ist, wird projectM auch noch in experimental bleiben. Nun haben wir einen Patch erstellt, der den Crash verhindert, was projectM gut genug für Debian unstable machen würde. Das Problem daran wiederum ist, dass Besitzer einiger Grafikkarten projectM dann nicht nutzen können, da der genannte Patch im Grunde nur den Crash verhindert, aber nicht dessen eigentliche Ursache. Leider tritt der Crash nur auf manchen Systemen mit bestimmten Grafikkarten auf, was eine Analyse des Problemes erschwert. Kurz gesagt:

      Wer könnte besser die Tools auf Funktionsfähigkeit testen als die späteren Nutzer? Voraussetzung sind grundlegendes Wissen über die manuelle Installation von Paketen und die Bedienung von Terminals, mehr nicht.

      Zur Installation müssen folgende Pakete manuell aus Debian-Experimental heruntergeladen & installiert werden: projectm-data, libprojectm2, libprojectm-qt1, projectm-dbg, projectm-pulseaudio und, optional, wer Unterstützung für JACKAudio will: projectm-jack

      Dann ein Terminal öffnen und

      projectM-pulseaudio

      eingeben. Dann entweder über die schöne Visualisierung freuen (man muss natürlich Musik über PulseAudio laufen lassen) oder aber den Absturz des Programmes beobachten. Falls es Probleme gibt, wäre es super, wenn ihr die komplette Terminalausgabe von projectM-pulseaudio zusammen mit der des Befehls

      glxinfo | grep -i opengl

      an mich senden würdet. Wer Erfahrung damit hat, kann die Daten am besten als Kommentar zu diesem Bug im BTS von Debian eintragen. Alternativ geht aber auch ein Kommentar zu diesem Blogpost, oder aber noch besser über Launchpad. (Betreff: projectM-Testcase)

      Damit werden dann bald alle in den Genuss der IMHO besten Musikvisualisierung kommen, die es momentan gibt.

      Im Februar hat Joe “Zonker” Brockmeier den Posten als Novells Communitymanager für das openSUSE Projekt aufgegeben. Lange Zeit war dieser Job unter den offenen Stellen bei Novell zu finden. Aber jetzt ist dieser Posten wieder besetzt und zwar mit Jos Poortvliet, der zumindest in der KDE Community kein unbekannter sein dürfte.

      Jos in seinem ersten Statement “The opportunity to become part of the international openSUSE community is very exciting. There are a great number of interesting developments going on in the free software world, and openSUSE plays a major role in many of them. I look forward to working with the community on these, helping it grow, finding new directions and ways of developing, and delivering its innovative technologies to users and developers around the world.”

      Ich finde, Jos ist eine hervoragende Wahl und das nicht nur weil ich ihn kenne und gut mit ihm zurechtkomme, sondern weil er wirklich schon Erfahrungen innerhalb eine FLOSS-Community gesammelt hat und weiß wie man etwas bewegen kann.

      Manchmal sind es die kleinen Dinge, die Usability ausmachen. Ubuntu-Entwickler Dustin Kirkland hat sich so einen kleinem Fall angenommen. Führt man einen Prozess in einem Terminal aus, der etwas länger dauern wird, so wird man wohl kaum das Terminal im Auge behalten. Somit verpasst man auch das Ende des Prozesses. Dustin hat sich nun ein kleines Alias-Kommando ausgedacht, das man an den Prozess-Aufruf anhängt und das dann beim Beenden des Prozesses über das Benachrichtigungssystem von Ubuntu die entsprechende Information ausgibt.

      Das Kommando wird über ein so genanntes Alias dem System bekannt gemacht, so braucht man kein Shell-Skript anzulegen. Öffnet daher die ~/.bashrc in euren bevorzugten Editor…

      $ gedit ~/.bashrc
      

      …und fügt die folgenden Zeilen am Ende der Datei ein.

      # Benachrichtigungen bei langen Prozessen
      if [ -x /usr/bin/notify-send ]; then
        alias alert='notify-send -i gnome-terminal "[$?] $(history|tail -n1|sed -e '\''s/^\s*[0-9]\+\s*//;s/;\s*alert$//'\'')"'
      fi
      

      Die if-Abfrage überprüft ob das Programm notify-send aus dem Paket libnotify-bin installiert ist und falls ja, dann wird das Alias gesetzt. Überprüft daher ob das besagte Paket auch installiert ist. Der Abschließende Befehl initialisiert die Bash neu…

      $ sudo apt-get install libnotify-bin
      $ . ~/.bashrc
      

      Nun könnt Ihr durch das Anfügen von ; alert eine Benachrichtigung auslösen, sobald ein Befehl abgearbeitet wurde. Natürlich macht das nur Sinn, wenn Ihr wisst dass der Befehl länger laufen wird.

      # Allgemein
      $ befehl; alert
      # Beispiel
      $ wget http://speedtest.netcologne.de/test_1mb.bin; alert
      

      Benachrichtung bei Ende eines langandauernden Tasks

      Ich hatte das eigentlich schon immer über ein $befehl; beep gemacht, doch die Benachrichtigung inklusive dem Exit-Code des Befehls ist deutlich eleganter. Klasse wäre das natürlich, wenn sowas von Haus aus im Terminal eingebaut wäre und eine Benachrichtigung ausgegeben werden würde, wenn ein Befehl x Sekunden zur Ausführung braucht und/oder das Terminal gerade minimiert/verdeckt ist.

      Auf der Ubucon 2008 habe ich ja einen Vortrag über LVM gehalten.

      Das ganze hat mir viel Spaß gemacht, und ich denke auch bei den Teilnehmern kam das Thema gut an. Einziger Kritikpunkt waren die LVM-Snapshots, den diese konnte man damals zwar erstellen, aber nicht einfach mal eben zurücksichern.

      Dies ist jetzt möglich da Kernel und LVM-Tools die nötigen Patches erhalten und akzeptiert haben. Man benötigt dafür aber Kernel 2.6.33 sowie LVM-Tools in Version 2.02.58 welche es leider nicht mehr in Lucid geschafft haben. Somit muss man auch auf der aktuellen LTS Version, auf dieses sinnvolle Feature verzichten.

      Debian Testing hat die benötigte Version der LVM-Tools schon in den Paketquellen, allerdings ist zu hoffen das 2.6.33 es vielleicht doch noch schafft.

      Auf der Ubucon 2008 habe ich ja einen Vortrag über LVM gehalten.

      Das ganze hat mir viel Spaß gemacht, und ich denke auch bei den Teilnehmern kam das Thema gut an. Einziger Kritikpunkt waren die LVM-Snapshots, den diese konnte man damals zwar erstellen, aber nicht einfach mal eben zurücksichern.

      Dies ist jetzt möglich da Kernel und LVM-Tools die nötigen Patches erhalten und akzeptiert haben. Man benötigt dafür aber Kernel 2.6.33 sowie LVM-Tools in Version 2.02.58 welche es leider nicht mehr in Lucid geschafft haben. Somit muss man auch auf der aktuellen LTS Version, auf dieses sinnvolle Feature verzichten.

      Debian Testing hat die benötigte Version der LVM-Tools schon in den Paketquellen, allerdings ist zu hoffen das 2.6.33 es vielleicht doch noch schafft.

      Was macht man eigentlich, wenn der Filius ausgezogen ist, er aber auf dem hauseigenen Server seine Musik, Dokumente, Fotos whatever liegen hat?

      Alles auf eine USB Festplatte kopieren ist praktisch, aber nicht gewünscht.

      NFS oder SMB über das Internet zugreifbar machen ist nur über VPN sinnvoll. Oder wie hier kurz beschreiben durch tunneln mit ssh.

      Erster Schritt ist das forwarding für Port 22 im Router zu aktivieren. Das geht bei unserem Router in der Gui und wird hier nicht weiter beschrieben. Der Knackpunkt ist einfach, das eine ankommende Anfrage für eine ssh Sitzung zum Server weitergeleitet wird. Da man dadurch die Firewall im Router natürlich für alle ssh Anfragen geöffnet hat, sollte man tunlichst fail2ban auf dem Server installiert haben, weil man den Rechner nun angreifbar geben die Brute force Scripte gemacht hat, die laufend die Internet Welt auf schwache Passworte abklopfen.  Fail2ban sperrt nach wenigen Fehlversuchen die IP für 10 Minuten und verhindert somit ziemlich wirksam diese Art von Angriffen. Eine andere Idee wäre, einen beliebigen anderen Port zu verwenden, was ich in der Anfangsphase vermeiden wollte, aber durchaus als zusätzliche Maßnahme empfehle. Natürlich habe ich direkten root Login in der sshd_config verboten, aber das versteht sich ja von selbst.

      Der nächste Schritt ist, auf dem Windoof Rechner das Stoppen der evtl. freigegebenen Ordner, weil es unter Windoof nicht anders geht, es sei denn, man creiert virtuelle Hostadapter.

      Diesen Weg gehen wir nicht, sondern stoppen also mit net stop server in der Command shell alle möglichen Freigaben.

      Hat man sich cygwin installiert, kann man nun ganz normal in der bash den Tunnel via ssh aufbauen.

      Ich habe den Befehl mal etwas auseinandergepflückt, weil es mit den Begriffen leicht Verwirrung geben kann.

      In ein paar Sätzen beschrieben macht man auf seinen lokalen Rechner, hier also auf dem W$ Rechner des Filius einen Tunnel für das SMB Protokoll auf. Der Tunneleingang ist der lokale Rechner Port 139 und das andere Tunnelende wird als zweiter Parameter in Form einer ganz normalen ssh Syntax angegeben. Die Ip-Adresse ist die des fernen Servers, auf dem man zugreifen möchte.

      Der dortige sshd muss forwarding erlaubt haben und kümmert sich um den Rest. Es werden also die TCP/IP Pakete des SMB Protokolls über die SSH Verbindung "getunnelt" und werden im fernen Rechner an den Port 139 weitergegeben.

      Zusätzlich ist die sshVerbindung ohne weiteres parallel als ganz normale Login shell benutzbar.

      ssh forwarding
      port:lokalerrechner:port remotelogin@remoteserver
      ssh -L
      139:localhost:139  login@ip-adresse

      Wenn man es lieber mit putty machen möchte, ist das auch kein Problem. Ich erspare mir hier das, weil es hier genau detailliert erklärt ist.

      Hat man den public ssh-key auf den Server kopiert, wird man nun noch nicht einmal nach dem Passwort gefragt.

      Wenn man sich nun am Prompt auf einem Server befindet, steht der Tunnel und kann benutzt werden.

      Heißt die Freigabe auf dem RemoteServer z.B. server, dann genügt nun ein \\localhost\Server im Explorer und voila!

      weitere Quellen:

      www.blisstonia.com/eolson/notes/smboverssh.php
      hier wird die Sache mit den virtuellen Hostadaptern erklärt.

      http://www.ibr.cs.tu-bs.de/kb/samba-ssh.html Hier sind spezielle Infos für das RZ in BS, der allgemeine Teil ist aber zum Verständnis empfehlenswert.

      Tux
      Nur Raubkopien
      sind gefährlicher.

      OSnews berichtet, dass Microsoft Linux mehr fürchtet als Apple. Und zwar gilt dies für den Desktopmarkt. Dies hat zwei Gründe:

      1. Linux hat laut Microsoft's internen Berechnungen einen größeren Marktanteil als OS X.
      2. Linux ist ein offenes System, dass von allen Hardwareproduzenten verwendet werden kann. OS X kann nur von Apple selbst verwendet werden.

      Es ist schon verwunderlich, dass gerade Microsoft Linux einen größeren Marktanteil als OS X zuschreibt. Vielleicht ist so manche Studie, die Linux bei einem halben Prozent sieht, nicht so genau. Eine interessante Nebenbemerkung war noch, dass Microsoft Raubkopien immer noch als den größten Konkurrenten ansieht.

      The post Microsoft fürchtet Linux mehr als Apple appeared first on Rockiger.

      Installiert man ein Kubuntu auf einem Zweibildschirmsystem hat man erst einmal das Problem das die beiden Monitore geklont werden. Das ist natürlich unschön. Auf der Konsole kann man mittels xrandr feststellen ob alle Monitore erkannt worden sind. In meinem Fall sieht das so aus:
      Screen 0: minimum 320 x 200, current 1280 x 1024, maximum 4096 x 4096
      DVI-I-1 connected 1280x1024+0+0 (normal left inverted right x axis y axis) 521mm x 293mm
      1920x1080 60.0 + 50.0
      1600x1200 60.0
      1680x1050 60.0
      1280x1024 60.0*
      1440x900 59.9
      1280x960 60.0
      1280x800 59.8
      1280x720 50.0 60.0
      1024x768 60.0
      800x600 60.3 56.2
      720x576 50.0
      720x480 59.9
      640x480 60.0
      DVI-I-2 connected 1280x1024+0+0 (normal left inverted right x axis y axis) 376mm x 301mm
      1280x1024 60.0*+ 75.0
      1280x960 60.0
      1152x864 75.0
      1024x768 75.1 70.1 60.0
      832x624 74.6
      800x600 72.2 75.0 60.3 56.2
      640x480 72.8 75.0 66.7 60.0
      720x400 70.1
      TV-1 disconnected (normal left inverted right x axis y axis)
      Mit dem Befehl xrandr --output DVI-I-2 --auto --right-of DVI-I-1 --auto habe ich dann den Bildschirmen ihre relative Position zueinander zugewiesen. (man kann es vorher auch nur mit xrandr --auto versuchen). Danach sollte diie Auflösung der Monitore angepasst werden. Unter Kubuntu gibt es dafür glücklicherweise eine einfachere Methode. Dazu geht man in die Systemeinstellungen unter Anzeige und kann dort die passende Konfiguration ebenfalls einstellen.



      Das Problem an diesen Lösungen ist, das die Einstellungen mit dem nächsten Neustart hinfällig sind. Also muss eine statische Lösung her. Dazu legt man die Datei /etc/X11/Xsession.d/45custom_xrandr-settings an und füllt sie mit folgendem Inhalt:
      xrandr --output DVI-I-1 --mode 1920x1080 --rate 60
      xrandr --output DVI-I-2 --mode 1280x1024 --rate 60
      xrandr --output DVI-I-2 --right-of DVI-I-1
      Die Datei muss dabei ausführbar gemacht werden. Nun werden die Einstellungen automatisch beim Neustart bzw. bei der Anmeldung gesetzt.

      Weitere Informationen gibt es unter:
      http://wiki.ubuntuusers.de/RandR

      Installiert man ein Kubuntu auf einem Zweibildschirmsystem hat man erst einmal das Problem das die beiden Monitore geklont werden. Das ist natürlich unschön. Auf der Konsole kann man mittels xrandr feststellen ob alle Monitore erkannt worden sind. In meinem Fall sieht das so aus:

      Screen 0: minimum 320 x 200, current 1280 x 1024, maximum 4096 x 4096
      DVI-I-1 connected 1280×1024+0+0 (normal left inverted right x axis y axis) 521mm x 293mm
      1920×1080 60.0 + 50.0
      1600×1200 60.0
      1680×1050 60.0
      1280×1024 60.0*
      1440×900 59.9
      1280×960 60.0
      1280×800 59.8
      1280×720 50.0 60.0
      1024×768 60.0
      800×600 60.3 56.2
      720×576 50.0
      720×480 59.9
      640×480 60.0
      DVI-I-2 connected 1280×1024+0+0 (normal left inverted right x axis y axis) 376mm x 301mm
      1280×1024 60.0*+ 75.0
      1280×960 60.0
      1152×864 75.0
      1024×768 75.1 70.1 60.0
      832×624 74.6
      800×600 72.2 75.0 60.3 56.2
      640×480 72.8 75.0 66.7 60.0
      720×400 70.1
      TV-1 disconnected (normal left inverted right x axis y axis)

      Mit dem Befehl xrandr –output DVI-I-2 –auto –right-of DVI-I-1 –auto habe ich dann den Bildschirmen ihre relative Position zueinander zugewiesen. (man kann es vorher auch nur mit xrandr –auto versuchen). Danach sollte diie Auflösung der Monitore angepasst werden. Unter Kubuntu gibt es dafür glücklicherweise eine einfachere Methode. Dazu geht man in die Systemeinstellungen unter Anzeige und kann dort die passende Konfiguration ebenfalls einstellen.

      Das Problem an diesen Lösungen ist, das die Einstellungen mit dem nächsten Neustart hinfällig sind. Also muss eine statische Lösung her. Dazu legt man die Datei /etc/X11/Xsession.d/45custom_xrandr-settings an und füllt sie mit folgendem Inhalt:

      xrandr –output DVI-I-1 –mode 1920×1080 –rate 60
      xrandr –output DVI-I-2 –mode 1280×1024 –rate 60
      xrandr –output DVI-I-2 –right-of DVI-I-1

      Die Datei muss dabei ausführbar gemacht werden. Nun werden die Einstellungen automatisch beim Neustart bzw. bei der Anmeldung gesetzt.

      Weitere Informationen gibt es unter:
      http://wiki.ubuntuusers.de/RandR

      Linux Mint 9 Codename Isadora ist nun 2 Monate nach der Gnome-Version in der KDE-Variante erschienen. Die Variante basiert auf Kubuntu 10.04 Lucid Lynx und bringt Kernel Linux 2.6.32, Xorg 7.5 und KDE SC 4.4.4 mit. Major Features der Version sind der KDE Network Manager und der überarbeitete Software Manager. Der Software Manager ist komplett überarbeitet und soll effizienter, wie sein Vorgänger arbeiten. Ausserdem verfügt er jetzt über 30.000 Pakete im Gegensatz zu seinem Vorgänger, wo nur 300 verfügbar waren. Ausserdem ist es möglich Reviews von anderen Nutzern zu lesen und selbst Reviews zu Software zu schreiben, dafür enthält der Software Manager in Webkit umgesetzte GUI, die von Ubuntus Software Center inspiriert wurde. Ich fand das an der Stelle nicht ganz so toll, die (Über)Schriften im Software Manager haben sich bei meiner kleinen Bildschirmauflösung überschnitten und waren dadurch unleserlich und das obwohl da ja eingentlich CSS schon Möglichkeiten bietet, an Bildschirme mit 800×600px Auflösung denkt wohl heute in der Zeit der Netbooks keiner mehr ;)

      Überarbeitet wurde auch das Backup-Tool der Distribution. Yakuake, dansguardian, htdig, Miro, Bleachbit und Acetoneiso werden jetzt per default installiert Mint4Win, der Wubi-ähnliche Installer für Windows ist wieder in der Distribution enthalten. Ausserdem wurde der Ubuntu “Startup Disk Creator” an das Linux Min-Design angepasst und wird per default installiert. Mehr natürlich in den Release Notes.

      noch ein Gimp-Screencast, dieses Mal auch noch ein ziemlich langer. Ihr solltet schon 30min Zeit mitbringen zum Anschauen. Wie lange ihr für das nachmachen braucht, bestimmt länger.

      Wie im Video bereits gesagt, das Tutorial ist noch für die Version 2.4 geschrieben, die Menüpunkte für manche Filter und die Skripte haben sich etwas geändert. Das Paket mit dem Tutorial und den Skripten und den Bildateien, die verwendet werden, könnt ihr hier finden.

      27. Juli 2010