ubuntuusers.de

8. August 2009

Seit langer Zeit verwende ich nach dem Antesten verschiedener E-Mail-Clients Gnome’s Evolution – welches in letzter Zeit immer wieder Probleme (Mehrfachprozesse, Müllentleerungsstörungen) macht. Also wird Favorit No. II Claws Mail mal wieder ausprobiert.

Im Gegensatz zu früheren Installationen weigert sich Claws Mail (egal ob aus dem Jaunty-Repository oder dem Claws-Mail-PPA) allerdings seine Benutzeroberfläche in deutscher Sprache anzuzeigen – das Setzen der Umgebungsvariablen LANG oder LC_LANG wie in den Claws FAQ beschrieben führt zu keinem Ergebnis – hat irgendjemand Claws Mail unter Ubuntu Jaunty in deutscher Sprache zum Laufen bekommen ? Wenn ja – wie?

EDIT: Beim Installieren des Paketes claws-mail-i18n scheinen die entsprechenden claws-mail.mo-Sprachdateien nicht in die entsprechenden Systemordner kopiert zu werden (ACHTUNG: Doch, sie werden kopiert, Localepurge scheint sie nur wieder zu entfernen… sh. Edit II):: Nach manuellem Entpacken aus dem claws-mail-i18n-Deb-Paket (/var/cache/apt/archives/claws-mail-i18n_3.7.2-1jauntyubuntu2_all.deb), kopieren nach /usr/share/locale/de/LC_MESSAGES/ und einem Claws-Mail-Neustart hat sich das Problem erledigt ;)

Bleibt mir nur noch herauszufinden wie man den geringen Zeilenabstand in der Postfach-Spalte etwas vergrössern kann…

Edit II: Es lag an “localepurge” – das Paket wurde installiert um Speicherplatz durch automatisiertes Löschen unnötiger Sprachdateien zu sparen, behalten sollte Localepurge “de_DE”, “de_DE.UTF-8″ und “de_DE@euro”. Leider hatten dann interessanterweise aber ClawsMail, Geany, Gedit und z.B. auch GnomeMainMenu (Slab) keine deutsche Sprachdatei mehr…

Was ich derzeit (und eigentlich schon immer) sehr faszinierend finde, ist, dass das Feature, Programme in grössenveränderbaren Fenstern zu öffnen, anscheinend nicht von allen Menschen verstanden oder angewendet wird. So kenne ich zum Beispiel fast ausschliesslich Hostprgrammierer oder -supporter, die Ihre 3270-Emulation (80x25 Zeichen) im maximierten Fenster laufen lassen und das ist unabhängig von der Auflösung oder Bildschirmgrösse.

Daher interessiert mich Eure Meinung.

Nutzt Ihr wirklich Fenster oder habt Ihr alles maximiert oder sogar im Vollbild-Modus laufen? Welche Auflösung und welche Bildschirmgrösse steckt dahinter?

Bei mir: 15 Zoll, 1680x1050, Fenster
Im Büro: 2x17 Zoll, insgesamt 3360x1050, Fenster

2310450525_d948c2d3f6_mAuf heise bin ich über einen interessanten Artikel gestolpert. Dort werden drei verschiedene Möglichkeiten erklärt, wie man Brute-Force-Angriffe auf SSH und andere Dienste verhindern kann. Bei einem Brute-Force-Angriff wird versucht ein Passwort und meist auch den Benutzernamen durch probieren zu erraten. So einen Angriff kann man abwehren, indem man nach einer bestimmten Anzahl von Fehlversuchen weitere Anmeldeversuche unterbindet.

Mit denyhosts, dass in den Ubuntu-Quellen enthalten ist, kann man Brute-Force-Angriffe verhindern. Installieren kann man den Dienst wie gewohnt über:
aptidute install denyhosts

denyhosts überprüft ständig die Einträge in /var/log/auth.log. Dort werden alle Anmeldeversuche über SSH protokolliert. Wenn ein Angreifer nun versucht durch Probieren Zugangsdaten zu erraten, so setzt denyhosts ihn nach einigen Fehlversuchen auf die Sperrliste unter /etc/hosts.deny. Dadurch werden weitere Verbindungen zwischen der IP-Adresse des Angreifers und dem Server unterbunden. Über die Datei /etc/denyhosts.conf noch genaue Einstellungen vornehmen. Hier kann man zum Beispiel einstellen, nach wievielen Fehlversuchen gesperrt werden soll. Nach Änderungen an der Konfiguration sollte man den Dienst neustarten:
/etc/init.d/denyhosts restart

denyhosts bietet keine 100%ige Sicherheit vor Brute-Force-Angriffen. Denn solch ein Angriff kann natürlich auch verteilt von 1.000enden Rechner erfolgen. Dennoch erschwert denyhosts solch einen Angriff enorm und sollte daher auf keinem Server mit offenem SSH fehlen.

Photo: eriwst, Creative Commons

Canonical erforscht gerade neue Wege um Einnahmen aus Ubuntu heraus zu erzielen. Mit einer der letzten Aktualisierungen wurde in das Firefox-Paket der aktuellen Ubuntu-Entwicklungsversion Karmic Koala die folgende Änderung eingespielt…

firefox-3.0 (3.0.11+build2+nobinonly-0ubuntu2.me001) karmic; urgency=low

* add me001 multisearch feature for karmic alpha3
– add debian/extensions/*

Das hört sich nicht sonderlich aufregend an, aber warum bläst Canonical ein Sturm der Entrüstung auf ubuntuforums.org oder Launchpad entgegen? Canonical-Entwickler Rick Spencer schreibt dazu folgendes

We’ve made some changes in the Alpha 3 version of Firefox related to how and where search queries are processed. We’ve introduced the changes at this time in an experimental vein in order to explore and understand the user experience and usage patterns. We plan to use this experimental code at least until Alpha 4.

Note that we did not necessarily foresee Multisearch as code that we would ship in a stable release. Whatever actions we take in response to the information and feedback will depend on the information and feedback that we collect from this effort.

Essentially, we implemented two changes in order to collect this usage data:
1. When users ask for a new tab, they see a default search page.
2. All searches use the custom search results page. Previously this search results page was only used when users did a search from the default Ubuntu home page.

Change #1 was an effort to explore a better user experience. Generally, it seems odd when users get a blank page, especially when they are using ff on a netbook in full screen mode. New tab simply makes the screen go white. Note that Mozilla is exploring “new tab” behaviour as well (http://labs.mozilla.com/2009/03/new-tab-page-proposed-design-principles-and-prototype/)

Change #2 is just an artefact of collecting the usage data. We could only see what parts of the FF UI people were using to do searches if we sent them to our custom page. This usage data is important because it helps us channel design and development resources to useful features, and is also important because it can be tied to revenue generation.

Was heißt das? Multisearch öffnet automatisch die Ubuntu-Suchseite, wenn ein neuer Tab mit bspw. Strg+T geöffnet wird. Selbst wenn man einstellt, dass neue Tabs ohne Inhalt geöffnet werden, kommt diese Suchseite. Des weiteren leitet nun auch die Suche über das Suchfeld [1] in der rechten oberen Ecke des Browsers nicht mehr direkt auf google.com bzw. google.de weiter, sondern wieder wird die Ubuntu-Suchseite benutzt. Ebenso wird die Canonical Partner-ID [2] benutzt, wenn man einfach einen Suchbegriff in die Adresszeile eingibt. Eigentlich leitet Firefox diese Eingaben über die Google “Auf gut Glück!”-Suche automatisch an den ersten Treffer weiter, doch auch hier landet man wieder auf der Ubuntu-Suchseite.

Die angepasste Google-Suche

Die angepasste Google-Suche

Dies hat zur Folge, dass Canonical deutlich mehr Einnahmen über die in der Suche eingeblendet Werbung [3] erzielen kann, da viele Anwender die Einstellungen des Suchfeldes nie ändern… (Btw, die Jungs von Linux Mint machen das auch so…) Das Multisearch-Plugin kann man aktuell nicht deinstallieren, da es im Firefox-Paket selber steckt. Man kann es nur über “Extras -> Addons” in den Einstellungen des Firefox deaktivieren.

Ob diese Änderungen nun in Ubuntu “Karmic Koala” 9.10 endgültig Einzug erhalten bleibt fraglich. Rick sagt dass Multisearch eher ein Test ist, Entwicklungsversionen sind nunmal dazu da dass Tests durchgeführt werden. Bei der Google-Suche über die Suchbox denke ich jedoch nicht, dass sich hier etwas ändert, zu groß ist das Potenzial dort ohne großen Aufwand Einnahmen zu Erzielen.

Mich persönlich stört diese Änderung, nicht dass ich Canonical das bisschen Ertrag durch Werbung nicht gönnen würde, doch diese “Custom Search”-Suchseiten sind in der Funktionalität deutlich eingeschränkt. Die Ergebnisse sind nicht so gut aufbereitet, es gibt keine Möglichkeit nur Treffer einer bestimmten Sprache anzeigen zu lassen usw. Von daher würde ich mich freuen, wenn Canonical diese Entscheidung nochmal überdenken würde.


Comments

7. August 2009

Bereits vor meinen Ferien haben Dirk und ich die vierte Folge unseres Podcasts auf DeimHart.net aufgezeichnet. Begleitet haben uns Ute und Roland. Diesmal geht es um UbuntuOne, um die Zeit und dessen Verwaltung, sowie einem kleine Ausblick auf die nächste Folge. Auch diesmal schnitt Dirk die Sendung und stellte sie im Blog bereit.

Logo DeimHart.net

Die aktuelle, vierte Ausgabe von DeimHart.net ist hier zu finden.

Eine kleine Episode am Rande: Während den Ferien fragte mich unser sechsjähriger Sohn: “Papi, arbeitest Du jetzt nicht mehr im Spital?” Ich wollte wissen, weshalb Ruben danach fragt und er antwortete: “Du machst ja nur noch Podcasts mit Dirk!”

Ähnliche Artikel

Der Verlag Galileo Computing zu Bonn hat mir ein Rezensionsexemplar des Handbuches Debian GNU/Linux zur Verfügung gestellt. Das Buch ist in der dritten, überarbeiteten und erweiterten Auflage in diesem Jahr erschienen. Verfasst hat es Heike Jurzik.

Debian GNU/Linux - Das umfassende Handbuch

Das gut 800 Seiten starke Buch ist sauber gebunden und beinhaltet eine DVD mit dem aktuellen Lenny sowie – wie es bei Galileo Computing immer üblich ist – einen Online-Zugang zu Aktualisierungen zu diesem Werk.

Debian ist aus meiner Sicht keine prädestinierte Distribution für Einsteiger. Wohl sind einige Abkömmlinge daraus, wie etwa Linux Mint, Knoppix und natürlich Ubuntu typische Einsteiger-Distributionen, aber die Mutter jener “Linuxe” ist doch wohl eher etwas für User, welche Linux schon etwas kennen. Dennoch richtet sich dieses Buch auch an Einsteiger, was mich etwas erstaunt und zugleich freut.

Heike Jurzik gliedert ihr Werk in drei Hauptteile auf: Installation, Desktop und Administration. Die Gliederung scheint mir recht sinnreich zusammengestellt. Im ersten Teil gibt es eine kleine Einführung zu Linux und zu Debian, die mir aber eher etwas oberflächlich scheint. Will die Autorin Ein- und Umsteiger ansprechen, dürften hier durchaus noch einige Informationen mehr zum Linux-Kernel und dessen Aufgaben zu finden sein, auch zu Richard Stallman würde ich noch gerne etwas mehr lesen. Was in der Einführung allerdings gut zur Geltung kommt, ist die Philosophie, welche die Debian-Gemeinschaft zusammenhält, auch wenn die Autorin hier keine kritischen Worte findet. Sie streicht einfach die positiven Eigenschaften dieser weltweiten Gemeinschaft heraus und verschweigt – wohl aus gut überlegten Gründen – die Reibereien und politischen Diskussionen innerhalb der Gemeinschaft.

Die technischen Informationen aus allen drei Hauptbereichen liefert die Autorin in einem leicht zu lesenden Deutsch. Das Buch liest sich einfach, schnell und bequem. Frau Jurzik beschreibt die Installation von Debian in vielen Varianten, darunter auch für Leute, die von Windows herkommen und Debian als zweites OS nutzen möchten. Ausserdem gibt es im ersten Teil viele Informationen zum Netzwerk, X-Server, Paketverwaltung und zum Thema Drucken. Alte Profis dürften in diesem Abschnitt nicht mehr allzu viel Neues entdecken, ausser wohl die Neuerungen, welche Lenny gegenüber Etch bei der Installation mitbringt. Für mich sind in diesem Teil aber schon noch einige Schätze zu heben, gerade die unzähligen Schalter zu apt-get finde ich spannend, aber auch der Unterschied zwischen apt-get und aptitude.

Im mittleren Teil geht es dann an das Einrichten des Systems. Gnome, KDE und alternative Windows-Manager wie Xfce oder LXDE werden besprochen. Diverse Internet-Applikationen kommen zur Sprache und Büro-Anwendungen wie OpenOffice, Latex, PDF, Desktop-Publishing, Vektorgrafik-Programme, PIMs und Scannen wie Faxen werden vorgestellt. Weiter gibt es einen grossen Bereich zum Thema Multimedia und eine Sektion mit Tipps zur Selbsthilfe und der Community. Auch hier richtet sich der Inhalt an Einsteiger und an Menschen, die Debian schon etwas kennen.

Der wohl spannendste Teil ist der abschliessende mit dem Titel Administration. Hier finden sich zahlreiche Informationen zu Hintergründen von Linux (Dateisystem, Benutzerverwaltung etc.), zu Editoren wie Emacs und weiteren, natürlich wird die Shell besprochen. Dann folgt der Serverteil, in dem Bereich wie Mailserver, Bind-Server, Webserver, FTP-Server, Samba und die Sicherheit angeschaut und besprochen werden.

Abschliessend folgen Informationen zum Upgrade von Etch auf Lenny sowie einige, leider etwas oberflächliche Sätze zum Thema Kernel kompilieren.

Das Werk ist aus meiner Sicht vor allem ein Buch für Einsteiger und User, die Debian schon etwas kennen und damit einige Zeit gearbeitet haben. Mit dem Werk kann eine Menge gelernt werden. Auch Ubuntu-User finden in diesem Buch wichtige Informationen. Hierzu empfiehlt sich ergänzend die Lektüre des OpenBooks ebenfalls aus dem Hause Galileo Comuting namens Ubuntu GNU/Linux.

Alte Hasen und versierte Systemadministratoren werden mit diesem Buch einen eher kleinen Gewinn erzielen. Für jene Zielgruppe würde ich eher ein Buch wie Debian GNU/Linux aus dem Hause Springer empfehlen. Jenes Buch ist aber leider im Moment vergriffen.

Wie dem auch sei; Debian GNU/Linux – Das umfassende Handbuch aus dem Hause Galileo Computing bietet für mich zahlreiche Informationen zu Debian, viel Unbekanntes konnte ich entdecken und so nutze ich das Buch vor allem als Nachschlage- und Stöberquelle. Es ist im Handel für knapp 40 Euro zu haben und trägt die ISBN-Nummer 978-3-8362-1386-6.

Ähnliche Artikel

Ich werde bald eine automatische Ubuntu Installations-CD basteln. Dies wird das Standardinstallationsmedium für eine etwas grössere Netzwerkumgebung mit zahlreichen Clients sein. Bis jetzt läuft da Fedora drauf. Installiert und konfiguriert (Netzwerk, NFS, NIS, OpenSSH, Root- und Grub-Passwort, Cfengine) wird per Kickstart. Danach übernimmt Cfengine die Konfiguration.

Wie gesagt, es wird jetzt auf Ubuntu umgestellt. Also hab ich mir angeschaut was es da an automatischen Installationsmöglichkeiten gibt. Können sollte es: automatisches Partitionieren, Installation von gewünschten Paketen und Möglichkeiten zur Konfiguration von Paketen, wie oben bereits genannt, ausführen von Programmen nach der Installation (zum Schluss soll also Cfengine ausgeführt werden). Ausserdem soll sogut wie alles auf der CD die ich erstelle enthalten sein und nur sehr wenig vom Mirror nachgezogen werden.

Gefunden habe ich drei Möglichkeiten:
1.) Kickstart, das eigentlich für Redhat und ähnliche Distris zugeschnitten ist, funktioniert anscheinend auch mit Ubuntu.
2.) FAI steht für Full Automated Installer und wurde eigentlich für Debian entwickelt, funktioniert aber auch mit Ubuntu.
3.) Preseeding ist die „offizielle“ Ubuntu-Methode, die auch im Ubuntu Installationsguide genannt wird.

Ich wollte euch mal fragen ob ihr mit einer der drei Varianten und Ubuntu schonmal gearbeitet habt und ihr mir was dazu sagen könnt, irgendwelche Tips habt oder einfach was ihr, aus welchen Gründen nehmen würdet.


Nach Einspielen der Patches gegen den berühmten Harddrive-Killer-Bug ist es sehr ruhig um allerselbigen geworden. Ab und an meldet sich nochmal jemand zu Wort, dass es bei ihm nicht wirkt. Reaktionen darauf gibt es aber kaum. Anfang Januar hatte ich ja über eventuelle Probleme durch die Änderungen der APM-Werte der Festplatten geschrieben – im speziellen bezgl. der Temperatur – dem allerdings auch kaum Beachtung geschenkt, denn da war es ja auch noch kalt.

Die aktuellen Werte lassen mich allerdings aufhorchen:

/dev/sda: TOSHIBA MK1637GSX: 55°C

/dev/sdb: TOSHIBA MK1637GSX: 52°C

Laut dem Datenblatt der Festplatte sollte die Betriebstemperatur 55°C nicht überschreiten. Inwieweit Toshiba da eine Toleranz mit eingerechnet hat, weiß ich nicht und will es auch nicht herausfinden. Testhalber habe ich aber mal bei beiden Festplatten einen APM-Wert von 128 eingestellt und das Resultat nach etwas mehr als 10 Minuten:

/dev/sda: TOSHIBA MK1637GSX: 50°C

/dev/sdb: TOSHIBA MK1637GSX: 48°C

Und nach etwa 30 Minuten:

/dev/sda: TOSHIBA MK1637GSX: 49°C

/dev/sdb: TOSHIBA MK1637GSX: 44°C

Bei der ersten Platte gab es immherin 6°C Abkühlung, bei der zweiten Platte sogar 8°C im quasi Leerlauf. Vielleicht sehe ich die Sache auch zu kritisch, aber bei diesen Werten und ohne die Toleranz zu kennen, bevorzuge ich doch lieber den langsamen Verschleißtod als den plötzlichen Hitzetod.


Das ist ja grade das schöne an Ubuntu: man kann sich jede Menge eigener Scripte anlegen. Damit ich sie im Terminal ohne das ewig vorangestellte “./” aufrufen kann, habe ich sie bislang immer nach /usr/local/bin kopiert. Dagegen ist auch nichts einzuwenden, nur kann es passieren, dass im Eifer des Gefechts bei einem Backup oder PC-Umzug die Inhalte dieses Ordners schlicht vergessen werden, während ich aber immer meinen kompletten home-Ordner backuppe.

Das ist ja grade das schöne an Ubuntu: man kann sich jede Menge eigener Scripte anlegen.

Damit ich sie im Terminal ohne das ewig vorangestellte “./” aufrufen kann, habe ich sie bislang immer nach /usr/local/bin kopiert. Dagegen ist auch nichts einzuwenden, nur kann es passieren, dass im Eifer des Gefechts bei einem Backup oder PC-Umzug die Inhalte dieses Ordners schlicht vergessen werden, während ich aber immer meinen kompletten home-Ordner backuppe.

Abhilfe schafft ein eigener bin/-Ordner im home-Verzeichnis:

cd ~
mkdir bin
chmod 744 bin

Damit auch alle Dateien des Verzeichnisses von “überall” in der Konsole aufgerufen werden können, muss noch der PATH entsprechend angeglichen werden. Hierzu editiert man im Homeverzeichnis die Datei .bashrc um folgenden Inhalt:

PATH=/sbin:/bin:/usr/sbin:/usr/bin:/usr/local/sbin:/usr/local/bin:/home/produnis/bin

Hierbei müsst ihr auf eurem System natürlich das “produnis” gegen euren Benutzernamen tauschen.

Wenn die Datei gespeichert wurde, müsst ihr euch einmal aus der Konsole aus- und wieder einloggen. Ab jetzt können alle Scripte im /home/BENUTZER/bin-Verzeichnis ohne ./ vorweg aufgerufen werden.


An meiner Ablehnung der Office-2007-Oberfläche „Ribbon“ hat sich nichts geändert – leider scheint OpenOffice.org diese kopieren zu wollen. Warum man diesen Schritt geht, weiß ich nicht wirklich; ich vermute, um Firmen den Umstieg von Office 2007 zu OpenOffice.org leichter zu machen. Die aktuelle Oberfläche von OpenOffice.org ist nun nicht gerade ansprechend, das mag richtig sein – aber sie funktioniert und hat sich bewährt. Ich könnte mir vorstellen, dass das Projekt geforkt wird, wenn der Umstieg auf eine „Ribbon“-artige Oberfläche derart radikal umgesetzt wird, wie es anscheinend geplant ist.

PS: Dieses Blog war eine ganze Weile klinisch tot – hoffentlich bessert sich das nun wieder.

Linux ohne Grafik ist der Titel einer nun folgende Artikelserie, die sich mit Anwendungen in der Konsole befasst. Ziel der Serie ist es, nach und nach Programme beherrschen zu können, mit denen man (theoretisch) einen produktiven Einsatz im dritten Runlevel (der rein rechnerisch nicht der „dritte“ ist, siehe Wikipedia) starten kann. Oder falls der Grafikkartentreiber mal total abschmieren sollte, kann man den PC vorübergehend gut nutzen. Wir gehen dabei auf fast alle Bereiche des täglichen Computerbereichs ein.

Themenschwerpunkte

  • Internet: Wir erklären, wie man in der Konsole eine Verbindung ins Internet aufbaut. Dies wird auch gleich der Eröffner dieser Serie sein. Außerdem werden wir Browser vorstellen. Downloadmanager und Bittorrent-Clients bekommen die gleiche Aufmerksamkeit wie ein Mailclient.
  • Dateiverwaltung: Wie man Dateien verwalten kann und mehr oder weniger übersichtlich darstellt.
  • Editoren: Bei diesem Schwerpunkt stellen wir Editoren und Kalendersoftware vor.
  • Spiele: Auch die Unterhaltung darf bei einem produktiven Gebrauch der Konsole nicht zu kurz kommen. Aus diesem Grund werden wir auch ein paar Konsolengames beleuchten.
  • Mulitimedia: Von Bildbearbeitung über Musikabspielsoftware bis zum Videoabspielprogramm gibt es auch hier allerhand zu berichten.

Vorgehensweise

Wir werden in noch unbeschlossener Reihenfolge die Themenbereiche nacheinander bearbeiten. Umfangreicheren Programmen widmen wir eigene Artikel, wodurch sich manche Themenschwerpunkte über Wochen ausdehnen.

Die Artikel erscheinen von nun an jedes Wochenende.

Wie kommt man in die Shell?

Terminal

Der einfachste Weg ist natürlich einfach ein Terminal zu öffnen, dort kann man alle Anwendungen testen, ohne die die Desktopumgebung verlassen zu müssen. Terminals gibt es für jede Desktopumgebung, meistens schon vorinstalliert. Im GNOME-Menü findet man es z.B. unter Anwendungen → Zubehör (Systemwerkzeuge) → Terminal. Eine Liste weiterer Terminals hat ubuntuusers zusammegetragen.

Im laufenden System

Ein weiterer Weg ist es, einfach im laufendene Betrieb STRG+ALT+F1 zu drücken. Damit kommt man in ein virutelles Terminal. Mit STRG+ALT+F2 bis STRG+ALT+F6 kommt man in weitere davon, falls eine mal nicht ausreicht. Über ALT+{← | → } kann man zwischen ihnen navigieren. Zur grafischen Desktopumgebung gelangt man wieder mit STRG+ALT+F7.

Vor dem Booten

Wenn ihr ganz ohne Grafik starten wollt müsst ihr den Eintrag in Grub aufpassen. Dazu wählt ihr im Grubmenü den jeweiligen Eintrag und bestätigt dabei nicht mit Enter, sondern drückt die Taste e. Jetzt eröffnet sich die Möglichkeit, den entsprechenden Eintrag in der menu.lst zu editieren. Ihr wechselt in die Zeile, die mit “kernel” beginnt und bestätigt erneut mit e. In der nun angezeigten Zeile fügt ihr eine mit Leerzeichen getrennte 3 an und speichert es temporär mit Enter. Mit b wird der Bootvorgang eingeleitet, der im dritten Runlevel planmäßig beendet wird. (Bei einem Neustart ist die Zeile wieder normal).
Beispiel:

vorher: 
kernel		/boot/vmlinuz-kern root=UUID=zahlen... ro quiet splash
nachher: 
kernel		/boot/vmlinuz-kern root=UUID=zahlen... ro quiet splash 3

Wir hoffen, ihr habt viel Spaß dabei, euer Linux auch mal ohne grafische Oberfläche zu entdecken und können euch dazu überreden, euer System auch das eine oder andere mal komplett ohne Grafik zu laden.
Gruß Benni und Jonas

6. August 2009

Entschuldigt bitte die schwächelnde Webseite. Die populäre Seiten AbcLinuxu.cz (aus der Tschechien) und Fefes Blog haben auf mich verlinkt und mir Tausende Besucher beschert. Leider hatte ich das Caching aufgrund eines Bugs deaktiviert und die Page hier ging in die Knie… Nun ist der Cache an und Linux und Ich läuft wieder mehr oder weniger. Es kann gut sein, dass jetzt hin und wieder falsche Seiten vom System ausgeliefert werden. Doch besser ein fehlerhaftes Caching-System, als gar kein Blog…


Comments

Gerade auf Today’s Big Thing gefunden: MegaWoosh. Ein Mann, eine riesige Wasserrutsche, eine Schanze, ein Planschbecken und über 35 Meter Luft dazwischen. Wie kann man nur so verrückt sein?!? Eine starke Windböe und man landet einen Meter rechts oder links neben dem Pool! Ist es ein Fake? Ich glaube nicht, der “Flieger” bewegt im Flug seine Arme, zieht die Beine bei der Landung an und nach der Landung steht er ohne Schnitt wieder auf. Unglaublich! Viel Spass beim Betrachten des Videos…


Lieber Feed- und Planetleser. Das Video kann leider nicht direkt angezeigt werden. Bitte kommt auf mein Blog um das Video zu betrachen. Danke.

Lieber Feed- und Planetleser. Das Video kann leider nicht direkt angezeigt werden. Bitte kommt auf mein Blog um das Video zu betrachen. Danke.

Weitere Infos und Videos zu diesem “Projekt” gibts auf der Homepage von MegaWoosh… Hmmm, Ende des Sommers ist ein Hüttenurlaub geplant, da weiß ich ja schon was ich zu tun habe, die 35 Meter knacken wir ;)

(Alle Rechte des Bildes im Header liegen bei MegaWoosh)


Comments

Früher hatte ich meinen Blog direkt bei Wordpress gehostet. Aus Gründen, an die ich mich nicht mehr erinnern kann zog ich irgendwann zu Byethost um. Ist zwar nicht der schnellste Webspace, kostet dafür aber auch nichts :) Allerdings konnte ich seit diesem Tag die Autoupdate Funktion für meine Plugins nicht mehr nutzen. Bei Google-Analytics oder meinem Kram war das durchaus zu verschmerzen. Da ich nun aber diese Spamfilter nutze, möchte ich diese Plugins doch aktuell halten. Ich bekam immer die Meldung wp-content not found nachdem ich die Zugangsdaten für FTP eingetippt hatte. Auf dieser netten Seite fand ich dann die Lösung.

Einfach diese paar Zeilen in die wp-config.php hängen und alles wird gut :)

/** Override default file permissions */
if(is_admin()) {
add_filter('filesystem_method', create_function('$a', 'return "direct";' ));
define( 'FS_CHMOD_DIR', 0751 );
}

Im Endeffekt wird nur ein chmod auf das Wordpressverzeichniss gemacht.

Wer mit dem chmod nichts anfangen kann und ein ordentliches OS am Start hat (schließt sich irgendwie XOR-mäßig aus), sollte einfach mal “man chmod” in sein Terminal tippen :)

Bild von  Peregrino Will Reign via Flickr
Share/Bookmark

Seit einiger Zeit sind ein Freund und ich im Besitz der großartigen Domains googlefanboy.de und googlefanboys.de. Nun liegen sie seit dem irgendwie brach, es fehlt eine zündende Idee.

Die erste Überlegung war einen Planeten einzurichten, der sich mit allem rund um Google beschäftigt. Alternativ ein Blog, in dem sich Leute anmelden und Beiträge verfassen können. Doch so richtig von der Idee überzeugt bin ich noch nicht.

Daher nun der Aufruf an euch liebe Leser: Was soll demnächst mit dieser Domain passieren? Jemand eine Idee? Ist die Planeten/Blog Idee vielleicht doch nicht so schlecht? Oder vielleicht eine ganze Community? Oder…… überrascht mich!

Am Apple hatte ich mir die Shareware iTunesJoin gekauft, welche mehrere MP3-Dateien direkt in iTunes zu einer MP3-Datei zusammengefasst hat. Unter Ubuntu geht das mit etwas Aufwand in der Konsole wie folgt: benötigte Pakete Wir benötigen die Pakete ffmpeg und libid3-3.8.3-dev, welche wie folgt installiert werden: `sudo apt-get install ffmpeg libid3-3.8.3-dev` MP3-Dateien zusammenführen Im Terminal wechselt man in das Verzeichnis, welches die einzelnen MP3-Dateien enthält. Hier wird folgender Befehl eingegeben:

Am Apple hatte ich mir die Shareware iTunesJoin gekauft, welche mehrere MP3-Dateien direkt in iTunes zu einer MP3-Datei zusammengefasst hat. Unter Ubuntu geht das mit etwas Aufwand in der Konsole wie folgt:

benötigte Pakete

Wir benötigen die Pakete ffmpeg und libid3-3.8.3-dev, welche wie folgt installiert werden:

sudo apt-get install ffmpeg libid3-3.8.3-dev

MP3-Dateien zusammenführen

Im Terminal wechselt man in das Verzeichnis, welches die einzelnen MP3-Dateien enthält.
Hier wird folgender Befehl eingegeben:

cat 1.mp3 2.mp3 3.mp3 > tmp.mp3

Hierdurch werden die Dateien 1.mp3 bis 3.mp3 in die Datei tmp.mp3 zusammengeführt. Konsolenprofis schreiben hierbei übrigens nicht jede Datei persönlich hin, sondern kürzen das Ganze wie folgt ab:

cat {1..3}.mp3 > tmp.mp3

bzw.

cat Track{1..25}.mp3 > tmp.mp3

Das Zusammenführen der Dateien zerschießt für gewöhnlich den Dateiheader, so dass die entstandene Datei z.B. nicht von iTunes abgespielt werden kann. Andere Player hingegen “denken”, die Spieldauer der Gesamtdatei nur so lang ist, wie die der zuerst hinzugefügten (in unserem Beispiel 1.mp3) .

Manche Leute haben evtl. mp3wrap installiert und nutzen dieses Tool an Stelle von cat. Das Ergebnis ist hier allerdings das selbe: auch die von mp3wrap erstellten Dateien lassen sich nicht oder nur teilweise abspielen.

Um dies für beide Varianten zu fixen gibt man ein:

ffmpeg -i tmp.mp3 -acodec copy all.mp3
rm tmp.mp3

ffmpeg “repariert” die Datei und speichert das Ergebnis als all.mp3 ab. Anschließend wird die nicht mehr benötigte Datei tmp.mp3 gelöscht.

Jetzt kann man noch optional den ID3-Tag der Originaldatei in die neue Datei übertragen:

id3cp 1.mp3 all.mp3

Das Programm id3cp ist im Paket libid3-3.8.3-dev enthalten.

Die Datei all.mp3 ist nun fertig und bereit für meine Musiksammlung.

5. August 2009

Bislang war Linux für den Microsoft-Konzern offiziell keine Bedrohung. Den “Krebs” Linux meint man in den Griff zu bekommen. Doch der Bericht die an US-Börsenaufsichtsbehörde SEC spricht eine andere Sprache. Im Jahresbericht 2009 (als .docx-Dokument) steht folgendes…

Client faces strong competition from well-established companies with differing approaches to the PC market. Competing commercial software products, including variants of Unix, are supplied by competitors such as Apple, Canonical, and Red Hat. Apple takes an integrated approach to the PC experience and has made inroads in share, particularly in the U.S. and in the consumer segment. The Linux operating system, which is also derived from Unix and is available without payment under a General Public License, has gained some acceptance, especially in emerging markets, as competitive pressures lead OEMs to reduce costs and new, lower-price PC form-factors gain adoption. Partners such as Hewlett-Packard and Intel have been actively working with alternative Linux-based operating systems.

Linux konnte also {etwas|einige} Akteptanz (je nach Übersetzung…) auf dem Betriebsystemmarkt erreichen. Und auch bei Windows Mobile sieht die Microsoft seine Felle davon schwimmen…

User and usage volumes on mobile devices are increasing around the world relative to the PC. OEMs have been working to make the Google Android mobile operating system more compatible with small form-factor PCs or netbooks.

Klar, dass Microsoft dass auch im Geldbeutel spürt. Der Umsatz ging im Vergleich zum Vorjahr um 17 Prozent auf 13,1 Milliarden US-Dollar zurück. Also auf liebe FOSS-Community, auf dass wir Bug #1 endlich fixen!

[UPDATE 05.08.2009]Bezug geändert. Der Bericht stammt von Microsoft und richtet sich an die SEC. Vielen Dank für den Hinweis.[/UPDATE]


Comments

Wir sind von unserem wunderschönen und erholsamen Urlaub von Mauritius zurück, haben viele Eindrücke mitgebracht und konnten uns sehr gut erholen. Auch für unsere Familie bildeten diese drei Wochen eine sehr wichtige Zeit. Mauritius ist zwar nicht das wert, wofür es gemeinhin verkauft wird, aber wir genossen die Zeit.

Mauritius

Blick von der Ostküste auf die wunderschönen Lavasteine nahe dem Dorf Flic en Flac vom Hotel Klondike.

Dabei sind einige Bilder entstanden, die ich auf meinem Netbook mit Ubuntu Jaunty und gthumb verwalte. f-spot wäre zwar eine Alternative, ich bekomme aber immer Probleme mit der SQLite-DB. Tags gehen verloren, ganze Kategorien werden nicht mehr erkannt und so ist die DB irgendwann wertlos. gthumb nutzt XML-Dateien und keine DB im klassischen Sinne.

Ausserdem lassen sich mit gthumb feine Webalben erstellen. Es sind zwar statische HTML-Dateien mit etwas Java-Skripts versehen, aber für kleinere Alben sehe ich diese Alben durchaus als Alternativen. Ich nutze zwar auch Flickr und habe dort ebenfalls ein Album erstellt, aber mit gthumb kann man das gleiche auch herstellen, zumal es sogar ein Flickr-Theme gibt. Im Forum von ububuntuusers.de gibt es einen Tread zum Thema Webalben und wie man sich ein eigenes Theme zimmern kann.

Dazu wird ein bevorzugtes, bei der Installation mitgelieferte Theme vom Verzeichnis

/usr/share/gthumb/albumthemes

in den persönlichen Ordner kopiert unter

.gnome2/gthumb/albumthemes/

kopiert, am besten unter einem andern Namen. Dort kann man dann die Vorlagen bearbeiten und auch die CSS-Datei abändern. Und dann kriegt man in ganz kurzer Zeit ein Album in dieser Art hin. Dieses Beispiel ist zwar sehr simpel, aber dafür sofort erstellt. Mit dabei ist auch ein sehr schöne Seeigel, den Ruben und ich aus dem Meer gefischt haben.

Ähnliche Artikel

Dank Frank Karlitschek gibt es nun eine eigene Kategorie für Aurorae Themes auf kde-look.org. Er hat auch einen Get Hot New Stuff (GHNS) Provider hinzugefügt und ich hab diesen bereits implementiert und eine neue Aurorae Version veröffentlicht. Über GHNS kann man direkt aus dem Konfigurationsdialog neue Themes herunterladen. Hier der obligatorische Screenshot:

Von Aurorae

Es gibt mittlerweile schon einige Aurorae Themes und das ist einfach großartig. An dieser Stelle möchte ich einfach allen mal danken, die ein Theme erstellt haben. Einige Themes sehen richtig umwerfend aus und passen wunderbar zu einem Plasma Theme. Genau das wollte ich mit der Engine erreichen. Ein Beispiel für diese tolle Umsetzung ist das Gaia 09 Theme. Es ist schön zu sehen, wie viele Anwender die Theme Engine herunterladen und Designs erstellen, obwohl es mit der 4.3 Abhängigkeit nicht gerade einfach war (nun dieses Problem sollte seit gestern behoben sein).

Es scheint so als hätten die Jungs von KDE auf mich gewartet :-) . Mit einer Woche Verspätung wurde am Dienstag dieser Woche die Version 4.3 freigegeben und steht zum Download bereit.

Unter dem ersten Link sind einige Screenshots sowie ein Video hinterlegt.

Auf der Info Seite befinden sich die Hinweise zu den Bezugsquellen fertiger Pakete der  einzelnen Distributionen.

Happy Upgrade :-)

Weitere Artikel:

Dass sich Windows 7 ziemlich an KDE4 anlehnt ist in der Community ja schon oft beobachtet worden. Nun ist die Berliner Morgenpost auf die zwei ähnlichen Brüder hereingefallen und veröffentlichte einen Artikel über Windows 7 mit einem… hmmm… etwas anderen Screenshot. Im ubuntuusers.de Forum ist Mika1860 über den Beitrag in der Morgenpost gestolpert und hat freundlicherweise einen Scan der aktuellen Ausgabe gemacht…

morgenpost

Windows 7 und KDE4, so leicht sind sie zu verwechseln...

Das selbe Bild steht bei der Morgenpost übrigens auch für Android…Siehe Bild 2 von 15 auf dieser Fotostrecke zur Cebit 2009. Man hats ja heutzutage als Redakteur nicht mehr so leicht. Ach wie schön hatten es die Massenmedien, als es nur Windows und vereinzelt Apple in öffentlichen Wahrnehmung gab ;)

Wenn ich schon beim Thema KDE4 bin. Herzlichen Glückwunsch an die gesamte KDE Community zum Release von KDE 4.3. Eure Arbeit beeindruckt wirklich. Der Screencast…


Liebe Planet-Leser, das Video könnt ihr leider nur direkt in meinem Blog betrachten. Klickt daher bitte auf das Bild des Videos. Danke.

Liebe Planet-Leser, das Video könnt ihr leider nur direkt in meinem Blog betrachten. Klickt daher bitte auf das Bild des Videos. Danke.


und die Release Notes machen wirklich Lust auf mehr! Solltet ihr es wirklich schaffen einen alten GNOMEler wie mich zum Umstieg zu bewegen?!?


Comments

In letzter Zeit besucht mich des öfteren ein Spambot, der mir merkwürdige Nachrichten à la

CRFX9K yozenanuhwar, [url=http://qsiblkcdiudm.com/]qsiblkcdiudm[/url], [link=http://oojpidnudwqe.com/]oojpidnudwqe[/link], http://nrvxxrryljly.com/

hinterläßt. Ist zwar eine nette Abwechslung zu den Penis enlargement Geschichten aber auf die Dauer etwas nervig.

Ein Turing Test für die Kommentare muß her. Solch merkwürdigen Buchstabensalat möchte ich niemandem zumuten.

Am nettesten erschienen mir die Captcha’s mit Rechenaufgaben:

Allerdings ist Mustererkennung – vor allem Testerkennung ein recht alter Hut für den gewieften Informatiker.Nach 2 Minuten googlen bin ich sogar auf einen OCR Service im Web gestoßen. Klappt prima, leider kommt der Dienst nicht mit PNG zurecht, beweist aber, dass sich diese Captchas mit wenig Aufwand aushebeln lassen.   :(

Wenn  ein Spammer dieses Plugin einmal austrickst, müssen sich viele Blogger die unendliche Mühe machen und das Plugin updaten, ein Neues zu installieren, oder einfach aufgeben.

Interessanter ist  reCaptcha. Fast jeder ist irgendwann mal über diese rote Abfragebox gestolpert.

reCaptcha beschäftigt sich mit der Digitalisierung von Büchern. Man bekommt immer 2 Wörter serviert. Eines wurde bereits korrekt digitalisiert (in diesem Fall glaube ich “RONALD”, bei dem 2. hatte die OCR Software Probleme. Wenn nun RONALD korrekt eingegeben wird, geht reCaptcha davon aus, dass brokaw auch korrekt eingetippt wurde und der Kommentar wird veröffentlicht. Über die korrekte Schreibweise von brokaw entscheidet dann seitens reCaptcha ein Statistikprogramm. Mit dem Eingeben des Captchas erbringt man nicht nur den Beweis ein Mensch zu sein, sondern hilft auch noch bei der Übersetzung von Büchern.  Finde ich echt nett :)

Etwas über die Installtion zu schreiben erübrigt sich. Lediglich eine Registrierung auf der Seite ist notwenig, um an die API Keys zu kommen. Das Plugin ist für WordPress, MediaWiki, phpBB, Movable Type, Drupal, Symfony, Typo3, NucleusCMS, vBulletin, Joomla und JSP Mailhide verfügbar.

Nachtrag

Dank der Tips von zefanja, Jan und Christoph habe ich die rsCaptchas wieder ausgeschaltet und versuche es nun mit einer Kombination aus Akismet und NoSpamNX.

Siehe auch:

http://linuxundich.de/de/webhosting/wordpress-mit-nospamnx-und-akismet-gegen-spam-harten/

Share/Bookmark

video2
Dieser
von Suse Linux Enterprise 11 arrangierte Video-Wettbewerb ist irgendwie ein wenig an mir vorbei gegangen. Die Community war aufgerufen zur Frage “What do you do with Linux” Videos zu erstellen. Dann wurde abgestimmt und das Haupt-Gewinnervideo aus den 14 Gewinnervideos möchte ich nicht vorenthalten.
(via)

pixelstats trackingpixel