ubuntuusers.de

19. Mai 2009

Izulu in der neuen Version 0.1.8.4 erkennt Sonnenauf- und Sonnenuntergang. Ist es Nacht, werden andere Bilder gewählt. Für die generellen Kategorien sind wieder passende Bilder im .deb vorhanden.

Leider funktioniert der Nachtmodus nicht automatisch, sondern erfordert etwas Konfiguration. Die YahooID der Stadt muss in die Config eingetragen werden. Schritt für Schritt geht das so:

  1. Auf http://weather.yahoo.com/ gibt man in das Eingabefeld den Namen der Stadt ein.
  2. Die URL der nächsten Seite beinhaltet die YahooID der Stadt. Die URL für Berlin lautet http://weather.yahoo.com/forecast/GMXX0007.html, die ID ist also GMXX0007.
  3. Diese ID muss nun in die ~/.izulu/config eingetragen werden, als YAHOOID="GMXX0007".

Startet man izulu nun mit dem Parameter -n, sollte nachts der Mond aufgehen. Allerdings: Der Yahoo-Feed wird auch genutzt, um die derzeitige Zeit zu bestimmen. Bei manchen Standorten wird er nachts aber nicht mehr aktualisiert. Das muss izulu erkennen und entsprechend reagieren, und deswegen hat die Entwicklung des Nachtmodus auch so lange gedauert. Dieses Erkennen kann nur klappen, wenn izulu mit -d im Daemon-Modus im Hintergrund läuft.

Download: Auf der Sourceforgeseite

Izulu in der neuen Version 0.1.8.4 erkennt Sonnenauf- und Sonnenuntergang. Ist es Nacht, werden andere Bilder gewählt. Für die generellen Kategorien sind wieder passende Bilder im .deb vorhanden.

Leider funktioniert der Nachtmodus nicht automatisch, sondern erfordert etwas Konfiguration. Die YahooID der Stadt muss in die Config eingetragen werden. Schritt für Schritt geht das so:

  1. Auf http://weather.yahoo.com/ gibt man in das Eingabefeld den Namen der Stadt ein.
  2. Die URL der nächsten Seite beinhaltet die YahooID der Stadt. Die URL für Berlin lautet http://weather.yahoo.com/forecast/GMXX0007.html, die ID ist also GMXX0007.
  3. Diese ID muss nun in die ~/.izulu/config eingetragen werden, als YAHOOID="GMXX0007".

Startet man izulu nun mit dem Parameter -n, sollte nachts der Mond aufgehen. Allerdings: Der Yahoo-Feed wird auch genutzt, um die derzeitige Zeit zu bestimmen. Bei manchen Standorten wird er nachts aber nicht mehr aktualisiert. Das muss izulu erkennen und entsprechend reagieren, und deswegen hat die Entwicklung des Nachtmodus auch so lange gedauert. Dieses Erkennen kann nur klappen, wenn izulu mit -d im Daemon-Modus im Hintergrund läuft.

Download: Auf der Sourceforgeseite

Izulu in der neuen Version 0.1.8.4 erkennt Sonnenauf- und Sonnenuntergang. Ist es Nacht, werden andere Bilder gewählt. Für die generellen Kategorien sind wieder passende Bilder im .deb vorhanden.

Leider funktioniert der Nachtmodus nicht automatisch, sondern erfordert etwas Konfiguration. Die YahooID der Stadt muss in die Config eingetragen werden. Schritt für Schritt geht das so:

  1. Auf http://weather.yahoo.com/ gibt man in das Eingabefeld den Namen der Stadt ein.
  2. Die URL der nächsten Seite beinhaltet die YahooID der Stadt. Die URL für Berlin lautet http://weather.yahoo.com/forecast/GMXX0007.html, die ID ist also GMXX0007.
  3. Diese ID muss nun in die ~/.izulu/config eingetragen werden, als YAHOOID="GMXX0007".

Startet man izulu nun mit dem Parameter -n, sollte nachts der Mond aufgehen. Allerdings: Der Yahoo-Feed wird auch genutzt, um die derzeitige Zeit zu bestimmen. Bei manchen Standorten wird er nachts aber nicht mehr aktualisiert. Das muss izulu erkennen und entsprechend reagieren, und deswegen hat die Entwicklung des Nachtmodus auch so lange gedauert. Dieses Erkennen kann nur klappen, wenn izulu mit -d im Daemon-Modus im Hintergrund läuft.

Download: Auf der Sourceforgeseite

Nicht ganz sogleich, denn wir – das heisst Dirk und ich – bereiten ihn in den nächsten Tagen vor, den zweiten Streich. Oder etwas genauer getroffen: Die zweite Folge unseres gemeinsam Audiocast DeimHart.net. Die erste Folge ist noch etwas mit Kinderkrankheiten und kleinen Fehlern umsäumt; wir nehmen uns die Freiheit, dazulernen zu dürfen. Ausserdem begleiteten uns einige technischen Herausforderungen in Bezug auf das Blog und der Software Serendipity. Aber auch hier werden wir eine Hürde nach der andern nehmen und sie aus dem Weg räumen. Das Blogdesign ist bestimmt kein Hammer, auch hierzu nehmen wir uns die nötige Zeit. Schliesslich tun wir dieses Hobby aus Spass und Freude, wollen es lustig und spannend dabei haben und vergessen natürlich die nötige Ernsthaftigkeit, mit edlem Humor durchzogen, nicht.

Während dem sich Dirk eher um die technischen Einrichtungen rund um das Hosting und die Blogsoftware kümmert, sehe ich zu, dass wir für die kommende Folge eine etwas bessere Qualität beziehungsweise Lautstärke realisieren können. Der Anfang der ersten Folge war schon gar leise. Damit uns das nicht mehr passiert, habe ich als Ergänzung zum H4 Handy-Recorder zwei Tischmikrofone besorgt, welche sich beide am H4 anschliessen (dort werden die Signale verstärkt) und über USB direkt in mein ThinkPad und damit auf Audacity durchschlaufen lassen. Damit sind die Aufnahme-Geräte etwas näher bei den sprechenden Personen, was sich auf die Qualität der Tonspuren auswirkt.

Philips SBC ME570

Es sind zwei Mikrofone aus dem Hause Philips, sauber in zwei Etuis mit Schaumstoff verpackt und 3.5 Meter Kabel: Philips SBC ME570. Die Teile nennen sich Elektret-Kondensator-Mikrofone, sind nicht allzu teuer, aber doch gut brauchbar für Stimmaufnahmen in einer eher ruhigen Umgebung.

Aber das wichtigste hätte ich beinahe vergessen: Der Inhalt der nächsten Folge. Wir werden sicherlich wieder ein paar spannenden Themen bereithalten, zuviel will ich nicht verraten, aber es geht natürlich um Ubuntu, Barcamps und Linux im Allgemeinen, aber wohl auch um Internet, VoIP, dem LinuxTag zu Berlin und andere Geschichten. Es lohnt sich bestimmt, reinzuhören. Die Folge #2 veröffentlichen wir – wie geplant immer am ersten Montag im Monat – nämlich am 1. Juni 2009. Also bis bald bei DeimHart.net.

Ähnliche Artikel

18. Mai 2009

Hallo liebe Blogleser,

heute könnte ich einmal Eure Hilfe benötigen. Bei mir steht ein neuer Druckerkauf an. Und dass das unter Linux immer noch eine heikle Sache sein kann, ist ja bekannt. Mein aktuelles Gerät ist ein 2,5 Jahre altes Kombigerät, der Epson Stylus DX 7000F. Den Scanner habe ich mangels Treiber nie unter Linux nutzen können. Kopieren und Faxen funktionierte – auch ohne PC und Linux (!)  – mehr schlecht als recht. Der Drucker kann zwar mit dem entsprechenden Treiber A4-Seiten in verschiedenen Auflösungen drucken, aber schon einfache Fotos auf 10 × 15cm großes Fotopapier zu bannen hat nie geklappt. Preiswertere Tintenpatronen von Drittanbietern funktionieren nicht! Und jetzt bekomme ich laufend Ausdrucke mit  Eselsohren und unschönen Tintenflecken am Seitenende. Das Ding fliegt nun auf den Schrott.

Hier nun meine Wunschliste und ich hege die Hoffnung, dass mir geholfen werden kann. :-) Die Gewichtung meiner Anforderungen sind sortiert! Also, gesucht wird ein Drucker, der:

  • „Out of the Box“ unter Ubuntu funktioniert (ohne Turboprint) oder wo ohne Probleme Treiber vorhanden sind/installiert werden können
  • einen (wenigstens halbwegs) fairen Preis für Tintenpatronen/Toner hat
  • ein gutes Druckbild im Standardmodus auf A4 liefert – und das auch in annehmbarer Geschwindigkeit
  • auf Fotopapier im 10 × 15 Format in guter Fotoqualität und möglichst auch Randlos drucken kann
  • gerne ein Kombigerät sein kann, dann sollte aber auch der Scanner gut unter Ubuntu funktionieren
  • aktuell noch in den Regalen der Elektronikhäuser steht oder in guten Onlineshops erhältlich ist!

Der Preis ist für Tintenstrahldrucker doch eher nebensächlich, ich möchte endlich ein ordentliches Gerät für Ubuntu haben. Welche Erfahrungen habt Ihr mit Euren Tintenspritzern? Erfüllt vielleicht ein halbwegs bezahlbarer Farblaser schon meine Anforderungen? Das wäre dann natürlich auch eine Überlegung wert. Ich freue mich auf Eure Antwort und Erfahrungen!

Bildquelle: Das Foto stammt von at_peter_mayer und steht unter der CreativeCommons BY NC SA. Ein klick auf das Bild führt zur Flickr-Seite des Urhebers.

Update: Ganz herzlichen Dank für die zahlreichen Tipps!  .daumenhoch:   Ich werde mir mal die Daten von einigen HP-Geräten, aber auch dem Samsung‑ und Konika-Minolta-Laserdrucker anschauen.

@Unki: Ja, wenn die Zeit da ist, nutze ich auch den guten Service der Drogeriemärkte. Habe auch schon beim Mediamarkt direkt vor Ort Fotos ausgedruckt. War zwar etwas teurer, benötigte aber die Bilder sofort. Nur, ab und zu hat man ja auch Besuch und wenn man dann das neueste Gruppen‑ oder Familienfoto 5 Minuten später rumreichen kann – wird man angesehen wie ein kleiner Gott. Und das tut gut. ;-)

Einen Tipp bekam ich per Mail, der vielleicht auch für einige Leser interessant ist. Der Rainer B. schrieb mir:

Hallo Turicon,
ich habe auch Ubuntu und denselben Epsondrucker wie Du. Wenn ich Bilder im Format 10 × 15 und randlos drucken will, stecke ich die Kamera direkt an dem sogenannten PictBridge-USB-Port an. Der befindet sich vorn, direkt unter dem Bedienpanel. Ich muss dann noch in der Kamera den Übertragungsmodus von „Massenspeicher“ auf „PictBridge“ umstellen, dann kann ich die Bilder direkt drucken. Die Auswahl erfolgt über die Kamera. Es lassen sich auch Indexbilder drucken, was ich sehr vorteilhaft ansehe. Versuch es doch mal, so schlecht ist der Epson eigentlich nicht.

Vielen Dank an Rainer! Ich habe das gleich mal getestet. Und das funktioniert wunderbar, auch wenn es etwas länger dauert. Aber die Qualität ist 1A und der Drucker hat richtig randlos gedruckt.

Auch nach vier Tagen und 112 Updates hat sich nicht viel verändert. Die Grafik lässt sich weiterhin nicht erfolgreich installieren, neulich musste ich sogar im recovery-Modus den Grafiktreiber über das Root-Terminal deinstallieren, weil der PC nicht einmal mehr im Textmodus starten ging. Das funktioniert per

apt-get remove xorg-driver-fglrx

 Außerdem muss man aus xorg.conf die Zeile mit „fglrx“ entfernen. Dies geht auch im recovery-Modus mit nano, dem Terminal-Texteditor, der standardmäßig installiert ist.

Die oben angesprochenen Updates betrafen überwiegend Bibliotheken und Intelbausätze, haben mich also nicht unbedingt weiter gebracht. Für die Musik- und Videowiedergabe habe ich jetzt gängige Codecs installiert, mit welchen ich mp3, avi und sonstige Mediendateien abspielen kann. Leider knackt und rauscht es ab und zu immernoch bei Systemsounds wie Start-/ Anmeldeton oder bei Pidgin. Flash geht auch problemlos zu installieren, sowohl gnash als auch das Flashplugin von Adobe. Hier sind natürlich ein haufen IA-32-Libs notwendig, die aber keine Probleme machen. Leider wird das WLAN bei längerer Benutzung instabil, obwohl die Empfangsqualität erstaunlich gut ist.

Eine Sache die mir aufgefallen ist, ist der unzuverlässige, deutsche Server von Canonical. Die gestrigen Updates konnte ich bspw. aufgrund eines 404-Fehlers erst am späten Abend herunterladen. Auch werden Hilferufe im Forum aus ähnlichen Gründen laut. Abhilfe schafft hier der Hauptserver, der sich über System → Systemverwaltung → Softwarequellen einstellen lässt.

Um mir den richtigen Unstable-Kick zu geben, habe ich mir noch Firefox-3.5 (Shiretoko, Beta 4) geholt, allerdings ist dieser Browser stabil und macht keine Probleme.

Ärgerlich: als ich mir gestern Gnome Do holen wollte, gab es einen Konflikt zwischen dem Hauptpaket und seinen Plugins. Die Plugins merkten Gnome Do zum Deinstallieren vor, benötigten dies aber als Abhängigkeit! Folge: Gnome Do liegt jetzt ohne Plugins hier und wird nicht benutzt.

Das ist so der momentane Stand der Karmic-Expedition. Liebe Grüße

Auch nach vier Tagen und 112 Updates hat sich nicht viel verändert. Die Grafik lässt sich weiterhin nicht erfolgreich installieren, neulich musste ich sogar im recovery-Modus den Grafiktreiber über das Root-Terminal deinstallieren, weil der PC nicht einmal mehr im Textmodus starten ging. Das funktioniert per

apt-get remove xorg-driver-fglrx

 Außerdem muss man aus xorg.conf die Zeile mit „fglrx“ entfernen. Dies geht auch im recovery-Modus mit nano, dem Terminal-Texteditor, der standardmäßig installiert ist.

Die oben angesprochenen Updates betrafen überwiegend Bibliotheken und Intelbausätze, haben mich also nicht unbedingt weiter gebracht. Für die Musik- und Videowiedergabe habe ich jetzt gängige Codecs installiert, mit welchen ich mp3, avi und sonstige Mediendateien abspielen kann. Leider knackt und rauscht es ab und zu immernoch bei Systemsounds wie Start-/ Anmeldeton oder bei Pidgin. Flash geht auch problemlos zu installieren, sowohl gnash als auch das Flashplugin von Adobe. Hier sind natürlich ein haufen IA-32-Libs notwendig, die aber keine Probleme machen. Leider wird das WLAN bei längerer Benutzung instabil, obwohl die Empfangsqualität erstaunlich gut ist.

Eine Sache die mir aufgefallen ist, ist der unzuverlässige, deutsche Server von Canonical. Die gestrigen Updates konnte ich bspw. aufgrund eines 404-Fehlers erst am späten Abend herunterladen. Auch werden Hilferufe im Forum aus ähnlichen Gründen laut. Abhilfe schafft hier der Hauptserver, der sich über System → Systemverwaltung → Softwarequellen einstellen lässt.

Um mir den richtigen Unstable-Kick zu geben, habe ich mir noch Firefox-3.5 (Shiretoko, Beta 4) geholt, allerdings ist dieser Browser stabil und macht keine Probleme.

Ärgerlich: als ich mir gestern Gnome Do holen wollte, gab es einen Konflikt zwischen dem Hauptpaket und seinen Plugins. Die Plugins merkten Gnome Do zum Deinstallieren vor, benötigten dies aber als Abhängigkeit! Folge: Gnome Do liegt jetzt ohne Plugins hier und wird nicht benutzt.

Das ist so der momentane Stand der Karmic-Expedition. Liebe Grüße

Auch nach vier Tagen und 112 Updates hat sich nicht viel verändert. Die Grafik lässt sich weiterhin nicht erfolgreich installieren, neulich musste ich sogar im recovery-Modus den Grafiktreiber über das Root-Terminal deinstallieren, weil der PC nicht einmal mehr im Textmodus starten ging. Das funktioniert per

apt-get remove xorg-driver-fglrx

 Außerdem muss man aus xorg.conf die Zeile mit „fglrx“ entfernen. Dies geht auch im recovery-Modus mit nano, dem Terminal-Texteditor, der standardmäßig installiert ist.

Die oben angesprochenen Updates betrafen überwiegend Bibliotheken und Intelbausätze, haben mich also nicht unbedingt weiter gebracht. Für die Musik- und Videowiedergabe habe ich jetzt gängige Codecs installiert, mit welchen ich mp3, avi und sonstige Mediendateien abspielen kann. Leider knackt und rauscht es ab und zu immernoch bei Systemsounds wie Start-/ Anmeldeton oder bei Pidgin. Flash geht auch problemlos zu installieren, sowohl gnash als auch das Flashplugin von Adobe. Hier sind natürlich ein haufen IA-32-Libs notwendig, die aber keine Probleme machen. Leider wird das WLAN bei längerer Benutzung instabil, obwohl die Empfangsqualität erstaunlich gut ist.

Eine Sache die mir aufgefallen ist, ist der unzuverlässige, deutsche Server von Canonical. Die gestrigen Updates konnte ich bspw. aufgrund eines 404-Fehlers erst am späten Abend herunterladen. Auch werden Hilferufe im Forum aus ähnlichen Gründen laut. Abhilfe schafft hier der Hauptserver, der sich über System → Systemverwaltung → Softwarequellen einstellen lässt.

Um mir den richtigen Unstable-Kick zu geben, habe ich mir noch Firefox-3.5 (Shiretoko, Beta 4) geholt, allerdings ist dieser Browser stabil und macht keine Probleme.

Ärgerlich: als ich mir gestern Gnome Do holen wollte, gab es einen Konflikt zwischen dem Hauptpaket und seinen Plugins. Die Plugins merkten Gnome Do zum Deinstallieren vor, benötigten dies aber als Abhängigkeit! Folge: Gnome Do liegt jetzt ohne Plugins hier und wird nicht benutzt.

Das ist so der momentane Stand der Karmic-Expedition. Liebe Grüße

Header

Ich habe mir mal das Programm Reconstructor vorgenommen, mit dem unter anderem das “Super OS” erstellt wurde. Mein Ansatz ist jedoch ein völlig anderer. Ich möchte auf dem Installationsmedium die Programme gleich mitgeliefert bekommen, die ich mir bei einer frischen Installation mit Sicherheit nachinstallieren würde – so jedenfalls der Gedanke vor dem Test.

Desweiteren möchte ich hier noch einmal betonen, dass dies meine rein subjektiven Eindrücke sind und ich keinesfalls einen Anspruch auf Richtigkeit und Vollständigkeit erhebe ;-)

Installation
Die Installation war recht einfach und bequem. Den Reconstructor kann man hier herunterladen. Installiert habe ich es dann einfach mittels gdebi.

Vorbereitung
In jedem Falle braucht man als Vorbereitung ein Ubuntu-CD-Image. Entweder von der Desktop- oder der Alternative-CD. Ich habe mich hier einmal für die Desktop-CD entschieden. Wenn man diese heruntergeladen hat kann man den Reconstructor aus dem Menü Anwendungen -> Systemwerkzeuge -> Reconstructor starten.

Achtung: Das Programm verlangt sofort root-Rechte.

Danach muss man auswählen, welche CD-Variante man verwenden möchte und den Pfad zum iso einlegen. Beim ersten “Rekonstruieren” muss man einen Remaster-Ordner, einen Root-Ordner und einen Ramdisk-Ordner anlegen lassen.

Danach braucht man viel Geduld. Besonders der Punkt Entpacke squashfs root… braucht eine Menge Zeit. Mittlerweile sind dabei bereits mehr als 20 Minuten vergangen (AMD Athlon 64 3200+ und 4 GB Ram). Und dass das Programm meinen Rechner teilweise recht ausbremst brauche ich glaube ich nicht zu erwähnen.

Benutzung
Ist er fertig mit dem Erstellen kann man dann jede Menge Einstellungen treffen. Man kann seinen eigenen USplash, einen eigenen GDM oder auch ein eigenes Theme sowie ein eigenes Hintergrundbild gleich einstellen.

Im nächsten Schritt kann man eigene Paketquellen hinzufügen und sogar auch gleich die GPG-Keys importieren. Das klingt zunächst recht praktisch, wenn man gleich Programme aus Repositories wie Medibuntu oder einem Launchpad-PPA gleich installieren möchte.

Im nächsten Punkt “Optimierung” kann man Dienste und Prozesse auswählen, die beim Systemstart gleich mitgeladen werden sollen. Auch einen Punkt “Optimiere Shutdown” ist vorhanden. Was das im einzelnen bewirkt, wenn man es auswählt wird nicht erklärt.

Danach kann man sich Benutzernamen, Passwort und sogar einen Rechnernamen für das System ausdenken, wenn man denn möchte, bevor man zu den “Modulen” kommt.

Hier können dann Programme zusätzlich installiert oder auch deinstalliert werden. Besonders auffällig ist, dass unter dem Punkt “Networking” noch immer ein Eintrag “Gaim” zu finden ist. Und das obwohl die Reconstructor-Version vom 30. April 2009 sein soll.

Klickt man dann auf weiter kommt man auf ein Eingabefeld, wo man bestimmen kann, was denn nun alles gebaut werden soll. Man kann hier sogar mal eben die Architektur der CD mit einem Klick ändern.

Ist man denn sicher, dass man das machen möchte kann man an dieser Stelle dann die CD “bauen” lassen. Man wird darauf hingewiesen, dass dies einige Minuten in Anspruch nehmen kann. Ich habe an dieser Stelle das Programm abgebrochen, da hier für mich endgültig der Sinn der angepassten CD verloren gegangen ist.

Fazit
In der Zeit in der ich diese CD zusammen gestellt habe wäre ein System schon lange frisch installiert. Und wenn man dies nicht alle 2 Wochen machen möchte braucht man eine solche angepasste CD auch nicht – Ubuntu veröffentlicht alle 6 Monate ohnehin eine neue Version. Also würde dann das ganze Spiel wieder von vorne anfangen und wieder eine Menge Zeit in Anspruch nehmen.

Das anschließende Löschen der Arbeitsdateien (die man auch nur mit root-Rechten wieder los wird) dauert auch wieder etliche Minuten. Warum der Reconstructer tausende von Ordnern und Dateien im home-Verzeichnis mit Administrationsrechten ablegen muss ist mir völlig schleierhaft. Ich für meinen Teil würde von der Verwendung des Reconstructors wirklich abraten.

Wer sich Bilder des Programms anschauen möchte kann dies übrigens hier tun. Da dort reichlich Bilderchen zu finden sind habe ich mir für dieses Programm nicht die Mühe gemacht und eigene Screenshots erstellt.

Bild: byArtNow314

Einer der angenehmen Nebeneffekte von Linux ist das Fehlen eines ICQ Clients. Seit Jahren bin ich zufriedener Nutzer von Pidgin und ab und an mal Centericq.

Für Pidgin habe ich ein Facebook Plugin gefunden. Damit kann man sich bequem aus Pidgin heraus mit seinen Facebook-Kumpanen unterhalten anstatt das Browserfenster zu benutzen.

Datentransfer funktioniert logischerweise nicht, aber um ein nettes Hallo auszutauschen reichts allemal.

Verfügbar ist das Plugin für Linux und Windows. Auch ein Debian Package wird bereitgestellt.

hf :)

Share/Bookmark

N-iceflame ist ein schwarzes Design, das mit einem ganz leichten Glanzeffekt versehen ist. Intention war, ein Design zu haben, das mit vielen verschiedenen Hintergrundbildern zurechtkommt - und dabei ist ein schwarzes wahrscheinlich keine ganz verkehrte Wahl.

Es basiert auf n-icedesert glossy und red-flameO.

Download: n-iceflame-0.1.tar.gz

PS: Auf Box-Look kann das Design bewertet werden und dort steht ein anderer Screenshot bereit.

Die erste Alpha-Version vom Ubuntu 9.10 ist nun erhältlich. Offenbar liegt Canonical ganz gut im Plan. In einer solch frühen Phase reduziert sich das Angebot auf Gnome, KDE, Xfce und neu für ARM-Plattformen und eine Serverversion, eine Live-CD gibt es erst ab der zweiten Alpha, welche wohl im Juni bereits stehen wird. Ich habe mir die Gnome-Variante gezogen und per VirtualBox eine Desktop-Virtualisierung erstellt.

Aufgefallen ist mir dabei, dass die noch junge Testversion keine groben Fehler aufzeigt, die ich als Durchschnittsbenutzer bemerkt hätte. Die erweiterten Sprachpakte für Deutsch lassen sich noch nicht installieren. Ein Kernel 2.6.30 wirkt für den Koala, das GNOME kommt in der Version 2.27.1 daher und OpenOffice hört auf 3.1.0, welches aber noch in Englisch gehalten ist. Weiter soll das lästige Intel-Grafikarten-Problem behoben werden, das betrifft mich meine Hardware aber nicht. Und noch einmal ist es das Ziel dieser Version, die Bootzeit zu verkürzen.

Installiert wird die Alpha-Version ganz normal in der alternativen Variante. Dort konnte ich weder grafisch noch inhaltlich einen Unterschied zum Vorgänger feststellen, wobei ich die Standard-Einstellungen belassen habe.

Installation von Ubuntu 9.10

Der erste Start verlief denn auch tatsächlich recht rasant, auch bei einer minimal eingerichteten, virtuellen Maschine mit bloss 512 MB flüchtigem Speicher.

Der erste Start

Mein Lieblings-Mail-Client, Claws-Mail, ist in den Quellen bereits in der aktuellen Version (3.7.1), welche unter 9.04 noch via Launchpad installiert werden muss, vorhanden. Weiter stellte ich fest, dass die beiden Pakete linux-headers und build-essential für das Kompilieren der VirtualBox Gasterweiterungen nicht mehr extra installiert werden mussten. Entweder sind sie schon installiert oder sie wurden infolge der Abhängigkeiten geholt. Kann auch sein, dass die beiden Pakete in einer Alpha-Version mitgereicht werden.

Desktop

Gesamthaft schafft die erste Alpha-Version einen stabilen Eindruck und der Bootvorgang scheint tatsächlich noch einmal verkürzt zu sein. Weiter verspricht die neue Version des Compilers (GCC 4.4) eine Verbesserung und HAL sollte dann dereinst dem DeviceKit weichen.

Obschon ein stabiler Eindruck entsteht, sollte eine Vorab- oder Testversion niemals zum Bearbeiten von produktiven Daten benutzt werden. Fatale Fehler sind nicht ausgeschlossen, welche zu Datenverlusten führen könnten.

Ähnliche Artikel

“Super OS” oder auch “Super Ubuntu” sind inoffizielle Abklatsch-Versionen von Ubuntu, die beispielsweise über Zeitschriften wie Com! als das bessere Ubuntu verteilt werden. Dem Nutzer wird hier vorgegaukelt ein super System “Out of the Box” geliefert zu bekommen. Was man bekommt ist jedoch nur eine unnötig mit Programmen aufgeblasene Ubuntu-Version, die Software liefert, die man wohl eher nicht braucht – und unter Umständen die Sicherheit des Systems gefährdet.

Wie man im Ubuntuusers-Forum lesen kann wird hier ein vorinstalliertes Wine mit Internet Explorer, QuickTime und anderen Späßen geliefert, was man unter ubuntu durch eine Hand voll Tastatureingaben nachinstallieren kann – und dann kann man von anfang an selbst entscheiden was man denn wirklich braucht.

Wozu braucht man einen Internet Explorer mit Wine, wenn man den Firefox, Opera und viele andere Browser einfach installieren kann? Wozu braucht man einen Quicktime-Support mit Hilfe von Wine, wenn man diesen über die Codecs einfach installieren kann? Wozu muss einem Nutzer eine Testversion von NeroLinux mitgegeben werden, wenn eine Brennsuite doch bereits vorinstalliert ist? Das unsinnige Vorinstallieren von Testversionen überlassen wir dann doch lieber den Windows-Händlern. Denn schließlich ist auch das ein Grund, warum man das Produkt aus Redmond eigentlich nicht möchte.

Der Nutzer hat hier am Ende noch zu tun, weil er sich zum einen nicht nur ein übergroßes DVD-Iso zum installieren herunter laden muss, sondern dann auch noch den überflüssigen Quatsch zu beseitigen hat, damit man ein anständig funktionierendes.

Ganz zu Schweigen von Sicherheitslücken die solche Versionen mit sich bringen (können). So steht der “App-Runner” im Verdacht alle Programme mit root-Rechten zu starten – was ja wohl dem Sicherheitsprinzip von Ubuntu ganz deutlich widerspricht.

Dass nicht alle Windows-Programme mit Wine betrieben werden können ist auch kein Geheimnis. Hier macht man es dem Umsteiger in meinen Augen noch schwerer, da ihm hier unter Umständen nicht voll funktionsfähige und instabile Software mitgeliefert wird.

Greift also bitte immer zur offiziellen Ubuntu-Version, wenn ihr Ubuntu ausprobieren und installieren möchtet. Diese kann einfach von ubuntu.com oder ubuntuusers.de heruntergeladen werden. Wenn es denn unbedingt eine hübsch aussehende CD sein soll, so kann man sich diese auch gratis zuschicken lassen.

Und mal ehrlich. Mit dem Reconstructor kann sich jeder selbst seine eigene, ganz persönliche Ubuntu-CD oder DVD erstellen, ohne auf eine solche Version zurück greifen zu müssen. Und dort muss man nicht blind darauf vertrauen, dass man keine Software runterlädt, die eventuell sogar gefährlich ist.

17. Mai 2009

Hardware im Betrieb braucht Strom – doch wieviel Watt verbrauchen Bildschirm, Drucker & Co im abgeschalteten Zustand?

Quelle: Wikimedia - Lizenz: GPL2

Wikimedia (Lizenz: GPL2)

Hardware im Standby verbraucht offenbar mehr Strom, als viele Menschen vermuten. In einem vorangegangenen Artikel hatte ich untersucht, ob es einen Unterschied im Stromverbrauch bei Suse, Ubuntu und Vista gibt. Dieser Artikel befasst sich mit der Frage, wieviel Strom gängige Hardwarekomponenten im Standbymodus verbrauchen. Zum Einsatz kam wieder das Messgerät Brennenstuhl PM230. Untersucht wurden 2 verschiedene Notebookmodelle, ein komplettes Desktopsystem (inklusive PC, Flachbildschirm, Drucker), sowie eine externe Festplatte. Die gemessenen Werte können natürlich nur grobe Anhaltspunkte geben; andere Modelle können von den von mir gemessenen Werten abweichen. Mit „Standby“ meine ich den Zustand eines Geräts, das im ausgeschalteten Zustand per Netzkabel an die Stromversorgung angeschlossen wird.

Messergebnisse: Offenbar verbrauchen PCs erheblich mehr Watt im Standby als Laptops. Meine Kiste zumindest brachte es jedenfalls auf stattliche 16 Watt, während die beiden Laptops sich mit je mageren 2 Watt zufrieden gaben. Ein Medion Flachbildschirm wurde im Standby mit immerhin 7 Watt Verbrauch gemessen. Ein Drucker (HP C5280) kam auf 14 Watt. Eine externe Festplatte (Toshiba) zog durch den Adapter im ausgeschalteten Zustand 4,5 Watt. Das komplette Desktopsystem mit PC, Drucker, Flachbildschirm und externer Festplatte müsste im Standby also (theoretisch) 16+7+14+4,5=41,5 Watt verbrauchen. Die tatsächliche Messung aller Komponenten gemeinsam ergab schließlich ca. 36 Watt. Ich bin kein Elektriker und kann den Unterschied nicht erklären. Vielleicht kann der Leser zur Aufklärung beitragen.

Copyright:ECB

Die Kosten: Gehen wir davon aus, dass das getestete System 1 Jahr an eine reguläre Steckleiste (ohne roten Kippschalter) angeschlossen wäre. Wenn die KWh 37 Cent kostet, wieviel würde ein solches Desktopsystem im Standbymodus in einem Kalenderjahr verbrauchen? Insgesamt würden 315,36 KWh verbraucht. Dies würde mich die Summe von 116,68 Euro kosten!

Ein nicht ganz unerheblicher Betrag, den ich da zu blechen hätte, alleine dafür, dass meine Hardware REIN GAR NICHTS tut! Wem das egal ist, der geht halt einen Tag im Jahr (wenn`s langt!) nur dafür auf die Arbeit, damit er seine Hardware fürs Nichtstun bezahlen kann. Zum Glück habe ich schon längst Steckleisten mit Kippschalter im gesamten Haushalt eingeführt und nutze fast nur noch Laptops. Es muss ja nicht gleich mit dem buzzword Green IT daherkommen; aber beim Standbybetrieb besteht auf jeden Fall erhebliches Potenzial, Kosten zu sparen und die Umweltverschmutzung zu reduzieren. 2 Steckleisten mit Kippschalter und je  8 Steckplätzen gibt`s schon ab 5 Euro bei IKEA.

In einem weiteren Beitrag möchte ich mich dann in den nächsten Tagen noch der Frage zuwenden, was Hardwarekomponenten im Betrieb verbrauchen (hier kommt dann auch der Router zum Zug). Nur so zum Spaß (da ich sie eh alle gemessen habe), werde ich dann auch einige Ergebnisse über Haushaltsgeräte wie Fön, Funktelefon und Wasserkocher veröffentlichen…


Seit diesem Wochenende darf man auch die Schweiz als Überwachungsstaat bezeichnen!

Dank einer Abstimmung, welche mit unglaublichen 50.14 % angenommen wurde, werden in alle neuen Pässe biometrische Fingerabdrücke abgespeichert! Und das beste daran ist: Dabei bleibt es nicht! Alle Daten werden in einer zentralen Datenbank abgespeichert…

Fragwürdig für mich ist es, wie Politiker so was unterstützen können und auch noch mit vollkommener Überzeugung behaupten können, dass ein solches System komplett sicher ist, wo Informatiker und Datenschützer aus jeder Eck Alarm schlagen!

Doch was heisst der Biometriezwang nun?

Es heisst, dass Pässe die ab 2010 ausgestellt werden, mit einem RFID Chip versehen sind. Auf dem Chip werden digitale Daten und Fingerabdrücke gespeichert. Für die Zukunft ist auch ein digitales Foto geplant!

Weiter werden alle Daten noch in einer zentralen Datenbank abgespeichert, auf welche ausländische Regierungen und Firmen Zugriff erhalten.

Ach ja, ausserdem wird der Pass teurer und kann nicht mehr in der Gemeinde, sondern nur noch an wenigen, zentralen Stellen ausgestellt werden!

Aber das ist ja alles egal! Die Politiker versichern uns ja, dass die Passe komplett und rundum sicher sind!
Videos und Demonstrationen wie die folgenden sind ja auch nur erlogen und gefälscht…

und wer noch Lust auf mehr solche Demonstrationen hat, sollte mal hier vorbeischauen.

Die einzige Frage die sich mir nun noch stellt; wie lange wird es dauern bis jemand diese “absolut sichere zentrale Datenbank” auseinandernimmt?

Ich bekomme recht oft die Frage gestellt welches Theme ich für meinen GNOME Desktop benutze, daher hatte ich vor einigen Monaten alle Infos im Artikel Mein GNOME Desktop… Shiki bites the Dust zusammengefasst. Seit ein paar Wochen hat sich die Installation des Themes deutlich vereinfacht, da eine Paketquelle für das Shiki-Metacity Theme und die GNOME-Colors Icons erstellt wurde.

Die Quelle hat den Vorteil, dass das Theme gleich global für alle Benutzer installiert wird und dass man immer automatisch die aktuelle Version des Themes - Wer überprüft denn ob es für ein Theme ein Update gibt - auf dem Rechner hat. Die Quelle bindet man über einen Eintrag in die sources.list ein, dazu bearbeitet man die Datei mit Root-Rechten

$ sudo gedit /etc/apt/sources.list

und fügt die Zeilen

deb http://ppa.launchpad.net/gnome-colors-packagers/ppa/ubuntu jaunty main
deb-src http://ppa.launchpad.net/gnome-colors-packagers/ppa/ubuntu jaunty main

ein. Die Pakete in der Quelle sind signiert, so dass die Paketverwaltung bei der Installation von Paketen aus dieser Quelle meckern würde. Über

$ sudo apt-key adv --recv-keys --keyserver keyserver.ubuntu.com E8D31A30

fügrt man den Schlüssel zum eigenen System hinzu, so dass man über

$ sudo apt-get update

die Paketquellen nun neu einlesen kann. Nun können folgende Pakete installiert werden

  • shiki-colors: Metacity Theme
  • gnome-colors: Icon Theme
  • arc-colors: Theme für GDM
  • shiki-colors-xfwm-theme: Theme für den Fenstermanager von Xfce

Wer GNOME - also Ubuntu - verwendet, der kann beispielsweise über

$ sudo apt-get install arc-colors gnome-colors shiki-colors

alles nötige installieren. Nach der Installation der Pakete kann man über “System -> Einstellungen -> Erscheinungsbild” die Shiki-Themes auswählen.

Shiki Colors

Shiki Colors

Bei Bedarf kann kann das Theme noch anpassen und unter “Fensterrahmen” das Metacity-Theme anpassen.

  • Shiki-Colors Easy Metacity: Extra breite Fensterrahmen
  • Shiki-Colors Metacity: Keine Rahmen
  • Shiki-Colors Striped Metacity Keine Rahmen, Farbiger Balken oben

Nach dem Theme für GNOME selber kann man noch das GDM-Theme, also den Bildschirm den man während des Anmeldens am Rechner sieht, anpassen. Über “System -> Systemverwaltung -> Anmeldefenster” startet man das Konfigurationsprogramm für GDM. Dort kann man im Reiter “Lokal” das Theme auswählen. Hat man vorhin das Paket arc-colors installiert, so sollten diese hier auswählbar sein.

Arc-Colors für GDM

Arc-Colors für GDM

Man bemüht sich aktuell das Shiki-Theme, die Icons und Arc für GDM in die Paketquellen von Debian zu bringen. So wird das Theme früher oder später noch einfacher zu installieren sein.


Comments

Sehr praktisch bei der Bash ist die Möglichkeit sich alias-Befehle zu konfigurieren. Damit kann man bestehende Befehle überschreiben oder Abkürzungen hinzufügen. Ich habe mal einige praktische alias-Kommandos zusammen gestellt. Es wären natürlich noch viel mehr denkbar, aber vielleicht regen die hier genannten ja beim einen oder anderen die Phantasie an.

Übrigens kann man die “Ursprungsversion” eines Kommandos, welches durch einen Alias überschrieben wurde durch ein Vorrangestelltes \ aufrufen. Also wenn es z.B. folgenden alias gibt:

alias ls="ls --color=auto"

so kann man durch die Eingabe von

\ls

den Befehl ls ohne –color=auto aufrufen.

Grundlegende Kommandos im Dateisystem

# Macht die Ausgabe von ls farbig:
alias ls='ls --color=auto' 
 
# Gibt zu jeder Datei weitere Informationen aus. Größenangaben immer "menschenlich lesbar":
alias ll='ls -lh' 
 
# Wie ll, aber es werden auch versteckte Dateien aufgelistet:
alias la='ls -lha' 
 
# Für Vertipper recht praktisch:
alias cd..='cd ..' 
alias cd-='cd -'
 
# Abkürzung für cd .. :
alias ..='cd ..' 
alias ...='cd ../..'
 
# Alle nicht existierenden Verzeichnisse automatisch erstellen:
alias mkdir='mkdir -p'
 
# Für Anfänger zu empfehlen (es wird bei jeder Datei nachgefragt)
alias rm='rm -i'
alias cp='cp -i'
alias mv='mv -i'

Befehle die immer mit bestimmten Optionen ausgeführt werden sollen sowie Abkürzungen

# Bei df die Größen immer "menschlich lesbar" anzeigen:
alias df='df -h' 
 
# Bei du die Größen immer "menschlich lesbar" anzeigen:
alias du='du -h' 
 
# Suche in less case-insensitive:
alias l='less -i' 
 
# Zeigt Änderungen einer Datei an (wie tail -f):
alias lf='less -i +F' 
 
# Beispielhafte Abkürzung für ssh
alias meinserver='ssh user@meinserver.tld'
 
# lässt grep case-insensitive arbeiten und markiert die Treffer farbig:
alias grep='grep -i --color=auto'

Die Follow-Option von less (less +F) ist recht praktisch, da sie einfach mit Strg+c unterbrochen und mit F weitergeführt werden kann. So kann man leicht nochmal zurück scrollen.

Befehle zum Suchen, Installieren und Updaten

# Da apt-get ja meist mit sudo aufgerufen wird:
alias apt-get='sudo apt-get' 
 
#Statt dessen kann man auch die folgenden Befehle nutzen:
alias agi='sudo apt-get install'
alias acs='apt-cache search'
 
# Das ganze System updaten:
alias update='sudo apt-get update && sudo apt-get upgrade'

Komplexere Befehle

# Starte Kommando in neuem Screen-Fenster:
alias s='screen -X screen' 
 
# Dateinamen im aktuellen Verzeichnis nach Ausdruck durchsuchen:
alias lg='ls --color=always | grep --color=always -i' 
 
# Timestamp generieren:
alias timestamp='date "+%Y%m%d%H%M%S"' 
 
# Verzeichnis mit aktuellem Timestamp erstellen:
alias tsdir='timestamp | xargs mkdir' 
 
# Änderungen bei allen angegebenen Logdateien live anzeigen:
alias mylogs='sudo tail -f /var/log/{syslog,messages}' 
 
# Einen Prozess (nach Namen) suchen:
alias psg='ps ax | grep -v grep | grep ' 
 
# Die öffentliche IP ausgeben:
alias myip="wget -qO - http://checkip.dyndns.org | sed 's/[a-zA-Z<>/ :]//g'" 
 
# Zuletzt bearbeitete Datei in vim öffnen:
alias lvim="vim -c \"normal '0\"" 
 
# Die 10 Prozesse anzeigen, die den meisten RAM verbrauchen:
alias psram='ps aux | sort -rnk 4 | head'
 
# Zeige alle Prozesse bei ps (außer ps selbst) mit langer Ausgabe
alias ps='ps ax | grep -v "ps ax"'

Die Themen dieser Ausgabe:
Yalm

  • Vorwort
  • Linux-Support – hier ist guter Rat kostenlos
  • BitTorrent – Der Datenfluss des Internets
  • Suchen und Ersetzen mit AltSearch
  • Tipps und Tricks für die Shell (V): awk
  • MIRO – Freies Internet Fernsehen
  • Schlussbemerkungen

Die aktuelle Ausgabe von Yalm kann hier heruntergeladen werden. Herzlichen Dank an das Team für die neue Ausgabe! :daumenanim:

Ein Hinweis an alle: Auch das Yalm entsteht in der Community durch freiwillige Mitarbeit und ist kostenlos. In der jetzigen Ausgabe sucht man wieder Mitstreiter und Helfer aus verschiedenen Bereichen. Wer also Lust und etwas Freizeit hat, kann ja hier mal vorbeischauen.

Wer keine Zeit hat, das Magazin aber gerne liest, der kann ja wenigstens mal einen kleinen Leserbrief schreiben oder im Forum von Yalm mit Anregungen, Tipps und Ideen helfen. Auch ein einfaches „Dankeschön“ hilft!

Das YALM-Magazin 05/2009 ist diese Woche erschienen. Im Vorwort spricht mir Frank Brungräber aus der Seele. Obschon ich eigentlich nicht zu den Betroffenen gehöre und an keinem OpenSource-Projekt mitwirke, kenne ich die Sorgen von Frank aus anderer, vergleichbarer Warte aus:

Ein Programmierer, der seinen »Kunden« auch noch den Download und die Webseite zahlen muss, aber kaum mit Resonanz rechnen kann (wobei hier nicht nur von Geld oder aktiver Hilfe, sondern auch von einfachem Feedback die Rede ist), wird früher oder später frustriert anderen Projekten den Vorrang geben.

Von solchen Programmieren gibt es sicher eine ganze Menge da draussen. Ob sie nun alleine für sich wirken, oder in einem Team, ist in diesem Zusammenhang unwichtig. Weiter schreibt Frank:

Vielleicht sollten wir alle öfter mal darüber nachdenken, was wir der Community oder auch einzelnen Projekten zurückgeben können, damit wir nicht irgendwann auf dem Trockenen sitzen.

Dies ist wohl auch zugleich die grösste Schwäche der freien OpenSource-Welt. Projekte stehen und fallen mit dem Engagement einzelner Personen. Das ist in der Kommerz-Welt zwar nicht viel anders, aber dort finden sich eher Leute, die sich für eine Sache einsetzen möchten, wenn sie dadurch ihr Brot verdienen können.

YALMUnd just in diesem Bereich geht es im Inhalt des YALM Magazin weiter. Ein Artikel beschreibt die Möglichkeiten für die Benutzer von verschiedenen Distributionen, um an kostenlosen Support zu kommen. Aber auch das BitTorrent-Protokoll wird besprochen und die rechtliche Situation angetastet. Weiter gibt es einen Bericht zum OpenOffice Writer und dessen Suchfunktion und mannigfaltige Tipps und Tricks zur Shell. Für ganz spannend halte ich den Bericht zu Miro, eines freien Video-Player für Videocasts.

Die aktuelle Ausgabe von YALM kann hier kostenlos heruntergeladen werden. Es gibt eine PDF-Version, eine HTML-Alternative und eine Datei für mobile Geräte. Dem Projekt steht ein Forum beiseite, in dem sich die Leser melden können, um Ideen, Kommentare, Beschwerden, Kritik und Lob zu hinterlassen und darüber zu diskutieren. Wer möchte, kann sich dem freien Projekt anschliessen oder gelegentlich einen Beitrag leisten.

Ähnliche Artikel

Dieser Beitrag ist angelehnt an einen Artikel im Ubuntublog.ch, welcher über eine Software berichtet um die Geschehnisse auf einem Server/Webspace auszuwerten. Ich nutze dazu die OpenSource Software, BBClone. Dies soll aber nicht Grundstein dieses Artikels sein. Da generell eine Software wie BBClone oder Google Analytics oder Piwik immer nur die Geschehnisse des ganzen Servers auswertet, wollte ich schon länger die Statistiken für den Blog alleine haben und das am besten noch in das Dashboard eingebunden. Also machte ich mich auf die Suche nach so einem Plugin für Wordpress. Dabei bin ich auf Statpress-Reloaded gestoßen (wobei Reloaded nur die weiterentwickelte Version von Statpress selbst ist). Nach ca. einer Woche am testen konnte ich nun schon ein paar Eindrücke des Plugins sammeln.

Das Plugin fügt sich schön in die Adminseite ein, dazu erstellt es einen Button in der linken Leiste mit dem Namen Statpress. Klickt man auf diesen, öffnet sich eine Übersichtstatistik welche folgende Entwicklungen festhält:

  • den Zugriffsverlauf der letzten Tage, dabei wird unterschieden zwischen: Besuchern, Seitenzugriffe, Spiders und Feeds
  • den letzten Seitenzugriffen - hier wird angezeigt, wo der Besucher war, aus welchem Land dieser kommt und welches OS dieser benutzte
  • den letzten Suchbegriffen -hier wird angezeigt, welche Wörter von einem User über z.B Google gesucht wurden und auf den Blog weitergeleitet wurden
  • den letzten Referrer - hier wird angezeigt, von wo der Benutzer weitergeleitet wurde
  • den letzten Programmen - hier wird aufgelistet, welche Programme wie z.B. Firefox als letztes benutzt wurden
  • den letzten Spidern - hier wird aufgelistet welche Spiders zuletzt auf dem Blog waren und wo diese „gespidert” hatten.

Doch dies alleine war jetzt nur die Übersichtsliste, denn dank diesem Plugin gibt es noch

  • eine Detailseite, welche die Statistiken grafisch auswertet mit Prozentwerten
  • eine Besucherinformation, welche pro Besucher anzeigt auf welchen Seiten dieser war
  • eine Suchseite, wo man nur nach bestimmten Informationen filtern kann
  • eine Exportseite, welche eine .csv-Datei über die aktuellen Statistiken erzeugt

und noch ein paar weitere welche allerdings, nicht mehr der Auflistung würdig sind.

Alles in allem bin ich mittlerweile wirklich sehr glücklich mit dem Plugin, da es genau dies beinhaltet was ich mir ursprünglich vorgestellt hatte.

Hier z.B der Anfang der Übersichtsseite:

16. Mai 2009

Schon lange habe ich hier in meinem Blog jegliche Captchas und Moderation von Kommentaren abgeschaltet. Ich persönlich finde, dass die “Hürden” beim Schreiben eines Kommentars in einem Blog so niedrig wie möglich sein müssen, sonst lassen es mögliche Kommentatoren lieber gleich sein.

Damit nicht Tausende von Spam-Kommentaren im Blog stehen, habe ich mich bislang nur auf Akismet verlassen, was auch nach wie vor sehr gut funktioniert. Akismet filtert Spambeiträge zuverlässig raus und lässt den “Ham” ohne Interaktion meiner Seits sofort durch. Bei mehreren Tausend Kommentaren hier (Spam+Ham), wurde nur zwei echte Kommentare als Spam eingestuft und afaik nur ein Spam-Beitrag fälschlicherweise durchgelassen.

Allerdings nervt das Sichten der in den Spam-Ordner aussortierten Beiträge gewaltig. An manchen Tagen wurden hier mehr als 200 Spam-Kommentare aussortiert. Bei größeren Blogs gehen die Spam-Beiträge/Tag schnell in die Tausende… Doch seit ein paar Tagen ist Ruhe im Karton!

NoSpamNX kills the Spam Star

NoSpamNX kills the Spam Star

Was ist passiert? Durch Zufall bin ich über NoSpamNX gestolpert, es ist eine Weiterentwicklung des Plugins Yawasp, das ich von einer Zeit lang schon einmal hier angetestet hatte. Doch NoSpamNX verträgt sich nun im Gegensatz zu Yawasp mit dem Vorschau-Plugin, das ich hier einsetze. Die Funktionsweise erklärt die Homepage recht gut…

NoSpamNX fügt beim Aufruf des Kommentarformulars automatisch zusätzliche Felder (versteckt vor dem “normalen” Benutzer) hinzu, die beim Speichern eines Kommentares überprüft werden. Für einen zusätzliches Schutz wird die Reihenfolge und die Werte dieser Felder periodisch geändert, so dass sich kein Spambot auf das Formular eines Blogs anpassen kann. Aus svenkubiak.de/nospamnx

Das Plugin hat bei mir in wenigen Tagen nun mehr als 500 Spambots abgeblockt. Sollte doch mal ein Spam-Kommentar durchkommen, so muss der Beitrag immer noch Akismet überwinden. Ich kann es anderen Wordpress-Bloggern nur empfehlen, eure Kommentatoren werden es euch danken keine Captchas mehr lösen zu müssen.


Comments

Lizenziert unter CC by-sa von rillian

Lizenziert unter CC by-sa von rillian

Neulich musste ich eine Reihe von PDFs in die richtige Reihenfolge bringen und zu einer PDF-Datei zusammenfügen. Es gibt eine Reihe von Tools wie beispielsweise pdftk, doch eine graphische Oberfläche für diese Aufgabe ist doch erheblich von Vorteil. Hier kam mir PDF-Shuffler recht gelegen.

Das Programm ist noch recht neu und braucht sicherlich noch den letzten Schliff, doch die eigentliche Aufgabe erfüllt es jetzt schon sehr gut.

PDF-Shuffler

PDF-Shuffler

PDF-Shuffler ist so neu, dass es noch nicht in den Quellen der meisten Linux-Distributionen enthalten sein wird, daher muss man es von Hand installieren. Dazu holt man sich von sourceforge.net das Archiv mit dem Quellcode und speichert die Datei bspw. auf dem Desktop ab.

Danach startet man ein Terminal, entpackt das Archiv, installiert die nötigen Abhängigkeiten und erzeugt dann mit checkinstall eine .deb-Datei. So kann man später PDF-Shuffler auch wieder problemlos über die Paketverwaltung deinstallieren. Dies müsste eigentlich auf jedem Debian oder Ubuntu funktionieren.

$ cd ~/Desktop
$ tar -xzf pdfshuffler.tar.gz
$ cd pdfshuffler
$ sudo apt-get install python-poppler python-pypdf checkinstall
$ sudo checkinstall python setup.py install

Danach kann man die heruntergeladenen und erstellten Dateien löschen. Die .deb-Datei kann man sich aufheben. Das Programm kann nun über “Anwendungen -> Büro -> PDF-Shuffler” gestartet werden.

Die Bedienung ist recht simple. PDF laden und die Seiten über Drag&Drop mit der Maus in die richtige Reihenfolge bringen. Das Ergebnis kann man dann in eine neue PDF-Datei exportieren. Sollte man mehrere PDFs in PDF-Shuffler importieren wollen, so geht das sicherlich per Drag&Drop aus Nautilus am einfachsten.


Comments