ubuntuusers.de

20. März 2010

Unter Windows benutzte ich öfters ein Tool namens Joe (zu finden unter http://toolsandmore.de/Central/Produkte/Software/Datei-Tools/Joe/) mit welchem viele Dateien bequem umbenannt werden konnten. Unter Ubuntu suchte ich dann ein ähnliches Tool und wurde auch fündig. Die Alternative heißt in diesem Fall Krename und kann über den Paketmanager installiert werden. Dabei scheint Krename auch einige Funktionen zu besitzen welche Joe nicht besaß :-)

Weitere Informationen gibt es unter:
http://wiki.ubuntuusers.de/Krename

Unter Windows benutzte ich öfters ein Tool namens Joe (zu finden unter http://toolsandmore.de/Central/Produkte/Software/Datei-Tools/Joe/) mit welchem viele Dateien bequem umbenannt werden konnten. Unter Ubuntu suchte ich dann ein ähnliches Tool und wurde auch fündig. Die Alternative heißt in diesem Fall Krename und kann über den Paketmanager installiert werden. Dabei scheint Krename auch einige Funktionen zu besitzen welche Joe nicht besaß :)

Weitere Informationen gibt es unter:
http://wiki.ubuntuusers.de/Krename

19. März 2010

Ich habe so ziemlich alle Medienplayer in Ubuntu durchprobiert und bin letztlich bei Songbird hängen geblieben. Alles läuft soweit ganz gut… naja, nicht wirklich. Wenn die Medienlibrary zu groß ist, dann ist die Suchfunktion super langsam (2-20 Minuten!!!), und manchmal schmiert Songbird sogar ganz ab. Das Problem ist seit weit einem Jahr bekannt, aber eine “offizielle” Lösung ist noch nicht gefunden. Ich habe irgendwo im Netz gelesen, dass der Bug mit SQLite zusammenhänge, und dass Amarock ähnliche Probleme hat, wenn man ihn nicht mit MySQL nutzt.

Naja, lange Rede: ich hab die Suchfunktion bei mir deutlich beschleunigen können. Hierzu öffnet man in Songbird einen neuen Tab (STR + T), trägt in die Adressleiste about:config ein und sucht die Stelle songbird.dbengine.cacheSize. Hier ist standardmäßig der Wert 200 eingetragen. Ich habe diesen Wert einfach mal auf 5200 erhöht (entspricht in etwa 80MB), und seit dem geht die Suche hier innerhalb weniger Sekunden über die Bühne.

Ich habe so ziemlich alle Medienplayer in Ubuntu durchprobiert und bin letztlich bei Songbird hängen geblieben. Alles läuft soweit ganz gut… naja, nicht wirklich. Wenn die Medienlibrary zu groß ist, dann ist die Suchfunktion super langsam (2-20 Minuten!!!), und manchmal schmiert Songbird sogar ganz ab. Das Problem ist seit weit einem Jahr bekannt, aber eine “offizielle” Lösung ist noch nicht gefunden. Ich habe irgendwo im Netz gelesen, dass der Bug mit SQLite zusammenhänge, und dass Amarock ähnliche Probleme hat, wenn man ihn nicht mit MySQL nutzt.

 Laptop Display (1): Abschalten mit vbetool xset X Watt vbetool unix ubuntu strom ssh shell server rc.local planetuu open source notebook monitor linux laptop hardware green IT green energie dpms debian bios bash admin Ein Notebook kann wegen seines geringen Stromverbrauchs auch als kleiner Heimserver fungieren, der mit SSH ferngewartet wird. Wenn die Administration des Servers über Secure Shell stattfindet, dann läuft das Display des Laptops den ganzen Tag und verbraucht völlig unnötig Energie.

Doch wie kann man das Display des Laptops abschalten?

Ein erster Ansatz wäre xset. Mit …

xset dpms force off

… kann man auf der grafischen Oberfläche den Monitor abschalten. Doch zwei Haken hat die Sache: Erstens erfordert dies eine grafische Oberfläche auf dem Server und die ist auf den meisten Servern nun mal nicht vorhanden. Und zweitens schaltet sich das Display nach der nächsten Mausberührung oder dem nächsten Tastendruck wieder an (und ich kann hier nur für meinen Jaunty Jackalope sprechen).

Die Lösung für einen Server ohne X heißt vbetool. Dieses kleine Programm führt BIOS Code aus, um den Status von Hardwarekomponenten zu ändern. Bei Ubuntu und Debian lässt sich das Tool über die Paketquellen installieren:

sudo apt-get install vbetool

Greife ich nun über meine Ubuntukiste per SSH auf den Server zu, schaltet der folgende Befehl den Monitor komplett ab (doch Vorsicht: wer dies ohne Fernzugriff tut, muss damit rechnen einen kalten Neustart machen zu müssen.  [EDIT: warum eigentlich? Sich einzuloggen und den Befehl vor dem geistigen Auge einzutippen geht eigentlich auch ohne, dass man es sieht. Getestet - funktioniert ]). So, hier also der Befehl, um das Display abzuschalten:

vbetool dpms off

Nun ist Schicht im Schacht. Auch Tasteneingaben oder Mausbewegungen können das Display nun nicht mehr aus dem Schlaf reißen. Den nächsten Neustart überlebt die Einstellung allerdings nicht. Um das Display im laufenden Betrieb wieder einzuschalten, geben wir über SSH ein:

vbetool dpms on

Um das Display auch nach jedem Neustart außer Gefecht zu setzen, editieren wir die Datei /etc/rc.local (Ubuntu/Debian) und fügen den Abschaltebefehl “vbetool dpms off” einfach hier ein. Dann wird der Befehl bei jedem Wechsel in einen Multiuser-Runlevel (und dazu gehört auch der Neustart) ausgeführt.

Wieviele Watt bzw. Euro man mit dieser Methode sparen kann, werde ich in einem meiner nächsten Artikel beleuchten.

[UPDATE: Die von mir gemessene Stromersparnis betrug ca. 4 Watt, gemessen mit dem Haushaltsmessgerät von Brennenstuhl. ]

Verwandte Artikel:

Was Hardware im Standby verbraucht
Wer braucht mehr Strom: Ubuntu oder Vista?

Infos über Laptopakkus aus dem Verzeichnis /proc

11 Kommentare Permalink | © 2010 by Netz 10 | Tags: , , , , , , , , , , , , , , , , , , , , , , , , ,

Ähnliche Artikel

  1. WLAN (WPA2 mit PSK) manuell konfigurieren
  2. Strom Report (#1): Ubuntu, Suse, Vista
  3. Dateisystemlabel anzeigen und anpassen
  4. Stromverbrauch bei Laptop-Akkus

Natürlich kann man ein Nokia-Handy auch direkt mit Ubuntu synchronisieren, wenn man das möchte. Aber warum einfach, wenn es auch ein bisschen umständlicher geht: Die Synchronisation von Kontakt- und Kalenderdaten über Google. Doch es lohnt sich, besonders wenn man mehrere PCs besitzt, das Handy verliert, oder das Betriebssystem — aus welchen Gründen auch immer — neu aufsetzen muss. In solchen Fällen hat man sofort wieder alle Kontakt- und Kalenderdaten zur Hand. Wenn man sowieso schon ein Google-Konto besitzt und dort alle Kontakte und Termine gelagert hat, liegt die Entscheidung dafür mehr als nah. Den praktischen Online-Kalender kann man außerdem über das ICAL-Format wunderbar in Gnome einbinden, so dass die Einträge in Evolution und im Uhr-Applet des Gnome-Panels zu sehen sind. Voraussetzung dafür ist ein Handy mit S60-Benutzeroberfläche, zum Beispiel das Nokia E71, ein Google-Konto und ein Gnu/Linux-Betriebssystem mit Gnome-Desktop, z.B. Ubuntu.

Nokia und Google

Falls man kein Google-Konto hat, kann man es jetzt angelegen. Für das Handy benötigt man das Nokia-Tool Mail for Exchange. Dazu wählt man auf der Download-Seite sein Nokia-Modell aus und lädt sich die Software herunter. Über Bluetooth oder dem mitgelieferten USB-Kabel kann man die Datei auf das Telefon übertragen und anschließend installieren. Nun fehlen noch die Einstellungen: Dazu Mail for Exchange öffnen und “Profil bearbeiten” unter “Optionen” wählen.

Als Exchange-Server trägt man m.google.com ein. (Sollte es beim Synchronisieren zu einem Verbindungsfehler kommen, hilft es vielleicht, ein “http://” vor “m.google.com” zu setzen, aber erstmal sollte man es so probieren.) Bei Sichere Verbindung nimmt man am besten Ja, als Zugriffspunkt seinen Netzanbieter oder einfach Internet. Mit der rechten Softkey-Taste, über der verwirrenderweise Zurück steht, bestätigt man die Änderungen.

Unter Anmeldeinfo trägt man unter Benutzername die eigene vollständige Emailadresse ein, entweder xyz@gmail.com oder xyz@googlemail.com, als Kennwort das eigene Passwort bei Google und unter Domäne — tja, hier scheiden sich die Geister. Manche sagen, dass man hier nichts einzutragen braucht, oder gmail.com. Ich musste google.com eintragen, damit die Synchronisierung klappt.

Mit Zurück wieder betätigen. Bei den restlichen Einstellungen sollte man darauf achten, dass zur Zeit nur Kalender und Kontakte fehlerfrei synchronisiert werden können, Aufgaben und E-Mail dagegen nicht. Daher sollte bei Aufgaben synchron. und bei E-Mail synchronisieren jeweils Nein eingetragen sein, bei Kalender synchron. und bei Kontakte synchron. dagegen Ja.

Abschließend gleicht man den Google-Kalender mit dem Kalender auf dem Handy ab, indem man “Synchronisieren” auswählt.

Danach kann man dem Mail for Exchange bei der Arbeit zusehen, wie es — zum Beispiel — den Kalender synchronisiert.

Google und Ubuntu

Um den Kalender jetzt unter Ubuntu einzubinden, benötigt man den Link zur URL der ICAL-Datei. Die findet man heraus, indem man auf den kleinen Pfeil neben den eigenen Kalender klickt und die Kalendereinstellungen öffnet.

Danach klickt man unter Privatadresse auf das Icon von ICAL und kann aus dem Popup-Fenster die URL zum Kalender herauskopieren.

Den Kalender-Link von Google kann man am einfachsten und schnellsten über den Befehl evolution-webcal im Terminal einbinden:

/usr/lib/evolution-webcal/evolution-webcal http://www.google.com/calendar/ical/christian[...]/basic.ics

Sollte evolution-webcal nicht im Verzeichnis /usr/lib/ liegen, findet man es mit folgendem Befehl im Terminal:

whereis evolution-webcal

Abschließend kann man noch den Intervall, nach dem die Daten aktualisiert werden sollen, und die Farbe auswählen. Nachdem der Dialog geschlossen ist, erscheinen die Einträge sofort in Evolution und im Uhren-Applet des Gnome-Panels.

Um Google Contacts einzubinden, klickt man in Evolution auf Kontakte, öffnet dann mit der rechten Maustaste ein Kontext-Menü und wählt Neues Adressbuch aus.

Danach nimmt man die benötigten Einstellungen vor, in etwa so, wie sie auf dem Bildschirmfoto unten zu sehen ist:

Um die E-Mail-Vervollständigung zu nutzen, damit die E-Mail-Adresse, die man in das Empfänger-Feld einer E-Mail schreibt, automatisch vervollständigt wird und nicht mühselig abgetippt werden muss, macht man unter Bearbeiten und Einstellungen in Kontakte bei Auto-Vervollständigung ein Häkchen und wählt mit einem weiteren Häkchen das Adressbuch aus, das dazu benutzt werden soll.

Was ist mit Thunderbird?

Mit der Thunderbird-Erweiterung Lightning und dem Add-on Provider for Google Calendar funktioniert das Einbinden eines Google-Kalenders recht einfach. Man benötigt aber den Link zur XML-Datei vom Google-Kalender (der befindet sich gleich links neben dem Link zur ICAL-Adresse), die man dann als Kalender-Adresse einträgt. Dazu öffnet man unter Kalender einen Neuen Kalender. Nach dem Klick auf “Weiter” wählt man im nächsten Fenster Netzwerk aus, da der neue Kalender ja bei Google gespeichert werden soll. Im nächsten Fenster wählt man dann auch Google Calendar und fügt neben Adresse: den Link zur XML-Datei ein:

In den weiteren Fenstern bestätigt man mit dem Passwort noch den Zugriff auf das Google-Konto und wählt einen Namen für den Kalender aus. Nach Abschluss werden die Einträge sofort in Lightning angezeigt.

Mit dem Add-on Google Contacts lassen sich die Kontakte ebenfalls mit Thunderbird synchronisieren, allerdings benötigt man dazu Thunderbird ab Version 3.0, der unter Ubuntu 9.10 extra installiert werden muss. Es erkennt automatisch das eigene Google-Konto, falls es eingerichtet ist, und legt ein neues Adressbuch an.

Power Plugs
Attribution-NonCommercial License by Gone-Walkabout

Heute mal  etwas in eigener Sache. Der Artikel hat zwar (leider) nicht soviel mit Ubuntu zu tun, aber vielleicht interessiert es doch den ein oder anderen auif dem UU Planeten.Vor Ewigkeiten hatte ich mal 2 Plugins für WordPress geschrieben und ich muß sagen, daß das eine recht angenehme Sache ist – auch für Leute die sich eher selten mit Skriptsprachen rumschlagen. Die englischsprachige Doku ist sehr gut, die Methoden logisch und einfach zu implementieren. Da ich massive Probleme mit Twitter und meinem Hoster hatte (hier und auch da) entschloss ich mich mal wieder ein Plugin zu schreiben. Zu finden ist das gute Stück namens schmie_twitter im Plugin Directory. Die Funktionen beschränken sich auf ein Minimum:

  1. Auf Twitter veröffentlichen bei neuem Post
  2. Auf Twitter veröffentlichen bei Aktualisierung eines Posts
  3. Twitternachricht vorkonfigurieren. (Hallo bei %blog gibt Neuigkeiten: %Post, %url)
  4. Url kürzen (ein paar Dienste inkl. bit.ly vorhanden).

Der Clou an der Sache ist, dass man sowohl per HTTP  mit Twitter reden kann, als auch per Email (Twittermail); wenn der Hoster Twitter ausgesperrt hat. Was noch fehlt ist ein wenig i18n ansonsten wars das. Wenn  Interesse an einem Artikel über Pluginprogrammiererei besteht oder jemand etwas auf der Seele hat wegen schmie_twitter einfach einen Kommentar hinterlassen.

Update: jetzt auch schon fast mit Identi.ca Support. Super

Soeben habe ich ein paar Anpassungen in einem File einer Internetplattform vorgenommen.
Als ich die Daten dann mit VI auf der Konsole geöffnet hatte, stand an jedem Ende einer Zeile ein ^M.
Dies kommt daher, dass die Datei unter Windows geschrieben wurde und dadurch ein anderes Fileformat enthält. Dadurch bildet VI jeden Zeilenumbruch durch ein ^M ab.
Wer häufig zwischen den beiden Welten Linux und Windows unterwegs ist, der hat sicher schon oft festgestellt, dass eine unter Linux verfasste Textdatei unter Windows plötzlich keine Zeilenumbrüche mehr hat.

Zuerst habe ich versucht, dieses Überbleibsel der Windows-Welt direkt in VI selbst zu ersetzen:

1
%s/\^M//g

Dies funktionierte leider nicht, wäre ja auch zu schön gewesen.
VI sucht mit diesem Kommando nach den Zeichen ^ und M. Leider ist der Zeilenumbruch aber nur abgebildet als ^M, nicht aber auch als solches abgespeichert, wodurch VI nie etwas finden wird.

Die Lösung schlussendlich war zwar nicht ganz so komfortabel wie direkt per VI, hat aber ihren Zweck voll und ganz erfüllt:

1
perl -p -e 's/\r$//' < windowsdatei > linuxdatei

Natürlich funktioniert das ganze auch für alle Verräter der Linuxwelt (kein Flame, nur Spass) ;)

1
perl -p -e 's/\n/\r\n/' < linudatei > windowsdatei

Mir ist aufgefallen, dass mein gestriges Setup mit Dummy-Adapter und Vergabe der ersten IP-Adresse des Netzes auf das Interface dummy0 nicht die optimale Konfiguration darstellt: Hier wird das alte Setup mit separatem Router 1:1 nachgebaut, was zur Folge hat, dass die drei Adressen für Broadcast, Netz und Gateway nicht für Produktivsysteme nutzbar sind. Das beschriebene Setup ist daher nur sinnvoll, wenn ein Server in zwei Stufen von bridged auf routed umgestellt werden soll.

Beim Neuaufsetzen eines Servers ist es besser, gleich eine PointToPoint-Lösung mit 255.255.255.255-Maske aufzusetzen. Damit können bei einer 29-Bit-Maske (255.255.255.248) acht statt fünf IP-Adressen genutzt werden — satte 60% mehr (bei vier, fünf, oder sechs Bit Masken fällt der Gewinn natürlich kleiner aus). Die Änderungen gegenüber dem Setup von gestern sind, dass dummy0 in der /etc/network/interfaces der dom0 entfällt. In der /etc/xen/xend-config.sxp wird das extern erreichbare Interface eingetragen (in der Regel eth0):

(network-script 'network-route netdev=eth0')
(vif-script     'vif-route netdev=eth0')

Die Netzwerkkonfiguration der domU bekommt nun die primäre IP-Adresse der dom0 als Gateway eingetragen, dazu das Schlüsselwort pointopoint (nur ein ‘t’!) und die “dichte” Netzmaske:

auto lo
iface lo inet loopback

auto eth0
iface eth0 inet static
        address 172.16.16.114
        netmask 255.255.255.255
        gateway 192.168.1.2
        pointopoint 192.168.1.2
        post-up ethtool -K eth0 tx off

Vielen Dank an…

  • Umstellung Debian Etch mit XEN 3 auf routed …die fleissigen Dokumentatoren im Hetzner-Wiki
  • …den Admin bei 1&1, dessen Default-Setup mit pointopoint auf der primären IP mich dazu anregte, hier nochmal nachzuforschen

Ikhaya-TeamGestern Abend empfing ich die Einführung zum Ikhaya-Team auf ubuntuusers.de. Auf freundliche, humorvolle und vor allem kompetente Art und Weise durfte ich mir einen Überblick zeigen lassen, welches die Aufgaben des Ikhaya-Teams sind. Da laufen ganz spannende und zugleich lebendige Prozesse im Hintergrund ab, ausserdem steht ein recht leistungsfähiges CMS zur Verfügung. Die erfahrenen Jungs vom Team stellten mir die einzelne Schritte vor, um an der Front mitwirken zu können. Mir gefällt die lockere und humorvolle Art, wie die Menschen dort wirken, ohne dabei die Ernsthaftigkeit zu verlieren. Viele der Entscheidungen basieren auf dem demokratischen Verständnis und der gegenseitigen Hilfe und Unterstützung. Mir gefällt das! Übrigens hat das Nachrichten-Portal eine bewegte Geschichte hinter sich.

Dabei konnte ich seit Jahren wieder einmal an einem IRC teilnehmen. Die Art der Kommunikation ist nicht ganz mein Ding, das ist mir zu hektisch und zu unübersichtlich. Dafür ist praktisch jederzeit jemand da, den man etwas fragen kann. Und eine Antwort bekommt man offenbar immer, auch wenn es bloss ein gezielter, augenzwinkender Knie-Schuss ist, weil man Gnome statt KDE nutzt.

Ich freue mich auf die neue Aufgabe, die ich mit all den Ubuntu-Leuten im Team ausführen darf. Ich werde wohl am meisten davon profitieren, denn dadurch kann ich viel lernen und erfahre Neues. Ja, auch alte Säcke dürfen das Recht nutzen, zu lernen. Leider kann ich mir nicht alle Zeit der Welt nehmen, um dort mitzuwirken. Mittlerweile budgetiere ich meine Freizeit am obersten Limit und muss darauf achten, dass meine Familie und insbesondere unser Sohn nicht zu kurz kommen. Es ist eine wunderbare Zeit mit Ruben und die kann man nicht nachholen. Deswegen steht nicht nur im Zweifelsfall meine Familie auf dem Platz zwei, unmittelbar nach meinem Broterwerb. (Das Wort habe ich bei Dirk geklaut.) Und just auf dem Platz drei steht die Community. Ubuntu steht für “Menschsein in der Gemeinschaft” und das ist eine wahre Herausforderung!

Ähnliche Artikel

Beim stöbern in den Wikibooks stieß ich auf das Linux-Kompendium welches unter http://de.wikibooks.org/wiki/Linux-Kompendium zu finden ist. Neben allgemeinen Linux Themen befasst es sich mit den verschiedenen Benutzergruppen wie Systemverwalter, Netzwerker und dem normalen Benutzer.

Auch die unterschiedlichsten Themen wie z.B. der Kernel, die Programmierung oder GNOME werden behandelt. Daneben werden auch andere Dinge wie die juristischen Aspekte von freier Software beleuchtet. Es lohnt sich mal reinzuschauen ;-)

Beim stöbern in den Wikibooks stieß ich auf das Linux-Kompendium welches unter http://de.wikibooks.org/wiki/Linux-Kompendium zu finden ist. Neben allgemeinen Linux Themen befasst es sich mit den verschiedenen Benutzergruppen wie Systemverwalter, Netzwerker und dem normalen Benutzer.

Auch die unterschiedlichsten Themen wie z.B. der Kernel, die Programmierung oder GNOME werden behandelt. Daneben werden auch andere Dinge wie die juristischen Aspekte von freier Software beleuchtet. Es lohnt sich mal reinzuschauen ;)

Das Fax ist leider Gottes noch nicht obsolet. Immer wieder muss man doch ein Fax senden oder gar empfangen. Im Büro rentiert sich sicherlich ein Faxgerät, doch zuhause staubt das Ding meist vor sich hin. Auf einen PC mit analogem Modem auszuweichen ist auch nicht gerade eine ideale Lösung, da viele moderne USB-Modems nur noch kastrierte Win-Modems sind, die nur mit speziellen Treibern funktionieren. Und natürlich müsste der PC rund um die Uhr laufen, um ein “unerwartete” Faxe empfangen zu können.

Daher möchte ich mich persönlich gar nicht erst mit Faxgeräten und Modems herumschlagen. Ich möchte Faxe senden und empfangen, ohne dass ich ein zusätzliches Gerät brauche, und wenn möglich soll das ohne laufende Kosten klappen. Geht das? Yep, es geht…

Faxe empfangen

Erstmal der Punkt “wie empfange ich ein Fax ohne ein Faxgerät zu besitzen”. Im Netz tummeln sich zahlreiche Anbieter. Viele davon sind seriös, kosten aber monatlich/jährlich Geld. Andere schreiben etwas von wegen kostenlos auf ihre Page, verlangen später dann doch wieder Geld. Ich glaube auf dem Gebiet “Faxempfang” tummeln sich genauso viele schwarze Schafe wie bei Hausaufgaben-Foren…

Seriös und kostenlos ist der Dienst Arcor PIA basic. Neben 1,5GB Platz für Email oder 50MB Webstorage, ist im kostenlosen Tarif von Arcor auch der Empfang über eine normale Festnetzrufnummer möglich. Man muss kein Arcor-DSL-Kunde (Jetzt ja Vodafon) sein, um an einen PIA Account zu kommen. Unter arcor.de kann sich jeder registrieren. Die Möglichkeit Faxe zu empfangen findet man dann unter dem Menüpunkt “Unified Messaging”.

Arcor Unified Messaging

Ein empfangenes Fax landet automatisch im Email-Postfach von Arcor. Leitet man die Arcor-Emails an seine “normale” Email-Adresse weiter, dann muss man das Ganze nur einmal einrichten, und kann sich danach entspannt zurücklehnen.

Faxe senden

Das Thema Faxe senden ist ein bisschen komplizierter. Zuverlässige kostenlose Dienste gibt es in meinen Augen nicht. Ausserdem muss Geiz nicht immer geil sein. Solange ich keine laufenden Kosten habe, darf ein Fax mich ruhig auch ein bisschen was kosten.

dus.net

Ich persönlich habe gute Erfahrungen mit dem VoIP-Anbieter dus.net gemacht. Die Tarife DUStel 60 und DUStel Starter kosten weder Einrichtungsgebühren, noch monatliche Gebühren. Sie unterscheiden sich nur durch die Taktung und den Preis/Minute. Für das Senden von Faxen ist der Tarif jedoch egal, sucht euch einen aus.

Der Fax-Versand erfolgt über das Webfrontend von dus.net. Man braucht nur das zu faxende Dokument im PDF-Format (Mit GNOME kann man ja aus jedem Programm heraus in eine PDF-Datei drucken) auswählen, die Fax-Nummer des Empfängers eingeben und dann das Fax absenden. Eine Seite kostet an eine deutsche Festnetznummer 18ct.

Das Webfrontend von dus.net

Über dus.net könnte man auch Faxe empfangen, doch dafür ist die Einrichtung einer Telefonnummer nötig. Dies kostet eine Einrichtungsgebühr (Aktuell: 9,90€), sowie eine jährliche Pauschale (Aktuell: 4,90€). Der Vorteil gegenüber Arcor ist, dass man sich eine “richtige” Nummer aus dem eigenen Ortsnetz zuweisen lassen kann.

PamFax

Eine komfortable Alternative zu dus.net wäre bspw. PamFax. Der Anbieter mit Sitz in Deutschland bietet ebenfalls die Möglichkeit Faxe zu Senden sowie zu Emfpangen. Der Versand eines Faxes an eine deutsche Festnetznummer ist mit 9 Cent/Seite deutlich billiger als dus.net

PamFax belässt es nicht nur bei einem Webfrontend. Neben dem Webupload gibt es auch eine Anwendung, über die man sehr bequem Faxe verschicken kann. Seit Anfang März 2010 gibt es diese auch für Linux, wobei PamFax vorbildlich Pakete für zahlreiche Distributionen (Debian, Ubuntu, Fedora, OpenSuse,…) anbietet.

Pamfax unter Ubuntu

(Kleine Anmerkung am Rande: PamFax ist eigentlich kein Programm im klassischen Sinne. Die Anwendung stellt nur mittels XULRunner eine angepasste Webseite in einem abgespecktem Browser da.)

Ihr könnt PamFax für Linux von hier herunterladen. Unter Ubuntu habt Ihr es mit einem Doppelklick auf das .deb-Paket installiert. Optional könnt Ihr noch das Paket python-skype installieren…

$ sudo apt-get install python-skype

…Pamfax kann dadurch die Skype-API ansprechen und Statusmeldungen von Pamfax via Skype senden bzw. empfangen. Nötig ist das jedoch nicht. Nach der Installation des Paketes könnt Ihr Pamfax über “Anwendungen -> Internet -> PamFax senden” starten. Das Senden von Faxen klappt so recht leicht und schnell. Das Empfangen und die sonstigen “Komfort-Funktionen” habe ich nicht probiert. Die Kosten für ein Fax könnt ihr unter pamfax.biz/de/kosten nachlesen.

Vor einem Fallstrick möchte ich bei PamFax jedoch warnen. Vorbezahltes Guthaben – wobei man mindestens 5 Euro einzahlen muss – verfällt nach nur 180 Tagen! Diese Information ist gut versteckt in der englischen Kowledgebase zu finden. Zwar erstattet PamFax auf Anfrage verfallenes Guthaben und man kann den Verfall des Guthabens durch ein Fax an eine ungültige Nummer verhindern.

Das Webfrontend von PamFax

in meinen Augen ist dies leider ein extrem kundenunfreundliches Vorgehen. Ich bräuchte den Dienst nur gelegentlich, muss aber mindestens fünf Euro hochladen und muss dann immer dran denken ein “Mich gibts noch Fax” zu verschicken. Schade eigentlich, denn durch die PamFax-Applikation ist es wirklich bequem den Dienst zu nutzen. Somit ist PamFax eher etwas für Leute die öfters ein Fax verschicken möchten. Bei dem zuvor genannten Dienstleister dus.net kann man sein Guthaben über eine Überweisung in beliebiger Höhe ohne Gebühren aufladen und es verfällt nicht.

18. März 2010

Die 1. Beta von Ubuntu 10.04 verspätet sich um einen Tag

Wie heute von Steve Langasek aus dem Ubuntu Release-Team verkündet, verspätet sich die 1. Beta von Ubuntu 10.04 aus technischen Gründen um einen Tag. Somit wird sie nicht am  Donnerstag den 18.03.2010 sondern am Freitag den 19.03.2010 veröffentlicht werden.

Dear developers,

Owing to some late image rebuilds for a couple of critical issues that we
didn't want to leave our beta users subjected to, validation of 10.04 Beta 1
is still in progress.  This means that Beta 1 will not be released on
Thursday, March 18 as planned; it will be released tomorrow, March 19.

To help us release the beta with confidence tomorrow, please consider
participating in the ISO testing today, as described at
<https://wiki.ubuntu.com/Testing/ISO>.

Also, as you're going through ISO tests, please also help us fill in the
blanks on <https://wiki.ubuntu.com/Testing/Plymouth> so we can complete our
understanding of the remaining boot-time issues affecting Beta 1 and make
Beta 2 truly spectacular!

Thanks,
--
Steve Langasek
On behalf of the Ubuntu release team

    Mozilla möchte mit Firefox natürlich weiterhin so erfolgreich bleiben und den Vorsprung gegenüber anderen Browsern weiter ausbauen. Um dieses Ziel zu erreichen, muss das Internetzugriffsprogramm natürlich weiter verbessert werden, sowohl in der Technik als auch in der Benutzerfreundlichkeit. Die Technik erlernen die Entwickler von anderen Experten, die Nutzungsgewohnheiten der Benutzer müssen jedoch erforscht werden.

    Um letzteres zu tun, wurde im Februar ein Test durchgeführt. Mit den Ergebnissen des Testpilotenteams erhofft sich Mozilla herauszufinden, wie bestimmte Button im Fenster besser platziert werden können.

    Etliche tausende Benutzer waren an diesem Test beteiligt, so dass die Entwickler Blake Cutler und Christoper Jung genügend Arbeit hatten, die Testergebnisse auszuwerten. In den Dateien erhofften sie sich, Anworten auf die folgenden drei Fragen zu finden:

    • Welcher Menüeintrag wird am häufigsten verwendet?
    • Welcher Menüeintrag wird am seltensten verwendet?
    • Wie viel Zeit verbringen Benutzer damit, bestimmte Funktionen in den Menüs zu suchen?

    Die Auswertung der Daten ist nun abgeschlossen und das Team hat die Ergebnisse veröffentlicht. Dabei kam heraus: Der „Tab schließen“ Menüeintrag ist der am häufigsten verwendete im Browser. Nach ihm kommen „neuer Tab“, „zurück“ sowie die Lesezeichen. Schlusslicht ist die Funktion „Character Encoding/UTF-16“.

    Ebenfalls nicht ganz uninteressant finde ich die Analyse, wenn man die Tastenkürzel aus der Statistik herausnimmt. Dadurch gibt es nämlich einige Verschiebungen in der Top 10 der am häufigsten verwendeten Funktionen. Dadurch wird der Spitzenreiter beispielsweise auf Platz 10 verweisen, während die Lesezeichen und „kopieren“ auf die höchsten Plätze springen.

    Ein drittes Diagramm veranschaulicht die Benutzung der Funktionen, wenn man diese in Gruppen teilt. In mehreren Tortendiagrammen werden die Bearbeitungsfunktionen, Lesezeichenfunktionen usw. in einzelne Teilbereiche aufgeschlüsselt.

    Wem diese Aufbereitung der Ergebnisse nicht gefällt, dem steht es frei sich selbst ein Bild zu machen. Mozilla stellt die Rohdaten genau aus diesem Grund frei zum Download bereit und gibt zusätzlich eine Anleitung, wie man diese Daten auswerten kann.

    Ich persönlich erkenne mich in der Statistik ehrlich gesagt nur bedingt wieder. Zwar sind die aufgelisteten Funktionen auch meine persönliche Top 10 (rein vom Gefühl her), allerdings stimmt die Reihenfolge bei der nach Mausklicks sortierten Tabelle nicht mehr mit mir überein. Momentan schließe ich die Tabs hauptsächlich mit einem Mausradklick auf den Tab.

    Es ist leider schon eine etwas längere Zeit her, dass ich Module für Apache nachinstallierte. Ich wusste nur mehr die Variante das in dem conf-File die LoadModule Zeile auskommentiert werden muss. Doch was macht man wenn diese Zeile gar nicht in der Config steht? Richtig, dann braucht man nen anderen Plan. ;)

    Ich hatte nun ewig gesucht da ich dachte, dass man bei einem Server unter Plesk eventuell etwas anders machen müsste. Doch dem ist gar nicht so. Ich musste den Mod “expires” und “headers” noch nachinstallieren dies geht wie folgt:

    • mit SSH auf den Server verbinden
    • sudo a2enmod headers
    • sudo a2enmod expires
    • Apache unter Plesk neustarten

    Schon sind die Module da. Hätte echt nicht gedacht, dass dies auch mit einem Server unter Plesk so ohne weiteres möglich ist.

    Bislang laufen alle unsere Dom0s entweder auf Ubuntu 8.04 oder openSUSE 11.1 oder 11.2. Für einen neuen alten Server wollte ich Ubuntu 9.10 als Basis nehmen, auch um im Mai leichter auf 10.04 wechseln zu können. Bei Ubuntu ist die Xen-Situation nicht besonders rosig: Laut halboffizieller Doku steht weder ein aktueller Xen, noch ein brauchbarer Kernel bereit. Immerhin ein Xend (der Verwaltungsdaemon) in Version 3.3. Erfahrungen seit 3.2 haben gezeigt, dass sich die Schnittstellen kaum noch ändern, so dass der 3.3er Daemon mit dem 3.4er Xen zusammen arbeiten sollte. Denkste.

    Ziel waren zwei Server: Ein 64-Bit-System fürs Büro und ein 32-Bit-System für einen alten (AMD Athlon XP 2000, 512MB, 80GB) Hetzner Rootie (Presse-Testsystem). Beide Systeme wurden zunächst mit einem Ubuntu Minimalsystem ausgestattet. Bei Hetzner geschah dies aus dem Notfall-System per debootstrap (fertige OS-Images werden nur einmal am Tag aufgespielt, was stört, wenn man nach einer abgeschossenen Installation neu aufsetzen möchte) und der Server zuhause wurde per Debian-Installer per PXE-Netboot eingerichtet. Die zwei Möglichkeiten, einen Hetzner-Server mit Ubuntu oder Debian auszustatten — debootstrap und den Debian-Installer im SSH-Modus — erkläre ich bei Gelegenheit im Detail.

    Benötigte Pakete

    Mit dem folgenden Befehl sollten alle Abhängigkeiten aufgelöst werden, die zum Bau von Xen und dem Betrieb einer Dom0 benötigt werden:

    apt-get install rsync screen build-essential bin86 bcc libssl-dev \
          gettext libncurses-dev python python-dev pciutils-dev libx11-dev \
          pkg-config python-twisted bridge-utils gawk

    Unter 32 Bit-Systemen sollte man aus Performance-Gründen noch die angepasste C-Bibliothek installieren:

    apt-get install libc6-xen

    Kernel kompilieren

    Ubuntu selbst bietet einen Kernel für Amazons EC2, der sollte einigermaßen gut auf aktuellen Xen-Versionen laufen. Getestet habe ich es nicht. Stattdessen habe ich selbst drei Kernel kompiliert: Einen für AMD64 mit vollem Dom0-Support und vielen Treibern, einen mit stark abgespeckten Treibern (für 64Bit-DomUs) und einen i686-Kernel mit vollem Dom0-Support und der Möglichkeit, auf älteren Xen-Versionen gestartet zu werden. Die für Xen benötigten Frontend- sowie Backend-Treiber habe ich statisch integriert, was den Vorteil hat, dass an der Konfiguration des Initramfs nichts geändert werden muss. Alle Konfigurationen bieten Verbesserungspotential, beispielsweise beim Abspecken um nicht benötigte Treiber. Hier sei allerdings darauf verwiesen, dass das Entfernen vermeintlich nicht benötigter Funktionen Unresolved Symbols und damit Kompilationsabbrüche zur Folge haben kann.

    Als Kernel kommt hier Gentoos 2.6.31.12 — konkret das Patchset xen-patches-2.6.31-12.tar.bz2 — zum Einsatz. Die verwendeten Patches stammen größtenteils von openSUSEs Xen-Kernel, wurden aber von SuSE-Spezifika befreit. Das macht das Bauen und die Installation einfacher. Gepflegt werden die Patches als eigenes Projekt bei Google Code.

    Meine Konfigurationsdateien:

    Und nun zum Bauen des Kernels, hier für AMD64:

    mkdir xen-patches-2.6.31-12
    cd xen-patches-2.6.31-12
    tar xvjf ../xen-patches-2.6.31-12.tar.bz2
    cd ../linux-2.6.31
    for i in ../xen-patches-2.6.31-12/*.patch1 ; do patch -p1 < $i ; done
    wget -O .config http://cdprojekte.mattiasschlenker.de/Public/Xen-Kernel/config-2.6.31.12-mfs001-xen0-amd64
    make oldconfig
    make
    make install
    make modules_install

    Der Kernel braucht noch ein passendes Initramfs, dieses entsteht mit:

    mkinitramfs -o /boot/initrd.img-2.6.31.12-mfs001-xen0-amd64 2.6.31.12-mfs001-xen0-amd64

    Falls Sie Xen Frontend- oder Backend-Treiber in Module ausgelagert haben, müssen Sie ggf. die Modulliste des Initramfs anpassen!

    Xen Hypervisor installieren

    Ohne Xen nützt der schönste Kernel nichts, also bauen und installieren wir Xen 3.4.2 aus dem offiziellen Tarball von www.xen.org:

    tar xvzf xen-3.4.2.tar.gz
    cd xen-3.4.2
    make xen
    make install-xen

    Bootloader konfigurieren

    Der einfachste Weg ist die Erstellung eines simplen Scriptes /etc/grub.d/50_xen, welches hart kodiert Kernelnamen, Xen-Version und Pfade (Root-Device ist hier /dev/sda4) enthält. Zweimal root=... ist kein Tippfehler, sondern als Workaround für einen kleinen Bug in den Scripten des Initramfs gedacht:

    #!/bin/sh
    exec tail -n +3 $0
    # This file provides an easy way to add custom menu entries.  Simply type the
    # menu entries you want to add after this comment.  Be careful not to change
    # the 'exec tail' line above.
    
    menuentry "Ubuntu 9.10 - Xen 3.4.2 + Linux 2.6.31" {
            insmod ext2
            set root=(hd0,4)
            multiboot /boot/xen-3.4.2.gz
            module /boot/vmlinuz-2.6.31.12-mfs001-xen0-amd64 root=/dev/sda4 ro root=/dev/sda4
            module /boot/initrd.img-2.6.31.12-mfs001-xen0-amd64
    }

    Das Script muss nun noch ausführbar gesetzt werden, sonst wird der neue Eintrag nicht in die GRUB-Konfiguration übernommen!

    chmod a+x /etc/grub.d/50_xen

    In der Datei /etc/default/grub sollten Sie den Standard-Booteintrag auf den neuen Kernel setzen:

    GRUB_DEFAULT="Ubuntu 9.10 - Xen 3.4.2 + Linux 2.6.31"

    Danach rufen Sie update-grub auf um die Bootloader-Konfiguration neu aufzubauen. Rebooten Sie jetzt den Rechner mit Xen und dem neuen Kernel.

    Installation der Xen-Tools

    Die Xen-Tools habe ich in einem frisch entpackten Xen-Tarball kompiliert. Die bei der Installation angegebene Variable ist wichtig, damit die Python-Module in den bei Ubuntu üblichen Pfaden landen. Gibt man diese Variable nicht an, ist es ggf. erforderlich eine Umgebunsvariable PYTHONPATH zu setzen und diese ggf. in das Script /etc/init.d/xend einzubauen:

    rm -rf xen-3.4.2
    tar xvzf xen-3.4.2.tar.gz
    cd xen-3.4.2
    make tools
    make install-tools PYTHON_PREFIX_ARG=

    Wenn alles geklappt hat, lässt sich der Xend starten. Läuft dieser, können die Bootmeldungen des Hypervisors ausgelesen werden.

    /etc/init.d/xend start
    xm dmesg

    Xend in den Runleveln verlinken

    Ich habe Xend vor dem SSH-Server verlinkt, den Start der domU-Instanzen danach. Grund waren Probleme mit dem SSH-Server: Upstart (oder der Xend?) versucht diesen neu zu starten, wenn neue Interfaces auftauchen. Das gelingt nicht immer, so dass ich während meiner Tests häufiger ohne SSH da stand. Auf einem Root-Server ist so etwas natürlich ganz bescheiden.

    update-rc.d xend start 14 2 3 4 5 . stop 80 0 1 6 .
    update-rc.d xendomains start 21 2 3 4 5 . stop 79 0 1 6 .

    Vorbereitung für Routing-Setup

    Achtung: Siehe auch den Nachtrag vom 19. März für ein besseres Setup!

    Provider wie Hetzner oder Strato routen einem Server zugewiesene Subnetze auf dessen primäre IP-Adresse. Deshalb muss bei diesen Servern das Xen-Netzwerk von bridged auf routed umgestellt werden. Achtung: Einige Provider klemmen Server gnadenlos ab, wenn hinter einem Port des Routers bislang unbekannte MAC-Adressen auftauchen. Wer den Xend bei so einem Provider startet, ohne vorher auf routed umgestellt zu haben, fliegt aus der SSH-Verbindung raus und darf mit dem Support telefonieren!

    Zuerst wird die Datei /etc/modules um eine Zeile

    dummy

    für den Dummy-Netzwerk-Adapter erweitert.

    Es folgt die statische Konfiguration der primären IP-Adresse auf eth0 und der ersten nutzbaren IP-Adresse auf dummy. In diesem Fall haben wir das Subnetz 172.16.16.112/ 255.255.255.248 (acht Adressen von .112 bis .119) zugewiesen bekommen, .112 ist hier die Adresse des Netzes, .113 wird auf dummy0 gelegt, .114 bis .118 (fünf von acht Adressen) sind für die domUs nutzbar und .119 ist die Broadcast-Adresse:

    auto lo
    iface lo inet loopback
    
    auto eth0
    iface eth0 inet static
            address 192.168.1.2
            netmask 255.255.255.0
            gateway 192.168.1.1
    
    auto dummy0
    iface dummy0 inet static
            address 172.16.16.113
            netmask 255.255.255.248

    In der Konfigurationsdatei /etc/xen/xend-config.sxp des Xend muss die Einstellung von bridged auf routed umgestellt werden. Das zu routende Device muss explizit angegeben werden:

    # (network-script network-bridge)
    # (vif-script     vif-bridge)
    (network-script 'network-route netdev=dummy0')
    (vif-script     'vif-route netdev=dummy0')

    An dieser Stelle ist ein Neustart des Xend, besser ein Reboot erforderlich. Anschließend können die domUs konfiguriert werden. Die Routing-Informationen werden hierfür in der Client-Config eingetragen:

    kernel = "/boot/vmlinuz-2.6.31.12-mfs006-xenU-minimal-amd64"
    ramdisk = "/boot/initrd.img-2.6.31.12-mfs006-xenU-minimal-amd64"
    memory = 256
    name = "ubuntu-amd64-minimal"
    vif = [ 'ip=172.16.16.114' , 'mac=00:16:00:00:00:27' ]
    disk = [ 'file:/usr/local/xendomains/test01_64/sda1.img,sda1,w' ]
    root = "/dev/sda1 ro"
    extras = "console=hvc0 xencons=tty"

    Daneben ist es erforderlich, die IP-Konfiguration in der /etc/network/interfaces der domU einzutragen -- DHCP möchte ich an dieser Stelle nicht erklären, das würde den Rahmen sprengen.

    Vielen Dank an...

    Anmerkungen:

    • Nie erst Ubuntus Xen-Tools 3.3 installieren und dann diese Anleitung durchführen. Das resultierende Versionsmischmasch wird garantiert kein funktionierendes Netzwerk zur Folge haben!

    • Details zur domU-Konfiguration bei Hetzner folgen

    • Details zur Ubuntu-/Debian-Installation aus Hetzners Rettungssystem folgen

    Wer einen gängigen DSL-Anschluss hat, dem wird in der Regel bei jeder Einwahl eine neue IP-Adresse dynamisch zugewiesen.

    Für manche Shellskripte ist es jedoch erforderlich, die eigene (öffentliche) IP als Variable zu verarbeiten. Bei der Recherche nach einem „Mini-Script“ bzw. Einzeiler stößt man über Suchmaschinen auf viele Lösungen, die leider nicht (mehr) funktionieren, weil hier oft HTML-Seiten diverser Anbieter mit grep oder sed gefiltert werden, diese Seiten jedoch dann und wann ihren Aufbau ändern. Folgende drei Lösungen haben auf meinem Ubuntu Jaunty Jackalope das erwünschte Resultat gebracht, nämlich als Ausgabe nur die IP auszuspucken:

    curl -s http://checkip.dyndns.org/ | grep -o "[[:digit:].]\+"
    # ODER
    curl "http://www.networksecuritytoolkit.org/nst/cgi-bin/ip.cgi"
    # ODER
    w3m -dump http://www.monip.org/ | awk -F': ' '/IP/ { print $2 }'

    Beispiel, um die öffentliche IP in eine Variable zu schreiben:

    PUBIP=`w3m -dump http://www.monip.org/ | awk -F': ' '/IP/ { print $2 }'`
    echo $PUBIP
    229.138.25.77

    Klar muss man sich hier auf die Korrektheit der Angaben eines externen Services verlassen. Wer eine elegantere Lösung kennt, der möge sie bitte hier mit uns teilen.

    Kürzlich erschienener Artikel: Das Klopapier für Linux-Hasser!

    Flattr this


    Als Blogger, Linux User und Mitglied der Piratenpartei hat man es nicht leicht. Hunderte von Blogs und Protokollen wollen jeden Tag gelesen werden, Twitter muss verfolgt werden und gleichzeitig werden einem ständig empfehlenswerte Links per Mail und Jabber zugespielt.

    Gestern habe ich in meinem Blogpost Überblick behalten mit Read It Later über meinen Ansatz, dieser Informationsflut Herr zu werden, berichtet und meinen derzeitigen Workflow vorgestellt.

    Heute interessiert mich, wie ihr die Informationen in den Griff bekommt. Welche Tools benutzt ihr und könnt ihr empfehlen? Welche Methoden habt ihr etabliert um eure Informationen zu filter, zu sortieren, zu archivieren? Oder seht ihr darin einen unnötigen Aufwand und vermeidet diese “Web 2.0 Quellen”?

    Hinterlasst euer Feedback in den Kommentaren oder per Trackback aus euren Blogs. Ich bin gespannt :)

    Ähnliche Posts:

    1. Sind ständige kommunale Arbeitsgruppen ein Irrweg?
    2. So long and thanks for all the fish
    3. Feiertage 2010 für ITler

    17. März 2010

    … und es gibt Tage, an denen die anderen gewinnen.

    Chronik des Tages:

    07:03 Uhr

    Aufgewacht. Eine halbe Stunde zu spät. Ich bin zu müde und zu faul, mich zu hetzen um den Bus eine Viertelstunde später zu erreichen. Was auch nicht nötig ist, da mein offizieller Arbeitsbeginn 09:00 Uhr ist.

    07:20 Uhr

    Festgestellt, dass der Server nach Kernelupdates verlangt. Sie zu installieren war ein großer Fehler. Das WLAN des “Servers” funktioniert nicht mehr. Panik.

    Mehrfaches rebooten nach Änderungen an der /etc/network/interfaces und dem flüchtigen Versuch den Treiber neu zu installieren hilft nichts. Klemme das Kabel vom normalen Rechner ab und an den Server.

    Stelle die IP-Adressen von beiden Interfaces auf die gleiche IP und fahre das WLAN mit ifdown ra0 herunter. Es läuft, aber meine Freundin wird sich nicht freuen, wenn Sie später nicht ins Netz kommt.

    08:20 Uhr

    Sitze im Bus. Mache den MP3-Player an.

    08:21 Uhr

    MP3-Player hört auf Musik wiederzugeben – er hat sich aufgehängt. Ich habe natürlich keine Büroklammer mit, mit der ich den Reset-Knopf drücken könnte.

    09:10 Uhr

    Fahre per SSH das ra0-Interface hoch. Mit immer noch der gleichen IP wie bei eth0. Sehe im IRC wie sich mein Rechner nach ein paar Minuten mit einem Ping timeout verabschiedet. Dummer Fehler.

    ***

    Scheisstag, ist da glaube ich eine wirklich zutreffende Beschreibung.

    21:29 Uhr

    Der Server läuft wieder. Nach etwas Arbeit und einer diesmal fachmännisch durchgeführten Installation mit checkinstall und einer etwas mühseligen Entfernung eines alten rt2860-Treibers… Ach ja, ich habe dann meine Config auch mal von WPA auf WPA2 umgestellt…

    Nachdem ich neulich schon Apt-linker vorgestellt habe, entdeckte ich heute bei Web Up8 zwei weitere interessante Firefox-Erweiterungen zum Thema Linux-Shell: TerminalRun und FoxRunner. Letztere ist derzeit noch im experimentellen Stadium und meiner Meinung nach noch nicht ganz ausgereift.Ich habe mal ein kleines Filmchen gedreht, welches die Funktionen von TerminalRun demonstriert:

    [Das Video ist im Feed oder Planeten möglicherweise nicht sichtbar]

    Mit TerminalRun lassen sich also beliebige Kommandos aus Firefox heraus mit einem Rechtsklick starten (“Run in terminal”) und ggf. zuvor bearbeiten (“Edit script”). Apt-Befehle werden direkt mit apturl geöffnet und möglicherweise gefährlichen Befehlen werden nicht direkt ausgeführt, sondern müssen zuvor extra bestätigt werden.

    Ein, wie ich finde, recht praktisches Add-on für den Feuerfuchs. Wer das Terminal aber ohnehin ständig geöffnet hat, dürfte mit der Kombination “Markieren -> Einfügen mit Klick auf das Mausrad im Terminal” aber immer noch schneller sein.


    Comments

    Ich habe gerade einen Schwung von etwa 20 meiner Artikel aus den Jahren 2006 bis 2008 hochgeladen. Alle stammen aus den Zeitschriften PC!Linux und linuxlife des WEKA-Verlages, der unter www.magnus.de residiert. linuxlife wurde Mitte 2009 auf Eis gelegt und ist derzeit auch im Weka-Onlineshop nicht nachzubestellen. Wahrscheinlich wird die Serie jedoch mit leicht verändertem Konzept bald fortgesetzt — ich wünsche es mir jedenfalls, denn das Team war nett, die Leserschaft kommunikativ und das Heft durfte Themen aller Schwierigkeitsgrade abbilden.

    Wie dem auch sei: Die hochgeladenen Artikel findet Ihr unter cdprojekte.mattiasschlenker.de/Public/Artikel/, ich erspare es mir, jeden Artikel einzeln zu verlinken. Naturgemäß sind zwei bis vier Jahre alte Artikel nicht gerade die aktuellsten. Alles mit Workshop-Charakter ist daher sehr vorsichtig zu behandeln. Immerhin sind einige “zeitlose” Artikel dabei, wie die 64Bit-Einführung (PDF) (wer Flash-Probleme hat, wird einen 32Bit-Chroot zu schätzen wissen) oder die Einführung in Cygwin incl. X11 (PDF) sowie die beiden Artikel zum Thema PXE- und TFTP-Boot (PDF) oder zur freien Suchmaschine Yacy (PDF). Einige andere Artikel bspw. zum ersten EeePC spiegeln eher den Zeitgeist wider und lesen sich schon nach gut zwei Jahren wie Erinnerungen aus einer längst vergangenen Zeit…

    Daneben hat Magnus.de selbst einige meiner Artikel online gestellt, ganz aktuell beispielsweise zu Grub 2 als Universalbootloader auf Linux- und Windows-Systemen (HTML) (trägt als Zeitstempel der Einstellung den 30. März 2010 :-) ) oder dessen Vorgänger auf Basis von Grub 0.97 (HTML).

    Manchmal ist es interessant zu wissen, was eine CPU wirklich kann. Kann meine CPU 64bit? Kann sie Virtualisierung?

    Unter Linux bekommt man die Informationen mit Hilfe von

    [root@hanswurst ~]# cat /proc/cpuinfo
    processor       : 0
    vendor_id       : GenuineIntel
    cpu family      : 6
    model           : 23
    model name      : Intel(R) Core(TM)2 Quad CPU    Q9550  @ 2.83GHz
    stepping        : 10
    cpu MHz         : 1998.000
    cache size      : 6144 KB
    physical id     : 0
    siblings        : 4
    core id         : 0
    cpu cores       : 4
    fdiv_bug        : no
    hlt_bug         : no
    f00f_bug        : no
    coma_bug        : no
    fpu             : yes
    fpu_exception   : yes
    cpuid level     : 13
    wp              : yes
    flags           : fpu vme de pse tsc msr pae mce cx8 apic mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe nx lm constant_tsc pni monitor ds_cpl vmx smx est tm2 cx16 xtpr lahf_lm
    bogomips        : 5670.45

    Interessant dabei ist der Eintrag “flags”. Beispielsweise bedeutet “lm” 64bit (Long Mode) – ist ja auch quasi direkt ersichtlich ;-) – “ht” -> Hyper Threading oder “vmx” ist die Virtualisierung.

    Aber was bedeuten all die anderen flags ?

    (sorry, das ganze Ding wollte ich nicht übersetzen)

    flag meaning
    3DNOW A multimedia extension created by AMD for its processors, based on / almost equivalent to Intel’s MMX extensions
    3DNOWEXT 3DNOW Extended. Also known as AMD’s 3DNow!Enhanced 3DNow!Extensions
    APIC Advanced Programmable Interrupt Controller
    CLFSH/CLFlush Cache Line Flush
    CMOV Conditional Move/Compare Instruction
    CMP_Legacy Register showing the CPU is not Hyper-Threading capable
    Constant_TSC on Intel P-4s, the TSC runs with constant frequency independent of cpu frequency when EST is used
    CR8Legacy ?
    CX8 CMPXCHG8B Instruction. (Compare and exchange 8 bytes. Also known as F00F, which is an abbreviation of the hexadecimal encoding of an instruction that exhibits a design flaw in the majority of older Intel Pentium CPU).
    CX16 CMPXCHG16B Instruction. (CMPXCHG16B allows for atomic operations on 128-bit double quadword (or oword) data types. This is useful for high resolution counters that could be updated by multiple processors (or cores). Without CMPXCHG16B the only way to perform such an operation is by using a critical section.)
    DE Debugging Extensions
    DS Debug Store
    DS_CPL CPL qualified Debug Store (whatever CPL might mean in this context)
    DTS Could mean Debug Trace Store or Digital Thermal Sensor, depending on source
    EIST/EST Enhanced Intel SpeedsTep
    FXSR FXSAVE/FXRSTOR. (The FXSAVE instruction writes the current state of the x87 FPU, MMX technology, Streaming SIMD Extensions, and Streaming SIMD Extensions 2 data, control, and status registers to the destination operand. The destination is a 512-byte memory location. FXRSTOR will restore the state saves).
    FXSR_OPT -unknown-
    HT Hyper-Transport. Note that the same abbreviation might is also used to indicate Hyper Threading (see below)
    HTT/HT Hyper-Threading. An Intel technology that allows quasi-parallel execution of different instructions on a single core. The single core is seen by applications as if it were two (or potentially more) cores. However, two true CPU cores are almost always faster than a single core with HyperThreading. This flag indicates support in the CPU when checking the flags in /proc/cpuinfo on Linux systems.
    HVM Hardware support for virtual machines (Xen abbreviation for AMD SVM / Intel VMX)
    LAHF_LM Load Flags into AH Register, Long Mode.
    LM Long Mode. (64bit Extensions, AMD’s AMD64 or Intel’s EM64T).
    MCA Machine Check Architecture
    MCE Machine Check Exception
    MMX It is rumoured to stand for MultiMedia eXtension or Multiple Math or Matrix Math eXtension, but officially it is a meaningless acronym trademarked by Intel
    MMXEXT MMX Extensions – an enhanced set of instructions compared to MMX
    MON/MONITOR CPU Monitor
    MSR RDMSR and WRMSR Support
    MTRR Memory Type Range Register
    NX No eXecute, a flag that can be set on memory pages to disable execution of code in these pages
    PAE Physical Address Extensions. PAE is the added ability of the IA32 processor to address more than 4 GB of physical memory using Intel’s 36bit page addresses instead of the standard 32bit page addresses to access a total of 64GB of RAM. Also supported by many AMD chips
    PAT Page Attribute Table
    PBE Pending Break Encoding
    PGE PTE Global Bit
    PNI Prescott New Instruction. This was the codename for SSE3 before it was released on the Intel Prescott processor (which was later added to the Pentium 4 family name).
    PSE Page Size Extensions. (See PSE36)
    PSE36 Page Size Extensions 36. IA-32 supports two methods to access memory above 4 GB (32 bits), PSE and PAE. PSE is the older and far less used version. For more information, take a look at [1].
    SEP SYSENTER and SYSEXIT
    SS Self-Snoop
    SSE Streaming SIMD Extensions. Developed by Intel for its Pentium III but also implemented by AMD processors from Athlon XP onwards
    SSE2 Streaming SIMD Extensions 2. (An additional 144 SIMDs.) Introduced by Intel Pentium 4, on AMD since Athlon 64
    SSE3 Streaming SIMD Extensions 3. (An additional 13 instructions) introduced with “Prescott” revision Intel Pentium 4 processors. AMD introduced SSE3 with the Athlon 64 “Venice” revision
    SSSE3 Supplemental Streaming SIMD Extension 3. (SSSE3 contains 16 new discrete instructions over SSE3.) Introduced on Intel Core 2 Duo processors. No AMD chip supports SSSE3 yet.
    SSE4 Streaming SIMD Extentions 4. Future Intel SSE revision adding 50 new instructions which will debut on Intel’s upcoming “Nehalem” processor in 2008. Also known as “Nehalem New Instructions (NNI)”
    SVM Secure Virtual Machine. (AMD’s virtualization extensions to the 64-bit x86 architecture, equivalent to Intel’s VMX, both also known as HVM in the Xen hypervisor.)
    TM Thermal Monitor
    TM2 Thermal Monitor 2
    TSC Time Stamp Counter
    VME Virtual-8086 Mode Enhancement
    VMX Intel’s equivalent to AMD’s SVM
    XTPR TPR register chipset update control messenger. Part of the APIC code

    HTML5 ist im Anmarsch und hat viele tolle Neuerungen im Gepäck. Eine davon ist zum Beispiel das video-Tag, Videos abspielen direkt im Browser, ohne Flash, ohne 100% CPU-Last. Klingt soweit ganz nett und so, als ob man es haben will. Ein kleines Problem gibt es bei der ganzen Geschichte aber noch: Es wurde sich nicht auf einen, sondern auf zwei Codecs geeinigt: OggTheora und H2.64! Was bedeutet das?

    Machen wir erst einmal eine Bestandsaufnahme welcher Browser welchen Codec unterstützt:

    • Safari: H.264
    • Google Chrome: H.264
    • IE 9 Preview: H.264
    • Firefox: OggTheora
    • Opera: OggTheora

    UPDATE: Ich habe nun oben in die Brwoserliste auch Opera mit aufgenommen. Ich hatte ihn schlicht und ergreifend vergessen. Allerdings spielt es meiner Meinung nach kaum eine Rolle, welcher Browser noch OggTheora unterstützt, solange Youtube und Vimeo auf H.264 setzen.

    Dort sieht man schon eine gewisse Tendenz.  Schauen wir uns nun mal an, welche bedeutenden Videoportale im Internet auf HTML5-Videos setzten und welchen Codec Sie benutzen:

    • Youtube: H.264
    • Vimeo: H.264

    Spätestens mit Youtube.com dürfte klar sein wohing die Reise geht: Videos in H.264. Warum also benutzt Firefox nicht auch H.264? Eventuell hat OggTheora eine bessere Qualität bei gleicher Bitrate? Nein, Da gewinnt ebenfalls H.264. Das Problem liegt in den Lizenzen. Der H.264 Codec ist Lizenzpflichtig und da man bei Firefox sich die Gebühren nicht leisten kann, bzw. sich aus ideologischen Gründen nicht leisten will, damit der Firefox Browser weiterhin eine freie Software bleibt, hat man sich für den freien OggTheora Codec und gegen h.264  entschieden.

    Mal ganz provokativ gefragt, was hat man denn nun davon? Ich verstehe die Motivation welche dahinter steht/stand total, aber was bringt es mir, wenn die beiden größten und populärsten Videoportale der Welt auf H.264 setzen, ebenso wie ein Großteil der Browser? Youtube wird sicherlich nicht anfangen, die Videos in zwei Formaten vorzuhalten, warum auch? Schließlich gehört zuletzt Youtube zu Google und die wiederum haben einen kompatiblen Browser.

    Bleibt also nur die Möglichkeit über eine Firefox Extension oder ein Plugin den Codec selber zu impementieren. Für mich stellt das natürlich kein Problem da, aber was ist mit dem Feld-Wald-Wiesen-Benutzer? Youtube wird ihm in absehbarer Zeit sagen: Sorry, dein Browser kann keine HTML5 Videos wiedergeben, benutze doch bitte Google Chrome. Und er wird es machen, denn wer will schon einen Browser auf dem kein Youtube läuft? Zum Thema Plugins: “Was genau sind eigentlich diese Extensions?” Höre ich schon meine Mutter fragen. (Ich gebe zu, dieses Szenario ist ein wenig überspitzt, aber ich denke meine Intention ist klar geworden. Youtube wird definitiv noch einige Zeit weiter auch in Flash ausliefern.)

    Alternativ könnte man die im System schon vorhanden Codecs benutzen, die meist eine Wiedergabe von h.264 Video unterstützen, man behält aber das gleiche Problem wie bei den Plugins.

    Wie schon gesagt, ich verstehe die Entscheidung der Mozilla Foundation und bin durchaus auch ein Befürworter von freier Software, aber wenn Firefox den Einstieg in HTML5 nicht verpassen will, muss eine Möglichkeit geschaffen werden die es jedem Firefoxbenutzer auf einfachste Weise ermöglicht den H.264 Codec in seinem Browser nachzurüsten, ansonsten heißt es bald “Sendeschluss” um dann schlussendlich die Analogie zum Eingangsbild zu ziehen ;)

    Hier noch ein paar Links zum Nachlesen: