ubuntuusers.de

12. November 2009

Bisher hatte ich es eigentlich verabscheut den Google Calendar zu nehmen, da mir Google einfach eine zu große Datenkrake ist. Da ich allerdings mittlerweile doch immer mehr Sachen vergesse, brauche ich einfach einen Terminplaner bzw. einen Kalender. Dank des iPhones will ich natürlich auch, dass das ganze übers Internet ab geglichen wird und hier bietet sich einfach am besten der Google Calendar an. Das ganze ist am iPhone extremst einfach einzurichten, daher denke ich auch, dass ich dies hier nicht genauer erklären muss.

Probleme bereitete mir die Einrichtung allerdings unter Thunderbird mit dem Add-On Lightning und dem Provider für Google Kalender.

Hier die einzelnen Schritte die dafür notwendig sind:

  1. Das Paket libstdc++5 hier herunterladen und installieren für die Rechnerarchitektur welche man verwendet

  2. Das Add-On Lightning hier herunterladen und anschließend über Thunderbird → Extras → Add-Ons → Installieren installieren

  3. Das Add-On Provider für Google Kalender hier herunterladen und anschließend über den Weg wie oben beschrieben installieren

  4. Nun Thunderbird starten und unten Links auf Kalender klicken

  5. Anschließend Links auf eine weiße Fläche rechts klicken und auf neuer Kalender klicken

  6. hier auf „Im Netzwerk” klicken → Google Kalender

  7. nun auf http://www.google.com/calendar surfen und unter Einstellungen → Kalender auf den eigenen Kalender klicken und anschließend die private XML-Kalenderadresse kopieren und in Thunderbird einfügen

  8. jetzt Namen + Farbe auswählen

  9. und schon wird der Kalender angezeigt sobald ihr Username/E-Mail-Adresse + Passwort vom Kalender eingegeben habt.

Have fun!

So faul wie ich also bin, mich bei jedem Server einzeln einzuloggen, upzugraden und cronjob auszuführen, wollt ich ein Stück weit automatisieren. Dabei raus kam:

#!/bin/bash

uhost=$(echo $1)

if [ $(echo $#) -gt 1 ]
then
echo “too many parameters”
else
if [ -n "$uhost" ]
then
echo “Connecting to Host $(host $uhost | awk ‘{print $1″ “$4}’)
ssh root@$uhost “if [ -x /etc/cron.daily/apt-update ]; then aptitude upgrade && /etc/cron.daily/apt-update ; fi”
fi
fi

Usage: supgrade zwetschge.org
Automatisierungen bieten zwar Fehlerquellen, aber Faulheit siegt.

Microsoft hat mal wieder eine Methode patentiert. Irgendeine Methode, Microsoft patentiert sicherlich täglich irgendwas…? Nein nicht irgendeine. Microsoft hat unter Patentnummer 7617530 schon wieder ein Patent für das aus der Unix- und Linux-Welt bekannte sudo/gksudo-Prinzip zugesprochen bekommen…

Systems and/or methods are described that enable a user to elevate his or her rights. In one embodiment, these systems and/or methods present a user interface identifying an account having a right to permit a task in response to the task being prohibited based on a user’s current account not having that right.

[...]

Systems and/or methods are described that enable a user to elevate his or her rights, including through a user interface identifying an account with these rights. By so doing, these systems and/or methods may permit a user to use a computer in relative safety from attacks by malicious code while also enabling the user to easily elevate his or her rights to perform potentially dangerous tasks. Although the invention has been described in language specific to structural features and/or methodological steps, it is to be understood that the invention defined in the appended claims is not necessarily limited to the specific features or steps described. Rather, the specific features and steps are disclosed as preferred forms of implementing the claimed invention.

Das Verfahren nicht-priviligierten Benutzern administrative Rechte über einen Befehl einzuräumen gibt es seit Anfang der 80er Jahren auf Unix-Maschinen. In der Linux-Welt gibt es wie angesprochen schon seit Jahren sudo und auch Mac OSX verwendet letztendlich sudo. Höhre ich hier Prior Art? Auf Groklaw könnt ihr weitere Informationen zu diesem Unsinn nachlesen.

Nur noch wenige Stunden und dann ist die neue openSUSE Version 11.2 auf allen Downloadservern verteilt und wird zum Download freigegeben. Heute Abend gibt es dann die ersten Partys weltweit. Hier in Deutschland findet zum Beispiel heute im SUSE-Hauptsitz in Nürnberg eine Party statt. In Wien geht es dann morgen zur Sache und am Samstag auch hier in Chemnitz.

Toll aus meiner Sicht sind die Partys in Bukarest, die gemeinsam mit Mozilla Rumänien (die dürfen ihr 5jähriges feiern) und Fedora stattfindet und in Vadodara/Baroda in Indien die openSUSE 11.2 und Ubuntu Karmic Double Bonanza Party.

Wer mehr über die Partorte erfahren will, sollte mal hier schauen, wobei es eigentlich noch nicht zu spät ist und man durchaus noch Partys hinzufügen kann. Sollte also jemand dringend die Lust verspüren gemeinsam mit anderen einen Blick auf die neue Version von openSUSE werfen zu wollen nur zu.

Vor noch nicht allzu langer Zeit habe ich mir Subversion auf meinem Server installiert, da die 2GB Freespace von Dropbox einfach nicht mehr gereicht haben.

Die Installation war dank einer hervorragenden Anleitung im UU.de-Wiki überhaupt kein Problem. Jedoch, da mein svn nicht öffentlich jedem zugänglich sein soll, habe ich in der /etc/apache2/mods-enabled/dav_svn.conf einen fixen User eingetragen:

<Location /svn>
    DAV svn
    SVNPath /var/local/svn
    AuthType Basic
    AuthName "svn"
    AuthUserFile /etc/apache2/dav_svn.passwd
    Require user compr00t
</Location>

Nach der Installation dann ist mir aufgefallen, das Subversion den ganzen Traffic per http transportiert, was mir nicht so wirklich zusagen wollte.

Also habe ich meinen Apache2 auf Port 443 verschoben, so dass alles per SSL gesichert wird.

Das “Umkonfigurieren” ist eigentlich überhaupt kein Problem, wenn man weiss wie :) Doch leider hatte ich nur eine wage Ahnung, weshalb sich das ganze über mehrere Stunden in die Länge zog.

Ich versuche hier nochmals wiederzugeben, was ich so alles rumgebastelt habe :)

Als erstes habe ich einen neuen Virtualhost angelegt unter /etc/apache2/sites-available/ mit dem Namen ssl und mit folgendem Inhalt gefüllt:

<VirtualHost *:443>
    ServerAdmin webmaster@example.com
    DocumentRoot /var/www/svn/
    SSLEngine on
    SSLCertificateFile /etc/apache2/ssl/apache.pem
</VirtualHost>

Nun wird der neue Virtualhost aktiviert und der alte deaktiviert

sudo a2ensite ssl
sudo a2dissite default

Danach wird Port 443 aktiviert. Dazu überschreibt man die Datei /etc/apache2/ports.conf mit folgendem Eintrag:

Listen 443

Jetzt fehlt noch ein Zertifikat für die gesicherte Verbindung. Dazu muss das Packet openssl installiert sein:

sudo apt-get install openssl

Nun kann man sein Zertifikat erstellen:

mkdir -p /etc/apache2/ssl
openssl req -new -x509 -days 365 -nodes -out /etc/apache2/ssl/apache.pem\
-keyout /etc/apache2/ssl/apache.pem

Jetzt muss nur noch das Module ssl aktiviert werden:

sudo a2enmod ssl

Jetzt gilt es noch den Apache neuzustarten:

sudo /etc/init.d/apache2 restart
sudo /etc/init.d/apache2 force-reload

Und wenn beim restart kein fail als Antwort rauskommt, so sollte ab sofort die Weboberfläche nun über https://localhost/svn verfügbar sein.

Ich hoffe mal, ich habe nichts vergessen :)

Vielen Dank an root1024 für die Unterstürzung, und an das UU.de-Wiki für die tollen Artikel über subversion, virtualhosts, und ssl.

Als nächstes ist nun geplant, die etwas zu schlichte Weboberfläche von Subversion durch Websvn zu ersetzten.

Derzeit denke ich darüber nach unser Samsung NC10 mit einer Solid State Disk (OCZ Vertex) auszustatten – Vorteile gegenüber der Festplatte wären Geschwindigkeit und vor allem die Lautstärke, Nachteil natürlich der Preis.

Nun liest man immer wieder über die Tatsache dass SSDs nach einiger Zeit bei Schreibzugriffen langsamer werden, Abhilfe soll das TRIM-Kommando schaffen – auch unter Linux?

Auf der Suche nach Informationen zu TRIM unter Linux (im speziellen Fall Ubuntu) bin ich über folgende, für künftige SSD-Besitzer recht interessante Links gestossen:

Was habe ich gelernt? TRIM scheint bereits im aktuellen Kernel implementiert, wird aber noch nicht aktiv genutzt, der Code wäre zu experimentell, es wird aber daran gearbeitet. Dafür kann man aus dem hdparm-Paket das wiper.sh-Script nutzen (lt. README “This script may be EXTREMELY HAZARDOUS TO YOUR DATA” !?) was das TRIMming manuell durchführt – soll unter Linux wunderbar funktionieren.

Hmnja, vielleicht doch eine WD Scorpio Blue – sollen auch leise sein… teuer, diese SSDs…

Installiert man Firefox und Thunderbird unter KDE 4 so hat man optisch keine Freude an diesen Anwendungen. Damit sich das ändert sollte man ein passendes Theme installieren. Für den Firefox ist dies KFirefox welches unter http://ramonantonio.net/kde-firefox/ zu finden ist. Für den Thunderbird hört das Theme der Wahl auf den Namen OxyBird und ist unter https://addons.mozilla.org/de/thunderbird/addon/8344 zu finden.

11. November 2009

Ich wollte heute doch gar nichts mehr bloggen, doch diese Nachricht ist es einfach Wert. Der wohl beste Editor überhaupt wurde auf Linux portiert. UltraEdit gibt es nun auch für Linux. Auf der Homepage gibt es eine ausführliche Vorstellung des Editors sowie eine Übersicht aller Features. Die wichtigste Eigenschaft hat er behalten, ich habe ein 600MB großes Log in den Editor geöffnet und konnte ohne große Probleme in diesem Textmonster arbeiten.

Aktuell kostet UltraEdit für Linux mit $49.95 das Selbe wie die Windows-Version. Allerdings scheint dieser Preis nur für die Einführungszeit zu gelten, IDM markiert den Preis als Angebot, eigentlich würden $69.95 verlangt. Ob dies nur ein Marketingtrick ist, sei mal dahingestellt.

Der Linux-Service von IDM ist vorbildlich. Es gibt 32- und 64-bit Pakete für alle großen Linux-Distributionen zum Download sowie ein .tar.gz-Archiv mit einer fertiggebauten Version für “alle anderen” Zwecke.

UltraEdit für Linux

UltraEdit für Linux

Es ist schön zu sehen, dass so langsam immer mehr hochqualitative kommerzielle Produkte auch für Linux umgesetzt werden… Ein kleiner Wermutstropfen ist jedoch, dass UltraEdit nicht auf GTK oder Qt aufsetzt, sondern wohl wxWidgets oder irgendwas in dieser Richtung für die GUI einsetzt.

Windows 7 hat mit Aero Snap eine praktische Funktion hinzugewonnen. Greift man mit der Maus ein Fenster am Rahmen und zieht es an den linken bzw. rechten Rand des Desktops, dann wird es auf der rechten/linken Bildschirmhälfte maximiert. Zieht man es an den oberen Rand, dann wird das Fenster komplett maximiert.

Unter Tricks und Tricks zum Fenstermanagement mit GNOME hatte ich ja schon geschrieben, wie man diese Funktionalität auch mit Ubuntu und dem Grid-Plugin aus Compiz nachahmen kann. Allerdings benötigte man hierfür noch Tastenkombinationen, um die einzelnen Aktionen auszulösen.

Wie die Jungs von OMG!UBUNTU! jedoch herausgefunden haben, könnt Ihr die Funktionalität von Aero Snap praktisch vollständig mit Compiz nachbilden. Dazu muss nicht außergewöhnlich viel Gefrickelt werden, Ubuntu bringt alles nötige von Haus aus mit.

Zuerst müsst ihr den CompizConfig Einstellungs-Manager und das Tool wmctrl installieren. Beides ist in den Paketquellen vorhanden und lässt sich via…

$ sudo apt-get install compizconfig-settings-manager wmctrl

… auf Euer System laden. Nun startet Ihr den CCSM über “System -> Einstellungen -> CompizConfig Einstellungs-Manager” und geht in das Plugin “Commands”. Aktiviert das Plugin [1] und tragt dort das Kommando…

WIDTH=`xdpyinfo | grep 'dimensions:' | cut -f 2 -d ':' | cut -f 1 -d 'x'` && HALF=$(($WIDTH/2)) && wmctrl -r :ACTIVE: -b add,maximized_vert && wmctrl -r :ACTIVE: -e 0,0,0,$HALF,-1

…in der ersten Zeile, den Befehl…

WIDTH=`xdpyinfo | grep 'dimensions:' | cut -f 2 -d ':' | cut -f 1 -d 'x'` && HALF=$(($WIDTH/2)) && wmctrl -r :ACTIVE: -b add,maximized_vert && wmctrl -r :ACTIVE: -e 0,$HALF,0,$HALF,-1

…in der Zweiten und letztendlich das Kommando…

wmctrl -r :ACTIVE: -b add,maximized_vert,maximized_horz

in der Dritten Zeile ein [2].

Die entsprechenden Befehle im CompizConfig Einstellungs-Manager eintragen

Die entsprechenden Befehle im CompizConfig Einstellungs-Manager eintragen

Geht dann in die Lasche “Edge Bindings” des Command-Plugins und legt die Befehle auf die entsprechenden Kanten des Bildschirms. Lasst Euch durch den Vertipper im Dialog nicht verwirren. Mit “Befehl 12 ausführen” ist der Befehl 2 gemeint…

...und mit den Kanten des Bildschirms verknüpfen

...und mit den Kanten des Bildschirms verknüpfen

Eventuell kollidieren die Einstellungen mit bereits von Euch getroffenen Einstellungen von Compiz. So braucht etwa der Würfel ebenfalls die Bildschirmkanten. Hier müsst Ihr Euch entscheiden, Aero Snap oder der Würfel ;)

Verlasst dann das Commands-Plugin und geht in die “Allgemeinen Optionen”. Es wäre unpraktisch, wenn Fenster sofort maximiert werden, sobald sich die Maus der Kante nähert. Daher solltet Ihr hier die “Verzögerung der Rand-Aktionen” erhöhen. Je nach Wunsch könnt Ihr hier einen Wert von rund 400ms einstellen.

Letzendlich nur noch die Verzögerung anpassen

Letzendlich nur noch die Verzögerung anpassen

Nun seid Ihr fertig. Nehmt ein Fenster und führt es zum rechten Rand, es sollte nun automatisch auf die rechte Bildschirmhälfte ausgedehnt werden. Zieht das Fenster wieder vom Rand weg und es ist wieder bei der alten Größe. Aero Snap, made by Compiz :)

.ogv-Version des Videos


Liebe Feed- und Planetleser. Eventuell wird das Video bei Euch nicht angezeigt. Kommt doch bitte auf das Blog, dann solltet Ihr das Video sehen können. Vielen Dank.

Ein kleines Problem konnte ich entdecken… Compiz unterscheidet bei den Aktionen nicht, ob man gerade ein Fenster in der “Hand” hat oder nicht. Compiz maximiert das aktuell aktive Fenster auch dann, wenn man einfach nur mit der Maus an den Bildschirmrand fährt und gar kein Fenster verschiebt. Aus diesem Grund sollte man die oben erwähnte Verzögerung nicht zu gering einstellen.

Das Vorurteil das man keine Webseiten unter Linux entwickeln kann, möchte ich hiermit mal aus der Welt schaffen. Ich arbeite fast täglich an Webseiten mit Linux, seit Jahren und würde mit keinem Betriebsystem tauschen wollen.

Der Editor

Der Editor ist Geschmackssache dazu will ich nicht viele Worte verlieren. Ich verwende vim und bin durch die ganzen Plugins und der Konfigurationsmöglichkeiten sehr zufrieden damit. Quanta und Bluefish sind zwei speziell für web development zugeschnittene Editoren.

kleine Helfer

Ich finde eine Bildschirmlupe die Bereiche des Bildschirms vergrößert darstellt sehr praktisch dazu verwende ich kmag. Um Pixeln zumessen verwende ich kruler, das ein Bildschirmlineal ist das man in alle 4 Himmelsrichtungen drehen kann. Ksnapshot ist ein Programm das Screenshots erzeugt, es ist unter anderen möglich nur ein Fenster oder nur eine Region auszuwählen.

Firefox-Plugins

Der Firefox ist zum Entwickeln besonders geeignet durch die große Anzahl an Plugins.
Mit Firebug und dem Web Developer ist es möglich Informationen aller Art herauszufinden und direkt CSS oder HTML zu ändern. Tamper Data ist ideal um Werte von Formularen abzufangen und die Einträge zu manipulieren. Mit Selenium IDE kann man Navigationen und Interaktionen auf einer Webseite aufzeichnen und abspielen.

Browserchecks

Webseiten sollten auf allen gängigen Browsern funktionieren. Um Webseiten auf Windows zu testen verwende ich virtual box, eine Virtualisierungs Software mit einer Windows XP Installation und allen möglich installierten Browsern. Es gäbe auch das Programm ie4linux das verschiedene IE Versionen mit wine emulieren kann. Leider ist das sehr langsam, nach meiner Erfahrung. Für Safari den OSX Browser verwende ich Konqeuror der ebenfalls wie Safari Webkit verwendet zum rendern der Webseite und man so ziemlich die selbe Darstellung hat. Mit Lynx kann man auch Webseiten im Textmodus testen. Es gibt auch das Webservice browsershots.org die von einer URL mit beliebig einstellbaren Browsern Screenshots erzeugt.

Validierung

Um zu überprüfen ob die Seite valides HTML und CSS liefert, kann direkt der Validator von w3.org zum überprüfen verwendet werden. Wenn die Seite lokal am Rechner liegt kann man tidy verwenden, es gibt auch das Firefox Plugin Html Validator womit man auch offline validieren kann.

Server-Technik

Da auf den meisten Servern auch ein Linux lauft ist es natürlich klar das man auch die selbe Server-Technik lokal am Desktop installieren kann. Ein Webserver wie den Apachen lässt sich genau so einfach wie MySQL, PHP, Django oder Rails mittels aptitude installieren.

Das Logo der Open Rhein RuhrWir hatten es uns nicht entgehen lassen mit Communtu auf der OpenRheinRuhr vorbei zu schauen, um dort unser Projekt vorzustellen. Die meisten Besucher kannten unser Projekt noch nicht, was aber auch nicht erstaunt, da wir auch erst 400 angemeldete Benutzer haben.

Die folgenden Themen, worauf Communtu schon eine Antwort hat oder noch an einer entwickelt, wurden auf der Messe angesprochen:

1. Eine sichere Upgrade-Möglichkeit.

Gerade die Erfahrungen aus Karmic zeigten, dass viele ein erhöhtes Sicherheitsbedürfnis beim Upgrade in Zukunft an den Tag legen wollen. Hier hat Communtu das Konzept: Lade Deine Programmliste bei Communtu hoch, klicke daraus ein Metapaket und speichere es dort ab. Installiere danach neben deiner alten Systempartition und deiner Homepartition ein neues System. Auf dem neuen System kann nun das Metapaket mit der eigenen Installation aufgespielt werden. Wenn jetzt das neue System stresst, dann kann immer noch auf das alte System zurückgegangen werden. Eine ausführliche Beschreibung zu diesen Vorgehen haben wir an anderer Stelle schon mal beschrieben.

2. Eine sinnvolle Programmzusammenstellung.

Gerade am Anfang eines Umstieges sind Nutzer überfordert mit dem Eintragen von Quellen und Schlüsseln und dem Finden von sinnvollen Programmzusammenstellungen. Hier konnten wir, mit unserem Konzept vorkonfigurierte Bündel zu installieren, helfen.

3. Individuelle Live-DVD

Weiter hat unsere Demonstration eine Live-DVD von Ubuntu mit den ausgewählten Programmen als ein ISO zu bauen bei einigen Nutzern Interesse geweckt. Da dieser Dienst momentan noch in der Betaphase ist und noch sehr experimentell, haben wir den bisher noch nicht auf unserer Webseite zur allgemeinen Nutzung. Hier fanden sich viele Nutzer, die einen Verwendungszweck für die DVDs hatten und somit konnten wir ein Bedürfnis feststellen.

Sehr schön war der “Gemeinschaftsstand” mit den Leuten von Ubuntu. So konnten wir auch untereinander ein paar Tipps und Tricks austauschen. Insgesamt kamen weniger Leute auf die OpenReinRuhr als erwartet, aber die zu uns an den Stand kamen, hatten ein reges Interesse an Communtu und waren begeistert.


Seit “Karmic Koala” 9.10 benutzt Ubuntu für die Lautstärkeregelung, den NetworkManager und andere vorinstallierte Applets flache, monochromatische und simple Icons im Panel. Die Icons sehen gut aus, passen sie doch in den aktuellen “Icon-Zeitgeist” den Apple mit Mac OS vorgibt.

Allerdings gibt es in meinen Augen ein Problem, Icons aus anderen Anwendungen verwenden nach wie vor bunte Icons. So kommt es in der oberen Rechten Ecke des Desktops zu einem wilden Mix aus simplen und farbigen Icons.

In der letzten zeit trudeln daher eine ganze Reihe von “Humanity Icons” auf gnome-look.org ein, die man mit ein bisschen Aufwand in das System kopieren kann. So passen sich dann Tomboy, Banshee oder auch GNOME Do schöner in den Desktop ein…

Alt und Neu im Vergleich...

Alt und Neu im Vergleich...

Eine Übersicht aller verfügbaren Humanity-Icons bekommt man über eine Suche nach humanity auf gnome-look.org. Aktuell kommen dort eigentlich täglich neue Icons hinzu. Die Installation der Icons ist nicht sonderlich aufwändig, allerdings müssen die Icons von Hand an die richtige Stelle in das Dateisystem kopiert werden. Installationshinweise finden sich immer auf der Webseite des Icons.

Damit man sich die Icons nicht alle einzeln herunterladen muss, gibt es auch ein Humanity Icons Pack, allerdings bleibt die Notwendigkeit zur manuellen Installation bestehen. Die Icons müssen in das Dateisystem an die passende Stelle kopiert und der Icon-Cache neu generiert werden. Im Archiv findet Ihr die Datei INSTALL, in der für jedes Programm detaillierte Hinweise gegeben werden.

Jedes der Icons gibt es in einer hellen und in einer dunklen Variante. Die Namensgebung ist dabei leider etwas verwirrend, die als “Dark” titulierten Icons sind NICHT dunkler, sie sind für Anwender gedacht, die ein Theme mit einem dunklen Panel verwenden, daher sind sie heller als die normalen Icons.

Dirk Deimeke 11. November 2009 09:36

gvim ...

Weil ich ein "fauler Hund" bin, benutze ich so viele Plattform übergreifende Werkzeuge wie möglich und erlaubt.

Da ich beruflich Windows als Client-System nutzen muss, versuche ich auch dort meine bekannten und bewährten Linux-Programme zu verwenden. So zum Beispiel auch (g)vim,

Auf der vim-Webseitebekommt man das Self-installing executable für Windows. Wie unter Minimalismus beschrieben, konfiguriere ich vim nur minimal.

Der Konfigurationsdatei (Kopie von vimrc_example.vim) füge ich noch die Zeilen "set nu" für Zeilennummern und "set enc=utf-8" für UTF8-Kodierung hinzu. Die resultierende Konfigurationsdatei muss mit "_vimrc" (Konsole) bzw. "_gvimrc" (grafische Variante) benannt und in das Home-Verzeichnis kopiert werden (copy _vimrc _gvimrc "%HOMEDRIVE%%HOMEPATH%").

Das Vierländereck, etwas östlich von meiner Heimat gelegen, macht seinem Namen wieder alle Ehre: Bereits zum elften mal laden die Organisatoren zum LinuxDay in der vorarlbergischen Stadt Dornbirn zu Österreich ein. Am Samstag, den 28. November 2009 treffen sich Einsteiger und Profis in der Höheren Technischen Bundeslehr- und Versuchsanstalt in Dornbirn, um an Vorträgen und Workshops teilzunehmen, durch die Ausstellung zu schlendern und dabei viele neue Gesichter zu entdecken.

LinuxDay-Flyer-2009

Auch Ubuntu wird mit einem Stand und Vorträgen präsent sein, das LocoTeam Messen kümmert sich darum. Da ja Dornbirn so nahe bei mir liegt – es sind gerade mal 104 Kilometer – und ich jenen Samstag noch frei zur Verfügung habe, fahre ich gerne dahin und helfe den Jungs am Stand etwas. Auf irgend eine Geissart will ich der Community etwas zurückreichen. Ich profitiere schon seit Jahren von der Gemeinschaft.

Aber bevor ich nach Österreich fahre, statten Dirk und ich im Ländle einen Besuch ab. Wir fahren zum 1. BarCamp Liechtenstein am kommenden Wochenende.

Ähnliche Artikel

10. November 2009

Ubuntu 9.10 auf dem Dell Mini 9 funktioniert wunderbar – wenn man zwei kleine Änderungen vornimmt:

  1. Zuerst den Ubuntu Netbook Remix nachträglich installieren, nach der Anleitung im Wiki von ubuntuusers.de.
  2. Neustarten und den Desktop nach Bedarf einrichten.
  3. Das Paket bcmwl-kernel-source installieren, um WLAN nutzen zu können.
  4. Neustarten, loslegen.

Das war’s.


Video-Telefonie ist echt praktisch und auch unter Ubuntu ohne Probleme möglich. Neben Skype und Ekiga gibt es eine Vielzahl von anderen Services, die Video-Telefonie über das Internet ermöglichen. Es ist mittlerweile auch kein Problem mehr eine Webcam zu finden, die unter Ubuntu voll funktionsfähig ist. Üblicherweise werden alle Geräte, die UVC beherrschen von Ubuntu ohne Probleme erkannt und sind ohne Konfigurationsaufwand verwendbar. Von Logitech gibt es eine Liste mit allen hauseigenen UVC-Webcams.

AudioSettingDie Webcam Logitech C500 wurde bei mir unter Ubuntu 9.10 problemlos erkannt. Über Skype war es ohne Konfiguration möglich einen Video-Chat zu beginnen. Um das in die Webcam integrierte Mikrofon zu aktivieren waren folgende Schritte notwendig:

  • System > Einstellungen > Klang auswählen
  • Tab “Eingabe” auswählen
  • Aufnahmelautstärke auf 100% stellen

Ich liebäugle schon sehr, sehr lange mit einem Nokia N900.

Screenshot46

Der Desktop

Und da ich meine Ungeduld nicht im Zaum halten konnte, habe ich heute Maemo (das Betriebssystem des N900) unter Ubuntu aufgesetzt. Maemo basiert wie Ubuntu auf Debian. Dazu habe ich diese Anleitung benutzt.

Es ist ein Traum. Die Bedienung geht wirklich flüssig von der Hand und alles kommt mir wirklich logisch strukturiert vor. Es ist besser als ich es mir vorgestellt habe. Und hier bediene ich es “nur” mit einer Maus, auf dem echten Gerät dürfte es noch besser funktionieren.Auch die grafischen Effekte lassen sich sehr schön ansehen und bieten einen echten Mehrwert für mich.

Screenshot47

ubuntuusers auf dem internen Browser


ID3-Tags enthalten in MP3 Dateien die Zusatzinformationen, wie Titel, Interpret und Album, welche von den meisten MP3-Playern (und natürlich den Audio-Playern am Computer) ausgelesen werden.

Gerade bei MP3-Playern tritt jedoch häufig das Problem auf, dass die Tags nicht gelesen werden können und Musikstücke daher unter “Unknown Artist / Unbekannter Interpret” aufgelistet werden. Eine Ursache hierfür kann eine vom MP3-Player nicht unterstützte ID3-Tag-Version oder Zeichenkodierung sein. Viele Player unterstützen noch immer nicht ID3v2.4, sondern erwarten ID3v2.3, weshalb man leider gezwungen ist, das etwas ältere Format zu verwenden.

Für GNU/Linux gibt es einige grafische Programme, welche die Tags automatisiert in ID3v2.3 konvertieren können (u.a. EasyTAG und Kid3), jedoch arbeitet das Konsolen-Tool eyeD3 deutlich schneller (und ist gerade bei rekrusivem Arbeiten komfortabler).

Es ist in den Paketquellen von Ubuntu enthalten und kann mit folgendem Befehl installiert werden:

sudo apt-get install eyed3

Um die ID3-Tags aller MP3-Dateien rekrusiv (einschließlich aller Unterordner) nach ID3v2.3 zu konvertieren, genügt folgender Befehl im Terminal:

find . -iname "*.mp3" -print0 | xargs -0 eyeD3 --to-v2.3

Manche MP3-Player geben sich mit ID3v2.3 noch nicht zufrieden und benötigen zusätzlich eine bestimmte Zeichenkodierung. v2.3 unterstützt ISO 8859-1 (latin1) und UTF-16, v2.4 unterstützt darüber hinaus die häufigste Unicode-Variante, UTF-8 (Quelle). Mit diesem Befehl sollte sich auch das erreichen lassen:

find . -iname "*.mp3" -print0 | xargs -0 eyeD3 --to-v2.3 --set-encoding=latin1|utf8|utf16-LE|utf16-BE --force-update

Bei meinen Tests hat das Konvertieren der Zeichenkodierung allerdings nicht wie gewünscht funktioniert.

Zudem kann eyeD3 Umlaute offenbar nicht verarbeiten und auch bei großen Musiksammlungen entstehen teilweise seltsame Fehler, welche bei einem erneuten Durchlauf aber nicht nochmals auftreten (eigene Beobachtung).

Auch wenn eyeD3 mit manchen Tags Schwierigkeiten hatte, konnte ich fast alle Titel meiner Musiksammlung erfolgreich von ID3v2.4 nach ID3v2.3 konvertieren. Mehr Informationen zu eyeD3 findet man in der Man-Page: man eyeD3 oder eyeD3 –help.


Comments

Ähnliche Beiträge

ID3-Tags enthalten in MP3 Dateien die Zusatzinformationen, wie Titel, Interpret und Album, welche von den meisten MP3-Playern (und natürlich den Audio-Playern am Computer) ausgelesen werden.

Gerade bei MP3-Playern tritt jedoch häufig das Problem auf, dass die Tags nicht gelesen werden können und Musikstücke daher unter "Unknown Artist / Unbekannter Interpret" aufgelistet werden. Eine Ursache hierfür kann eine vom MP3-Player nicht unterstützte ID3-Tag-Version oder Zeichenkodierung sein. Viele Player unterstützen noch immer nicht ID3v2.4, sondern erwarten ID3v2.3, weshalb man leider gezwungen ist, das etwas ältere Format zu verwenden.

<!--break-->

Für GNU/Linux gibt es einige grafische Programme, welche die Tags automatisiert in ID3v2.3 konvertieren können (u.a. EasyTAG und Kid3), jedoch arbeitet das Konsolen-Tool eyeD3 deutlich schneller (und ist gerade bei rekrusivem Arbeiten komfortabler).

Es ist in den Paketquellen von Ubuntu enthalten und kann mit folgendem Befehl installiert werden:

sudo apt-get install eyed3

Um die ID3-Tags aller MP3-Dateien rekrusiv (einschließlich aller Unterordner) nach ID3v2.3 zu konvertieren, genügt folgender Befehl im Terminal:

find . -iname "*.mp3" -print0 | xargs -0 eyeD3 --to-v2.3

Manche MP3-Player geben sich mit ID3v2.3 noch nicht zufrieden und benötigen zusätzlich eine bestimmte Zeichenkodierung. v2.3 unterstützt ISO 8859-1 (latin1) und UTF-16, v2.4 unterstützt darüber hinaus die häufigste Unicode-Variante, UTF-8 (Quelle). Mit diesem Befehl sollte sich auch das erreichen lassen:

find . -iname "*.mp3" -print0 | xargs -0 eyeD3 --to-v2.3 --set-encoding=latin1|utf8|utf16-LE|utf16-BE --force-update

Bei meinen Tests hat das Konvertieren der Zeichenkodierung allerdings nicht wie gewünscht funktioniert.

Zudem kann eyeD3 Umlaute offenbar nicht verarbeiten und auch bei großen Musiksammlungen entstehen teilweise seltsame Fehler, welche bei einem erneuten Durchlauf aber nicht nochmals auftreten (eigene Beobachtung).

Auch wenn eyeD3 mit manchen Tags Schwierigkeiten hatte, konnte ich fast alle Titel meiner Musiksammlung erfolgreich von ID3v2.4 nach ID3v2.3 konvertieren. Mehr Informationen zu eyeD3 findet man in der Man-Page: man eyeD3 oder eyeD3 --help.

Moin liebe Lesergemeinde,

vor einigen Tagen ist die neue Version 2009 von TeX Live veröffentlicht worden. Das ISO der Version kann man sich auf der CTAN Webseite herunterladen. Die Installationsmethode funktioniert auch nach meiner Beschreibung bei mir auf dem Blog. Wenn man TeXLive 2008 installiert hatte, bekommt man die Updates mit dem Updatemanager von TeXLive.

Leider hat es keine neue TeXLive Version in die Ubuntu Version 9.10 geschafft. Dort (genauso wie bei Debian) wird immer noch mit der längst veralteten 2007er Version gearbeitet – eigentlich sehr schade, denn es gibt “Tonnen” von Neuerungen in den folgenden Versionen.

Weiß jemand, ob es wenigstens die 2009er Version nach Debian und damit Ubuntu schafft? → würde mich zumindest riesig freuen.

Am letzten Wochenende fand endlich mal im Ruhrgebiet eine größere Veranstaltung zum Thema freie Software statt. Diverse Projekte hatten sich vorgestellt. Ich stand mit ein paar Leuten hinter und vor dem Ubuntustand. Vorträge fanden auch statt, dazu kann Dirk mehr schreiben, ich hab mich um unseren Stand gekümmert.
Insgesamt war es eine schöne Veranstaltung, wenn man von dem Pommesbuden-Catering absieht. Außerdem hätten es ruhig mehr Besucher sein können. Wir hätten die sicher auch verkraftet...

Die nächste Openrheinruhr kann einfach nur besser werden ...

Vorgestern habe ich hier über den gmusicbrowser berichtet. Für dieses Programm habe ich mir zwei kleine Ergänzugen gebaut. Im einzelnen ein Layout und eine Möglichkeit sich mittels notify-send über einen Liedwechsel informieren zu lassen.

Das Layout

Das von mir verwendete Layout basiert auf diesem Layout (eine Übersicht weiterer Layouts lassen sich hier finden). Gestört hat mich an dem Originallayout, dass der Slider zur Positionierung in einem laufenden Titel nicht funktionierte. Den Fehler konnte ich beheben. Was ich noch nicht geschafft habe ist, den Fehler zu finden und zu beseitigen, der die Informationen zur aktuellen Liedliste anzeigt. Also die Anzahl der Titel, Gesamtlänge und Gesamtgröße.

Mein Layout sieht im Quellcode folgendermaßen aus:

[itunes-like-plus-plus]

####General
Type        = G
Default        = Window size=1120x820 VPfp_list 120 HPfp0 300 
VPfp_list 200_550

###main layout with notebook tabs
VBmain        = HBupper _15TBupper

## 
HBupper        = _VBupper -HBRight
## Notebook with 3 tabs
TBupper        = _"Queue" VBQueueList _"Library" HPfp_list_src
 _"Context" Context 

VBupper        = _7HBIndic _HBHeader
HBRight        = -ArtistPic(hover_layout=ArtistPopup,
hover_delay=100,tooltip=%a) -10Cover(hover_layout=CoverPopup,
hover_delay=100,tooltip=%l)

HBIndic        = MBmenu 20Sort Filter Queue 10Pos
HBHeader    = HBButtons _ABInfo

HBButtons    = Prev(size=dnd) Play(size=dialog) Next(size=dnd)
 Stop(size=small-toolbar) Vol(size=small-toolbar,button=1) 10Filler0

ABInfo        = FRInfo(shadow=etched-out)
FRInfo        = VBInfo
VBInfo        = _HBSongInfo _7HBScale
HBSongInfo    = _VBSongInfo -Filler1
VBSongInfo    = _2HBTitle _2HBAlbum
HBTitle        = LockArtist _Title_by -Stars
HBAlbum        = LockAlbum _Album -Date
HBScale        = _Scale LabelTime -Length
MBmenu        = MainMenuItem PSortItem PFilterItem QueueItem

VBQueueList    = 3_QueueList(activate=playlist) HBQueueAct
HBQueueAct    = EditListButtons 10QueueActions

HPfp_list_src    = FPane3(nb=1,hide=1,pages=savedtree) _VPfp_list
VPfp_list    = HPfp0 _VBlist

VBlist        = HBstatus _SongTree
HBstatus    = SimpleSearch MBlist Refresh ResetFilter PlayFilter
 QueueFilter -Total
MBlist        = HistItem LSortItem PlayItem
HPfp0        = FPane0(nb=2,hide=1,pages=genre) HPfp1
HPfp1        = FPane1(nb=3,hide=1,pages=artist)
 FPane2(nb=4,hide=1,pages=album)
VSize1        = 47 HBHeader
HSize1        = HBButtons HBRight
HSize2        = LockArtist LockAlbum Filler1
VolumeScroll= HBupper

[CoverPopup]
VBmain        = Cover(minsize=300,maxsize=300,click1=CloseWindow)

[ArtistPopup]
VBmain        = ArtistPic(minsize=300,maxsize=300,click1=CloseWindow)

Um das Layout zu verwenden, müssen die Angaben in eine Datei (z.B. itunesplusplus.layout) abgelegt werden. Die Datei muss sich im Verzeichnis ~/.config/gmusicbrowser/layouts/ befinden. Nach dem Neustart des gmusicbrowser kann das Layout ausgewählt werden.

 

Die Benachrichtigung

Um die Benachrichtigungsfunktion verwenden zu können ist zuerst die Erweiterung Jetzt läuft zu aktivieren. Danach kann man einen Befehl eintragen, der bei einem Liedwechsel ausgeführt wird. Ich habe mir ein Miniscript geschrieben, welches an dieser Stelle aufgerufen wird. Der Aufruf des Scripts sieht bei mir also so aus (der Pfad ist natürlich anzupassen):

/home/andreas/.local/share/bin/notify %c %t %a %l

Das Script selbst sieht folgendermaßen aus und ist wirklich sehr primitiv gehalten:

#!/bin/bash
/usr/bin/notify-send -u critical -i "$1" "$2" "von $3 ($4)"

Als Ergebnis erscheint eine Benachrichtigung, die neben dem Titel, dem Künstler und dem Album auch ein Albumcover enthält.

 


Veröffentlicht in Audio, gmusicbrowser, Linux, Ubuntuusers.de

Seit Handbrake keine DivX-Unterstützung mehr anbietet, war ich auf der Suche nach adäquatem Ersatz und bin zwischenzeitlich bei OGMRip hängengeblieben. Das läuft soweit ganz gut… …bis ich gestern versucht habe, mit OGMRip einzelne Kapitel eines Films zu einer Datei zusammenzurippen (namentlich die Nonstop-Nonsens-Slapstick-Filme). Hier stößt OGMRip an seine Grenzen, denn es können “nur” zusammenhängende Kapitel gerippt werden, nicht aber z.B. Kapitel 2, 6, 9 und 14. Daher hab ich mich ein wenig mit der MEncoder-CLI beschäftig und möchte meine typischen Befehlsfolgen hier sammeln.

Seit Handbrake keine DivX-Unterstützung mehr anbietet, war ich auf der Suche nach adäquatem Ersatz und bin zwischenzeitlich bei OGMRip hängengeblieben. Das läuft soweit ganz gut…
…bis ich gestern versucht habe, mit OGMRip einzelne Kapitel eines Films zu einer Datei zusammenzurippen (namentlich die Nonstop-Nonsens-Slapstick-Filme). Hier stößt OGMRip an seine Grenzen, denn es können “nur” zusammenhängende Kapitel gerippt werden, nicht aber z.B. Kapitel 2, 6, 9 und 14.

Daher hab ich mich ein wenig mit der MEncoder-CLI beschäftig und möchte meine typischen Befehlsfolgen hier sammeln.

 
 

DVD rippen

Um einen DVD-Film als DivX auf die Festplatte kopieren zu können, muss man zunächst feststellen, welcher Titel auf der DVD den Film beinhaltet. Meist ist es der Titel mit der längsten Spieldauer. Der folgende Befehl listet alle Titel einer DVD auf:

mplayer dvd:// -v

Die DVD wird hierbei kurz angespielt. Sobald das Bild da ist, kann der Prozess beendet werden. In der Ausgabe sucht man nun die folgende Stelle:

Reading disc structure, please wait...
There are 19 titles on this DVD.
There are 1 angles in this DVD title.

Angenommen der Film wäre auf der DVD unter Titel 3 zu finden, dann würde der folgende Befehl ein DivX-Abbild des Films als output.avi generieren:

mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600 -oac mp3lame -lameopts cbr:br=128 -of avi -o output.avi dvd://3

Hierbei habe ich die Video-Bitrate auf 1600 und die MP3-Bitrate auf 128 gesetzt – meine Standardwerte :-)

Manchmal kann es das Bild verbessern, wenn man einen so genannten Deinterlace-Filter setzt. Dieser versucht dann, bei Kamerabewegung auftretende streifenartige Linien aus dem Bild zu entfernen. Es existieren zahlreiche solcher Filter, ich persönlich habe mit kerndeint die besten Erfahrungen gemacht. Der Befehl ändert sich hierbei wie folgt:

mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600 -vf kerndeint -oac mp3lame -lameopts cbr:br=128 -of avi -o output.avi dvd://3

Ein noch besseres Bild erhält man, wenn man zwei Encoding-Durchläufe machen lässt. Hierbei werden im ersten Durchlauf einige Informationen in einer kleinen Log-Datei gespeichert. Während des zweiten Durchlaufs kann mencoder dann auf diese Log-Datei zugreifen, und so ein besseres Resultat erzielen. Da wir “nur” an der Log-Datei interessiert sind, wird die output-Datei im ersten Durchlauf auf /dev/null umgeleitet. Die zwei Befehle lauten nun:

mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600:vpass=1 -vf kerndeint -oac mp3lame -lameopts cbr:br=128 -of avi -o /dev/null dvd://3

mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600:vpass=2 -vf kerndeint -oac mp3lame -lameopts cbr:br=128 -of avi -o output.avi dvd://3

Wenn die DVD mehrere Tonspuren beinhaltet (z.B. Deutsch, Englisch, Französisch, usw.), kann die gewünschte Spur mit dem Parameter -aid angegeben werden. Hierbei gilt folgende Aufteilung:

  • -aid 128 = erste Tonspur
  • -aid 129 = zweite Tonspur
  • -aid 130 = dritte Tonspur
  • … usw.

Wenn man sich nicht sicher ist, welche die richtige Tonspur ist, kann man den Film mit mplayer kurz anspielen lassen:

mplayer -aid 128 dvd://3

(ist nicht die gewünschte Tonspur? Na dann versuch mal:)

mplayer -aid 129 dvd://3

Durch die Angabe des Parameters (hier: für die zweite Tonspur) ändert sich der Befehl nun wie folgt:


mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600:vpass=2 -vf kerndeint -oac mp3lame -lameopts cbr:br=128 -aid 129 -of avi -o output.avi dvd://3

 
 

ISO-File

Wenn nicht die DVD, sondern ein ISO-File vorliegt, muss dieses erst per loop-mount eingehängt werden. Ich habe hierfür den Ordner /media/loop erstellt.

sudo mkdir /media/loop

Das Image kann nun wie folgt eingehängt werden:

sudo mount -t iso9660 -o loop=/dev/loop0 /Pfad/zum/image.iso /media/loop

Jetzt wird der Befehl durch den Parameter -dvd-device wie folgt ergänzt:

mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600 -vf kerndeint -oac mp3lame -lameopts cbr:br=128 -of avi -o output.avi -dvd-device /media/loop dvd://3

 
 

DVD-Kapitel rippen

Es kann ja mal vorkommen, dass man nicht den gesamten Film, sonder nur ein paar Kapitel des Films rippen möchte. Für aneinanderliegende Kapitel geht das recht einfach. Der oben eingeführte Befehl wird wie folgt durch den Parameter -chapter STARTKAPITEL-ENDKAPITEL erweitert:

mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600 -vf kerndeint -oac mp3lame -lameopts cbr:br=128 -of avi -o output.avi dvd://3 -chapter 1-4

In diesem Beispiel würden also die Kapitel 1-4 des dritten Titels der DVD gerippt.

Möchte man hingegen “auseinanderliegende” Kapitel zu einer Datei zusammenrippen (so wie ich bei meiner Nonstop-Nonsens-Sammlung), müssen zunächst alle Kapitel einzeln ausgelesen und anschließend zusammengeführt werden. Im folgenden Beispiel machen wir dies mal für die Kapitel 2, 5 und 9 des dritten DVD-Titels:

mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600 -vf kerndeint -oac mp3lame -lameopts cbr:br=128 -of avi -o output1.avi dvd://3 -chapter 2-2

mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600 -vf kerndeint -oac mp3lame -lameopts cbr:br=128 -of avi -o output2.avi dvd://3 -chapter 5-5

mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600 -vf kerndeint -oac mp3lame -lameopts cbr:br=128 -of avi -o output3.avi dvd://3 -chapter 9-9

mencoder output1.avi output2.avi output3.avi  -oac copy -ovc copy -o Zusammen.avi

Die ersten 3 Befehle lesen die einzelnen Kapitel aus, der letzte Befehl setzt sie zu einer Datei zusammen.

Auch hier möchte ich darauf hinweisen, dass zwei Durchläufe ein wesentlich besseres Bild erzeugen. Die ersten drei Befehle erweitern sich also auch hier dementsprechend:

mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600:vpass=1 -vf kerndeint -oac mp3lame -lameopts cbr:br=128 -of avi -o /dev/null dvd://3 -chapter 2-2

mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600:vpass=2 -vf kerndeint -oac mp3lame -lameopts cbr:br=128 -of avi -o output1.avi dvd://3 -chapter 2-2

mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600:vpass=1 -vf kerndeint -oac mp3lame -lameopts cbr:br=128 -of avi -o /dev/null dvd://3 -chapter 5-5

mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600:vpass=2 -vf kerndeint -oac mp3lame -lameopts cbr:br=128 -of avi -o output2.avi dvd://3 -chapter 5-5

mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600:vpass=1 -vf kerndeint -oac mp3lame -lameopts cbr:br=128 -of avi -o /dev/null dvd://3 -chapter 9-9

mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600:vpass=2 -vf kerndeint -oac mp3lame -lameopts cbr:br=128 -of avi -o output3.avi dvd://3 -chapter 9-9

mencoder output1.avi output2.avi output3.avi  -oac copy -ovc copy -o Zusammen.avi

 
 

Filmdateien umwandeln

Wenn eine Filmdatei bereits vorliegt, jedoch in einem anderen Format (MPEG, MKV, o.ä.) erstellt wurde, kann mencoder diese ins DivX-Format umwandeln. Die Befehlfolge ist die selbe wie oben beschrieben. Es muss lediglich am Schluss das “dvd://” durch den Dateinamen der Originaldatei angegeben werden, also z.B.

mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600:vpass=1 -vf kerndeint -oac mp3lame -lameopts cbr:br=128 -of avi -o /dev/null Originalfilm.mkv

mencoder -ovc lavc -ffourcc DX50 -lavcopts vcodec=mpeg4:vbitrate=1600:vpass=2 -vf kerndeint -oac mp3lame -lameopts cbr:br=128 -of avi -o output.avi Originalfilm.mkv

 
 

Playstation 3

Ich habe eine Playstation 3 und verwende diese unter anderem auch dafür, DivX-Filme auf dem Fernseher abzuspielen. Leider ist es so, dass die PS3 sehr “kleinlich” ist, was das Format angeht. So stößt man häufig auf den Fehlercode 00288bc oder 800288bf. Hier meldet die PS3 dann nur “unbekanntes Format” und weigert sich, die Datei abzuspielen. Dies betrifft sowohl das Abspielen vom USB-Stick oder der Festplatte, wie auch per Mediatomb. Manchmal reicht es schon, wenn man die Endung .avi in .mpg umbenennt. Sollte das aber keinen Erfolg bringen, schafft der folgende mencoder-Befehl Abhilfe:

mencoder -ffourcc DX50 -oac mp3lame -ovc lavc -ofps 25 -lavcopts vcodec=mpeg4:vbitrate=1800:vhq:keyint=15:acodec=mp3:abitrate=128:aspect=4/3 -af volnorm=1 -lameopts cbr:br=128 -srate 44100 -vf pp=ci,harddup -o NeuerOutput.DivX.mpg Filmdatei.avi

Dieser Befehl erzeugt eine DivX-Datei mit .mpg-Endung, die dann auf der PS3 wiedergegeben werden kann.

 


So, das war’s erstmal für heute, weitere Befehl-Rezepte werde ich ergänzen, sobald ich sie benötige.


Links:

Wie man Festplatten schlafen schickt hab ich nicht ohne Grund beschrieben: Eine meiner Platten sorgt dafür, dass das Gehäuse wackelt. Umso mehr wunderte ich mich in letzter Zeit, warum täglich die Festplatten nach und nach aufwachen und lärmen. top zeigte einen find-Prozess, den ich nicht gestartet hatte.

Ein

ps axjf

stellt die Prozesse hierarchisch dar. find befand sich in dieser Liste, unterhalb von:

 1  6018  6018  6018 ?           -1 Ss       0   0:00 /usr/sbin/anacron -s
 6018  6539  6018  6018 ?           -1 S        0   0:00  \_ /bin/sh -c nice run-par
 6539  6540  6018  6018 ?           -1 SN       0   0:00      \_ run-parts --report

Hab ich jetzt leider nicht weiter kopiert und der Rest ist abgeschnitten, aber da fand sich ein locate und darunter das störende find. Tatsächlich existierte ein /etc/cron.daily/locate. Das wurde nun nach monthly verschoben.

Warum hat das früher nie gestört? Ich vermute, dass ich vor kurzem anacron manuell installierte, denn auch bei mir galt: Die Logs wurden nicht rotiert. Und wohl auch kein updatedb gestartet.