ubuntuusers.de

23. November 2009

Wer oft Dateien hin und her schieben muss, der vermisst unter GNOME einen Dateimanager mit zwei Ansichten wie man es beispielsweise vom guten alten Norton Commander her kennt. Zwarg ibt es mit dem Midnight Commander oder GNOME Commander Möglichkeiten zweispaltige Dateimanager nachzurüsten, doch der mc richtet sich eher an Konsolenritter und der GNOME Commander ist in manchen Dingen recht eigenartig aufgebaut.

Doch man kann auch den guten alten Nautilus zu einer zweispaltigen Anzeige überreden. Der GNOME-Entwickler Holger Berndt betreibt schon länger einen Zweig von Nautilus, in dem sich ein zweites Panel einblenden lässt. Pakete waren bislang nur für Ubuntu Jaunty erhältlich, nun gibt es auch für Ubuntu Karmic Koala 9.10 die Möglichkeit den “Zwei-Spalten-Nautilus” über ein PPA zu installieren.

Nautilus mit zweispaltiger Ansicht

Nautilus mit zweispaltiger Ansicht

In Ubuntu Karmic könnt ihr die Paketquelle sehr bequem über ein Kommando zu Eurer Paketverwaltung hinzufügen. Führt einfach nacheinander die Befehle…

$ sudo add-apt-repository ppa:berndth/ppa
$ sudo apt-get update && sudo apt-get dist-upgrade
$ nautilus -q && nautilus &
$ exit

… aus, um die Quelle einzubinden, die neuen Pakete zu installieren und Nautilus abschließend neu zu starten. Danach könnt Ihr über “Ansicht -> Extra Pane” oder über “F3″ die zweite Ansicht in Nautilus öffnen und dann Dateien von einer Spalte zur nächsten Verschieben bzw Kopieren.

22. November 2009

Ein kleines Usability-Monster unter vorangegangenen Ubuntu-Versionen war das hinzufügen von PPA-Schlüsseln. Ganz früher ging das noch mit gpg selbst, dass den Schlüssel abgerufen hat, dann in eine Datei gespeichert hat. Diese Datei hat man dann dem Werkzeug apt-key übergeben, dass den Schlüssel in seine Datenbank aufgenommen hat. Schließlich ging man irgendwann dazu über dieses ganze Szenario zu pipen; schaut nur wo wir jetzt sind!

sudo add-apt-repository ppa:xorg-edgers
Executing: gpg --ignore-time-conflict --no-options --no-default-keyring --secret-keyring /etc/apt/secring.gpg --trustdb-name /etc/apt/trustdb.gpg --keyring /etc/apt/trusted.gpg --keyserver keyserver.ubuntu.com --recv 165D673674A995B3E64BF0CF4F191A5A8844C542
gpg: Schlüssel 8844C542 von hkp Server keyserver.ubuntu.com anfordern
gpg: Schlüssel 8844C542: Öffentlicher Schlüssel "Launchpad PPA for xorg crack pushers" importiert
gpg: Anzahl insgesamt bearbeiteter Schlüssel: 1
gpg:               importiert: 1  (RSA: 1)

Heureka, ich nenn das Usability!


Comments

Wer Karmic Koala auf einem PowerPC-Klapprechner von Apple, also einem iBook oder Powerbook, einsetzt, wird es wahrscheinlich schon bemerkt haben. Der Akkuladestand wird im Panel nicht mehr angezeigt und die Energieverwaltung von GNOME bietet auch keinerlei Eigenschaften mehr an, Aktionen im Akkubetrieb festzulegen.

Ursache des fehlenden Akkus ist dieser Bug. Zum Glück lässt er sich einfach beheben. Man öffnet einen Editor und bearbeitet die Datei /etc/modules. Dort fügt man in einer neuen Zeile das Wort pmu_battery hinzu. Das sorgt dafür, dass beim nächsten Start das Modul pmu_battery mitgeladen wird und der GNOME Power Manager bzw. DeviceKit den Akku wieder wahrnehmen.

Never change a running system” …das kann ich heute wieder einmal bestätigen. Ab Ubuntu Karmic (9.10) wird die GCC (GNU Compiler Collection) Version 4.4.1 verwendet, immer wieder ist mein MPlayer mit VAAPI Unterstützung mit folgender Meldung hängen geblieben.

MPlayer interrupted by signal 11 in module: video_read_frame
- MPlayer crashed by bad usage of CPU/FPU/RAM.
Recompile MPlayer with --enable-debug and make a 'gdb' backtrace and disassembly. Details in DOCS/HTML/en/bugreports_what.html#bugreports_crash.
- MPlayer crashed. This shouldn't happen.
It can be a bug in the MPlayer code _or_ in your drivers _or_ in your gcc version. If you think it's MPlayer's fault, please read DOCS/HTML/en/bugreports.html and follow the instructions there. We can't and won't help unless you provide this information when reporting a possible bug.

In meinem Fall hat es geholfen den MPlayer mit cc=gcc-4.3 zu kompilieren, aber vorher sollten wir noch diese Pakete installieren.

aptitude install build-essential gcc-4.3 g++-4.3

Wer von euch den MPlayer inkl. VAAPI Unterstützung nach meiner Anleitung eingerichtet hat muss dazu nur noch folgendes ändern.

cd /usr/src/mplayer-vaapi-20091106
vi checkout-patch-build.sh

Fast am Ende des Shell-Scripts, diese Zeile…

./configure --enable-vaapi --disable-vdpau

…mit…

./configure --enable-vaapi --disable-vdpau --cc=gcc-4.3

…ersetzen.
Jetzt einfach ab diesem Punkt weiter machen. (HowTo)

./checkout-patch-build.sh

Fazit: Das Problem hätten wir dann auch aus der Welt geschafft! :mrgreen:
.

Hinweis: Mittlerweile existiert eine einfachere Möglichkeit der Synchronisation, nämlich über GVFS.

Endlich endlich endlich. Wie lang haben wir, die Linux-Nutzer und iPhone/iPod touch Besitzer zugleich sind, darauf gewartet, unser Gerät mit dem nun gar nicht mehr so neuen iPhone OS 3.0/3.1 zu synchronisieren. Bisher musste man sich mit Lösungen wie PwnPlayer oder VirtualBox behelfen, doch dies hat nun ein Ende, denn jetzt lässt sich Musik mithilfe von gtkpod direkt in die iTunesCDB synchronisieren, was heißt, dass die Dateien mit den nativen Programmen „Musik“ und „Videos“ („iPod“ beim iPhone) abgespielt werden können, inklusive CoverFlow, Schüttelfunktionen usw, so, als würde man ganz normal mit iTunes syncen.

Der Hacker Marcan beschreibt in einem Blogeintrag, wie man mit den aktuellen iPhone-Linux-Bibliotheken das iPhone/den iPod touch mounten und Zugriff auf die iTunesCDB erlangen kann. Das ganze ist noch etwas frickelig, man muss einiges selbst kompilieren, und da hier die allerneuesten Alphaversionen eingesetzt werden, sind sicher noch etliche Bugs vorhanden.

Ich hab das ganze unter Ubuntu 9.10 „Karmic Koala“ und einem iPod touch der 1.Generation mit OS 3.1.2 getestet und es funktioniert soweit super. Allerdings sollte man den Kram nur ausprobieren, wenn man bereits ein wenig Erfahrung mit Linux hat, da man hier leicht etwas kaputt machen kann. Es ist nicht unwahrscheinlich, das die hier aufgeführten Tools in der nächsten Ubuntu-Version (also Lucid Lynx) als Paket zur Verfügung stehen oder die Synchronisation out-of-box in Banshee, AmaroK oder Rhythmbox funktionieren wird. Einige Anmerkungen:

  • Installiert man die iPhone-Pakete über die Paketverwaltung, so sollte man nicht vergessen, auch die Development-Headers fürs kompilieren mitzuinstallieren, also die Dinge, die auf -dev enden.
  • Man sollte sein iPhone bereits einmal mit iTunes synchronisiert haben, damit eine iTunesCDB vorhanden ist.

Legen wir los. Als erstes braucht man natürlich die Standard-Tools, wie make, gcc und git, die man sich via apt-get besorgt:

$ sudo apt-get install build-essential cmake git-core checkinstall

Dann benötigen wir spezielle iPhone-Pakete. Für Ubuntu existiert eine Paketquelle. Unter System->Systemverwaltung->Software-Paketquellen fügt man folgenden Eintrag hinzu:

ppa:jonabeck/ppa

Nach einem

$ sudo apt-get update

kann man die iPhone-Tools installieren:

$ sudo apt-get install ifuse libiphone0 libiphone-dev libplist0 libplist-dev libusb-1.0-0 libusb-1.0-0-dev libusbmux0 libusbmux-dev

Und sicherstellen, dass der aktuelle User der Gruppe fuse zugehörig ist:

$ sudo adduser $USER fuse

Nun benötigen wir eine weitere Komponente: Die Bibliothek libgpod. Diese ist zwar in den Ubuntu-Quellen enthalten, allerdings nur in der Version 0.7.2. Deshalb müssen wir die Version 0.7.3 ohne unsere Kuschel-Paketverwaltung selbst kompilieren. Nach Entferunung der alten libgpod-Version…

$ sudo apt-get remove --purge libgpod4 libgpod-common

…kann die neue Version installiert werden:

$ git clone git://gitorious.org/~teuf/libgpod/teuf-sandbox.git
$ cd teuf-sandbox
$ CFLAGS="-g -O0" sh autogen.sh --prefix=/usr
$ make
$ sudo checkinstall

Hier gilt es, die Bildschirmausgaben genau zu lesen und fehlende Pakete über die Paketverwaltung nachzuinstallieren (nicht die Development-Headers vergessen!). Beim checkinstall-Assistent muss als Name „libgpod4″ und als Version „0.7.3GIT“ angegeben werden.

Hat alles geklappt, sollte man jetzt sein Gerät anschließen und es mounten:

$ sudo mkdir /media/iPod
$ sudo ifuse /media/iPod
$ sudo mkdir /media/iPod/iTunes_Control/Device

Damit das iPhone bzw. der iPod mit gtkpod verwendet werden kann, muss noch die UUID herausgefunden werden:

$ lsusb -v | grep -i iSerial

Im Konsolen-Output sollte jetzt eine 40-stellige Nummer zufinden sein. Diese brauchen wir für den nächsten Befehl:

$ tools/ipod-read-sysinfo-extended <UUID> <mountpoint>

Wenn im Verzeichnis /media/iPod/iTunes_Control/Device die XML-Datei SysInfoExtended auffindbar ist, kann man gtkpod öffnen. Ist gtkpod noch nicht installiert, reicht ein

$ sudo apt-get install gtkpod

um sich das Programm auf die Platte zu holen. Nach dem Start euer Modell auswählen, Songs hinzufügen und auf „Änderungen sichern“ klicken. Auf dem Bildschirm des iPhones bzw. des iPods sollte jetzt eine „Synchronisieren“ Meldung erscheinen, wie man sie von iTunes her kennt. Nach dem Start des Musik-Players ließt er die Datenbank neu ein, hier muss man ein wenig Geduld haben. Dies liegt daran, dass die iTunesCDB eigentlich nur von iTunes zur Synchronisation verwendet wird. Intern verwendet der iPod eine SQLite-Datenbank.

Und jetzt heißt es abtanzen!


Ob man nun Google Chrome oder Chromium mag oder nicht, dass muss Jeder für sich selber entscheiden, doch eines ist klar: Chromium ist ein ziemlich flotter Browser. Ich benutze ihn recht gerne auf einem leistungsschwachen Notebook, das unter Firefox praktisch bei jedem Öffnen einer Webseite anfängt zu lüften.

Doch das Fehlen von mir wichtigen Erweiterungen hindert mich von Anfang an Chromium als echte Alternative zu Firefox zu betrachten. Das für mich wichtigste Add-On PwdHash, über das sich sichere und individuelle Passwörter in Webseiten eingeben lassen, fehlt mir doch merklich.

Kleiner Abstecher: PwdHash ist eine Methode individuelle und sichere Passwörter für Webseiten zu Generieren und Einzugeben, ohne dass man sich dabei komplizierte Passwörter merken müsste. Ich persönlich möchte ohne PwdHash gar nicht mehr auskommen. Weitere Informationen findet ihr im Beitrag: Sichere Passwörter für Webseiten mit PwdHash

Seit einer Weile gibt es nun schon eine PwdHash-Erweiterung für Chromium, doch bislang war es mir nicht gelungen, sie fest in den Browser einzubinden. Die Erweiterung war immer nach einem Neustart des Browsers weg.

Die permante Installation ist eigentlich recht einfach. Man lädt das Archiv herunter, entpackt die .tar.gz Datei [1] und startet Chrome bzw. Chromium. Dort gibt man

chrome://extensions/

als URL ein [2] und klickt auf “Pack extension” [3]. Im darauf folgenden Dialog muss man nun nur noch den Pfad zum vorhin entpackten Ordner angeben.

PwdHash für Chromium installieren.

PwdHash für Chromium installieren.

Dadurch wird im selben Verzeichnis eine Datei namens pwdhash-chrome.crx erzeugt. Dies ist die fertig verpackte Erweiterung. Nun gibt man in die Adresszeile von Chromium einfach einen Backslash “\” ein und hangelt sich bis zur pwdhash-chrome.crx durch. Ein Klick auf die Datei installiert die Erweiterung. Das Vorgehen ist unter Windows identisch, allerdings kommt Ihr dort über die Eingabe von bspw. “C:” auf die Festplatte.

Kleiner Hinweis für Freunde des Fensters… Die aktuelle offizielle Version von Google Chrome besitzt noch keine Möglichkeit diese Erweiterung zu verwenden. Ihr braucht die Entwicklungsversion von Chrome, sprich Chromium. Geht daher auf dev.chromium.org und klickt unter “Subscribing to a channel” auf den Link zum “Dev channel”. Darüber wird dann Google Chrome zu Chromium aktualisiert.

Wer bis hierhin durchgehalten hat und keine Lust hat das Erweiterungs-Paket selber zu generieren, der kann die von mir erstellte Datei nutzen. Klickt einfach diesen Download an pwdhash-chrome.crx und schon wird PwdHash für Chrome/Chromium installiert.

21. November 2009

Was NVIDIA-Nutzer bereits länger durch VDPAU genießen können gibt es nun auch endlich für Linux: AMD/ATI Grafikkarten mit Videobeschleunigung für H264 und VC-1 Codecs durch XvBA.

BlueRay, HDDVD, und wie sie alle heißen. Auch aktuelle CPUs schaffen es nicht immer aktuelle Filmformate, mit hoher Bitrate, ruckelfrei abzuspielen. Auf meinem AMD Phenom mit 4x 2.6Ghz kam es bei 1080p (Full-HD) Videos mit Bitraten größer 8 MBit/s  öfters mal zu stotternder Videowiedergabe, asynchronem Ton und zu allgemein hoher CPU Auslastung. An BlueRay-Filme, die bis zu etwa 48 MBit/s ausliefern, war gar nicht zu denken.

Abhilfe soll nun das dekodieren auf der GPU schaffen. Das bedeutet, dass der Bärenteil der Arbeit auf der Grafikkarte erledigt wird, was die CPU entlastet.  Für NVIDIA gibt bereits VDPAU, das auch im beliebten MPlayer implementiert ist. Für AMD/ATI Grafikkarten Besitzer gibt es jetzt XvBA, dass ich bei mir auf dem System getestet habe.

Die Bibliothek von XvBA, eine Erweiterung für XVideo (xv), ist schon seit über einem Jahr im proprietären fgrlx Treiber von ATI enthalten, bis jetzt existierte jedoch noch keine Dokumentation dieses Features, und daher auch noch kein Patch für die Wiedergabe unter Linux.

Installation

Mit einem Skript des Phoronix-Forennutzers Kano wird die Installation erheblich erleichtert. Dieses installiert alle für Debian/Ubuntu benötigten Pakete selbständig. Zusätzlich muss man noch Mplayer mit VAAPI installieren, ein entsprechendes Skript (Update: klick) für Debian/Ubuntu gibt es auch schon. Eine genauere Anleitung zur Installation gibt es in einem Forenbeitrag bei Phoronix. Voraussetzung für die XvBA und die von Kano zur Verfügung gestellten Skripte ist ein Debian basierendes System und eine Radeon Grafikkarte der 4000 oder 5000er Serie.

Im Anschluss lässt sich die Videowiedergabe sofort über MPlayer mit GPU-Beschleunigung nutzen:

mplayer -vo vaapi:gl -va vaapi somefile.mkv

Erfahrungen

Nach meinen Erfahrungen der letzten Tagen sinkt die CPU-Last drastisch, die Filme laufen flüssiger. Allerdings ist es noch lange nicht so ausgereift wie der große Konkurrent VDPAU.

XvBA leidet bedauerlicherweise noch unter einigen Kinderkrankheiten, beispielsweise gibt es weder eine Unterstützung für Untertitel noch für das Abspielen mit einer der vielen grafischen Oberflächen von MPlayer. Bei einigen HD-Filmen kam es auch zu Farbfehlern, so dass die Wiedergabe einen Grünstich hatte und der Film (nein, es war nicht Hulk) im Wesentlichen ungenießbar wurde. Außerdem dauert das Spulen recht lange und das Bild stockt dabei. Wenn ein anderes Fenster über dem Wiedergabefenster war, kommt es zu Bildfehlern und ebenfalls zum Stocken des Videos. Wird das MPlayer Fenster wieder in den Vordergrund gerückt läuft das Video wieder normal. Außerdem kommt es angeblich bei bestimmten H264 Filmen zum Einfrieren des ganzen Systems, was ich aber bei mir nicht feststellen konnte.

Fazit: Wer schlechte Erfahrung mit der Wiedergabe von Videos mit hohen Bitraten gemacht hat, der sollte sich XvBA  auf jeden Fall einmal anschauen. Auch wenn es noch seine Schwächen hat, kann es sich mit angenehmen Abendstunden auszahlen.

Update: Die SVN Version von Mplayer kommt momentan nicht mit dem vaapi Patch zurecht, bitte nimmt deswegen diese Version.  Darüber hinaus geht XvBA nur mit der 9-10 Version der ATI Treiber. Es wird empfohlen dieses Skript mit -v 9-10 als Parameter zu verwenden um die treiber installiert zu bekommen.

Weiterführende Links:


Comments

Ich bin es wieder! :-) Mich gibt es noch und ich nutze weiterhin mit Begeisterung Ubuntu. Hatte nur viel um die Ohren (Umzug!!), weswegen ich mein Blog sträflich vernachlässigt habe.

Ganz kurz als “Auflösung” zum letzten Eintrag. Gekauft habe ich mir von Dell einen neuen Laptop:

Dell XPS 1530 mit Nvidia GeForce 8600M GT, 4 GB RAM, Intel Core 2 Duo CPU T9300 @ 2,5 GHz

Und ENDLICH habe ich darauf Ubuntu 9.10 Karmic Koala installiert. Hier also “kurz” meine Eindrücke. Und wie man das Frontmic zum laufen bekommt.

Ich habe zwar zuerst ein Update von Jaunty auf Karmic vorgenommen, was auch funktioniert hat. Jedoch hat sich alles nicht so “geschmeidig” angefühlt und meine Datenpartition war falsch eingebunden. Ausserdem wollte ich ja GRUB2 haben und /root und /home mit ext4 betreiben. Deswegen habe ich mich für eine Neuinstallation entschieden. Was ich ansich immer gern mache, weil dadurch das System halbjährlich von dem ganzen Mist, den man so probehalber installiert befreit wird.

Also Backup erstellt und dabei diesmal besonders aufgepasst, da ich ja diesmal mein /home auch formatiert habe.

Zur Installation brauch ich nicht viel sagen, lief wie gewohnt schnell und reibungslos. Eigentlich ist ja immer nur an einem einzigen Punkt Konzentration angesagt. Nämlich dann, wenn man Partitionen händisch vergibt und einige davon partitioniert werden sollen, andere aber unangetastet bleiben sollen. Ich habe übrigens wieder die 32-bit-Installation verwendet. Mit Ubuntu werden hier bis zu 4 GB RAM-Arbeitsspeicher erkannt. Vielleicht ja nächstes mal 64-bit… mal sehen.

Nach ungefähr 25 Minuten war die Installation abgeschlossen und mein Ubuntu startete mit einem jungfräulichem Karmic Koala. Ich persönlich kann nicht sagen, dass das starten schneller als mit Jaunty ist. Ich fand es ja da schon ziemlich flott und so ist es auch geblieben. Sieht alles ganz schick aus. Was mir als erstes aufgefallen ist, dass die Schriften anders geglättet sind. Am Anfang fand ich das irgendwie komisch, aber schon nach ungefähr 2 Stunden hab ich mich dran gewöhnt und würde jetzt wahrscheinlich die alte Darstellung komisch finden. ;-)

Schon der Anblick des stufigen Verlaufs des Hintergrundbildes sagte mir: jetzt mal gleich den Grafiktreiber installieren. Bequem wie immer habe ich das über Ubuntus Hardware-Treiber-Assistent gemacht und damit den Nvidia Treiber version 185 installiert. Ein Neustart später sah alles wunderbar aus. So richtig geschmeidig und hübsch. Erst nach ner Weile hab ich realisiert, dass ja Compiz jetzt schon per default nach der Installation eines passenden Treibers aktiviert ist. In der Standardeinstellung ist das wirklich sehr hübsch, ohne wabbelige Fenster oder den ganzen Schnickschnack. Einfach ein paar Schatten, geschmeidige Animationen. Gefällt mir! :-) Wer mehr will kann ja mit einem rechtsklick auf den Desktop, “Hintergrund der Arbeitsfläche ändern” > “Visuelle Effekte” auf “Extra” gehen und bekommt dann wabbelige Fenster. Und wer nochmehr will installiert sich einfach das Paket

compizconfig-settings-manager

dass dann unter “System > Einstellungen” zu finden ist. Hier lassen sich ganz bequem Compiz-Plugins aktivieren und deaktivieren. Ich sage nur “Würfel”!

Jetzt aber mal Butter bei die Fische – was geht denn jetzt alles an Hardware “out-of-the-box” mit meinem Dell XPS 1530?

LAN – ja
WLAN – ja
Grafik – ja (nach installation des Nvidia-Treibers auch 3D und Compiz)
eingebaute Webcam – ja
Sound – ja
eingebautes Mikro – ja
Frontmikro – ja (aber erst nach einer besonderen Einstellungen, dazu gleich mehr)
Bluetooth – ja (Probiert mit meinem Nokia 6300)
Fn-Tasten für Helligkeit, CD-Auswurf – ja
Multimedia-Tasten – ja
Card-Reader – ja
USB-Eingänge – ja

Fingerabrucksensor – keine Ahnung, noch nie ausprobiert
Firewire – keine Ahnung, da kein externes Firewire-Gerät
HDMI-Ausgang – keine Ahnung, siehe oben

Habe ich etwas vergessen? Wenn ja, brauch ich es nicht oder habe im Moment kein externes Gerät zum ausprobieren.

Ich muss gestehen, ist jetzt alles fast ein bisschen langweilig, da keine Katastrophen zu berichte sind – es geht einfach alles. Ansonsten gibt es ein paar Neuigkeiten unter der Haube. Augenscheinlich für mich war das andere Fontaliasing und der Software-Center. Der ist ganz nett zum stöbern, leider kann man nur ein Programm gleichzeitig installieren. Somit ist für mich Synaptic immer noch das Mittel zur Wahl. Aber ganz nett ist es.

Ubuntu One

Ach ja, Ubuntu One gibt es ja auch noch! Auf den ersten Blick nichts wirklich neues. Jeder kann jetzt auf 2GB Plattenplatz auf einem Ubuntu (Canonical)-Server verwenden zur Ablage eigener Dateien. Wer mehr Platz braucht (50GB) kann 10 US$ löhnen und diese dann erhalten. Das ist nett, bieten ja aber mittlerweile einige Anbieter an.
Was aber wirklich sehr schön daran ist, ist die Integration in den Ubuntu-Desktop.

Ubuntu One Integration in Nautilus

Ubuntu One Integration in Nautilus

Ganz bequem kann man hier über den Nautilus-Filemanager Dateien auf den Server hochladen und auch Order für andere freigeben.

Ubuntu One - Ordner freigeben

Ubuntu One - Ordner freigeben

Um Ubuntu-One nutzen zu können, benötigt man einen Launchpad-Account. Jaunty-User können Ubuntu-One auch nutzen.

OK, aber eines habe ich:

Frontmikro aktivieren

Jaaaaa…. endlich! Ich kann was berichten. Karmic setzt ja jetzt mehr denn je auf Pulseaudio. Wenn ihr mit rechtsklick auf das Laustprechersymbol klickt und dann “Einstellungen” auswählt, bekommt ihr auch nicht mehr den gewohnten Alsa-Mixer sondern die PulseAudio-Einstellungen. Diese langen leider nicht, um das das Frontmikro in Betrieb zu nehmen. Nur die Auswahl “Microphone 2″ ist leider nicht genug.
PulseAudio

Was also tun, wenn einem das eingebaute Mikro nicht genügt und man den vorderen Mikrofon-Eingang braucht?

Hier muss man doch wieder auf den guten alten Alsamixer zurückgreifen. Dieser ist zwar nicht mehr ganz so hübsch mit der richtigen GUI erreichbar aber do doch noch mit einer “halben” GUI.
Dazu im Terminal den Befehl

alsamixer

eingeben. Im Terminal bekommt ihr dann den Alsamixer. Am besten ihr zieht das Fenster etwas breiter, dann seht ihr alle Regler. Ihr seid zu Anfangs in den [Playback] Einstellungen. Seht ihr oben unter “View”. Die Einstellungen könnt ihr mit der mit der Tab-Taste durchgehen. Playback, Caputure, all.
Als erstes brauchen wir “Playback”. Hier geht ihr mit der Pfeiltaste (nach rechts) zu und wählt dort “Analog I” aus (mit Pfeiltaste nach oben/unten).

Alsamixer Playback-Einstellungen

Alsamixer Playback-Einstellungen

Mit der Tab-Taste nun zum Bereich [Capture] wechseln. Hier gibt es drei Input-Sources. Wie vorher wählt springt ihr mit der Pfeiltaste zu den entsprechenden Reglern und stellt diese nun (mit Pfeiltaste nach oben) alle drei auf “Front Mi”.

Alsamixer Capture-Einstellugen

Alsamixer Capture-Einstellugen

Mit der Escape-Taste beendet ihr den Alsamixer.

Das war’s auch schon. Zum Test einfach mal ein Mikrofon in den vorderen Eingang stecken und einfach mal mit dem Gnome-Audio-Recorder ausprobieren.

Nochwas zu Webcams

Die eingebaute Webcam des Dell verwendet den UVC-Treiber, der nun auch out-of-the-box von Ubuntu unterstützt wird. Ausprobiert habe ich die Cam mit Skype, Cheese und Pidgin. Camorama kann mit dem UVC-Treiber leider nicht umgehen, da immmer noch nur V4L unterstützt wird, nicht V4L2. Wir Camorma überhaupt noch weiterentwickelt? Wäre irgendwie Schade, wenn nicht.

Außerdem werden Webcams unterstützt, die den PWC-Treiber verwenden, wie zum Beispiel meine externe Webcam Philips SPC900NC/00. Super Teil übrigens, macht gute Bilder auch bei schlechter Beleuchtung. Mein Webcam-Tipp deswegen.

Und – endlich werden auch wieder Cams “einfach so” unterstützt, die den gspca-Treiber verwenden. Habe das mit zwei meiner alten Logictec-Cams ausprobiert.
Somit sollten jetzt wirklich die meisten Webcams unterstützt werden. :-D

Das wars soweit von mir erstmal. Man könnte sagen, ich bin mal wieder glücklich und zufrieden mit meiner Kombination Dell-Laptop und Ubuntu. Ach ja… fällt mir ein, dass das der erste Laptop komplett ohne Windows-Installation ist. Habe diesen Laptop ja schon seit Februar und noch keine Notwendigkeit gesehen, Windows darauf zu installieren. Eine Partition habe ich dafür sogar vorgesehen, aber die ist nach wie vor leer! ;-)

Nach dem Upgrade auf Karmic Koala findet man natürlich doch das eine oder andere Problemchen. Also alles wie immer und langweilig wird Ubuntu damit auch nicht. :-)

TTCut 0.19.6 funktioniert nicht mehr. Jedenfalls wenn man den Encodingmodus benutzt. Der Grund ist wohl, dass sich die Parameter für transcode in den neueren Versionen anscheinend geändert haben und TTCut mittlerweile schon eine Weile nicht mehr upgedatet wurde. Ärgerlich aber kein großes Problem, da bereits eine Lösung im Netz bereit steht. Hey, so funktioniert FLOSS.

Wer nicht lange rummachen will, kann hier ein von mir erstelltes Debian-Paket herunterladen:

Für alle Bastler folgt nun die Kurzanleitung. Benötigt wird neben dem Quellcode von TTCut 0.19.6 auch die .diff-Datei aus diesem Post. Jetzt erstmal TTCut entpacken und die .diff-Datei in das gleiche Verzeichnis kopieren.
Um den Patch anzuwenden genügt dieser Befehl im ttcut-Ordner:

patch -p1 < *.diff

Die weiteren Schritte sind netterweise in der Datei INSTALL.DE beschrieben. Dort stehen auch die benötigten Bibliotheken.

  1. qmake ttcut.pro -o Makefile.ttcut
  2. make -f Makefile.ttcut

Und damit hat man die ausführbare Datei auch schon erstellt.

20. November 2009

Mit gtk-recordMyDesktop kann man kinderleicht ein Video des Desktops aufnehmen. Die Anwendung ist sehr einfach zu verstehen, entweder man  nimmt den kompletten Bildschirm auf, wählt ein einzelnes Fenster oder selektiert einen bestimmten Bereich des Desktops. Kleiner Hinweise hierfür: für die Aufnahme eines bestimmten Bereiches muss man sein “Aufnahme-Rechteck” im Vorschaubild ziehen (siehe Bild).

Ist man mit dem Aufnehmen des Videos fertig, klickt man oben im Panel auf das weiße Quadrat. Danach wird eure Videoaufnahme encodiert und das fertige Video steht dann in eurem Persönlichen Ordner bereit.

Zur Installation von gtk-recordMyDesktop gebt ihr folgendes im Terminal ein:

sudo apt-get install gtk-recordmydesktop

Man stelle sich vor zur Benutzung von Microsoft Windows 7 müsste man einen Webmail Account bei Microsoft haben und die Anmeldung am Betriebssystem erfolgt über diesen Account. Dabei wird natürlich über das Internet überprüft, ob Benutzername und Passwort passen. Ohne Internetverbindung also keine Anmeldung. Microsoft wüsste genau wer den Rechner benutzt, wann und wie lange. Um das ganze noch zu verbessern, kann man keine Anwendungen unter Windows 7 installieren – man hat ja den Internet Explorer und alle Webanwendungen der Welt.

Unvorstellbar – oder? Wie groß wäre der Aufschrei, wenn man ein MS Benutzerkonto bräuchte zur Anmeldung am Rechner? Was würde die EU Kommission dazu sagen oder die Medien? Es wäre wohl der größte Datenskandal denn es je gab. Wie komme ich also auf einen solchen Quatsch?

Ja dieser Quatsch nennt sich Google Chrome OS, wie es gestern vorgestellt wurde. Ohne Google Account kann man sich nicht einloggen. Ohne Internet kann man sich nicht einloggen. Anwendungen wozu? Es gibt doch den Chrome Browser. Alles was man macht geht direkt an Google. Ich hatte ja schonmal über Google Chrome OS gebloggt, aber das was jetzt vorgestellt wurde, ist ja noch schlimmer als was ich damals aus den geringen Infos rausgeholt hatte. Man muss sich das mal vorstellen: man besitzt die Hardware und ein dritter bestimmt ob ich sie nutzen darf. Toll das es OpenSource ist, das hilft da auch nicht mehr.

Es kommt selten vor, dass ich einem Open Source Projekt Misserfolg wünsche (ja selbst GNOME wünsche ich Erfolg ;-) ), aber Google Chrome OS stellt einen Angriff auf unser Recht auf informationelle Selbstbestimmung dar, wie es selbst Schäuble nicht schaffte. Gut OK, jeder kann sich selbst überlegen ob er Chrome OS nutzen will oder nicht. Jeder hat es selbst in der Hand. Was ist aber wenn es viele Leute nutzen und unser Staat dann sagt: Die Infos will ich auch. Wird das Verfassungsgericht noch nein sagen, wenn wir die informationelle Selbstbestimmung freiwillig aufgegeben haben? Ich bin da sehr skeptisch

=-=-=-=-=
Powered by Blogilo

Chromium OS Anmeldung

Chromium OS Anmeldung

Gestern wurde das viel erwartete Netbook Betriebssystem von Google, mit dem Namen Chrome OS vorgestellt und heute ist es als VMWare Image zum Download verfügbar. Nach Freigabe des Quellcodes als Open Source hat sich die Open Source Gemeinde schnell daran gemacht ein funktionierendes System auf die Beine zu stellen.

In den frühen Morgenstunden war es geschafft und Chromium OS stand zum Download bereit. Der Download steht als Torrent zur Verfügung, oder kann, sofern man einen gdgt.com Account hat, direkt heruntergeladen werden, denn gdgt.com hostet freundlicherweise eine Mirror fürs Chromium OS.

Chromium OS

Chromium OS

In VMWare oder, wie in meinem Fall VirtualBox, eine virtualle Maschine erstellen, ihr den Typ Linux/Ubuntu zuweisen und das VMDK-File laden, dann kann es losgehen. Am System meldet man sich mit einem bestehenende Google Benutzeraccount an. Daran denken, vor der erfolgreichen Anmeldung am System ist das Tastaturlayout auf Englisch eingestellt, also nicht wundern wenn euer Passwort, sofern es sinnvoller Weise Sonderzeichen enthält, beim ersten Versuch nicht klappt. Einfach nochmal eingeben und bedenken wo das jeweilige Sonderzeichen auf der englischen Tastatur liegt.

Viel Spass beim Testen!

(via TechCrunch)

Ähnliche Beiträge:

  1. Google Wave Server freigegeben
  2. Wordpress 2.9 Carmen ist verfügbar
  3. Google Chrome OS Pressevorstellung

Eine der großen Änderungen von Ubuntu 9.10 Karmic Koala ist die Einführung des neuen GDM2. Dieser hat seine Vorteile, aber auch seine Nachteile. Einer der letzteren ist z.B., dass das Trommelgeräusch nicht mehr visuelle abschalten lässt. Dieses Geräusch ertönt zusammen mit dem Anmeldebildschirm und trieb den einen oder anderen Linuxbenutzer die Schamröte ins Gesicht, wenn ein Zuschauer anwesend war (habe ich munkeln gehört ;-) ).

Um diese Pain zu ersparen habe ich folgenden Lösungsansatz: folgender Terminalbefehl genügt:

sudo -u gdm gconftool-2 --set /desktop/gnome/sound/event_sounds --type bool false

Früher – also vor Karmic – konnte man dies über System → Systemverwaltung → Anmeldebildschirm anpassen, doch dieses wurde, aufgrund von GDM2, verändert:

Früheres Einstellungsmenü für GDM

Früheres Einstellungsmenü für GDM

Jetziges Einstellungsmenü für GDM2

Jetziges Einstellungsmenü für GDM2

Um auch den Anmeldeton (nach erfolgreicher Anmeldung) abzuschalten, entfernt man den Haken bei GNOME Login Sound unter System → Einstellungen → Startprogramme

GNOME_Login_Sound

(via)

Artikel teilen: Digg del.icio.us Facebook Google Bookmarks Identi.ca Reddit Slashdot Twitter Yahoo! Buzz Yigg MisterWong.DE

Weil Roman letzte Woche schon gefragt hat, nach seinem Offlinestöckchen. Es wird dieses Jahr keine geben. Ich hätte schon sehr gerne welche verschickt, hat mir eben Spaß gemacht anderen eine kleine Freude gemacht zu haben. Aber es gibt dieses Jahr eben keine Postkarten und selbst wenn es welche gäbe, kann ich einfach wohl kaum für diese Veranstaltung mehr Werbung machen. Otium hat es bereits letzte Woche angemerkt, da muss etwas ernsthaftes vorgefallen sein. Letztes Jahr hab ich noch ab Mai jede freie Minute in diese gewisse Veranstaltung gesteckt und das wirklich bis kurz vor Beginn des  Events. Während andere dieses “Teams” im Rotweinsuff im Bett lagen, hab ich Tag und Nacht geschuftet. Weihnachtsfeiertage hatte ich keine, denn die hab ich arbeitend vorm Laptop verbracht. Wochenenden wurden mir mit voller Absicht von bestimmten Leuten dieses “Teams” versaut. Ich glaube das hat auch jeder hier mitbekommen, ich habe nämlich so gut wie gar nicht gebloggt. Und dafür bin ich am Ende in den Arsch getreten worden.  Venty wollte letztens schon die –verbose Fehlermeldung. Und eigentlich nicht nur der, sondern einige andere waren auch schon persönlich bei mir und haben gefragt was los ist. Hier kann ich kann ich keine Antwort geben und das läßt sich auch nicht in 3 Sätze packen. Aber eines könnt ihr mir glauben das ist der blanke Intrigantenstadl und die treten auch noch rigeros nach. Man findet also keine Ruhe. Innerhalb  dieses “Teams” gibt es schon einige die glauben, dass ich im recht bin nur die trauen sich nichts zu sagen, weil sie Angst haben dann so zu enden, wie ich. In diesem “Team” gibt es sehr hochnäsige Arschlöcher, die seit langer Zeit keine Nase mehr in die Linuxcommunity mehr gesteckt haben- mir aber erklären müssen, wie die tickt. Die umgeben sich mit so dicken Selbstweihrauchschwaden das einem richtig speiübel wird. Die Projekte sollten es gemerkt haben, Begrenzungen der Teilnehmerzahl und warum damit der Social Event nicht aus den Nähten platzt. Es geht schon lange nicht mehr um FLOSS es geht nur noch darum sich selbst zu feiern. Da wird extra Wein verkostet oder man muss unbedingt 5 Gänge Menüs ordern, es geht nur noch ums fressen und saufen. Bitter in dieser Beziehung ist da hören zu müssen, dass es dieses  Jahr das erste Mal einen Freiwilligen gäbe, der ein zweites Mal die Linuxnacht betreut und aufs Freßgelage verzichtet. Tja und das sind so die Momente wo es schon weh tut, hat der Aussagende vollkommen vergessen, dass ich auch jahrelang darauf verzichtet hab. Ich höre schon, wie sie sich abfeiern wie toll sie doch sind, dass sie so etwas hier hinbekommen. Was solls ist nicht das erste Mal, dass  sich da jemand Federn an den Hut steckt, die er nicht selbst geschossen hat. Eigentlich könnten mir die Arschlöcher ja den Buckel runter rutschen, aber wie gesagt sie lassen einen ja nicht mal zufrieden.

Der Intrigantenstadl lebt letzendlich nur von seinem guten Ruf und vom schlechtem Ruf des LinuxTag (jaa jaa Marko ich weiß habt ihr nicht). Weil wir gerade beim LinuxTag sind. Hier zeigt sich ganz deutlich das wahre Gesicht des Intrigantenstadl. Es gab im Jahre 2008 nämlich ein Treffen der Organisatoren des LinuxTag mit Vertretern der Intrigantenstadlveranstaltung. Letzendlich waren wir nur zu zweit zur FrOSCon, wo das Treffen statt fand. Mir hat man versucht einen Maulkorb zu verpassen und die Auflage war “nicht zustande kommen lassen alles auf die lange Bank schieben”. Feine Sitten oder?

Nun es liegt eindeutig an euch, ob ihr weiterhin eine Veranstaltung unterstützen wollt, bei der es eindeutig nicht mehr um Linux oder Open Source, bei der einige der Veranstalter nicht mal wissen wo der Unterschied zu freier Software ist. Bei der es eigentlich nur noch um die Selbstdarstellung weniger geht und ums Fressen und Saufen.

Wer mehr Intrigen hören will, der kann gut und gerne noch mehr von mir erfahren. Ich für meinen Teil rate lieber allen, dieses Angebot hier wahrzunehmen. Laßt uns den LinuxTag wieder zu einer eindeutigeren Communityveranstaltung machen, bleibt im März einfach einmal fern und steckt Kraft und Energie lieber in den LinuxTag. Das dürfte den Intrigantenstadl wohl im Jahr darauf zur Besinnung gebracht haben. Die brauchen erst einmal wieder klare Luft, damit die wieder klarer sehen können, was sie angerichtet haben. Und damit hab ich wohl jetzt den Mythos zerstört.

Ein frisches Ubuntu 9.10 und nun möchte man noch ein paar zusätzliche Tastaturbelegungen installieren. Nichts leichter als das. Unter System -> Einstellungen -> Tastatur kann man unter Belegungen neue Tastaturbelegungen problemlos hinzufügen. Doch wie schaltet man die Belegung nun um? Dazu fügt man sich zum Panel oben (oder unten, je nach Geschmack) den Tastaturindikator hinzu und schon kann man die Belegungen problemlos wechseln.

19. November 2009

Mein altes Medion MD96400 geht in den Ruhestand.Die Daten im Überblick: AMD Turion x64, 512 MB RAM, 60GB Festplatte. Seit 3 Jahren mir, seit 2 Jahren mit Ubuntu.

Nachfolger ist das Samsung N130, 1,6Ghz Intel Atom-Prozessor, 1 GB RAM, 160 GB Festplatte.

Neben dem DVD-Laufwerk fiel auch der Bildschirm dabei der Radikalkur zum Opfer: 1280 x 800 in 13″ werden zu 1024 x 600 in 10,2″. Insgesamt aber kein Schritt, den ich bereue, bis jetzt.

Schade finde ich, dass die Möglichkeiten, mich von Windows auf dem kleinen Notebook zu trennen, so viele Nachteile haben. Zuerstmal wird die Reichweite des WLAN kleiner. Dann funktionieren die Info-Keys nicht mehr und zusätzlich die Stromsparfunktionen nicht. Das hat mich dazu veranlasst, die Windowsinstallation nicht zu löschen, sondern auf dem Notebook zu lassen und damit zu arbeiten. Nicht schön, aber besser, als die Akkulaufzeit einzuschränken, weil ich das Display nicht dunkler bekomme. Sonst hätte ich liebend gerne nichts anderes getan, als die Kiste zu rasieren und mit einem 9.10 zu starten.

Das habe ich jetzt nur in einer Wubi-Installation zum Dual-Boot laufen. Besser als nichts. Und man sollte ohne Tux-Power nie das Haus verlassen.

Nun, wir werden sehen, wie sich das Gerät in Zukunft schlägt, aber ich bin da guter Dinge. Im übrigen ist das Gerät schneller da als das alte Notebook, welches auch unter Windows schon ein wenig lahmte.

Also, es betrifft Linux wohl nur am Rande, aber ich schreibe es dennoch hier.

Ich war am letzten Wochenende bei einem Gig von Windstärke Sieben, und wollte nun (Habe die Erlaubnis der Band) zwei kleine dort gemachte Videoclips online stellen. Da ich da einen FLV-Player integriert habe, der auch als solches funktioniert, wollte ich auch dieses Format dafür nehmen.
Also flugs mit Avidemux FLVs erstellt, und hochgeladen. Aber... das Ding ruckelt nur. Habe spaßeshalber mal dermaßen weit die Größe minimiert, indem ich die Bildgröße verändert habe und auch die Audio-Qualität, aber nichts. Es ruckelt nur, und die Dateien können nicht zu groß sein (bin bis 16 MB für 5 Minuten runter gegangen).
Das gleiche nochmal direkt aus Kdenlive, aber auch dort das gleiche Ergebnis. Lokal spielen die einwandfrei, aber sobald es über den FLV-Player geht...
Sicherheitshalber mal von Youtube einen Clip runtergezogen und da eingebaut. Das Ding läuft einwandfrei. Also wieso ruckelt das jetzt?
Ich habe das zuletzt gebraucht, als ich noch mit Billys System in Gange war (damals mit SUPER gewandelt).
Gibt es irgendeine Spezifikation, die man kennen sollte?

Es ist ziemlich frustrierend, immer wieder das gleiche Video zu rendern und hochzuladen. *g*

EDIT: Habe es mit mencoder hin bekommen, kein Ruckeln.
Was die in den Kommentaren genannten Alternativen angeht, danke, werde sie bei Gelegenheit austesten. :o)

Ergänzend zur Vorbereitung von unserem Ubuntu für den VAAPI-Support, nun das Tutorial das der MPlayer VAAPI als Hardwarebeschleuniger nutzt. Gwenole Beauchesne hat den MPlayer schon bestmöglichst für VAAPI vorbereitet.

Linux SMPlayer

EDIT: Achtung bei Ubuntu Karmic 9.10 mit GCC Version 4.4.1

cd /usr/src
wget http://www.splitted-desktop.com/~gbeauchesne/mplayer-vaapi/mplayer-vaapi-latest.tar.bz2
tar xvfj mplayer-vaapi-latest.tar.bz2
cd mplayer-vaapi-20091106
aptitude build-dep mplayer
./checkout-patch-build.sh
cd mplayer-vaapi
make install
ldconfig

Jetzt noch unser Front-End für den MPlayer > SMPlayer

cd /usr/src
wget http://downloads.sourceforge.net/smplayer/smplayer-0.6.8.tar.bz2
tar xvfj smplayer-0.6.8.tar.bz2
cd smplayer-0.6.8
aptitude install qt4-qmake ibqt4-dev
make && make install
ldconfig

SMplayer wie auf den Screenshots konfigurieren.

Linux SMPlayer VAAPI Settings #1

Linux SMPlayer VAAPI Settings #2

Linux SMPlayer VAAPI Settings #3

Linux SMPlayer VAAPI Settings #4

Achtung! Screenshot Funktion muss deaktiviert werden damit wir nicht diesen Fehler erhalten.

Could not find matching colorspace - retrying with -vf scale...
Opening video filter: [scale]
The selected video_out device is incompatible with this codec.
Try appending the scale filter to your filter list,
e.g. -vf spp,scale instead of -vf spp.

FATAL: Could not initialize video filters (-vf) or video output (-vo).

Exiting... (End of file)
ID_EXIT=EOF

PS: Den MPlayer ohne Front-End startet man mit folgenden Optionen.

mplayer -vo vaapi -va vaapi /path/of/file

.

Das Thema ging noch nicht durch die deutsche Presse bzw. Blogosphäre, daher mache ich mal den Anfang. Im brandneuen Fedora 12 gibt es eine recht ärgerliche konzeptionelle Schwachstelle. Jeder Desktop-User kann ohne die Abfrage einer Autorisierung Software im System installieren.

Signierte Pakete aus signierten Paketquellen lassen sich in den Standardeinstellungen von PolicyKit ohne Root-Rechte installieren. Dieses Verhalten stößt nun einigen Anwendern übel auf und sorgt für viel Wind im oben verlinkten Bug-Report. Wer die übliche Einstellung wieder haben will, der sollte von Hand die Datei /var/lib/polkit-1/localauthority/20-org.d anlegen und folgendes…

[NoUsersInstallAnythingWithoutPassword]
Identity=unix-user:someone;unix-user:someone_else
Action=org.freedesktop.packagekit.*
ResultAny=auth_admin
ResultInactive=auth_admin
ResultActive=auth_admin

…als Inhalt einfügen. Weiter Informationen zu dieser Änderung finden sich mittlerweile auch in den Release Notes.

[UPDATE 20.11.2009] Laut Berichten in diversen Medien wurde dieses Verhalten nun mit einem Update wieder auf den alten Stand gebracht. Somit braucht man auf jeden Fall wieder Root-Rechte, um Software installieren zu können. [/UPDATE]

Die Bildbearbeitung The Gimp ist seit langen Jahren DIE Bildbearbeitung unter Linux. Es gibt praktisch keine große GNOME-Distribution, die The Gimp nicht vorinstalliert. Doch was müssen meine müden Augen sehen?… Berichten zufolge fliegt der gute alte Gimp aus dem Standardsetup der nächsten Ubuntu-Version. Die Gründe dafür sind angeblich…

  • Ottonormalbenutzer verwendet das Programm nicht.
  • Die Oberfläche ist zu kompliziert.
  • Gimp richtet orientiert sich an den Anforderungen für professionelle Bildbearbeitung.
  • User wollen einen simplen Weg Fotos zu bearbeiten, sie können das mit F-Spot.
  • The Gimp steht in Konkurrenz zu Photoshop, und das ist bekanntlich nicht auf Windows vorinstalliert.
  • Gimp nimmt viel Platz auf der CD weg.

Alles in allem sind das alles valide Gründe. Ich halte The Gimp auch nicht für DIE Bildbearbeitung, die von Haus aus vorinstalliert sein sollte. Aber, was sind aktuell die Alternativen? F-Spot? Das ist doch ein schlechter Witz. F-Spot kann vieles, auch rudimentäre Bildbearbeitung. Man kann Farbwerte ändern, rote Augen entfernen oder Bilder zuschneiden. Doch das wars… Wie soll man einen Screenshot mit einem Pfeil versehen? Wie die Leute auf einem Gruppenfoto mit einem Namen versehen? Ubuntu wird das nicht mehr von Haus aus können.

Es hört sich nach einem Witz an, aber Linux (speziell GNOME) braucht ein (besseres) MS-Paint. Programme wie Nathive sind leider noch nicht so weit. Andere Alternativen wie Tux Paint, XPaint oder Kolorpaint erfüllen zwar ebenso den Anspruch einer “einfachen” Bildbearbeitung, sind jedoch für Kinder ausgelegt, sehen unglaublich hässlich aus, oder sind für die falsche Desktopumgebung geschrieben worden. So lange es also kein bessere gtk-basierendes MS-Paint gibt, so lange sollte man an GIMP als vorinstallierte Bildbearbeitung unter Ubuntu festhalten.

“Wat de Buer nich kennt dat freet he nich!” heißt ein bekanntes plattdeutsches Sprichwort und als alter Niedersachse halte ich mich da natürlich dran. Ich bin zur Zeit einfach noch nicht bereit, auf KDevelop 4 umzustellen und habe daher nach einem Weg gesucht, KDE3-Programme unter Ubuntu 9.10 “Karmic Koala” zu installieren. Bei Kubuntu gibt es eine Gruppe, die das ähnlich sieht wie ich und für diesen Zweck eine KDE3-Repo bei Launchpad bereit gestellt hat. Dazu muss man die beiden folgenden Zeilen entweder zur Datei /etc/apt/sources.list oder extra als Datei in /etc/apt/sources.list.d hinzufügen:

deb http://ppa.launchpad.net/kde3-maintainers/ppa/ubuntu karmic main
deb-src http://ppa.launchpad.net/kde3-maintainers/ppa/ubuntu karmic main

Außerdem braucht man noch einen mit GPG signierten Schlüssel:

wget http://apt.pearsoncomputing.net/public.gpg 
sudo apt-key add public.gpg

KDevelop 3 habe ich dann mit Apt installiert:

sudo apt-get update
sudo apt-get install kdevelop-kde3 kde-i18n-de-kde3

Das Programm befindet sich anschließend unter /opt/kde3/bin/. Damit das Verzeichnis auch im Suchpfad für Programme auftaucht, muss man die Umgebungsvariable PATH um folgenden Eintrag erweitern:

PATH="$PATH:/opt/kde3/bin/"

Damit der Eintrag dauerhaft bleibt, kann man das Ganze in die Datei $HOME/.bashrc schreiben, um sie danach mit source $HOME/.bashrc neu einzulesen:

export KDEDIR=/opt/kde3
export PATH=$PATH:/opt/kde3/bin
Hier kommt mal ein wenig Basiswissen zu Domains.

Es werden bei der Vergabe von Domains vier Rollen unterschieden: Der Domaininhaber (Holder), der administrative Kontakt (Admin-C), der technische Kontakt (Tech-C) und der Zonenkontakt oder Nameserver-Verwalter (Zone-C).

Der Domaininhaber ist der Besitzer (kann auch eine Firma sein) der Domain und benennt (oder beauftragt) die anderen Funktionsträger.

Der administrative Kontakt stellt den Ansprechpartner (tatsächlich eine Person) für die Domain dar und ist auch der Hauptkontakt für rechtliche Fragen. Im privaten Bereich sind Domaininhaber und administrativer Kontakt meist identisch. Für de-Domains muss der Ansprechpartner eine Adresse in Deutschland haben.

Der technische Kontakt ist der Betreuer der Domain in technischer Hinsicht, hier finden sich meistens die Provider, falls man nicht selber einen root-Server betreut.

Der Zonen-Kontakt ist der Verwalter der Nameserverinhalte und ist meistens identisch mit dem technischen Kontakt.

All diese Daten lassen sich per Whois erfragen. Dafür gibt es ein Kommandozeilentool, was in den meisten Linuxdistributionen enthalten ist, aber auch zahlreiche Webtools sind vorhanden.

Ich nutze häufig DNS Tools, DNS Stuff oder auch iWhois.

Weil die Daten so öffentlich sind, ist es mir häufig ein Rätsel, warum Domaineigentümer sich manchmal anstellen, Ihre Adresse herauszurücken.

Ach, ja, der Denic, die Vergabestelle für de-Domains, untersagt es wohl, Holder- und Admin-C-Daten automatisiert abzuholen. Über die verlinkte Webseite ist es aber dennoch möglich.

Sei dem Wechseln auf eine Nvidia-Grafikkarte hatte sich der Videoplayer VLC immer direkt beendet, wenn ein Video abgespielt werden sollte.

VLC media player 0.8.6e Janus
[00000346] main private error: option glx-shm does not exist
X Error of failed request:  BadMatch (invalid parameter attributes)
  Major opcode of failed request:  128 (GLX)
  Minor opcode of failed request:  31 ()
  Serial number of failed request:  52
  Current serial number in output stream:  53
Locking assertion failure.  Backtrace:
#0 /usr/lib/libxcb-xlib.so.0 [0x47b82767]
#1 /usr/lib/libxcb-xlib.so.0(xcb_xlib_lock+0x2e) [0x47b8281e]
#2 /usr/lib/libX11.so.6 [0x47bc5518]
#3 /usr/lib/libX11.so.6(XESetCloseDisplay+0x31) [0x47ba88d1]
#4 /usr/lib/libGL.so.1 [0x4f419549]

Helfen kann es, das Programm ohne Video zu starten und das Ausgabemodul auf X11 umzustellen.

Dafür muss zuerst in "Einstellungen -> Video" der Haken bei "Erweiterte Optionen" gesetzt werden (via)

identi.caSeit einigen Monaten nutze ich identi.ca, ein Dienst, der ähnlich wie Twitter funktioniert, im Moment aber noch bessere Features anbietet. Damit lassen sich Kurznachrichten absetzen, welche von den Nutzern gelesen werden, die mich quasi abonniert haben und umgekehrt. identi.ca basiert auf Laconica, welches frei ist und unter der GNU Affero General Public License steht. Mir gefällt identi.ca, weil sich darin viel weniger Menschen als bei Twitter aufhalten, es ist ruhiger, angenehmer. Natürlich spielt es eine Rolle, welchen und wievielen Nutzern ich folge. Ausserdem finde ich dort viele Linux- und Ubuntu-Leute.

Twitter funktioniert in etwa gleich, nutzt aber keine freie Software und – was für meine Verhältnisse dem Dienst das Genick bricht – auch die Nachrichten, welche die Benutzer absetzen, sind es nicht, ganz abgesehen von den Nutzerdaten. In den Terms of Service ist zu lesen:

You retain your rights to any Content you submit, post or display on or through the Services. By submitting, posting or displaying Content on or through the Services, you grant us a worldwide, non-exclusive, royalty-free license (with the right to sublicense) to use, copy, reproduce, process, adapt, modify, publish, transmit, display and distribute such Content in any and all media or distribution methods (now known or later developed).

In jenem Text gibt es noch weitere, ähnliche Stellen. Offensichtlich kennen viele Benutzer diese Passagen nicht oder sie sind ihnen nicht so wichtig, vielleicht auch egal. Und wahrscheinlich lesen viele Twitterer diese Bestimmungen gar nicht (richtig durch). Ich denke, dass man öfters darauf hinweisen und allenfalls Alternativen nennen sollte.

twittertod

Ein toter Twitter-Vogel – vielleicht brach er sein Genick. Dieses Bild habe ich beim guten, alten Leumund geklaut.

identi.ca nutze ich meist per gwibber, einem sehr guten Client unter Gnome. Alternativ bietet sich die Website an, aber dort begegne ich mit dem Firefox immer wieder dem Problem, dass ich keine Dents abschicken kann. Mit Opera oder SeaMonkey geht das besser. Ganz gerne nutze ich Jabber, das ist nicht ganz so komfortabel wie mit gwibber, aber es geht schnell und einfach. Dazu setze ich Empathy ein. Um die Dents per Jabber zu erhalten und welche zu versenden, braucht man bloss in den Profileinstellungen von identi.ca eine Jabber-Adresse zu hinterlassen und unter Verbinden die entsprechenden Optionen zu aktivieren.

Einstellungen

Je länger je mehr achte ich darauf, dass sich Wissen ausdehnen kann, auch solches, das in Software verpackt ist. Und das geht nur dann in einer legalen Weise, wenn die Software entsprechend lizenziert ist. Meiner Meinung nach gibt es genug habgierige Konzerne, die bloss deswegen Abhängigkeiten und Monopole schaffen, damit sie ihren gierigen Rachen befriedigen können. Ich staune immer wieder, wie klein wir Menschen doch geblieben sind und noch immer sehr viel dafür tun, so uns die vermeintliche Angst des Verlustes nicht in ihre dunkle und feuchte Gruft reisst. Das, was wir als Sicherheit erkennen, ist nichts weiter als Raffgier und Dummheit. Derweil ist die Offenheit und damit offene Standards in der Software-Industrie eine sehr spannende Welt. Aber man muss die Sicherheit, die letztlich nicht in Abhängigkeiten und Monopolen zu finden ist, loslassen.

Insofern erachte ich identi.ca für die bessere Lösung und nutze sie auch deswegen. Allerdings bin ich nicht ganz konsequent: Ich lasse die Dents von Identi.ca als Tweets zu Twitter weiterleiten. Damit habe ich eine freie Kopie meiner Nachrichten und eine gefangene Version. Ich will damit nicht sagen, dass Twitter böse und identi.ca gut wäre, aber es sind diese kleinen Details in den Lizenzen und Nutzungsbestimmungen, die mich zu identi.ca gebracht haben.

Auf identi.ca bin ich hier zu finden: https://identi.ca/thurgau/all

Ähnliche Artikel