ubuntuusers.de

23. März 2010

Bild.de gehört beileibe nicht zu meinen Lieblingsquellen. Als aber über Google News diese Meldung reinkam:Der C64 kommt zurück! …als leistungsstarker Tastatur-PC von Commodore USA“ musste ich das lesen. Und ich gestehe, die Idee hat mich fasziniert. Ein PC im überarbeiteten Look and Feel des C64 bzw. Amiga 500 hat doch etwas. Erst letztens stand ich im hiesigen Elektronikmarkt vor einem PC, der komplett im Monitor integriert war, Apple-Computer in diesem Design gibt es ja schon länger. Auch wenn das sehr modern und edel aussieht, finde ich es nicht so prickelnd, z.B. wegen Monitorproblemen gleich den ganzen PC wegzugeben. Der neue Commodore hingegen ist auch platzsparend und ebenso ein Hingucker:

Wenn man sich die Konfiguration auf der Webseite anschaut (auf Configure klicken), wird man ebenfalls angenehm überrascht. Ausgeliefert wird der PC mit Ubuntu, Windows 7 ist optional erhältlich – und nicht anders herum! Weiterhin soll auf dem Gerät das MacOS ebenso laufen wie das AmigaOS  und noch einige andere Betriebssysteme.

Aber ich gebe es zu, ich bin auch ein klein wenig skeptisch, wenn ich die Webseite anschaue. Sie sieht etwas unreif aus, es wird aber fleißig daran gearbeitet. Und es ist auch nicht klar, ob die Bilder einen Prototypen zeigen oder ob es sich hier um eine Attrappe handelt. Auch stehen noch keine Preise fest, der Shop soll im Juni 2010 Online gehen.

Die Idee hingegen finde ich toll! Gerade die alten Hasen unter uns, die mit C64, Amiga oder Atari aufgewachsen sind, werden feuchte Augen bekommen und bei einem fairen Preis wird das Gerät auch Abnehmer finden. Oder was meint Ihr? Ich drücke den Leuten dahinter auf alle Fälle ganz fest die Daumen, es wäre doch schön, wenn dieses Projekt dem Namen Commodore zu neuem Glanz verhilft!

22. März 2010

Ohne große Ankündigung wurde die zweite Vorabversion des Kernels 2.6.34 veröffentlicht.

Ein großer Anteil der Änderungen liegt in den beiden Dateisystemen btrfs und ceph. Ceph ist ein verteiltes Dateisystem, das als Implementierung ohne „Single Point of Failure“ konzipiert wurde. Der nun im Kernel verfügbare Teil stellt die Client-Komponente dar, während die Serverdienste als Dämonen umgesetzt sind.

Weitere, sehr umfangreiche Änderungen wurden an der ARM-Architektur durchgeführt und sind daneben dem neuen Treiber für die Gigabit-Ethernet-Schnittstelle LAN7500 von SMSC geschuldet.

Der Kernel 2.6.34-rc2 für Ubuntu im Mainline-Kernel-Archiv:
Das Ubuntu-Kernel-Team stellt ein Archiv mit dem Mainline-Kernel zur Verfügung, der ohne die spezifischen Anpassungen der regulären Ubuntu-Versionen erstellt wird.
Achtung! Die Installation des nicht angepassten Kernels kann die Systemstabilität beeinträchtigen!
Die Pakete 2 und 3 müssen nur installiert werden, wenn Anwendungen vorhanden sind, die die Headerdateien benötigen um z.B. Kernelmodule zu kompilieren. Die Pakete sollten dann in der jeweils aufgeführten Reihenfolge installiert werden. Die Kernel-Quellen werden nicht benötigt.

Architektur i386 (32 Bit):

  1. linux-image-2.6.34-020634rc2-generic_2.6.34-020634rc2_i386.deb (noch nicht verfügbar)
  2. linux-headers-2.6.34-020634rc2_2.6.34-020634rc2_all.deb (noch nicht verfügbar)
  3. linux-headers-2.6.34-020634rc2-generic_2.6.34-020634rc2_i386.deb (noch nicht verfügbar)

Architektur amd64 (64 Bit):

  1. linux-image-2.6.34-020634rc2-generic_2.6.34-020634rc2_amd64.deb (noch nicht verfügbar)
  2. linux-headers-2.6.34-020634rc2_2.6.34-020634rc2_all.deb (noch nicht verfügbar)
  3. linux-headers-2.6.34-020634rc2-generic_2.6.34-020634rc2_amd64.deb (noch nicht verfügbar)

Kernel-Quellen:

 

Heute war es endlich soweit. Der Ubuntu Music Store ist heute online gegangen. Ubuntu 10.04 LTS Beta-Nutzer können die öffentliche Beta-Version des Shops nun nutzen und testen. Zu dem ganzen gibt es auch einen Blog-Beitrag mit allen wichtigen Informationen:

Testing goal

Our primary goal for this phase of testing is to ensure that the purchase and download experience is flawless. Integrating a cloud service like Ubuntu One with buying music is new for digital music stores. [...]

Testers must keep in mind that this is a beta test. We are excited to open this feature up for wider testing, but testers must understand that things will break. If something happens preventing a tester from receiving songs, there may be a delay in fulfilling their purchase. [...]

Als “Lieferant”, bzw. Partner kommt 7Digital zum Einsatz, die Musikdateien kommen im DRM-freien mp3-Format auf den Rechner. Der Store ist übrigens mit Hilfe eines Plugins in Rhythmbox integriert und sollte in der Testversion bzw. auch dann in der Finalversion schon installiert sein. So sieht das ganze aus…

Ich möchte aber nicht dazu raten deswegen jetzt auf die Beta-Version von 10.04 LTS zu aktualisieren. Die Version ist weiterhin nicht zum Produktiveinsatz geeignet. Wer sich aber schon einmal einen Überblick über die angebotene Musik machen möchte kann dies auch auf der Website von 7Digital tun.

Datenschutz ist wichtig und persönliche Daten definitiv schützenswert. Ich bin selbstverständlich ein großer Befürworter der ganzen Thematik. Doch wie heißt es so schön: Man solle sich doch lieber mal an die eigene Nase fassen!

Ganz im Sinne dieses Spruches, habe ich mal geschaut was auf diesem Server und dem Wordpresssystem so alles gespeichert wird und eigentlich gar nicht gespeichert werden muss. Dazu gehörten Wordpress Stats, Google Analytics, Google Adsense und der Webserver Apache an sich. Also ran an den Speck.

Über das Apachemodul mod-removeip wird automatisch das Apachelog anonymisiert. Unter Ubuntu ist es das Paket libapache2-mod-removeip. Nach einem anschließenden Neustartes des Server, sind die IP-Adressen aus den Logs verschwunden.

Die Google Adsense Anzeigen, die ich vor kurzem erst eingeführt habe, sind nun wieder entfernt. Es bringt zu wenig Geld und stört mein ästhetisches Auge einfach zu sehr.

Bleiben noch Wordpress Stats und Google Analytics. Beides wurde nun gegen das selbst gehostete Statistiksystem Piwik getauscht, welches eine OpenSource Alternative zu Google Analytics ist in der neuesten Version ebenfalls die IP Adressen anonymisiert.

Damit werden nun auf virtualpixel.de keine personenbezogenen Daten mehr gespeichert und ihr könnt in Ruhe weiterlesen.

(Achja, auf Planetenblogger.de werden in dem Zuge auch keine personenbezogenen Daten mehr gespeichert.)

Moin liebe Lesergemeinde,

man sieht an der momentanen Diskussion rund um die Fensterbuttons (Schließen, Minimieren, Maximieren), dass die meisten Ubuntu/Linuxuser irgendwie keine anderen Probleme haben, als sich über die neue Position der Buttons aufzuregen.

Das ist eigentlich sehr erfreulich, heißt es doch, dass Ubuntu/Linux so gut wie keine weiteren Probleme mehr macht – wenn man die Zeit hat über so etwas Nebensächliches wochenlang zu diskutieren.

:D

Übrigens für die Leute, die sich an die Buttons nicht gewöhnen wollen – nehmt Tastenkombinationen. Da können die Buttons auch auf der Rückseite des Programmfensters sein, das ist dann egal ^^.

Schließen: Alt+F4
Minimieren: Alt+F9
Maximieren (ein/aus): Alt+F10

    Da ich meine Mails unter anderem mit Evolution verwalte, weil es sich mit dem synchronisiertem Adressbuch besser anbietet als Thunderbird, habe ich mit Freude festgestellt, dass sich auch Evolution als RSS-Feed Verwalter umfunktionieren lässt. Bisher nutze ich das Plugin Brief für Firefox, aus ein paar einfachen Gründen: Es stellt meine vielen Feeds übersichtlich dar, aktualisiert sie regelmäßig und ich kann über Firefox’ Statusleiste sofort sehen, ob und wie viele ungelesene Beiträge im Reader auf mich warten.

    Diese Vorteile sind zwar schön und gut, aber eine Alternative wäre trotzdem nicht verkehrt. Ein Standalonereader kommt für mich nicht in Frage, da dieser nur im Weg wäre. Ein weiteres Fenster nur für Feeds ist mir zu umständlich. Gwibber kann zwar auch RSS-Feeds verwalten, allerdings nutze ich dieses Programm nicht* ;-) Evolution hingegen nutze ich sowieso, da ich meine Mails permanent im Hintergrund abfragen lassen möchte. Darum bietet es sich hervorragend dazu an.

    Um die Feeds in diesem Programm lesen zu können, benötigt man zunächst das Paket evolution-rss, das man z.B. mit dem Befehl

    sudo apt-get install evolution-rss

    installieren kann. Nach einem Neustart von Evolution findet man einen neuen Eintrag unter BearbeitenEinstellungen, über den man RSS Feeds verwalten kann. Im Ordner „Auf diesem Rechner“ ist danach ein neuer Ordner mit eingetragenen RSS-Feeds zu finden. Die einzelnen Beiträge werden wie E-Mails angezeigt und behandelt.

    Evolution als RSS-Reader

    Was mich dabei allerdings stört ist, dass ungelesene Feeds nicht im Indicator Applet angezeigt werden. Das wäre schön, wenn das ginge. *) Ich glaube, Gwibber würde neue Beiträge in den Feeds im Indicatorapplet hervorheben.

    Wird der UbuntuOne Music Store heute online gehen?


    Auf der Website des neuen Music Stores von Canonical (Firma hinter Ubuntu), welcher ab dem Luchs (Ubuntu 10.04) in Rhythmbox dem standard Medienplayer von Ubuntu integriert ist, steht dass dieser heute vielleicht online geht.

    Dann bin ich doch mal gespannt wie der Store rein Optisch aussieht und welche Musik  angeboten wird.

    Staus des UbuntuOne Music Stores

    Status des UbuntuOne Music Stores

    Laut diesem Entwicklerblog soll E17 wirklich bald als Stableversion freigegeben werden. Auf ein definitives Datum will sich aber trotzdem niemand festlegen. ;) Es werden als erstes die Libaries stabilisiert, anschließend der Rest von E17 und dann wird released! :) Einen Überblick über die Arbeiten kann man sich auf der “Road to Enlightenment” verschaffen. Im Blog werden auch noch ein paar andere häufiggestellte Fragen beantwortet.

    Wer sich jetzt schon für E17 interessiert, findet vielleicht meinen Artikel zu den E17-Repos interessant. ;)


    Piwik Logo

    Piwik 0.5.5 Logo

    Vor kurzem ist Piwik in der Version 0.5.5 erschienen. Nachdem Ende letzten Jahres der Release Rythmus sehr schnell war, ist nun wieder etwas Ruhe eingekehrt und die Zyklen sind langsamer geworden.

    In der neuen Version ist ein sehr wichtiges Plugin vorinstalliert. Dieses nennt sich AnonymizeIP und sorgt nach der Aktivierung dafür, dass alle IP Adressen in der Datenbank anonymisiert werden. Standardmäßig wird das letzte Oktett genullt, also aus einer IP Adresse 192.168.245.123 würde 192.168.245.0 werden, so wird eine eindeutige Identifizierbarkeit verhindert. In der config/global.ini.php kann man diese Einstellung auch verändern indem man den Wert „ip_address_mask_length = 1“ ändert. Möglich sind die Optionen 0-4, wobei 0 einer Deaktivierung des Plugins gleichkommt und bei 4 wird die komplette IP Adresse genullt. Die Anonymisierung funktioniert aber nur auf zukünftige Einträge, nicht auf schon vorhandene. Wie das ganze bei IPv6 Adressen aussieht weis ich nicht, aber die meisten Webseiten sind ja eh noch nicht über IPv6 erreichbar!

    Wir haben dies so eingestellt, dass die letzten 2 Oktette genullt werden. So sind unsere Besucher vollkommen anonym. Vor allem in Deutschland ist das Speichern der IP Adressen ja sehr umstritten, Piwik entgeht der Diskussion so auf einfachem Wege. Jeder der Google Analytics benutzt, sollte sich mal überlegen ob er selber will, das sein Nutzerverhalten in die USA wandert. Ich halte hier von Piwik deutlich mehr, vor allem weil es auf dem eigenen Server ist und ich so die Kontrolle darüber behalte.

    Was sich mit der neuen Version sonst noch alles so geändert hat findet man im Changelog! Die deutsche Übersetzung ist nicht aktuell. Wir selber haben einige Male versucht eine aktuelle Deutsche Übersetzung beizutragen, aber über den Kontakt zum Übersetzungsteam erreicht man auch mit mehrmaliger Anfrage niemanden. Wir haben aktualisierte Sprachdateien für die letzten Versionen des öfteren an das Team geschickt und nie wurde diese übernommen und auch kam keine Antwort zurück. Leider verbaut sich Piwik so selber seine Aktualität.

    Falls von euch jemand Kontakte zum Team hat, der kann sich ja mal bei uns melden.

    Nicht jeder verwendet LaTeX so wie ich auch für niedere Dienste wie Einkaufszettel. Der natürliche Lebensraum eines gesunden LaTeX-Dokumentes welches in der Blüte seiner Jahre nach kurzer Verpuppung aus dem TeX-Container als wunderschöne PDF-Datei hervorbricht ist die wissenschaftliche Arbeit. Und sofern die Arbeit nicht ausschließlich von Erkenntnissen handelt die der/die Schreiber in Experimenten erhalten haben muss korrekt zitiert und verwiesen werden. Manche Style-Dokumente beinhalten bereits eine Gruppe von vorgefertigten Befehlen mit denen solche Angaben ziemlich automatisch in einem bestimmten Stil erstellt werden können. Da es davon jedoch sehr viele gibt und diese im allgemeinen recht gut dokumentiert sind werde ich mich hier nur um die manuelle Erstellung von Literaturverzeichnissen kümmern.

    Grundsätzlich sollte man so vorgehen:

    1. Das Werk aus dem man zitieren möchte in das Literaturverzeichnis schreiben.
    2. Mit dem Schlüssel aus dem Literaturverzeichnisses die Zitierung im Text einfügen.

    Erstellung des Literaturverzeichnisses

    Die Quellenangabe kommt im LaTeX-Dokument ganz zum Schluss. Direkt vor das

    \end{document}

    und sieht so aus:

    \begin{thebibliography}{999}
    \bibitem {Zitat01} Zitate leicht gemacht
    \bibitem [Wiki10] {UndNochEinZitat} \url{www.wikipedia.org}, Zugriff 22.03.2010
    \end{thebibliography}

    Wieder erkennt man die typische LaTeX-Umgebung welche mit dem Befehl \begin beginnt und mit dem Befehl \end endet. Um eine Quellenangaben-Umgebung zu schaffen wird thebibliography verwendet. Der zweite Wert "999" bezieht sich auf die maximale Breite der Label. Seit jeher verwende ich 999 um keine Probleme zu erhalten, man kann den Wert aber natürlich anpassen wie man ihn braucht.

    Der erste gezeigte Eintrag stellt das Minimum dar mit dem man ein Literaturverzeichnis erstellen kann. Der Befehl \bibitem erzeugt einen neuen Eintrag im Literaturverzeichnis. In den geschwungenen Klammern steht der Schlüssel mit dem man später das Zitat im Text identifiziert. Dieser Schlüssel kann irgendetwas sein da er im fertigen Dokument nicht angezeigt wird. Diese Variante wird automatisch durchnummeriert.

    Um einen bestimmten Text statt einer Nummer zu erhalten muss man in eckigen Klammern wie im zweiten Eintrag gezeigt ein Label eintragen. Damit wird dieses Label bei der Zitierung angegeben.

    So sieht der obige Code als PDF aus:

    Literaturverzeichnis in LaTeX

    Der Titel des Literaturverzeichnisses wird je nach der angegebenen Sprache beim Einbinden des Paketes babel übersetzt.

    Zitieren

    Nun haben wir unser Literaturverzeichnis erstellt und können munter beginnen zu zitieren. Zum Zitieren braucht man keine bestimmte Umgebung sondern kann das Zitat direkt in den Text schreiben. Das funktioniert so:

    So zitiert man in \LaTeX{} \cite{Zitat01}\\
    Und nochmal
    \cite{UndNochEinZitat}

    Der Befehl \cite fügt die Zitierung ein. Abhängig davon ob im Literaturverzeichnis ein Label angegeben wurde wird dieses oder die fortlaufende Nummer eingefügt. Im ersten Satz habe ich die erste Quelle aus dem Literaturverzeichnis verwendet, im zweiten Satz die Zweite. Das Ganze sieht als PDF so aus:

    Zitierungen in LaTeX

    Ich merke noch einmal an: Der Schlüssel (z.B. Zitat01 oder UndNochEinZitat) wird nur innerhalb des Dokumentes verwendet. Bei einer Zitierung eines des Eintrages im Literaturverzeichnisses wird entweder die dem Eintrag automatisch zugewiesene Laufnummer angezeigt oder der Text eines Labels (z.B. Wiki10) falls man dieses angegeben hat. Um Verwirrungen zu vermeiden sollten diese beiden Systeme jedoch nicht gemischt werden. Professionelle Literaturangaben sehen natürlich anders aus und beinhalten wesentlich mehr Informationen zum zitierten Werk. Je nach euren Vorgaben müsst ihr dies anpassen.

    Creative Commons License
    This work by Stefan Ohri is licensed under a Creative Commons Attribution-ShareAlike 3.0 Austria License

    =-=-=-=-=
    Powered by Blogilo


    Filed under: LaTeX, Programmieren, Ubuntuusers

    Am vergangen Sonntag durfte ich bei der Schulung von Roland in Sachen CakePHP mit dabei sein. Das Framework interessiert mich an sich und ausserdem sehe ich es als eine Möglichkeit an, damit meine kleinen Webapplikationen neu zu zimmern. Alle Teilnehmer haben ein “nackiges” Framework erstellt und sind von dort aus gestartet. Das ist auch durchaus sinnreich und allemal besser, als wenn wir von Roland ein fertiges Päckli bekommen hätten. Wir haben zwar ein solches Paket erhalten, aber nicht um damit während der Schulung zu arbeiten, sondern um daraus einige Beispiele zu ziehen und natürlich auch für das nachträgliche Studium.

    Im Vorfeld habe ich auf meinem kleine EEEPC 1000H einige Vorkehrungen getroffen. Darauf läuft ein Ubuntu 9.10. Es braucht also nicht zwingend ein Server zu sein, auch wenn das natürlich bei einer fertig gebackenen Applikation sinnreich wäre. Aber zum Entwickeln reicht also ein solch kleiner Kerl, der übrigens bloss ein Gigabyte flüchtigen Speicher besitzt.

    Manchmal hätte ich aber dann doch lieber ein etwas grösseren Bildschirm gehabt, gerade bei der Ansicht der Konsole, die ab und an eine ziemlich lange “Backliste” anzeigt. Aber es ging letztlich auch so ganz gut. Ich installierte PHP, den Apache Webserver, den MySQL-Server und für mich noch optional PHPMyAdmin. Wer möchte, kann sich natürlich auch über die Konsole die nötigen Datenbanken Tabellen anlegen. Ich mag einfach lieber das GUI.

    sudo apt-get install php5 php5-cli mysql-server apache2 phpmyadmin

    Wichtig ist, dass beim Apache-Webserver das Modul mod_rewrite aktiviert ist. Das haben wir nach längeren Detektivarbeiten und Dank Ute herausgefunden. Auf ubuntusers.de gibt es dazu einen gesunden Wiki-Artikel. (Heisst es eigentlich einen gesunden Wiki-Artikel oder ein gesunder Wiki-Artikel?)

    Anschliessend holten wir uns die aktuelle und stabile Source auf der Website von CakePHP und entpackten sie. Der Apache muss dann auf das Verzeichnis webroot im Baum des Downloads unter app zeigen. Die Datei default im Verzeichnis /etc/apache2/sites-available hat bei mir folgendes Aussehen, allerdings habe ich keine zusätzlichen virtuellen Hosts, sondern bloss eine Site erzeugt. Auch hier hat mich Ute unterstützt:

    <virtualhost *:80>
    	ServerAdmin webmaster@localhost
    
    	DocumentRoot /home/roman/cakephp/app/webroot
    	<directory />
    		Options FollowSymLinks
    		AllowOverride FileInfo Options
    
    	<directory /home/roman/cakephp/app/webroot>
    		Options Indexes FollowSymLinks
    		AllowOverride FileInfo Options
    		Order allow,deny
    		allow from all
    	</directory>
    
    	ScriptAlias /cgi-bin/ /usr/lib/cgi-bin/
    	<directory "/usr/lib/cgi-bin">
    		AllowOverride None
    		Options +ExecCGI -MultiViews +SymLinksIfOwnerMatch
    		Order allow,deny
    		Allow from all
    	</directory>
    
    	ErrorLog /var/log/apache2/error.log
    
    	# Possible values include: debug, info, notice, warn, error, crit,
    	# alert, emerg.
    	LogLevel warn
    
    	CustomLog /var/log/apache2/access.log combined
    
     Alias /doc/ "/usr/share/doc/"
     <directory "/usr/share/doc/">
     Options Indexes MultiViews FollowSymLinks
     AllowOverride None
     Order deny,allow
     Deny from all
     Allow from 127.0.0.0/255.0.0.0 ::1/128
     </directory>
    
    </virtualhost>

    Damit funktionierte CakePHP ganz gut. Die Installation war also recht einfach, die ersten vier kleinen Hürden betreffen die Schreibrechte auf Verzeichnissen, die sichergestellt werden müssen und der “gesalzenen Sicherheit” sind rasch erledigt. Danach kann man bereits loslassen.

    Roland hat sein Projekt, das wir ansatzweise an diesem Sonntag erarbeitet haben, in das Netz gestellt, so dass jeder daran partizipieren kann. Auch das ganze Modell und die Anforderungen stehen dort bereit. Die Idee, welche sich hinter diesem Vorgehen verbirgt, soll echte OpenSource-Programmierung abbilden. Jeder von uns kann oder darf einen Teil zu diesem Projekt beitragen, bis ein fertiges Produkt entsteht. So macht “opensourcen” Spass. Ich hoffe, dass ich mir hin und wieder ein Stündchen Zeit nehmen kann, um da mitzuwirken.

    Während dem Kurs sind ein paar wenige Bilder entstanden, die ich in eben jener Applikation bereitgestellt habe, die einst durch die neu zu backende Anwendung ersetzt werden soll: In meiner kleinen Bilderdatenbank. An dieser Stelle sende ich ein dickes Dankeschön an Ute und Roland für die Gastfreundschaft und für den interessanten Sonntagnachmittag! Ich komme sicherlich noch einmal auf das Thema zurück und kann dann hoffentlich etwas tiefer über Technisches berichten.

    Ähnliche Artikel

    21. März 2010

    Ixquick Suche Logo

    Ixquick Suche Logo

    Wer sich ein bisschen mit Suchmaschinen beschäftigt hat und diese nicht nur als Dienst nutzt, weiß, dass vieles was man eingibt von diesen gespeichert und analysiert wird. Vor allem Google ist da oftmals vorne mit dabei. Inwiefern das nun gut oder schlecht ist, kann jeder für sich selbst beantworten. Um eine Alternative, wie man gute Suchergebnisse erhält und keine Daten verrät, handelt es sich bei Ixquick.

    Diese Metasearch aus den Niederlande, fasst verschiedene Suchmaschinen wie Bing, Yahoo, Ask und viele mehr zusammen und listet diese als Ergebnisse auf. Es wird aber nicht nur eine reine Suche angeboten, man kann auch eine Bilder-, eine Video- und eine Telefonbuchsuche nutzen. Neben Englisch und Deutsch stehen auch verschiedene andere Sprachen zur Verfügung. Außerdem bietet Ixquick direkt aus der Suche zu jedem Suchergebnis einen sehr schnellen Aufruf über einen Proxy Server bereit. Dazu weiter unten mehr.

    Um Ixquick im Firefox zu nutzen, kann man verschiedene Wege gehen. Ich habe Ixquick als Suchmaschine im Suchfeld und auch im Adressfeld. Ich nutze das Ganze unter Ubuntu, man kann die folgenden Schritte aber auch unter anderen Betriebssystemen mit Firefox nutzen.

    Zuerst zum Suchfeld, dies ist relativ einfach. Man muss einfach nur  auf die Hinzufügen Seite gehen und dort die entsprechenden Einstellungen vornehmen. Neben dem AGB Akzeptieren ist die Sprachwahl vorhanden und vor allem, was viel interessanter ist, die Nutzung von HTTPS. Wenn man dies aktiviert, nutzt man die Suche immer über SSL, das macht die Sache neben der Anonymität sicherer. Nach dem Auwählen der Optionen klickt man einfach auf Installieren und setzt dies noch als Standardsuche im Firefox. Schon nutzt man Ixquick über das Suchfeld mit SSL. Also sicheres und anonymes Suchen!

    Etwas komplizierter wird es nun, wenn man, so wie ich auch des Öfteren, über die Adresszeile Begriffe eingibt und so auch Suchergebnisse erhalten will. Dies ist auf der Ixquick Seite leider nicht dokumentiert und auf eine E-Mail Anfrage habe ich auch keine Antwort erhalten. Aber trotzdem geht es! Dafür muss man folgende Schritte machen:
    In die Adresszeile about:config eingeben und die Sicherheitsabfrage bestätigen, dann keyword.URL suchen, darauf doppelklicken und als Wert https://eu2.ixquick.com/do/metasearch.pl?query= eingeben. Alles was vorher drin stand natürlich noch löschen. Anschließend kann man die about:config wieder schließen. Auch hier sucht man nun über eine mit SSL verschlüsselte Verbindung.

    Auf den Dokumentations-Seiten von Ixquick findet man sonst auch noch einige hilfreiche Sachen, wie die Suchsyntax und einiges mehr. Die Funktion die Ixquick mit dem Proxy anbietet ist besonders interessant, da direkt neben jedem Suchergebnis ein dezenter Hinweis auf den Proxy ist, wenn man diesen anklickt wird die entsprechende Webseite direkt über den Ixquick Proxy aufgerufen, der sehr schnell ist.

    Ixquick Proxy Funktion

    Ixquick Proxy Funktion

    Ixquick finanziert sich über Werbeeinblendungen bei den Suchergebnissen, diese sind aber deutlich abgegrenzt und nur oben bzw. unten sichtbar. Diese laufen auch nicht über einen Anbieter wie GoogleAdsense, dies wäre ja wiederum fatal. ;-) Die Werbung lässt sich zwar auch einfach mit AdBlock Plus oder ähnlichen Werbeblocker ausblenden, aber bei einem guten Service, wie Ixquick, kann man diesen ja auch mal unterstützen und seinen Werbeblocker für diese Seiten ausschalten. Außerdem bietet Ixquick auch noch eine Browsersymbolleiste an, aber zumindest für mich sind diese mittlerweile gestorben, ich kann damit irgendwie nichts anfangen.

    Die Google Suche ist bei Ixquick leider nicht integriert, aufgrund von technischen Beschränkungen seitens Google. Dies ist meiner Meinung nach das größte Manko an Ixquick und so greife ich bei speziellen Sachen doch ab und zu noch auf Google zurück.

    Und nun noch die Frage an Euch: Wie nutzt ihr Suchmaschinen? Wie achtet ihr auf eure Sicherheit und Anonymität dabei? Ist es euch egal wenn Google über Jahre hinweg sammelt, was euch alles interessiert.

    Nach dem Test von Lekhonee, habe ich mich noch nach Alternativen umgesehen. Jörg hat ja in seinem Blog schon BloGTK näher betrachtet. Bei der weiteren Suche bin ich noch auf Drivel gestoßen.

    Drivel ist ein in GTK geschriebener Client, der folgendes beherrscht:

    Benutzung von Blogger, xmlrpc, Movabletype, Drupal, WordPress, ATOM-basierte Blogs
    Erweiterte Formatierungen (fett, kursiv, durchgestrichen, hoch- und tiefgestellt, Liste etc.)
    Einfügen von Bildern
    Einfügen von Links
    Einfügen von Umfragen
    Rechtschreibprüfung

    Drivel ist wesentlich ausgereifter als Lekhonee, außerdem unterstützt es eine größere Anzahl von Blogsoftware. Um WordPress einzubinden muss man Movabletype auswählen und folgende Adresse hinterlegen:
    http://blog.wordpress/xmlrpc.php

    In Zukunft werde ich unterwegs Drivel verwenden :) (Dieser Eintrag ist mit Drivel entstanden)

    Drivel


    BloGTK ist ein Editor für verschiedene Weblogs. Man kann mehrere Blogs verwalten, und so z.B. offline Artikel schreiben/editieren oder sich alte Artikel durchlesen (es gibt auch noch andere ähnliche Tools, z.B. lekhonee). Derzeit kann er in Version 2.0 noch nicht allzuviel, z.B. kann man noch keine Multimedia-Dateien (Bilder, Musik, Videos) verwalten, aber alles “schrift”-mäßige wird unterstützt. Des Weiteren ist die Version 2.0 noch nicht im Ubuntu-Upstream angekommen. Installieren kann man die Version aber dennoch.

    BloGTK ist ein Editor für verschiedene Weblogs. Man kann mehrere Blogs verwalten, und so z.B. offline Artikel schreiben/editieren oder sich alte Artikel durchlesen (es gibt auch noch andere ähnliche Tools, z.B. lekhonee).

    Derzeit kann er in Version 2.0 noch nicht allzuviel, z.B. kann man noch keine Multimedia-Dateien (Bilder, Musik, Videos) verwalten, aber alles “schrift”-mäßige wird unterstützt. Des Weiteren ist die Version 2.0 noch nicht im Ubuntu-Upstream angekommen.

    Installieren kann man die Version aber dennoch. Zuerst besorgt man sich den tar-Ball bei Launchpad und entpackt ihn. Anschließend installiert man die fehlenden Abhängigkeiten per

    sudo apt-get install python-gnome2 python-gnome2-extras python-gdata python-webkit python-feedparser

    Jetzt wechselt man mit Terminal in das frisch entpackte Verzeichnis blogtk-2.0 und tippt dort

    sudo make install


    ein. Fertig, ihr findet BloGTK nun im Menü “Internet”.

    Ach ja, natürlich ist dieser Beitrag hier mit BloGTK geschrieben.
    Dabei ist mir dann auch direkt aufgefallen, dass alle spitzen Klammern (also > und <) einfach gelöscht werden, und der Beitrag dann entsprechend unbrauchbar wird… Evtl. sollte ich doch lieber lekhonee ausprobieren…

    Ein Leser von OMG!Ubuntu! hat eine Paketquelle  für Karmic Koala erstellt, indem sich die Light-Themes befinden.

    Um die Paketquelle zu aktivieren und die Themes zu installieren, müssen folgende Befehle in ein Terminal eingegeben werden:

    Install Ubuntu 10.04 Light themes für Ubuntu 9.10

    • sudo add-apt-repository ppa:paglia/paglia-ppa
    • sudo apt-get update
    • sudo apt-get install light-themes ubuntu-mono

    Die beiden Themes Ambiance und Radiance können nun über das Erscheinungsbild aktiviert werden.

    Quelle: Omg!Ubuntu!

    Auf der Suche nach einem schlanken, schnellen und funktionellen Webbrowser für mein Netbook bin ich auf Midori (jap. für grün) gestoßen.

    Midori ist ein GTK-Webbrowser der auf Webkit aufsetzt und Tabbedbrowsing unterstützt. Die Oberfläche ist Firefox nachempfunden, kommt aber aufgeräumter daher. Man kann ihn auch mit Werbefilter, Formularvervollständigung, Mausgesten oder Cookie-Verwaltung erweitern.

    Funktionen

    # Vollständige Integration in GTK+ 2
    # Schnelle Darstellung mit WebKit
    # Reiter, Fenster und Sitzungsverwaltung
    # Flexibel einstellbare Internetsuche.
    # Unterstützung für Benutzerskripte und -stile.
    # Intuitive Lesezeichenverwaltung.
    # Anpassbare und erweiterbare Oberfläche.

    Ich bin sehr zufrieden mit Midori, er reagiert angenehm schnell auf meinem Netbook, der Seitenaufbau geht auch blitzschnell. Alles in allem eine sehr gelungene Software und definitiv für alte Hardware bzw. Netbooks zu empfehlen. :)

    Midori mit Erweiterungen


    Wie schon verschiedentlich geschrieben, gebe ich Dropbox (mit dem Link gibt es 250 MB zusätzlich) den Vorzug vor Ubuntu One. Das liegt neben anderen Gründen vor allem daran, dass Dropbox Clients für nahezu alle Betriebssysteme bietet. Mein Hauptkritikpunkt an Ubuntu One ist, dass noch nicht einmal ein Client für alle Ubuntu Derivate (Kubuntu, Xubuntu, Lubuntu) existiert. Gelesen habe ich allerdings, dass für Kubuntu eine Implementation in Arbeit ist.

    Anmerkung: Auch das ist natürlich ein fremd gehosteter Dienst, daher würde ich weder Dinge, die privat sind dort hineinwerfen, noch darauf vertrauen, dass der Dienst immer existiert. Ich warte sehnsüchtig darauf, dass iFolder endlich für alle benutzbar wird. Aber jetzt sehe ich gerade, dass Novell iFolder als Produkt verkaufen möchte.

    Ich hatte länger schon einmal vor, den Dropbox-Client auf dem root-Server zu installieren, um auf einfache "Art und Weise" Dateien hin- und herschieben zu können.

    Dabei habe ich mich auf einen komplizierten Marsch durch Dokumentation eingestellt, dabei war die Lösung ziemlich einfach (funktioniert auch bei anderen Systemen, die nur eine Kommandozeile haben): Dropbox Linux CLI.
    - Install Dropbox In An Almost Text-Based Linux Environment
    - How To Install Dropbox In An Entirely Text Based Linux Environment (experimental)

    Zusammengefasst:

    - Python-Skript dbcli.py herunterladen.
    - Skript mittels
    chmod 700 dbcli.py
    auführbar machen.
    - DOS-Zeilenenden löschen mit
    tr -d "\r" < dbcli.py > dbcli2.py
    (oder dos2unix benutzen)
    - Dropbox mit
    ./dbcli2.py install x86
    oder
    ./dbcli2.py install x86_64
    installieren.
    - Den ausgegebenen Link aufrufen.
    - Das Programm mit Ctrl-C beenden.
    - Später bei Bedarf mit
    nohup $HOME/.dropbox-dist/dropboxd &
    starten.
    - Fertig.

    Ich habe mir ein kleines Skript namens
    check_dropbox.bash
    geschrieben, welches im fünf-Minuten-Takt prüft, ob der Client noch läuft und ihn im Fehlerfall neu startet:

    #!/bin/bash

    if ! ps -fu dirk | grep -vE "grep|check" | grep -q dropbox
    then
            nohup /home/dirk/.dropbox-dist/dropboxd &
    fi
    Für Android gibt es eine App namens VLC Remote welche aus dem Market heraus installiert werden kann (das offizielle Projekt ist unter http://code.google.com/p/android-vlc-remote/ zu finden). Nachdem man VLC Remote installiert hat muss man nur noch VLC (+ Webinterface) starten:
    vlc --extraintf=http --fullscreen --http-album-art --qt-start-minimized
    Das ganze kann natürlich auch als Autostart eingetragen werden um gleich nach der Anmeldung ausgeführt zu werden. Wie das funktioniert erfährt man unter http://wiki.ubuntuusers.de/autostart. Und schon kann man VLC bequem fernsteuern.

    Weitere Informationen gibt es unter:
    http://wiki.ubuntuusers.de/VLC

    Für Android gibt es eine App namens VLC Remote welche aus dem Market heraus installiert werden kann (das offizielle Projekt ist unter http://code.google.com/p/android-vlc-remote/ zu finden). Nachdem man VLC Remote installiert hat muss man nur noch VLC (+ Webinterface) starten:

    vlc –extraintf=http –fullscreen –http-album-art –qt-start-minimized

    Das ganze kann natürlich auch als Autostart eingetragen werden um gleich nach der Anmeldung ausgeführt zu werden. Wie das funktioniert erfährt man unter http://wiki.ubuntuusers.de/autostart. Und schon kann man VLC bequem fernsteuern.

    Weitere Informationen gibt es unter:
    http://wiki.ubuntuusers.de/VLC

    20. März 2010

    Wer öfter Unterwegs mit seinem Net-/Notebook einen Blogeintrag schreiben möchte, ohne beim späteren online-gehen die Formatierungen, Links etc. einfügen zu müssen, sollte sich lekhonee mal näher ansehen.

    Mit dieser Software können Blogeinträge auch ohne bestehende Internetverbindung verfasst und später wenn eine Verbindung zum WWW steht hochgeladen werden. Folgende Features sind bis jetzt implementiert:

    *Verwenden von Tags
    *Verwenden von Kategorien
    *Anlegen von Kategorien
    *Speichern von Artikel-Entwürfen
    *Formatierung (fett, kursiv)
    *Einfügen von Links
    *Einfügen von Bildern
    *Bearbeiten der letzten Artikel

    Noch nicht implementiert wurde:

    *Erweiterte Formatierung (Code, Blockquote etc.)
    *Einfügen von Multimediadateien (Videos / Musik)
    *Nur WordPress wird unterstützt
    *Und die restlichen Features…

    Dieser Artikel wurde mit lekhonee geschrieben, für die Erstellung eines Blogeintrages Unterwegs ist die Software in Ordnung. Wegen der fehlenden Features werde ich gucken ob es nicht noch andere Blogclients gibt, die WordPress besser unterstützen.

    The post is brought to you by lekhonee v0.7


    Mit einem Tag Verspätung haben die Entwickler von Ubuntu, die erste Beta von Lucid Lynx (Ubuntu 10.04) veröffentlicht.


    Diesesmal hat sich Optisch an Ubuntu sehr viel getan. Das in die Jahre gekommene Human-Theme ist durch ein neues modernes Theme ersetzt worden.”Light” nennst sich dieses und kommt mit zwei verschiedenen Themes: Ambiance und Radiance.

    Ambiance versetzt den Desktop in ein tiefes Schwarz (Standard-Theme) und Radiance bietet einen hellen Desktop. Die Fensterbuttons die in der Vergangenheit sich auf der Rechtenseite gezeigt haben sind nach Links gewandert. Maximieren, Minimieren, Schließen ist nun die neue Reihenfolge der Buttons.
    Der Bootscreen sowie das Anmeldefenster wurden komplett überarbeitet.
    Systemweit dominiert nun die Farbe Viollett, sowie einige Icons: Desktop anzeigen, Computer und Erscheinungsbild wurden mit Violletten Tupfern bestückt. Auch das Ubuntu-Logo und die Website von Ubuntu wurde aufgefrischt.

    Die Live-CD bootet von nun an ohne ohne Einstellmöglichkeit und Rückfrage bis hin zum Desktop und bietet dann erst die Möglichkeit, die Sprache, Tastaturbelegung und die Installationsvariante zu Wählen.

    Diese starken Veränderungen wurden viel diskutiert und kritisiert, so dass Mark Shuttleworth sich zu Wort meldete.

    Lucid kommt mit Kernel 2.6.32, glibc 2.11, X.org 7.5 mit dem X-Server 1.7, Gnome 2.30 Beta, KDE 4.4, Firefox 3.6, OpenOffice 3.2. Hal (Hardware Abstraction Layer) wurde komplett aus dem System entfernt, was das Booten deutlich beschleunigen soll. Der neue Nvidia OpenSource-Treiber Nouveau wird Standardmässig die Nvidia-Karten antreiben.

    Wie angekündigt ist die Standardsuchmaschiene bei Ubuntu nun Yahoo. Die Google-Suche kann nach Wunsch wieder aktiviert werden.In den Medienspieler Rhythmbox wurde der  Ubuntu One Music-Store Musik integriertm so dass es nun mäglich ist Musik im MP3-Format zu kaufen. Nautilus bietet nun die Möglichkeit das Fenster zu Teilen, so dass Daten einfacher verwaltet werden können.

    Ubuntu 10.04 ist eine LTS-Version. D.h. Canonical gewährleistet drei Jahre Updates für die Desktopvarianten, die Serveredition wird fünf Jahre mit Updates versorgt.

    Hier befindet sich in Zukunft der Musik-Store von Ubuntu Die neuen Themes Ambiance und Radiance geben Ubuntu 10.04 eine neue Optik Radiance bietet einen hellen Desktop Ambiance sorgt für eine dunkle Optik Nautilus mit geteiltem Fenster

    Downloads


    Ubuntu 10.04 kann in folgenden Versionen als ISO-Datei heruntergeladen werden:

    Hinweis: Die erste Beta wird ausdrücklich nicht zum Produktiveneinsatz empfohlen, da einige Fehler Datenverlust verursachen können



    Links:

    Seit gestern ist SaleZ Lite nun auch im AppCatalog verfügbar (VideoDemo gibt’s hier). Ehrlich gesagt, hat mich das etwas positiv überrascht, da ich die App erst vor ca. 4 Tagen eingereicht hatte. Bei ‘BibleZ for webOS’ musste ich da schon fast 2 Wochen warten! An dieser Stelle möchte ich auch noch mal allen Betatestern danken, die mit geholfen haben, Fehler zu finden.

    In der Zwischenzeit ist auch die Arbeit an SaleZ (Pro) weiter voran geschritten. Mittlerweile kann man auch Festpreisartikel direkt vom Gerät kaufen (“SofortKaufen”), die Bewertungen des Verkäufers einsehen, Suchvorschläge erscheinen, wenn man einen Suchbegriff eingibt und seit heute kann man auch seine eBay Nachrichten lesen. Für nächste Woche steht die Suchfunktion auf dem Programm. Da ist noch einiges zu machen!

    Kommentar hinzufügen

    Im dritten Teil dieser kleinen Serie schauen wir uns mal das Zusammenspiel von GStreamer und einer TV-Karte oder Webcam an.
    GStreamer ist ein Multimedia-Framework, das in vielen Programmen Anwendung findet – etwa in Totem, Exaile, Banshee, OGG Convert oder Ubuntus zukünftigem Standard-Videoeditor PiTiVi. Sogar in meinem Pyjama ;) . Gerade unter GNOME ist GStreamer das Media-Framework schlechthin.

    Entsprechend sollte es eigentlich nicht wundern, dass GStreamer ohne Probleme auf die V4L2-Schnittstelle zugreifen kann. Im Rahmen dieses Eintrages werde ich auch  versuchen, ein paar Grundlegende Fähigkeiten von GStreamer zu beschreiben – es ist anfangs gar nicht so leicht, sich in dieses Gebiet einzuarbeiten.

    Videowiedergabe

    Grundsätzlich kann man bei GStreamer  3 Arten von Elementen unterscheiden: Source-Elemente kümmen sich um die Eingabe und lesen beispielsweise eine Datei. Filter-Elemente verarbeiten diese Daten, indem sie diese etwa kodieren. Die sogenannten Sink-Elemente kümmern sich schließlich um die Ausgabe und schreiben die Daten beispielsweise in eine Datei. Schauen wir uns einfach mal diesen Befehl zur Videowiedergabe an:

    gst-launch-0.10 v4l2src device=/dev/video0 ! video/x-raw-rgb,width=640,height=480 ! ffmpegcolorspace ! xvimagesink

    Hier wird schon deutlich, dass GStreamer in Pipes organisiert ist. Das Programm gst-launch-0.10 erlaubt es dabei, selbst komplexe GStreamer-Pipes zu testen, ohne tatsächlich irgendwelchen Code schreiben zu müssen. Hier werden die einzelnen Elemente mit Rufzeichen miteinander verbunden. Eigentlich ist dieser Befehl aber nur zum Testen gedacht: Für richtige Programme bietet GStreamer andere Schnittstellen, so dass auch Laufzeit-Interaktion möglich ist.

    Im obigen Beispiel liest das Plugin v4l2src Daten aus der angegebenen Quelle. Diese werden dann an das nachfolgende Element weitergegeben – und in diesem Fall auf 640×480 Pixel skaliert. Das nächste Element ffmpegcolorspace konvertiert die Videodaten in den richtigen Farbraum und xvimagesink gibt schließlich das Bild aus.

    Das Ganze mit Ton

    Bisher haben wir leider nur Video und keinen Ton. Mit folgendem Befehl lässt sich das ändern:

    gst-launch-0.10 v4l2src device=/dev/video0 ! video/x-raw-rgb,width=640,height=480 ! ffmpegcolorspace ! xvimagesink osssrc device=/dev/dsp ! osssink

    Hier wird eine zweite Pipe eingerichtet, die sich um die Audioausgabe kümmert. Das Element osssrc liest nun Audiodaten vom Geät /dev/dsp. In diesem Fall haben wir keine Filter-Elemente zwischengeschaltet – die Daten werden sofort an den osssink weiter- und damit ausgegeben. Die beiden Abschnitte dieses Befehls sind dabei voneinander völlig unabhängig. Sowohl die Pipe

    v4l2src device=/dev/video0 ! video/x-raw-rgb,width=640,height=480 ! ffmpegcolorspace ! xvimagesink

    als auch die Pipe

    osssrc device=/dev/dsp ! osssink

    sind vollständig lauffähig. Nicht unterschlagen werden soll, dass es sei bei dem “video/x-raw-rgb…”-Element nicht im strengen Sinne um ein Element handelt: Intern wird es erst zu einem Capsfilter-Element umgewandelt. Für uns ist das hier aber zunächst nicht weiter wichtig.

    Einmal speichern bitte!

    Wer die Audio- und Videodaten nun speichern möchte, sollte sich folgenden Befehl einmal näher ansehen:

    gst-launch-0.10 v4l2src device=/dev/video0 !  queue ! video/x-raw-rgb,width=640,height=480 ! ffmpegcolorspace ! theoraenc ! queue !  oggmux name=mux osssrc device=/dev/dsp ! queue ! audioconvert ! vorbisenc ! queue ! mux. mux. ! queue ! filesink location=video.ogg

    Wie gehabt werden hier zunächst Videodaten ausgelesen, skaliert und farbkonvertiert. Das neue Element theoraenc kodiert die Daten. Wie wir später noch sehen werden, kann hier genauer spezifiziert werden, in welcher Qualität die Kodierung erfolgen soll. Das Element oggmux packt die kodierten Daten schließlich in einen OGG-Datenstrom, der den Namen “mux” erhält.
    Der zweite Abschnitt dieser Pipeline wird durch das Source-Element osssrc eingeleitet. audioconvert wandelt die Raw-Audiodaten zur Weiterverarbeitung um, vorbisenc komprimiert das Ganze mit dem OGG-Vorbis-Encoder. Die Daten aus diesem Vorgang fließen über ein Queue-Element in den OGG-Muxer, den wir zuvor ja “mux” getauft haben. Das war der zweite Abschnitt unserer Pipeline.
    Im letzten Teil werden nun die Daten aus “mux” – wieder über einen Queue – an filesink übergeben. Wie der Name schon andeutet, kümmert sich dieser Sink darum, die Daten in eine Datei zu gießen. Das etwas irritierende Element “! mux. mux. !” besteht also tatsächlich aus zwei Elementen: Das erste “mux” fungiert als Ziel für die komprimierten Audiodaten. Da “mux” ja der Name des OGG-Muxers ist, werden diese Audiodaten hier also mit den Videodaten “gemultiplext” – sprich: Zusammen in einen Datenstrom gepackt. Das zweite “mux” leitet einen neuen Abschnitt unserer Pipeline ein: Es fungiert hier also als Source-Element und gibt die Daten an das filesink weiter.

    Die  Queues sind übrigens immer da gefordert, wo ein nachfolgendes Element potenziell “langsamer” ist, das aktuelle: Um Aussetzer in Ton und Bild zu vermeiden, wird so schlicht ein Puffer zwischengeschaltet. Besonders, wenn ihr feststellt, dass eine GStreamer-Pipeline in eurer Programm-Implementierung stuckt und springt, fehlen sehr wahrscheinlich Queues an der richtigen Stelle.

    Sehen, hören und speichern

    Jetzt wollen wir die ganzen Einzelschritte einmal zusammenbringen. Folgender Aufruf sieht schon wirklich mächtig aus:

    gst-launch-0.10 v4l2src device=/dev/video0 ! tee name=videoout ! queue ! video/x-raw-yuv,width=640,height=480 ! queue  ! theoraenc quality=30 ! muxout.

    osssrc device=/dev/dsp ! tee name=audioout ! queue ! audio/x-raw-int,rate=44000 ! queue ! audioconvert ! vorbisenc !  muxout.

    oggmux name=muxout ! filesink location=media2.ogg

    videoout. ! queue ! ffmpegcolorspace ! xvimagesink

    audioout. ! queue ! osssink

    Zur besseren Übersicht habe ich die jeweiligen Abschnitte einmal voneinander getrennt. Eigentlich ist das aber eine zusammenhängende Befehlszeile!

    Der erste Abschnitt ähnelt den bisher besprochenen Abschnitten. Neu ist das Element tee: Es dupliziert den Stream – wie das tee in der Linux-Konsole. So können wir später über den Namen “videoout” auf eine Kopie des Videostreams zurückgreifen. Nach einem tee-Element ist immer ein Queue-Element erforderlich. Es folgen weitere bekannte Elemente und schließlich wird der Stream an ein Element mit dem Namen “muxout” übergeben. Das es sich dabei nur um den Namen eines anderen Elementes handelt, erkennt man an dem nachgestellten Punkt. Für uns ist hier erstmal nur wichtig, dass wir den Stream gewissermaßen “zwischengeparkt” haben.

    Im zweiten Abschnitt wird parallel für den Audiostream verfahren. Die meisten Elemente sind bekannt, auch hier wird eine “Kopie” mit tee erstellt und auch dieser Stream wird in “muxout” zwischengeparkt.

    Der dritte Abschnitt bringt Licht ins Dunkel: “muxout” ist der OGG-Mixer. Er multiplexiert Audio- und Videodaten und gibt das Resultat an den filesink weiter, der das Ganze speichert. Bis hierher ähnelt das Beispiel sehr dem vorherigen Beispiel in “Einmal speichern bitte!”. Neu ist lediglich das Element tee und die Verwendung des Multiplexers. Wann und wo man den Multiplexer “definiert”, ist hier aber eigentlich egal: Man kann auch – wie hier – zunächst einen Stream an einen  Element-Namen leiten und diesen erst später einem Element zuweisen.

    In Abschnitt 4 wird der Video-Stream wie gewohnt ausgegeben. Neu ist lediglich, dass hier nicht eine Datei oder ein Gerät als Source dient, sondern eben das Element “videout.“, das wir zuvor mit tee definiert als Kopie des Streams definiert haben.

    Im Abschnitt 5 wird mit “audioout.” parallel verfahren.

    Fazit

    GStreamer stellt Einsteiger meines Erachtens zunächst vor große Hürden. Das einfache Wiedergeben eines schnöden Videos kann dabei durchaus schon einige Kopfschmerzen bereiten. Was aber wirklich begeistert, ist die Vielzahl an Möglichkeiten, die man mit GStreamer hat. So ist es sogar ohne große Probleme möglich, Bluebox-Effekte mit GStreamer zu erzeugen – und das finde ich schon recht imposant. Weiterhin profitiert man als Programmierer von der Vielzahl der unterstützten Codecs. So ist es sicher nicht verwunderlich, dass unter GNOME so viele Programme auf GStreamer zurückgreifen.

    danielnoegel.de 20. März 2010 09:46

    ooaTV

    So, den ersten Ansatz meines Python/GStreamer/GTK/V4L-TV-Tools habe ich jetzt bei Launchpad unter GPLv3 veröffentlicht. Auch wenn das Programm noch in den Kinderschuhen steckt, würde ich mich über Mithilfe und Hinweise freuen.

    Besonders suche ich nach einer Möglichkeit, einen Videostream, den ich mit nachfolgender Pipe aufzeichne, gleichzeitig mit einem dritten Programm abzuspielen.

    gst-launch-0.10 v4l2src device=/dev/video1 ! tee name=videoout ! queue ! videorate ! video/x-raw-yuv,width=640,height=480,fps=25         ! queue  ! xvidenc bitrate=300000 ! queue ! muxout.   osssrc device=/dev/dsp ! tee name=audioout ! queue ! audio/x-raw-int,rate=44100,channels=1,width=16 ! queue ! audioconvert ! lame ! muxout.  avimux name=muxout ! identity sync=TRUE ! filesink location=video.avi

    Mir ist durchaus klar, dass ich eben das mit dieser Pipe umsetzen könnte:

    gst-launch-0.10 v4l2src device=/dev/video1 ! tee name=videoout ! queue ! videorate ! video/x-raw-yuv,width=640,height=480,fps=25         ! queue  ! xvidenc bitrate=300000 ! queue ! muxout.   osssrc device=/dev/dsp ! tee name=audioout ! queue ! audio/x-raw-int,rate=44100,channels=1,width=16 ! queue ! audioconvert ! lame ! muxout.  avimux name=muxout ! identity sync=TRUE ! filesink location=video.avi videoout. ! queue ! ffmpegcolorspace ! xvimagesink audioout. ! queue ! fakesink

    Darum geht es aber eben nicht: Ich möchte mit GStreamer ein Video speichern und dieses – während “hinten” sozusagen noch geschrieben wird – zeitversetzt wiedergeben. Dummerweise wird der Video-Stream anscheinend von GStreamer asynchron geschrieben und erst beim Beenden mit den nötigen Meta-Daten versehen. Hier gab es Hinweise auf das identity-Element mit aktivierter Sync-Option. Allerdings war das in meinem Fall nicht hilfreich.

    Update:
    Da es schon ein Projekt mit dem Namen pyTV gibt, habe ich mein Programm vorerst ooaTV getauft.