ubuntuusers.de

23. Dezember 2009


Nachdem mein Artikel über OperaUnite und Mp3s teilweise die Gemüter etwas erhitzt hat, zeige ich heute einen Weg auf, ganz legal, zumindest in Deutschland, an Musik zu kommen.
Dazu benötigt man die Software TheLastRipper , einen Last.fm Account und am besten eine Flatrate ;-) .

Installation

Bei den meisten Distributionen liegt die Software bereits in den Repos vor. Also wie gewohnt über den Paketmanager einspielen.

Benutzung

Unter „Preferences“ muss man seinen Last.fm-Account eintragen und im Reiter „Music directory“ den Ornder angeben, in dem die Mp3s gespeichert werden sollen.
Nach einem Klick auf Login verbindet sich der Ripper zu Last.fm.

Einstellungen

Anschließend kann man Musik nach den folgenden Kriterien aufrufen:

Tag
Similar artist
Playlist
Personal
Loved
Recommended
Neighbours
Group
lastfm://

Also z. B. wie ich als Similar Artist „Nightrage“ eintragen auf „Tune in“ klicken und Lieder die denen ähnlich von Nightrage sind rippen lassen :)
TLR legt die gerippten Musikstücke schon mit ausgefülltem ID3-Tag in einer übersichtlichen Verzeichnishierarchie in CD-Qualität ab: Künstler – Album – Lieder

TheLastRipper in Aktion


Weiterführende Links

Ausführlich beschrieben mit so manchen Tricks ist die Benutzung im Ubuntuusers-Wiki. Hier findet man auch den Paragrafen, der das Rippen legalisiert.

Das erste Beispiel oder die erste Android Anwendung ist fertig und kann einfach im virtuellem Gerät “Android Virtual Device” gestartet werden.

Aber wie sieht es mit einem echten Gerät aus?

Man könnte die Anwendung als .apk (Android Application Package) exportieren und auf das Device kopieren, installieren und starten oder einfach über die Android Debug Bridge direkt aus Eclipse heraus Anwendungen nicht nur starten sondern auch gleich debuggen.

Dalvik Debug Monitor :: Motorola Milestone

Dalvik Debug Monitor :: Motorola Milestone

Android SDK, Eclipse und ein echtes Device, das Milestone von Motorola

HinweisDas folgende Beispiel wurde unter Ubuntu Karmic Koala 9.10 und einer Entwicklungsumgebung für Android durchgeführt. Die Einrichtung einer Entwicklungsumgebung für Android unter Linux ist im Artikel Hello World Android unter Linux beschrieben.

Motorola Milestone

Auf dem Android Device USB-Debugging aktivieren.

  • Unter “Einstellungen / Anwendungen / Entwicklung” USB-Debugging aktivieren.

Linux

In der Shell die Geräte ID ermitteln.

$ lsusb
Bus 001 Device 004: ID 22b8:41db Motorola PCS

udev-Regel für das Gerät erstellen.

  • Folgende Zeile in einer udev-Regel Konfiguration eintragen.
SUBSYSTEM=="usb", SYSFS{idVendor}=="22b8", MODE="0666"
$ sudo gedit /etc/udev/rules.d/51-android.rules
  • Lesende Zugriffsberechtigung auf die neue Regeldatei setzen.
$ sudo chmod a+r /etc/udev/rules.d/51-android.rules
  • Die Debug Bridge (adb) sollte über folgenden Aufruf das Gerät auflisten.
$ <sdk>/tools/adb devices

Dalvik Debug Monitor

Erster Test mit dem Dalvik Debug Monitor (ddms).

$ <sdk>/tools/ddms
TippWird das Device nicht erkannt hilft ein Neustart der Android Debug Bridge. ($ <sdk>/adb kill-server)

Funktioniert die Debug Bridge können Screenshots über “Device / Screen capture…” erstellt werden.

Motorola Milestone :: Startbildschirm

Motorola Milestone :: Startbildschirm

Was für eine Auflösung! :-)

Eclipse

In Eclipse die Anwendung auf dem externen Gerät zum debuggen starten.

  • Anwendung in der Konfiguationsdatei AndroidManifest.xml unter “Application” “debugable” auf “true” setzen.
  • Kontextmenü auf das Projekt und “Debug As / 1 Android Application” auswählen.
Eclipse Debug - HelloWorld :: Motorola Milstone

Eclipse Debug - HelloWorld :: Motorola Milstone

Fertig

Jetzt fehlt nur noch eine Idee für eine schöne Anwendung, aber vielleicht habe ich ja schon die eine oder andere … :-)

Unsere Gegenwart ist ziemlich kommerzialisiert. Zu keiner Zeit fällt das mehr auf als zur Weihnachtszeit.Wir, meine Frau und ich, verzichten dieses Jahr komplett auf Geschenke, einzig meine Nichte wird bedacht. Keine Angst, es folgt jetzt nicht der Aufruf, Geld an irgend wen zu spenden, obwohl das auch eine gute Sache ist, wenn man unterstützenswerten Projekten finanziell unter die Arme greift.

Ich möchte an dieser Stelle einmal dazu aufrufen, "Zeit zu haben" oder anders formuliert "Zeit zu nehmen". Das kann nämlich auch Weihnachten sein, Zeit zu haben, um mit der Familie und mit Freunden ein paar Stunden zu verbringen. Geniesst es, einmal nicht gehetzt zu sein und einmal nicht von einem Termin zum nächsten gehen zu müssen.

Häufig ist es so, dass man sagt, dass man "keine Zeit hat", das liegt aber meistens daran, dass einem andere Dinge wichtiger sind.

Das wäre dann also das nächste, lehnt Euch einmal zurück und nehmt Euch einmal die Zeit, darüber nachzudenken, was Euch wichtig ist. Vielleicht findet Ihr Personen, Initiativen oder Projekte, denen Ihr (ehrenamtlich) ein wenig von Eurer Zeit spendet. Das müssen nicht die "üblichen Verdächtigen" sein, wie eingetragene Vereine oder andere Personen und Initiativen, die Euch vordringlich in den Sinn kommen. Vielleicht nutzt Ihr einen Teil Eurer Zeit, um Euer Wissen zu teilen oder mit Eurem Wissen anderen zu helfen. Vielleicht nutzt Ihr einen Teil Eurer Zeit, um Menschen einfach nur zuzuhören, weil sie jemanden brauchen, mit dem sie reden können. Vielleicht schreibt und veröffentlicht Ihr ein Programm, das für andere nützlich ist. Vielleicht nehmt Ihr Euch auch einfach mal Zeit für Euch und versucht für einige Minuten oder Stunden, etwas für Euch zu tun und nicht fremdbestimmt zu sein.

Vielleicht, und da kommt jetzt Ubuntu (nicht das Betriebssystem) ins Spiel, denkt Ihr gerade an Weihnachten einmal darüber nach, ob die Werte "Menschlichkeit", "Nächstenliebe" und "Gemeinsinn" für Euch eine Rolle spielen. Ja, das sind nicht nur christliche Werte und die passen nicht nur deswegen zu Weihnachten:
Damit (Mit Ubuntu) wird eine Grundhaltung bezeichnet, die sich vor allem auf wechselseitigen Respekt und Anerkennung, Achtung der Menschenwürde und das Bestreben nach einer harmonischen und friedlichen Gesellschaft stützt, aber auch für den Glauben an ein „universelles Band des Teilens, das alles Menschliche verbindet“. Die eigene Persönlichkeit und die Gemeinschaft stehen in der Ubuntu-Philosophie in enger Beziehung zueinander.
(Aus der Wikipedia).

Es ist wichtig "Zeit zu haben". Die Möglichkeiten sind unbegrenzt.

Ich wünsche allen Lesern friedliche und gesegnete Weihnachtsfeiertage.

Auf der Suche nach einem guten GTK-Gegenstück zu KGet bin ich auf Uget gestoßen, einen kleinen und einfach zu benutzenden Download Manager.
Er integriert sich wirklich super in den Gnome-Desktop und bietet folgende Features:

Integration von FlashGot
Abgebrochene Downloads fortsetzen, ohne nochmal alles von vorne zu laden
Warteschlange
Batchdownload
Command Line Support

Fedora-Nutzer greifen einfach auf das Paket im Repo zurück, Debian-Testing-Nutzer installieren sich das Paket von unstable, das läuft bei mir ohne Probleme. Unter Archlinux findet man das Paket im AUR.

Derzeit lade ich wie auf dem Screenshot ersichtlich die Debian Testing DVD. Ich muss diese nicht in einem Rutsch zu Ende laden, da ich ja abgebrochene Downloads fortsetzen kann. Das ist für mich das Killer-Feature schlecht hin :D

Uget in Aktion

Community ist Neudeutsch; besser wäre meines Erachtens das Wort Gemeinschaft. Aber das hört sich nicht so toll an, oder? In der Regel habe ich lieber die Worte aus unserer Kultur, zumal Deutsch eine sehr leistungsfähige Sprache ist. Wie dem auch sei; ich wünsche allen Menschen ein friedliches Fest und etwas Zeit und Musse für die Familie und vielleicht noch ein paar Gedanken zu unserer Gemeinschaft.

Denn die Wahrheit dehnt sich nach innen aus, wo die Idee von Verlust bedeutungslos und nur Mehrung vorstellbar ist.

Teilen führt zu Ausdehnung. Das wissen wir, weil wir in der Welt der quelloffenen Software zu Hause sind. Teilen bringt kein Mangel, sondern Mehrung. Viele Menschen denken aber, es wäre umgekehrt. Hier liegt wohl eines der grössten Missverständnisse unserer Zeit. Jenes falsche Verständnis lässt sich im folgenden Zitat wiederfinden:

Das erste chaotische Gesetzt ist, dass die Wahrheit für jeden einen andere ist. Wie alle diese Grundgesetze behauptet dieses, dass jeder separat ist und eine andere Gedankenausrüstung hat, die ihn von den andern abhebt. Dieser Grundsatz entspringt dem Glauben, es gäbe eine Hierarchie der Illusionen; einige seien wertvoller und deshalb wahr. Jeder legt dies für sich selbst fest und macht es wahr durch seinen Angriff auf das, was ein anderer wertschätzt. Und das ist gerechtfertigt, weil sich die Werte voneinander unterschieden und die, die sie haben, scheinbar nicht gleich und deshalb Feinde sind.

Ich fühle mich ertappt. Es gibt noch manche “Baustelle”, die ich in Ordnung bringen muss und ich glaube, dass viele unserer Herausforderungen auf der Weltbühne und in unseren kleinen, individuellen Gemeinschaften auf dem Inhalt jenes Zitats fussen. Beide Auszüge stammen aus einem meiner Lieblingsbücher: Ein Kurs in Wundern. Das Buch ist umstritten, aber ich meine, dass es die Wahrheit wiedergibt. Auch wenn ich immer wieder angegriffen werde, wiederhole ich es hier noch einmal: Im Umfeld der Ubuntu-Nutzer und dem Umkreis daraus erlebe ich oft das, was ich als wahre Gemeinschaft schätze. Ich fühle mich wohl, aufgehoben und meine, dass ich einen ganz kleinen Teil zum grossen Ganzen beitragen kann.

Frohe Weihnachten!

Ähnliche Artikel

  • Keine ähnlichen Artikel vorhanden
Ab und an kann es vorkommen das man einige Fotos wiederherstellen muss, z.B. weil man dazu gezwungen wurde sie zu löschen. Also wird zu Hause mal schnell das Paket recoverjpeg installiert. recoverjpeg wird z.B. so aufgerufen:
sudo recoverjpeg /dev/hda1
Möchte man nun herausbekommen welchen Gerätenamen die SD Karte bzw. das Gerät hat von dem man die Daten wiederhaben will so gibt man im Terminal
sudo blkid
und bekommt eine Liste der Datenträger. Fröhliches wiederherstellen :-)

Weitere Informationen gibt es unter:
http://wiki.ubuntuusers.de/Datenrettung

In der aktuellen c’t (Ausgabe 01/2010) findet sich auf den Seiten 122-127 ein Test (“UMTS zum Anstecken”) zu einigen der momentan erhältlichen UMTS-USB-Sticks (Hauptsächlich solche die über die diversen Mobilfunkanbieter vertrieben werden). Darunter befindet sich auch der aktuell von Vodafone vertriebene Stick “Vodafone K3765-HV”. Dieser liegt z.B. dem “Surf-Sofort-Paket” bei, ist aber auch einzeln, ohne weiteren Vertrag erhältlich.

In diesem Artikel schreiben die Autoren das es ihnen nicht möglich war diesen UMTS-Stick unter Linux zum Funktionieren zu bringen, da sie keine funktionierende Umschaltsequenz für das Programm “usb-modeswitch” für den Stick finden konnten.

Ohne diese Umschaltsequenz wird der Stick nur als Massenspeicher vom System erkannt. In diesem Modus wird der Stick als USB-Flash-Laufwerk behandelt und man kann in diesem Modus die darin enthaltenen Treiber (nur Windows) installieren. Unter Windows wird nach der Installation des Treibers der Stick vom Treiber in den Modem-Modus versetzt. Unter Linux wird dazu ein kleines Tool namens “usb-modeswitch” benötigt, um das Umschalten zu bewerkstelligen. Für viele Sticks reichen die, im Tool eingebauten, vorgegebenen Umschaltsequenzen. Im Fall des Vodafone K3765-HV muss man etwas tiefer in die Trickkiste greifen.

Es gibt dank der Arbeit des “vodafone-mobile-connect-driver”-Projekts eine funktionierende Sequenz für diesen Stick :

sudo usb_modeswitch -v 12d1 -p 1520 -M 55534243EE0000006000000000000611062000000000000000000000000000

Diese Sequenz schaltet den Stick zuverlässig in den Modem-Modus um.

In der neuen Version 1.0.6 des Tools “usb-modeswitch” ist eine weitere Sequenz für den Stick enthalten :

sudo usb_modeswitch -v 12d1 -p 1520 -M 55534243123456780000000000000011060000000000000000000000000000

Diese funktioniert ebenfalls problemlos. Welche man benutzt scheint egal zu sein.

22. Dezember 2009

Webseiten und Rechner verbergen sich normalerweise hinter Domainnamen und IP-Adressen, die zunächst keinen Hinweis auf ihren Aufenthaltsort geben. Programme wie Traceroute oder Whois geben zwar Aufschluss darüber, viel einfacher und effizienter erledigt das jedoch der Webdienst Infosniper. Nach Eingabe einer IP-Adresse oder URL im Suchfeld zeigt die Seite den Standort des Rechners auf der Landkarte mit genauen Koordinaten an.
Beim Besuch der Seite erscheinen zunächst Informationen über den Standort des eigenen Rechners, was sich gut dazu eignet, die Effiziens von eventuell verwendeten Proxy-Servern zu testen.
Als Kartenmaterial stehen neben Google Maps auch die von Yahhoo zur Verfügung. Wird die Checkbock zwei Karten aktiviert, erscheint im linken Fenster der Auschnitt und im rechten eine èbersicht. Unterhalb der Karten finden man Zusatzinformationen, wie den Längen sowohl auch den Breitengrad und eine genaue Standortbeschreibung. Einträge wie Provider enthalten Info-Buttons, die zusätzliche Informationen anzeigen.

Besitz man eine eigene Website, so bietet das Projekt die Möglichkeit, den Service in einem kleinen Iframe einzubinden. Zur schnellen Suche des Firefox-Browsers stellt der Service zusätzlich ein Such-Plugin zur Verfügung.

Infosniper

Alle Jahre wieder…

Am Wochenende wollte mein Ubuntu 9.04 auf das aktuelle 9.10 updaten, verschlafen wie ich war stimmte ich dem Ganzen zu. Nach jeder Menge Fehlermeldungen inklusive nvidia-common wollte das System neu starten, jedoch verweigerte ich den Neustart und genoss meinen Sonntag auf der Couch. Nichtsahnend, was am nächsten Tag wohl passieren mag fuhr ich meinen Media-PC dann am Abend herunter. Nach 8 Stunden Arbeit und den letzten Weihnachtseinkäufen kam ich nach Hause, mein MacBook erblickte das Licht der Welt und mein Media-PC bootetet. Dann erschien plötzlich und völlig unerwartet die Fehlermeldung “Ubuntu running in low graphics mode”. :-x *…der Abend ist dann wohl gelaufen!*

Nachdem die Versuche den NVIDIA-Treiber über das Karmic Repository zu installieren zwar erfolgreich waren aber keine VDPAU Unterstützung verfügbar war versuchte ich das Ganze noch einmal mit dem NVIDIA-VDPAU-TEAM Repository. Alle Versuche schlugen fehl!

In der Ubuntuusers-Community konnte man verfolgen dass viele Mitglieder Probleme nach dem Update auf Version 9.10 hatten, fast jedes Mal wurde zu einer Neuinstallation geraten.

Gesagt, getan! Zehn Minuten später, mit dem frisch installiertem Ubuntu Karmic 9.10, lief alles wieder wunderbar.  :mrgreen:

sudo vi /etc/apt/sources.list

Auf dem Launchpad PPA vom NVIDIA-VDPAU-TEAM gibt es ein schönes Repository, ein Rundum-Sorglos-Paket für VDPAU.

deb http://ppa.launchpad.net/nvidia-vdpau/ppa/ubuntu karmic main
deb-src http://ppa.launchpad.net/nvidia-vdpau/ppa/ubuntu karmic main

Jetzt holen wir den PGP-Key, damit aptitude nicht diese Fehlermeldung NO_PUBKEY 1DABDBB4CEC06767 zeigt.

sudo gpg --keyserver keyserver.ubuntu.com --recv 1DABDBB4CEC06767 && sudo gpg --export --armor 1DABDBB4CEC06767 | sudo apt-key add - && sudo aptitude update

Nun werden wir uns den aktuellen NVIDIA Treiber und SMplayer mit VDPAU Support aus dem NVIDIA-VDPAU-TEAM Repository installieren.

sudo aptitude install linux-headers-`uname -r` libvdpau-dev libvdpau1 nvidia-195-kernel-source nvidia-195-modaliases nvidia-glx-195 nvidia-settings mplayer-nogui smplayer

Nachdem wir aptitude beim installieren zugeschaut haben, führen wir noch die…

sudo nvidia-xconfig --no-composite

…aus. Nun sollten wir unser System oder den X11 neu starten. Keine Panik, wenn ihr immer noch keine vernünftige Auflösung bekommt. Als nächstes müssen wir die /etc/X11/xorg.conf mit nvidia-settings bearbeiten. Diese führen wir, um  genügend Rechte zu haben, als root aus! Lokal im Terminal…

gksu nvidia-settings

…oder per SSH.

gksu nvidia-settings --display=:0.0

Jetzt legen wir die gewünschte Auflösung fest und drücken auf Apply, danach speichern wir die xorg.conf ins Verzeichnis /etc/X11/. So wird beim Booten auch die richtige Auflösung geladen. Nun müssen wir noch einmal unser System oder die KDE/GNOME-Session (Ctrl+Alt+Backspace) neu starten.

Wenn wir den SMplayer starten und in den Optionen > Allgemein -> Video noch vdpau auswählen, diese Einstellungen übernehmen und den SMplayer neu starten, können wir unsere HD-Inhalte ohne CPU-Last über die GPU problemlos wiedergeben. ;-)

Links:
Ubuntu – NVIDIA VDPAU + SMplayer
Ubuntu – VDPAU – Bildüberlagerungen
Ubuntu für VAAPI Support vorbereiten
Ubuntu – MPlayer inkl. SMPlayer mit VAAPI Unterstützung
Ubuntu – MPlayer quittiert den Dienst mit GCC 4.4.1
Ubuntu – VLC media player mit VAAPI Unterstützung

Google erschlägt gerade in einem (durchaus werbeähnlichen, aber inhaltlich wertvollen) Blogbeitrag (via) den ganzen Themenkomplex um Googles Kontroll- und Datenkrakenvorwürfen.

Today's open source goes far beyond the "patent pooling" of the early auto manufacturers, and has led to the development of the sophisticated software components — Linux, Apache, SSH, and others — upon which Google is built. In fact, we use tens of millions of lines of open source code to run our products. We also give back: we are the largest open source contributor in the world, contributing over 800 projects that total over 20 million lines of code to open source, with four projects (Chrome, Android, Chrome OS, and Google Web Toolkit) of over a million lines of code each. We have teams that work to support Mozilla and Apache, and an open source project hosting service (http://code.google.com/hosting) that hosts over 250,000 projects. These activities not only ensure that others can help us build the best products, they also mean that others can use our software as a base for their own products if we fail to innovate adequately.

Dabei benutzt Google die Apache-Lizenz, die der BSD-Lizenz entspricht und GPL 3-kompatibel ist. Im Kampf zwischen proprietärer und freier Software steht Google auf unserer Seite.

Der Hauptvorwurf gegen Google ist aber nicht der in Bezug auf die Freiheit der Software, sondern der in Bezug auf die Kontrolle über die Informationen. Welchen Schaden könnte ein allwissender und allkontrollierender Internetkonzern mir Googles Ausmaßen auch anrichten!

Aber schaut man sich an, was Google sagt und wie Google handelt, sind die Sorgen da noch berechtigt?

Finally, we must always give control to the user. If we have information about a user, as with IBA, it should be easy for the user to delete that information and opt-out. If they use our products and store content with us, it's their content, not ours. They should be able to export it or delete it at any time, at no cost, and as easily as possible. Gmail is a great example of this since we offer free forwarding to any address. The ability to switch is critical, so instead of building walls around your product, build bridges. Give users real options.

Google macht das nicht aus Altruismus, immerhin ist ein kapitalistischer Großkonzern. Es ist an sich (für uns) viel besser: Es ist ein Geschäftsprinzip.

Reward = (Total value added to the industry) * (Our share of industry value)

Diese Sicht auf den eigenen Gewinn ist es, der Google dazu bringt, eben nicht unser Feind zu sein. Als großer und mächtiger Mitspieler in einem offenen und florierenden System sind sie es, die von dem Wachstum profitieren. Und genau das stimmt für Google ja auch: Ohne ein lebendiges Internet würde die Suchmaschine kaum genutzt, ohne Nutzung der Suchmaschine könnte die Werbung nicht dort platziert bzw auf die gefundenen Seiten gebracht werden, bzw würden es weniger Leute sehen. Google hat und muss ein Interesse daran haben, offene Systeme mit Kontrollmöglichkeiten der Nutzer zu schaffen.

Genau hier liegt auch der Punkt, der unsere Medienindustrie dazu bringt, Google als Feind zu betrachten (und warum Apple und Google gebrochen haben):

Closed systems are well-defined and profitable, but only for those who control them. Open systems are chaotic and profitable, but only for those who understand them well and move faster than everyone else.

Damit schreibt Google mal eben die kapitalistische Wirtschaftstheorie um und unterstützt dabei freie Software und offene Systeme gegen die Kontrolleure. Soviel zu "Google is evil".

bejonet 22. Dezember 2009 08:56

Wordpress 2.9

Am Wochenende ist die neue Version 2.9 von Wordpress erschienen. Wie immer führte ich das automatische Update aus und zu meiner Verwunderung war das Update das erste mal erfolgreich! Alle bisherigen Updates schienen gescheitert zu sein, zumindest lies das eine Meldung im Backend vermuten.

Wie dem auch sei, das Update auf 2.9 verlief vollkommen problemlos und war nach wenigen Minuten vorbei. So kurz das Update auch war, die Änderungen können sich sehen lassen und fallen bei regelmäßiger Benutzung sehr schnell auf. Hier ein paar Beispiele:

Auffällige Neuerungen

Papierkorb

Es gibt nun zum Beispiel einen Papierkorb, in den die zu löschenden Beiträge gelegt werden können. Statt dem bisherigen „Löschen“ Button findet sich nun einer mit der Aufschrift „In den Papierkorb legen“. Artikel, Seiten und Kommentare werden nun also nicht sofort endgültig gelöscht, sondern in den Papierkorb verschoben und lassen sich von dort aus wiederherstellen (und auch endgültig entfernen). Die Elemente werden dort 30 Tage zwischengelagert.

Einfache Bildbearbeitung

Bilder lassen sich nun direkt im Backend bearbeiten. Das Wort „bearbeiten“ ist wohl etwas übertrieben, aber immerhin lassen sich die Bilder aus der Mediathek beschneiden, drehen und spiegeln.

Externe Medien

Externe Medien, etwa Youtube-Videos oder Bilder von Flickr lassen sich nun kinderleicht in die Artikel einbauen. Alles was dazu notwendig ist, ist die URL an die gewünschte Stelle einfügen.

Pluginverwaltung

Plugins lassen sich nun gleichzeitig aktualisieren.

Post Thumbnails

Es gibt eine Vorschaubildfunktion, analog zu Nachrichtenseiten, die immer ein Vorschaubild zu den Nachrichten bieten.

Einführung in Wordpress 2.9

Diese Neuerungen reichen dir noch nicht? Naja, vielleicht genügen dir ja diese hier ;-)

Ein wirklich lohnenswertes Upgrade, nicht nur wegen der Sicherheitsupdates, sondern auch wegen der umfangreichen Umfangsvergrößerung!

Artikel teilen: Digg del.icio.us Facebook Google Bookmarks Identi.ca Reddit Slashdot Twitter Yahoo! Buzz Yigg MisterWong.DE

Warum ich meine konsolenbasierte Instant-Messaging-Lösung zu schätzen weiss.

Ich habe seit 1999 ICQ, und irgendwann seit 2001 oder 2002 Trillian benutzt. Danach bin ich zu Miranda gewechselt und seit 2 Jahren bin ich überzeugter Pidgin-Nutzer. Seit ein paar Wochen bin ich dies aber mit Einschränkungen.

Ich habe auch während ich im Büro sitze Messenger laufen. Teilweise kommuniziere ich damit mit Kollegen, teilweise mit Freunden, Familie, etc., denn diese Kommunikation lässt sich leichter nebenher betreiben als ein Telefonat.

Jetzt ist es so, dass einige Personen das intensiver betreiben als andere und die Notifications von Pidgin, das blinkende Icon, der (eventuell aktivierte) Klang natürlich ständig Aufmerksamkeit auf sich ziehen. Da mich das stört und ich ja zum Arbeiten auf der Arbeit bin, nervt mich das manchmal, dass da ständig irgendwas blinkt, klingelt oder aufpoppt. Also benutze ich etwas, dass weniger Aufmerksamkeit erzeugt:

Eine Konsole in Putty oder in SSH, je nach Host-System. Als Frontend benutze ich irssi, einen IRC-Client, als Server wird bitlbee, ein IRC-IM-Gateway genutzt und das ganze hübsch und weich eingepackt gepackt in eine Screensession (wodurch meine Instant-Messenger-Accounts 24/7 online sind). Das ganze lenkt nicht ab und ich sehe dann rein, wenn ich will oder kann. Umgelegt auf die einzelnen Protokolle – bitlbee versteht OSCAR (AIM/ICQ), Jabber und MSN bedeutet das für das Handling folgendes:

Jabber-Accounts

Wer Jabber/XMPP/Google Talk kennt, weiss, dass es dort, im Gegensatz zu anderen bekannten und verbreiteten Messaging-Clients, problemlos möglich ist, von mehreren Orten aus eingeloggt zu sein. Gleichzeitig, versteht sich. Wenn ich also weiss, dass Kollegen, die vornehmlich über Jabber mit mir kommunizieren, dringend häufiger mit mir “chatten” wollen bzw. müssen, dann schalte ich einen lokalen Messenger (Pidgin) hinzu.

Die proprietären Messenger

Bei ICQ, AIM, MSN schaut es nicht so rosig aus, allerdings benutze ich zur Zeit eigentlich nur ICQ und MSN. Alle Messenger erlauben nur das gleichzeitige Login mit einem Rechner zur gleichen Zeit. Daher laufen diese derzeit ausschließlich über bitlbee.

Filetransfer, Gruppenchats & Co.

Klar. Irgendwo muss man Abstriche machen. Smilies in einer Konsolenanwendung sind nicht so der Bringer, sprich, in der Regel ziemlich oldschool, nämlich mit Text. Keine Bilder. Ebenso gibt es mit bitlbee keine mir bekannte Möglichkeit, einen Filetransfer zu initiieren. Für mich wäre es sowieso witzlos, da meine zu versendenden Daten ja im Zweifelsfall auf dem Rechner liegen, auf dem ich gerade bin, während bitlbee auf meinem Server zuhause läuft.

Gruppenchats sind hingegen relativ einfach in bitlbee zu erstellen, allerdings habe ich hier schon mit dem ICQ-Gruppenchat ein paar Probleme zwecks Darstellung von HTML-Tags in den Nachrichten gehabt, die wurden um jede Message eines anderen ICQ-Benutzers drumgelegt, was es ungeübteren Personen etwas schwer machen dürfte, da durchzublicken.

Fazit

Nach all dem, was Messenger heute können und wollen und tun, kann ich mich mit bitlbee auf das wesentliche konzentrieren und bestimme selbst, wann ich und wie ich schreibe oder Nachrichten lese. Das ist in einem gewissen Sinn eine Rückbesinnung auf die Grundidee des Instant Messaging. Nichts nerviges wie Spiele oder Sounds.

Und einen Vorteil hat es außerdem: Mein Handy verfügt über einen SSH-Client, dadurch kann ich auch mit dem Handy auf IRC und Instant Messaging zugreifen.

Ach ja: einen Nachteil für die Kontakte gibts noch: Ich brauche ab und zu länger zum antworten. Online sein heisst ja für mich damit nicht mehr “am Rechner” bzw. “mit der eeeBox verbunden sein”.

21. Dezember 2009

twitter_logo_header

Gerade machte ich mir Gedanken, bzw wurde dazu gezwungen Schrägstrich verleitet mir Gedanken zu machen über Twitter. Vielleicht liegt das an den mehr oder minder folgenswerten Leuten denen ich folge bzw jetzt nichtmehr folge, dass ich Twitter manchmal nervend finde. Warum setz ich mich noch gleich vor den PC ? Achja stimmt, ich wollte _nicht_ wissen was gerade im Fernsehen läuft. Oder so.

Na gut ich schweife ab. In meiner Twitter-Timeline fand ich jedenfalls so einige Tags die da hiessen #sdr, #bsf oder ähnliches, die mich in erster Linie an Rundfunksender oder Viehkrankheiten erinnerten. Wie sich kurzerhand herrausstellte sollte das garnicht so weit von dem entfernt sein was ich dachte. Kommentare zu Bauer sucht Frau oder Schlag den All-in-One-Moderator von Prosieben.

Ich fragte mich ob ich meine Timeline auch ohne diese Tweets lesen könnte. Ein grep -v $HASHTAG sozusagen. Dies schrob ich (ja schrob ist auch ein schönes Wort, genauso wie fotofiert) dann in Twitter. Ich schweifte von hier nach da, von Automatisierungmöglichkeit zum Melitta Filter für Twitter. Über Interessen, Langeweile, Stumpfsinn, oder ob ich der einzige bin den sowas _nicht_ interessiert.

Warum gäbe es keine automatisierte Filtermethode für TV-Serien die mich nicht intressieren? Warum gäbe es keine automatisierte Filtermethode für Tweets die mich allgemein nicht interessieren? Ein Melitta-Beutel an dem die ganzen Tags hängen bleiben die ich nicht lesen will. Andererseits. Warum sollte ich meine Timeline bei Twitter dann überhaupt noch aktualisieren? Alle 2 Wochen würden dann warscheinlich reichen… Auch auf die Gefahr hin das ich meine eigenen Tweets warschenlich nichtmehr lesen könnte…

Bis Benne mir einen Tweet mit dem Inhalt:

@noqqe man sollte die ganzen tags mal sammeln ;-)

zusandte, welcher meine Denke dann in Richtung Adblockplus brachte.
Es wäre doch awesome eine Art, naja. Eine Art ja Adblock zu haben. Ein Plugin für Twitter die automatisch Tweets je nach Hashtag blocken, man allerdings Abonnementen-Like den Filterlisten von Leuten subscriben könnte.

Klar das wäre Aufwand für denjenigen der diese Liste pflegt. Aber Adblock Abos pflegt doch auch irgendjemand.

Seit ich meinen SheevaPlug habe, hat mich wieder der alte Spieltrieb gepackt: Welche Linux-Distribution bekommt man auf welcher Hardware ans laufen.

Downsizing

So nennt sich das wenn man versucht eine große Distribution (Ubuntu, Fedora, Debian, $INSERTYOURLINUXHERE, ...) auf ein eigentlich viel zu kleines und leistungsschwaches Gerät zu installieren. Meine Meinung nach ist sowas nicht unbedingt praktisch, und auch nicht gerade das was man sich täglich antun möchte.

Wer schon mal auf einem Pentium III mit 500 MHz und 128MB RAM mit Ubuntu "gesurft" hat, der weis was ich meine!

Upsizing

Auf der anderen Seite gibt es natürlich noch so viele Mini Linux Distributionen (Toms Root Boot Disk, HAL91, ...) welche doch Ideal für so ein kleines Gerät sein müssten. Doch auch hier ist man falsch, die meisten Mini Linux Distributionen gibt es nur für die i386 Architektur, eine Version für ARM oder noch exotischere Prozessoren wird man kaum finden (oder zumindest keinen Support dafür bekommen).

Der Aufwand eines dieser Minimalsysteme an seine (in der Regel) höheren Anforderungen anzupassen ist nicht gerade gering da oft z.B. der Kernel und viele Basistools ausgetauscht (oder erstmal hinzugefügt) werden müssen.

Viele Stunden rumbasteln nur damit man dem Nachbarn zeigen kann was für ein Toller Hecht man doch ist, naja... ich habe da andere Hobbies ;-)

Doch was richtiges?

Und jetzt kommen wir zu dem (IMHO) richtigen Weg: Man nimmt etwas, das genau für solche Geräte ausgelegt ist. Das allgegenwärtige ist natürlich Linux From Scratch, welches wenn man genug Erfahrung hat wirklich überall laufen sollte. Aber sind wir doch ehrlich: Wir nutzen Computer weil wir verdammt faul sind, nur die wenigsten von uns werfen einen Compiler an ohne zu wissen das es (mit großer Wahrscheinlichkeit) funktionieren wird.

Ich habe mich daher nach einiger Zeit für OpenWRT als Distribution für meinen SheevaPlug entschieden. OpenWRT erfüllt alle meine Anforderungen:

  • Klein, mein aktuelles System (inkl. OpenVPN,iptables,sshd,rsync) ist weniger als 20 Megabyte groß
  • Schnell, der Plug benötigt damit ~20 Sekunden zum booten
  • Funktional, einfach das .tgz + uImage auf eine SD Card entpacken und Spaß haben
  • Erweiterbar, für alles wichtige gibt es Pakete (zum selber bauen)
  • Einfach, make menuconfig und auswählen was man will bekommt (fast) jeder hin

Fazit

Es bringt nichts (außer das die Zeit vorbei geht) wenn man krampfhaft versucht sein Linux das man immer und überall hat auf jedes noch so kleine (oder große) Gerät anzupassen. Natürlich war OpenWRT nur ein Beispiel, ggf. hat sogar schon T2 ein Target für Kirkwood (die Plattform vom SheevaPlug heist so).

Seit ich meinen SheevaPlug habe, hat mich wieder der alte Spieltrieb gepackt: Welche Linux-Distribution bekommt man auf welcher Hardware ans laufen.

Downsizing

So nennt sich das wenn man versucht eine große Distribution (Ubuntu, Fedora, Debian, $INSERTYOURLINUXHERE, ...) auf ein eigentlich viel zu kleines und leistungsschwaches Gerät zu installieren. Meine Meinung nach ist sowas nicht unbedingt praktisch, und auch nicht gerade das was man sich täglich antun möchte.

Wer schon mal auf einem Pentium III mit 500 MHz und 128MB RAM mit Ubuntu "gesurft" hat, der weis was ich meine!

Upsizing

Auf der anderen Seite gibt es natürlich noch so viele Mini Linux Distributionen (Toms Root Boot Disk, HAL91, ...) welche doch Ideal für so ein kleines Gerät sein müssten. Doch auch hier ist man falsch, die meisten Mini Linux Distributionen gibt es nur für die i386 Architektur, eine Version für ARM oder noch exotischere Prozessoren wird man kaum finden (oder zumindest keinen Support dafür bekommen).

Der Aufwand eines dieser Minimalsysteme an seine (in der Regel) höheren Anforderungen anzupassen ist nicht gerade gering da oft z.B. der Kernel und viele Basistools ausgetauscht (oder erstmal hinzugefügt) werden müssen.

Viele Stunden rumbasteln nur damit man dem Nachbarn zeigen kann was für ein Toller Hecht man doch ist, naja... ich habe da andere Hobbies ;-)

Doch was richtiges?

Und jetzt kommen wir zu dem (IMHO) richtigen Weg: Man nimmt etwas, das genau für solche Geräte ausgelegt ist. Das allgegenwärtige ist natürlich Linux From Scratch, welches wenn man genug Erfahrung hat wirklich überall laufen sollte. Aber sind wir doch ehrlich: Wir nutzen Computer weil wir verdammt faul sind, nur die wenigsten von uns werfen einen Compiler an ohne zu wissen das es (mit großer Wahrscheinlichkeit) funktionieren wird.

Ich habe mich daher nach einiger Zeit für OpenWRT als Distribution für meinen SheevaPlug entschieden. OpenWRT erfüllt alle meine Anforderungen:

  • Klein, mein aktuelles System (inkl. OpenVPN,iptables,sshd,rsync) ist weniger als 20 Megabyte groß
  • Schnell, der Plug benötigt damit ~20 Sekunden zum booten
  • Funktional, einfach das .tgz + uImage auf eine SD Card entpacken und Spaß haben
  • Erweiterbar, für alles wichtige gibt es Pakete (zum selber bauen)
  • Einfach, make menuconfig und auswählen was man will bekommt (fast) jeder hin

Fazit

Es bringt nichts (außer das die Zeit vorbei geht) wenn man krampfhaft versucht sein Linux das man immer und überall hat auf jedes noch so kleine (oder große) Gerät anzupassen. Natürlich war OpenWRT nur ein Beispiel, ggf. hat sogar schon T2 ein Target für Kirkwood (die Plattform vom SheevaPlug heist so).

Ubuntuxx 21. Dezember 2009 20:48

Pc im Browser

Die Idee, Anwendungen online zur Verfügung zu stellen ist, ja nicht wirklich neu. Das OpenSource Projekt “Online Operating System kurz” “O0S”, geht hier allerdings einen grossen Schritt weiter und stellt nicht nur Anwendungen, sondern gleich ein komplettes Betriebssystem über den Webbrowser zur Verfügung.

Hinter dem Projekt steckt die Firma iCube Network Solutions.
Wie gewohnt findet man unten in der Taskleiste den Programmstarter. Das Kontextmenü, Tastenkürzel und Sondertasten funktionieren wie auf normalen Systemen gewohnt.
Das System ist allerdings nur die halbe Miete. Interessant machen es erst die Anwendungen. Hier trumpft das Projekt mit allen denkbaren Programmen wie: Webbrowser, Mail, Chat-Client, PDF-Reader, Spielen und vielen mehr.
Mit der Anmeldung wird automatisch ein Mailaccount eingerichtet. Nach dem Muster: Benutzername@oos.cc. Mit dem integrierten Email-Client lassen sich somit mit dieser Adresse Emails versenden, als auch zu empfangen. Datenausstausch zwischen Virtuellem und echtem System ist per Up and Download möglich.

Jedem Nutzer steht 1 GByte freier Speicherplatz auf dem virtuellen PC zur Verfügung. Und das tolle an allem, es ist völlig kostenlos.

Hinweis:

Für alle die OOS testen wollen, ich habe einen Demo-Zugang eingerichtet.

Benutzername: muster

Passwort: user

Bitte keinen Datenmüll hochladen, danke ;-)

ALternativen:

  • eyeOS Der Funktionsumfang ist grösser, sieht schicker aus und ist ebenfalls OpenSource.


Screenshots:

Der Desktop von eyeOS

Der Desktop von Online Operating System

Der Anmeldescreen von Online Operating System

Ab der nächsten Version von Gimp (2.8) gibt es endlich auch die Möglichkeit des Einfenster-Betriebs.

Screenshot des Single-Window Modus von Gimp 2.7

Screenshot des Single-Window Modus von Gimp 2.7


Im Moment gibt es in Gimp je ein Fenster für jedes geöffnete Bild und zusätzlich ein Fenster mit den Werkzeugen (Werkzeugkasten) sowie bei Bedarf auch Dialogfenster für Ebenen, Pfade, … Der Umgang mit so vielen Fenstern ist auf kleinen Bildschirmen recht umständlich, da oft ein Fenster im Weg steht und man es zuerst weg schieben muss. Daher freuen sich schon viele Nutzer auf den Einfenster Modus, bei dem Bilder als Tabs angezeigt werden und die restlichen Fenster links und rechts neben dem Bild angeordnet werden. Dialogfenster können jedoch immer noch heraus gezogen und als eigenes Fenster angezeigt werden.

Es gibt jedoch auch Beführworter des Multi-Window Modus, da man mehrere Fenster leichter auf verschiedene Bildschirme verteilen kann.

Ich habe mir mal die Entwicklerversion (2.7) installiert und (vor allem den Single-Window Modus :) ) angesehen.

Installation

Zuerst müssend die build-utils, git sowie einige Abhängigkeiten installiert werden. Unter Ubuntu kann man dies mit dem folgenden Befehl erreichen:

sudo apt-get build-dep gimp libtool ruby git-core git-doc git-email

Als nächstes wird git konfiguriert. Dafür die folgenden beiden Befehle ausführen, wobei beim ersten Befehl der Name eingegeben wird und beim zweiten die Emailadresse:

git config --global user.name "Your Name"
git config --global user.email you@host

Nun werden die aktuellen Entwickerversionen von babl, gegl und gimp ausgecheckt:

git clone git://git.gnome.org/babl
git clone git://git.gnome.org/gegl
git clone git://git.gnome.org/gimp

Um eine bereits installiertes Gimp weiter benutzen zu können, wird die Entwicklerversion in das Verzeichnis /usr/local/gimp-git installiert.
Dafür wird dieses Verzeichnis angelegt und dort ein Verzeichnis share erstellt. Nun legt man die Datei /usr/local/gimp-git/share/config.site mit folgendem Inhalt an:

export PKG_CONFIG_PATH="/usr/local/gimp-git/lib/pkgconfig:$PKG_CONFIG_PATH"
export LD_LIBRARY_PATH="/usr/local/gimp-git/lib:$LD_LIBRARY_PATH"

Wenn es Probleme gibt, dass die neueste babl-Version nicht gefunden werden kann, können die beiden Befehle auch nochmal in der aktuellen Shell ausgeführt werden.

Die Leserechte müssen auch noch entsprechend gesetzt werden:

chmod -R oug+rx /usr/local/gimp-git
chmod oug-x /usr/local/gimp-git/share/config.site

Nun werden babl, gegl und schließlich gimp selbst kompiliert und installiert:

cd babl
./autogen.sh --prefix=/usr/local/gimp-git
make
sudo make install
 
cd ../gegl
./autogen.sh --prefix=/usr/local/gimp-git
make
sudo make install
 
cd gimp
./autogen.sh --prefix=/usr/local/gimp-git --disable-gtk-doc
make
sudo make install

Nun kann man gimp-2.7 mit folgendem Befehl starten:

/usr/local/gimp-git/bin/gimp-2.7

Ein Alias in der ~/.bashrc erleichtert den Aufruf:

alias gimp-git='/usr/local/gimp-git/bin/gimp-2.7'

Single-Window-Mode

Nachdem ich alle Menüs in den Einstellungen durchforstet habe und auch in einige Konfigurationsdateien geschaut habe, habe ich die Funktion für den Single-Window-Mode schließlich unter dem Menüpunkt “Fenster” gefunden.

Es sieht schon ziemlich schick aus. Auch wenn viele Kleinigkeiten noch nicht so richtig Funktionieren. Wenn die Dialoge an der Seite sind, reagieren sie manchmal nicht (oder nur teilweise). Abhilfe schaft auch manchmal den Modus wieder zurück zu wechseln und erneut in den Single-Window Modus zu wechseln. Versucht man einen Dialog unter den Werkzeugkasten (oder an eine andere Stelle an der Seite) zu platzieren, stürzt das ganze Programm mit einem segmentation fault ab.

Im Moment ist es noch sehr emfehlenswert, bei der Version 2.6 zu bleiben und die Entwicklerversion nur zum Ausprobieren zu nutzen. Dies gilt besonders für den Single-Window Modus, da dieser noch nicht sehr stabil läuft. Das wird sich aber sicherlich in der nächsten Zeit noch ändern.

[UPDATE]Mittlerweile funktioniert der Single-Window Modus recht gut und stabil, so dass man ihn nun verwenden kann. Man sollte jedoch im Hinterkopf behalten, dass sich das Programm noch im Entwicklungsstadium befindet und Fehler auftreten können.

Übrigens soll Gimp 2.8 frühestens Ende des Jahres (2010) erscheinen, wie man der Developer-Mailingliste entnehmen kann.[/UPDATE]

Den Screenshot in voller Auflösung habe ich hier verlinkt (am besten in einem nuen Tab oder Fenster öffnen).


Ich stehe Operas integriertem Server Unite etwas skeptisch gegenüber. Bei Unite handelt es sich um einen integrierten Server im Webbrowser Opera. Mit Unite können (unerfahrene!) Nutzer ihren PC in einen Server verwandeln um für Freunde, Verwandte etc. Bilder, Blogeinträge etc. bereitzustellen. Außerdem bietet Unite zusätzlich einen Service um Musik zu streamen / vorzuhalten.

Genau hier liegt der Knackpunkt, jeder „Server“ ist mit name.operaunite.com zu erreichen, solange der PC an ist.
Jetzt wird es manchen schon wie Schuppen von den Augen fallen… Manche Nutzer haben den Musikdienst eben nicht abgeschottet somit lassen sich mit einer simplen Suchmaschinen-Anfrage nach Mp3s ganze Musiksammlungen abgrasen. Ich bin schon neugierig, wann GEMA und andere einschlägige Stellen gegen OperaUnite vorgehen werden…

Also solltet ihr auch Musik auf eurem „Server“ haben, guckt bitte nach ob davon auch wirklich nichts davon von außen erreichbar ist. Nicht, dass ihr noch einen unangenehmen Brief bekommt…


Heute bin ich bei der Auswertung der Suchanfragen die auf meinen Blog geführt haben sehr oft auf die Konstellation „rapidshare konsole“ gestoßen.

Deshalb hier mal 2 Programme, mit denen man in der Konsole Dateien von One-Click-Hostern herunterladen kann:

Tuxload

Tuxload ist ein in Perl entwickeltes Programm zum Download von One-Click-Hoster Dateien, es kann von http://tuxload.wikidot.com/ bezogen werden.

Unterstützte Hoster

* Rapidshare.com
* filedrom.com
* filejungle.net
* freefilehost.co.uk
* megarotic.com
* megaupload.com
* megaupload.dk
* upload.to
* yourfiles.biz

Unterstütze Redirectors

* Bestprotect
* LixIn
* Safelink.in
* Stealth.to
* XeemTo

Infos zur Installation und zur Verwendung findet ihr auf der Projekthomepage oder im Ubuntuusers-Wiki

Wget

Auch der Downloadmanager wget kann mit Rapdishare umgehen, wget ist bei den meisten Distributionen standardmäßig installiert.

Zur Benutzung verweise ich einfach mal auf das Wiki der Ubuntuusers, da ist es wirklich ausführlich erklärt. :)

CAcert ist eine Zertifizierungsstelle für kostenlose X.509-Zertifikate, die für verschiedene Zwecke benutzt werden können. Auf wikipedia.de ist dazu in der Einleitung des Artikels über CAcert zu lesen:

CAcert ist eine gemeinschaftsbetriebene, nicht-kommerzielle Zertifizierungsstelle (Certification Authority, Root-CA oder kurz CA), die kostenfrei X.509-Zertifikate für verschiedene Einsatzgebiete ausstellt. Damit soll eine Alternative zu den kommerziellen Root-CAs geboten werden, die zum Teil recht hohe Gebühren für ihre Zertifikate erheben.

Ein weiterer, wichtiger Punkt ist die Vertrauensbildung der einzelnen Benutzer der Zertifikate und damit der ganze Gemeinschaft von CAcert. Es basiert auf dem Netz des Vertrauens und bietet daher eine ganze Menge Vorteile. Einerseits findet die Identitätsüberprüfung dezentral und damit nicht hierarchisch statt. Jeder kann Mitglieder der Gemeinschaft werden und ein Zertifikat bekommen, soweit ein paar Grundregeln erfüllt sind und eingehalten werden. Andererseits wächst das Netz des Vertrauens genau durch diese dezentrale Struktur immer weiter heran und bietet bereits heute eine gute Alternative zu den kommerziellen Anbietern.

Es gibt aber auch Nachteile. Ich sehe da zurzeit drei Punkte, die allenfalls noch zu verbessern wären. Erstens sind die Root-Zertifikate nicht in den gängigen Browsern und Mail-Programmen integriert, was bei der Verwendung von CAcert-Zertifikaten zu der hässlichen Meldung führt, dass dem Zertifikat nicht vertraut würde, da die Herkunft unklar wäre. Weiter kann CAcert keine Haftung für Firmen wahrnehmen, die ein solches Zertifikat nutzen und sich daraus Ansprüche ableiten liessen. Der zweite Punkt ist weit weniger arg, als der erste. Und schliesslich dürfte es für einen Einsteiger etwas umständlich sein, zu einem Zertifikat zu kommen, wenn er niemanden persönlich kennt und aus der Liste des Assurer jemanden finden soll. Je mehr Assurer es gibt, umso einfacher dürfte diese Herausforderung zu erledigen sein.

CAcertWie dem auch sei; ich konnte nun an der Keysigning-Party in Zürich so viele CAcert-Punkte sammeln, dass ich nun selbst zu einem Assurer (nur mit Login bei CAcert zu erreichen) geworden bin. Ich bedanke mich bei allen Assurern, die meine Identität so bereitwillig geprüft haben. Damit kann das Web of Trust vielleicht wieder ein kleines Stück weiter wachsen und ich werde versuchen, meinen Teil dazu beizutragen.

Bis jetzt setze ich zwar noch kein CAcert-Zertifikat ein, aber das ändert sich hoffentlich bald. Immerhin konnte ich meinen GnuGP-Schlüssel mit CAcert austauschen und unterschreiben.

Ähnliche Artikel

Da ich mit meinem Studium angefangen habe, möchte ich nun für alle Gleichgesinnten, einen sehr einfachen Weg erklären, wie man mittels Nautilus und SSH auf die persönlichen Daten auf dem Homelaufwerk des Hochschulservers zugreifen kann bzw. wie man eine Verbindung über das Terminal aufbaut. Da ich nur für meine Hochschule reden kann und es leider nicht auf alle Unis und Fachhochschulen beziehen kann, weiß ich nicht genau, inwiefern es jedem Studenten zusteht, auf dem Hochschulserver Dateien abzulegen. Für meine Hochschule sieht es jedenfalls so aus, dass jedem Student ein Homelaufwerk zusteht, auf das man nur persönlich zugreifen kann – auch über SSH.

SSH und Nautilus

SSH Einstellungen

SSH Einstellungen

Unter GNOME ergibt sich folgende Klickreihenfolge, um mit Nautilus auf das Verzeichnis zuzugreifen: Orte → Verbindung zu Server… Im Dropdown Menü wählt man nun natürlich den Eintrag SSH und gibt die Daten für Server, Port und Benutzername ein. Diese Angaben findet man gewöhnlicher Weise auf der Hochschulseite, vermutlich im Bereich des Rechenzentrums/ der EDV. Notfalls die Suchfunktion mit SSH Zugriff oder vergleichbaren Suchbegriffen füttern.

Um einen häufigeren Zugriff zu erleichtern sollte man ein Lesezeichen anlegen, damit diese Angaben gespeichert werden. Danach sollte sich relativ rasch das Fenster für die Passwortabfrage öffnen, wobei man am besten den zweiten Radioeintrag „Passwort erst beim Abmelden vergessen“ auswählt.

Danach öffnet sich Nautilus in einem neuen Fenster, das die Ordnerstruktur des Homeverzeichnisses angibt.

Mit sftp aus dem Terminal zugreifen

Natürlich ist es auch möglich, über das Terminal auf das Verzeichnis zuzugreifen. Mittels sftp ist das ein Kinderspiel:

$ sftp -oPort=3007 Benutzername@Host
Connecting to Host...
Benutzername@Host's password:
sftp>

Nun hat sich das Terminal ein bisschen geändert, denn vor dem Cursor steht nun nicht mehr der Rechnername und der Ordner, sondern die Zeichenfolge sftp>. Man kann sich nun wie mit einem FTP-Client aus dem Terminal navigieren, wichtige Befehle dabei sind z.B.

ls Zeigt den Ordnerinhalt an
cd Ordner Wechselt in den Ordner Ordner (mit cd .. gelangt man eine Ebene höher)
get Datei.ext Überträgt Datei.ext in den lokalen Homeordner
put Datei.ext Überträgt die lokale Datei Datei.ext auf den SSH-Server
rm Datei.ext Löscht Datei.ext
bye Ratet mal ;-)
help Zeigt und erklärt weitere mögliche Befehle

Beide Möglichkeiten sind sehr einfach und unkompliziert, die Möglichkeit über Nautilus ist dabei noch sehr komfortabel. Die größte Herausforderung dabei ist es, die Zugangsdaten herauszufinden.

In meinem Kurs bin ich der einzige, der bisher per SSH von Zuhause auf das Homeverzeichnis zugreifen kann. Höchstwahrscheinlich liegt es daran, dass kein anderer sonst Linux benutzt ;-)

Artikel teilen: Digg del.icio.us Facebook Google Bookmarks Identi.ca Reddit Slashdot Twitter Yahoo! Buzz Yigg MisterWong.DE

Eine Weißblende wird gerne benutzt um dem Zuschauer zu zeigen das Zeit vergangen ist. Dabei wird erst in ein weißes Bild abgeblendet und dann von diesem Bild auf das Videobild aufgeblendet.

Möchte man eine solche Weißblende mit Kdenlive erzeugen so benötigt man zuerst einen weißen Farbclip mit einer Länge von sechs Frames. Die ersten drei Frames sind dabei die Abblende, die letzten drei Frames die Aufblende. Dieser Clip wird nun unter die entsprechende Videospur gelegt und auf den Clip ab- und vom Clip wieder aufgeblendet. In der Timeline sieht das ganze dann so aus:



Weitere Infromationen gibt es unter:
http://kdenlive.org/
http://de.wikipedia.org/wiki/Kdenlive
http://de.wikipedia.org/wiki/Auf-_und_Abblenden

20. Dezember 2009

Softmaker bietet sein Office bis Weihnachten kostenlos zum Download an. Bei jedem Download gehen 10 Cent an Hilfsprojekte.

Das Office gibt es für Ubuntu (ebenfalls weitere Linux-Vers. wie Xandros, Fedora etz.) als auch für Windows.

Man bekommt nach dem Download eine Email mit dem Key, da man sich  vorher in ein Formular mit seiner Email und Namen registrieren muss. Keine Angst Ihr bekommt keine Werbung von Softmaker nur den Key.

Momentan wurde das Office über 41 Tausend mal heruntergeladen. Das macht eine Spendensummer von über 4 Tausend Euro.

Also Leute ladet das Programm herunter auch, wenn Ihr es nicht braucht. Denn die 10 Cent gehen trotzdem an Hilfsprojekte.

Das Macbook das ich von einem Kollegen erstanden habe, musste ich rigednwie bisschen individualisieren. Sowas sieht dann so aus:

IMG_0119IMG_0122

Das schöne ist, wenn ich keine Lust mehr drauf habe, zieh ich das ganze wie einen Teppich wieder runter ;D Übrigens bin ich mir der Ironie bewusst auf ein nicht MacbookPro einen Aufkleber mit der Aufschrift “Trust in Aluminium” zu kleben.
Wer mehr sehen will: Link zum FlickR Fotoalbum