ubuntuusers.de

14. März 2010

Eigentlich hatte ich mir ja vorgenommen, nichts über Ubuntus neues Design zu schreiben und die Sache auszusitzen. Naja, aus diesem Vorsatz wird mal wieder nichts…

Das Desktop-Experience-Team von Canonical (“Normal people doing amazing things”) hat ja für Lucid festgelegt, die Buttons der Fenstertitelleiste nach links zu verlegen und die Buttonsortierung ebenfalls abzuändern.

Dies hat zu massiven Protesten aus der Ubuntu-Community geführt, die sich auch im Bug-Report #532633 manifestieren. Dort beschweren sich viele Benutzer über das neue Standard-Layout, es wurden Petitionen eingereicht, Designstudien zitiert und auch ein Votum auf Ubuntu Brainstorm gemacht. Alles in allem spricht sich die Mehrheit dafür aus, zum alten Layout zurückzukehren.

Die Gründe dafür hat YokoZar in seinem Blog gut zusammengefast:

• Weil der Fenstertitel jetzt nicht mehr zentriert ist, sieht das Fenster seltsam eingerückt aus, wenn andere Fenster davor platziert werden.
• Die Position am linken Rand ist inkonsistent mit Nautilus, Firefox, Thunderbird, Pidgin, Empathy, und jedem bekannten anderen Programm, welches Tabs nutzt. Alle besitzen “Schließen” Knöpfe für ohre Tabs auf der rechten Seite.
• Die linke Position ist inkonsistent mit Windows, älteren Ubuntu-Versionen und selbst MacOS-X -  Benutzer müssen ihre Bewegungsabläufe komplett neu erlernen, welches den wechsel zwischen diesen Systemen erschwert.
• Benutzer, welche mit Ubuntu und Windows Maschinen arbeiten oder von Windows migrieren werden es noch schwerer haben, als vorher sich umzugewöhnen.
• Die Buttons sind zu nah an den “Datei” und “Bearbeiten” Menüs, welches die Wahrscheinlichkeit von falschen Klicks erhöht. Irgendetwas unabsichtlich zu schließen sollte so wenig wie möglich passieren.
• Auch ohne sich zu verklicken werden Benutzer mehr Zeit brauchen, um falsche Klicks zu vermeiden und die Buttons richtig zu nutzen. Ein gutes Beispiel für Fitt’s Law.
• Die Position des “Schließen”-Knopfes ist zudem inkonsistent mit dem “Power button” oder dem “Me Menu” oben rechts im Panel. Aktuell ist “schließen und beenden” etwas, was man immer oben rechts tut, überall im System; innerhalb eines Tabs, Fensters und auch für den gesamten Computer. Die neuen Fensterkontrollen passen überhaupt nicht.
• Die neue Position sorgt für eine Menge nutzlosen Platz in der rechten oberen Ecke der meisten Fenster. Wenn die Kontrollknöpfe auf der rechten Seite sind, fungiert der Platz als Puffer für die potenziell gefährlichen Kontrollknöpfe.
• Die linke obere Ecke der meisten Fenster wird nun extrem viel voller, welches einen unschönen Kontrsat zur leeren rechten Ecke darstellt.
• In vorherigen Ubuntu-Versionen konnte man fenster auf der linken Seite schließen, in dem man das Fenstermenü benutzte. (der kleine Kreis auf der linken Seiter) Zudem wurde hier ein Symbol des programmes angezeigt, welches nun wegfällt. Dadurch wird der Desktop unübersichtlicher.Datei->Beenden ist jetzt auch eine Option, die sehr nahe an den “Schließen” Knopf gerückt ist.
• Gnome upstream hat die Buttons rechts, welches große Probleme verursacht, wenn Ubuntu das Verhalten downstream ändert. Das wird mit der GNOME-Shell und GNOME3 weiter gehen und permanent Probleme verursachen. (Besonders, da GNOME3 schon wieder ein neues UI-Konzept bringt)
• Die aktuelle Implementation zerstört Themes, die nicht für die neue Buttonsortierung entwickelt wurden. (Was aktuell jedes Theme ist, auch die mitgelieferten Community-Themes)
• Ein Tag vor dem User-Interface-Freeze für ein LTS-Release ist die schlechteste Zeit, eine solche Änderung einzufügen, ohne wenigstens zu erklären warum sie durchgeführt wurde.
• Es ist schwierig für neue Nutzer, die Position zurück zu stellen, da es kein GUI-Tool dafür gibt.
• Die neue Position bringt keinen wirklichen Vorteil

Von diesen Argumenten abgesehen, finde ich die Reaktion von Canonical ziemlich armselig. In dem Bugreport äußert sich Mark Shuttleworth nur kurz, um eine fehlerhafte Zuweisung des Bugs an das UX-Team zu ändern. Zum Thema sagt er auf Anfrage nur “we consider it carefully” – danach hört man Wochen lang nichts mehr von irgendeinem Canonical Mitarbeiter. Es wird nicht einmal Stellung genommen, warum man diese Änderung gemacht hat. Ebenso wie Canonical als Sponsor von Ubuntu das Recht hat, solche Änderungen zu machen, haben wir als Community meiner Meinung nach auch das Recht zumindest eine Stellungnahme der Firma zu erhalten. Immerhin profitiert Canonical gewaltig von den Debian und Ubuntu Communities.

Stattdessen wird der Bug, der schon das Ranking “very hot” erhalten hat, eiskalt ignoriert. Ich finde dieses Verhalten doch sehr merkwürdig, zumal es ja nicht das erste Mal ist. So findet man im Bugreport auch schon Meldungen wie “I’m done with Ubuntu, I’ll migrate to another distribution” oder “Mark Shuttleworth, I want to warn you: This change will cost Ubuntu many users”.

Wie seht ihr das? Geht Canonical nicht mehr auf die Community ein? Seit ihr mit der neuen Fensterleiste zufrieden oder nicht?

    Unter dem Titel „diese nervtötenden Schaltflächen“ nahm die Designerin Ivanka Majic aus dem Ubuntu Designerteam Stellung zu den heiß diskutierten Button in der Fensterdekoration, die das schließen, maxi- und minimieren der Fenster ermöglichen. In Ubuntu Lucid Lynx, geplanter Release am 29. April, werden diese Button nicht mehr in der rechten-, sondern in der linken oberen Ecke zu finden sein.

    Um das Betriebssystem mehr als nur konkurrenzfähig zu machen, haben sich die Entwickler einige Fragen über besagte Button gestellt. Dadurch wollten sie der Sache auf den Grund gehen, warum Microsoft auf die rechte, Apple aber auf die linke Ecke setzt. Außerdem fragen sie sich, warum die Button rechts sein sollen, wenn alle anderen Menüs linksbündig sind.

    Nach einer internen Diskussion und einer Analyse der Fensterleisten der verschiedenen Betriebssysteme kamen die Entwickler zu dem Entschluss, die Buttons nach links zu legen.

    Ich finde es eine nette Geste, dass jemand aus dem Team auf die häufig auftauchenden Fragen eingeht und ein bisschen aus den internen Vorgängen durchsickern lässt.

    Übrigens ist Majic mit der jetzigen Anordnung selbst nicht zufrieden. Sie hätte gerne den Schließenbutton auf der rechten Seite, wobei die beiden anderen links sind – eine Idee, mit der ich mich anfreunden könnte ;) .

    Ubuntu Tweak ist in der Version 0.5.3 erschienen. Zu den größten Neuerungen gehört, dass in den Fenstermanagereinstellungen, die Fensterbuttons beliebig angepasst werden können.

    Heute ist Ubuntu Tweak in der Version 0.5.3 erschienen. Das Programm bietet nun die Möglichkeit in den Fenstermanagereinstellungen, die Fensterbuttons beliebig einzustellen. Hat man jedoch das neue “Ambiance” oder “Radioance” Theme aktiviert, so kann es dann schon mal passieren, dass die Fensterbuttons sehr entstellt dargestellt werden, da die Vorgabe dieses Themes: “Maximieren, Minimieren Schließen” ist.


    Was ist Ubuntu Tweak?

    Ubuntu Tweak ist eine Anwendung für die Linuxdistribution Ubuntu. Mit Ubuntu Tweak werden viele Funktionen von Ubuntu in eine Anwendung gepackt und übersichtlich strukturiert. Programme können installiert und wieder entfernt werden.

    Fremdepaketquellen von bekannten Programen wie z.B Sykpe und Google Chrome werden zur Aktivierung angeboten. Viele weitere Möglichkeiten das Design von Ubuntu zu ändern sind auch gegeben.

    Ubuntu Tweak ist ein so umfangreiches Programm, so dass ich nicht alle Feautures aufführe, da es einfach zu viele sind. Wer mehr von Ubuntu Tweak erfahren möchte, dem schlage ich die Projektseite oder das Blog von blog.ubuntu-tweak vor.

    Installation:

    Um Ubuntu Tweak 0.5.3 zu installieren, muss wie folgt vorgegangen werden.

    • Ein terminal öffnen und folgendes reinkopieren

    sudo add-apt-repository ppa:tualatrix/ppa

    • Nun die Sourcelist updaten und Ubuntu Tweak installieren

    sudo apt-get update
    sudo apt-get install ubuntu-tweak

    • Nach der Installation noch folgende Aktion ausführen

    sudo apt-get dist-upgrade

    Bei mir kam es letztens mal wieder vor, dass ein `sudo apt-get update && sudo apt-get upgrade` folgenden Fehler auswarf: Die folgenden Signaturen konnten nicht überprüft werden, weil ihr öffentlicher Schlüssel nicht verfügbar ist: NO_PUBKEY F79FBC1CA5BEC8B5 Anscheinend hatte ich eine PPA eingebunden, ohne den passenden Schlüssel meinem System hinzuzufügen. Wenn man nun mehrere PPAs eingebunden hat, kann es etwas mühsam sein herauszufriemeln, welcher Schlüssel da nun genau fehlt. Das braucht man auch gar nicht, das “Problem” lässt sich im Terminal recht einfach beheben.

    Bei mir kam es letztens mal wieder vor, dass ein

    sudo apt-get update && sudo apt-get upgrade

    folgenden Fehler auswarf:

    Die folgenden Signaturen konnten nicht überprüft werden, weil ihr öffentlicher Schlüssel nicht verfügbar ist: NO_PUBKEY F79FBC1CA5BEC8B5
    

    Anscheinend hatte ich eine PPA eingebunden, ohne den passenden Schlüssel meinem System hinzuzufügen. Wenn man nun mehrere PPAs eingebunden hat, kann es etwas mühsam sein herauszufriemeln, welcher Schlüssel da nun genau fehlt.

    Das braucht man auch gar nicht, das “Problem” lässt sich im Terminal recht einfach beheben. Dort tippt man folgende zwei Befehle ein:

    gpg --keyserver keyserver.ubuntu.com --recv F79FBC1CA5BEC8B5

    gpg --export --armor F79FBC1CA5BEC8B5 | sudo apt-key add -

    (selbstredent muss die Zahl F79FBC1CA5BEC8B5 auf den bei euch fehlenden Schlüssel angepasst werden)

    Und schon geht’s wieder wie gewohnt.

    logo2010 Chemnitzer Linuxtage 2010 ubuntu planetuu pgp open source lpic linux knoppix knopper gentoo fedora eventphone DNS DECT debian chemnitz cacert bsd
    Nach einem abwechslungsreichen Wochenende voller Vorträge, Workshops und Projektvorstellungen sind am Sonntag  die Chemnitzer Linuxtage 2010 zu Ende gegangen.

    Längst haben sich die Chemnitzer Linuxtage einen festen Platz im Kalender der Freunde quelloffener Software erobert. Die gut besuchte Veranstaltung in der Technischen Universität Chemnitz zog dabei nicht nur Besucher  aus dem ganzen Bundesgebiet, sondern auch aus dem europäischen Ausland an.

    linuxtage 2010 panorama Chemnitzer Linuxtage 2010 ubuntu planetuu pgp open source lpic linux knoppix knopper gentoo fedora eventphone DNS DECT debian chemnitz cacert bsd

    Chemnitzer Linuxtage 2010 in der Technischen Universität Chemnitz

    Das Motto der diesjährigen Linuxtage lautete “Dienste und Dämonen“.  Über das Wochenende verteilt hatten die Besucher die Möglichkeit, aus  rund 100 Vorträgen ein persönliches Programm zusammenzustellen. Dabei reichte das Spektrum von “DNSSEC – Sichere Namensauflösung im Internet” über “Tipps und Tricks rund um SSH” bis hin zu “Einführung in IPv6” .  Die Veranstaltungen waren i.d.R. recht gut besucht, auch wenn sich zeigte, dass nicht jeder Fachmann auch ein guter Redner sein muss.

    linuxtage 2010 vortrag Chemnitzer Linuxtage 2010 ubuntu planetuu pgp open source lpic linux knoppix knopper gentoo fedora eventphone DNS DECT debian chemnitz cacert bsd

    "Sichere Namesauflösung im Internet" (H. Schlittermann) im Hörsaal V4

    Dass Klaus Knopper ein schlechter Redner sei, kann man sicher nicht behaupten.

     Chemnitzer Linuxtage 2010 ubuntu planetuu pgp open source lpic linux knoppix knopper gentoo fedora eventphone DNS DECT debian chemnitz cacert bsd

    Klaus Knopper

    Rhetorisch routiniert präsentierte der Schöpfer von  “Knoppix” am Samstag die Entstehungsgeschichte und Hintergründe der beliebten Linux-Live-Distribution, die auf der Distribution von Debian basiert. Nach den abschließenden Fragen des Publikums verteilte Knopper fleißig Knoppix-CDs.

    Überhaupt sind die Chemnitzer Linuxtage ideale Jagdgründe für moderne Jäger und Sammler freier Software. Viele Distributionen und Verlage nutzen die Chemnitzer Linuxtage als Schaufenster ihrer Produkte. Neben den gängigen Distributionen, die CDs oder DVDs zur Verfügung stellen, kann ein interessierter Leser auch eine stattliche Sammlung kostenfreier Fachzeitschriften (in denen natürlich auch wieder CDs sind) mit nach Hause nehmen.

    Im “Linux-Live-Bereich” der Chemnitzer Linuxtage (siehe Bild ganz oben) konnten sich Projekte und Firmen dem Publikum vorstellen. In diesem Bereich wurden am Wochenende viele Kontakte geknüpft, Informationen ausgetauscht und Diskussionen geführt. Neben den großen Distributionen wie Suse, Debian, Fedora, Ubuntu oder Gentoo waren auch viele kleinere Distributionen und Projekte vertreten.

    Als Dienstleistung setzte z.B. Eventphone ein freies Telefonnetz auf. Alle Teilnehmer, die ihr schnurloses DECT Telefon mitbrachten und registriert hatten, konnten sich auf den Linuxtagen kostenfrei erreichen und sogar kostenfreie Anrufe ins deutsche Festnetz machen.

    Bei cacert.org konnten sich Interessierte für von CAcert beglaubigte Zertifikate prüfen lassen. Das CAcert-Team prüfte dabei penibel die Authentizität der Bewerber. Die vorgelegten Ausweisdokumente wurden dabei auch mit technischer Gerätschaft unter die Lupe genommen. Name, Körpergröße, Geburtsdatum und Aussehen wurden durch mehrere Prüfer unabhängig voneinander abgeglichen.

     Chemnitzer Linuxtage 2010 ubuntu planetuu pgp open source lpic linux knoppix knopper gentoo fedora eventphone DNS DECT debian chemnitz cacert bsd

    CAcert: Gewissenhafte Prüfung auf Authentizität

    Im Linux-Live-Bereich gab es eine ganze Menge weitere Dinge zu bestaunen: Miniroboter und ein bizarres  Mondgefährt im Entwicklungsstadium, ein Taschengerät,  das alle Fernseher im näheren Umkreis automatisch abschalten kann und einen knallgrünen “One Laptop Per Child”.

    Weitere Höhepunkte des Wochenendes waren die PGP-Keysigning-Party, Übernachtung in der Turnhalle, Prüfungsabnahmen durch das Linux Professional Institute, sowie mehrere Workshopangebote. Kein Wunder, dass sich viele Besucher schon jetzt auf die Chemnitzer Linuxtage 2011 freuen …

    http://chemnitzer.linux-tage.de/2010/
    Kommentieren Permalink | © 2010 by Netz 10 | Tags: , , , , , , , , , , , , , , , ,

    Ähnliche Artikel

    1. 9. Ubuntu Anwendertreffen Nürnberg
    2. Freies Linux Comic
    3. Ubuntu 9.04: Jaunty Jackalope
    4. "Die Reise des Pinguins" (Video)

    Über einen Trackback bin ich auf das Blog innenspur.de aufmerksam geworden. Auch da wird über das neue Design berichtet, der Autor stellt aber auch eine interessante Frage: „Arbeitet eigentlich jemand mit dem originalen Theme von Ubuntu?“. Ich finde die Frage so interessant, dass ich mal eine Umfrage starten möchte. Unten ist der Code zum einbinden in die eigene Webseite. Wäre natürlich toll, wenn die Umfrage auf mehreren Blogs eingebunden wird, um auch die breite Masse zu erreichen!

    Umfrage wurde beendet!


    Nun wurden ein Teil der neuen Standard-Icons für Lucid Lynx veröffentlicht.

    Folgende Icons wurden durch neue ersetzt (siehe Screenshot):

    Die neuen Icons werden bei Lucid per Update atomatisch dem System hinzugefügt. Unter Karmic muss entweder eine PPA aktviert , oder ein Deb-Paket heruntergeladen werden.

    Installation:

    Für Ubuntu 9.10 Karmic

    sudo add-apt-repository ppa:nilarimogard/webupd8
    sudo apt-get update 
    
    sudo apt-get install gtk2-engines-murrine ubuntu-mono light-themes gtk2-engines-aurora
    
    

    Wer lieber das Deb-Paket Downloaden will, kan dies hier machen.

    Ich habe Thunderbird eine Chance gegeben, aber ich weiss nicht warum, ich werde mit dem Programm einfach nicht warm.

    Nachdem ich fast ein Jahr, auf Empfehlung von Michael, meine Mails ausschliesslich mit Horde Groupware Webmail Edition gemacht habe, kehre ich aufgrund der irrsinnigen Anzahl an Mails, die ich bekomme wieder zurück zu Claws-Mail, was mich jahrelang begleitet hat (wurde mir übrigens von Rainer empfohlen).

    Horde werde ich immer noch verwenden, wenn ich keinen eigenen Rechner zur Hand habe, die Filtermöglichkeiten, die Möglichkeit, GPG/PGP zu nutzen, der Kalender, das Adressbuch und die Notizfunktion haben mich einfach überzeugt.

    Aber in Sachen Geschwindigkeit kann kein mir bekannter grafischer Client mit Claws-Mail mithalten.

    In OpenOffice.org gibt es die wunderbare Möglichkeit, Text an komplexen Formen entlang laufen zu lassen. So lassen sich nicht nur Spiral-Texte wie im Bild links realisieren, sondern auch Texte im Bogen, im Kreis oder in anderen frei definierbaren Formen.

    Dazu wird zunächst beispielsweise das Freihandlinien-Werkzeug ausgewählt (oder jedes andere Zeichen-Werkzeug). Damit kann nun eine beliebige Form im Dokument erstellt werden. Nach einem Doppelklick auf das so erstellte Objekt kann ein beliebiger Text eingegeben werden. Zunächst wird der Text jedoch noch nicht am Objekt ausgerichtet und es einfach überlappen. Um das zu ändern, wird nun über das Menü Format->Objekt->Fontwork der Fontwork-Dialog aufgerufen. Hier kann nun festgelegt werden, ob und wie der Text dem  Zeichenobjekt folgen soll. Gute Effekte erzielt man beispielsweise mit der Einstellung “Drehen”. Mit einem Klick auf “Kontur” wird das Zeichenobjekt sogar versteckt, so dass nun nur noch die Worte in der Form des Zeichenobjektes erscheinen.

    Weitere Schalter erlauben es, die Schrift automatisch auf Größe des Zeichenobjektes zu vergrößern oder sie an den Innen- bzw. Außengrenzen des Objektes entlang laufen zu lassen.

    Insgesamt eine wirklich schöne Funktion des freien Textbearbeiters. Etwas merkwürdig finde ich allerdings, dass diese Funktion über den Writer ohne große Mühe erreichbar ist, während es in OpenOffice.org Draw erstmal einer Anpassung bedarf: Hier wurde der Menüpunkt “Fontwork” schlicht entfernt – und eine andere Möglichkeit, diesen Dialog aufzurufen, gibt es anscheinend nicht.
    Um wieder auf den Dialog zugreifen zu können, muss man zunächst Extras->Anpassen auswählen. Im Reiter Menüs wird nun der Eintrag Format aktiviert. Nach einem Klick auf Hinzufügen erscheint ein weiteres Fenster, in dessen linker Spalte wiederum Format ausgewählt wird. Auf der rechten Seite findet sich nun endlich der Befehl Fontwork, der ebenfalls angewählt und mit einem Klick auf Hinzufügen endlich dem Format-Menü hinzugefügt wird.

    Wenn man bedenkt, dass die Fontwork-Funktion im Textverarbeiter sicher eher eine Spielerei ist, während sie in Draw zu den grundlegenden Aufgaben des Programmes gehört, erschließt sich mir die Entscheidung der Entwickler nicht ganz. Auch bin ich der Meinung, dass ein Office-Paket versuchen sollte, die Funktionen in den einzelnen Programmen möglichst einheitlich abzubilden. Wer den OOo-Writer benutzt, erwartet, dass sich OOo-Draw ähnlich verhält.

    Als ich heute in den Galeria Kaufhof gegangen bin, wusste ich noch nicht was mich in der Dritten-Etage erwartet.


    Ich ging Richtung Computerabteilung, und sah einen Jungen, der an einem Pinguin herumdrückte, ich wunderte mich was das eigentlich für ein neuartiges Ding ist und schaute es mir genauer an.
    Es ist ein Tux genauer gesagt ein Tux Droid in der Version 2.0. über WLAN empfängt  Tux Dinge wie E-Mail-Benachrichtigungen, VOIP-Telefonie, RSS-Feeds, Alarmfunktion, Wetterbericht uvm. und gibt diese Daten wahlweise über das Sprachinterface aus oder führt andere Aktionen wie Öffnen des Schnabels, Rotation um die eigene Achse oder Blinken der Augen aus. Hergestellt wir dieses Spielzeug von kysoh und läuft sowohl unter Windows als auch unter Linux/Ubuntu. Im Themea Sprache ist Tux sehr bewandert. Er spricht nahezu alle Sprachen.

    Ein sehr gelungenes Gadget, nur der Preis ist dann doch nicht das gelbe vom Pinguin, ganze 99,- Euronen kostet Tux Droid.

    Um ein genaueres Bild von Tux Droid zu bekommen, habe ich ein Video gemacht.

    1. Drücke den Knopf auf dem Kopf
    2. Bewegliche Augen: Öffnen und Schließen
    3. LED-Augen : Helligkeit einstellbar + Lichtsensor
    4. Mikrofon im Schnabel
    5. Einschalter für jeden Flügel
    6. Flügel können hoch und runter schlagen
    7. Rotieren rechts- und linksherum
    8. Lautstärkeregler
    9. Audio-IN (Mikrofon)
    10. Audio-OUT (Kopfhörer)
    11. Lautsprecher
    12. Wiederaufladbare Batterien
    13. Ein-/Ausschalter

    13. März 2010

    Der erste Tag an den Chemnitzer Linux-Tagen von 2010 ist schon wieder vorbei. Die Zeit am Stand der Ubuntu-Community verging wie im Fluge. Wir konnten bei vielen Leuten Fragen direkt beantworten, Hilfe leisten und so zu kleinen Erfolgserlebnissen beitragen. Viele der Besucher nahmen das Gerät, bei dem sie einer Herausforderung gegenüber standen, gleich an die CLT mit. So konnten wir zusammen nach einer Lösung suchen und fanden meist auch eine.

    Ich wollte mir ein oder zwei Vorträge anhören, kam aber nicht dazu. Immerhin gelang mit ein klein wenig die Pflege der sozialen Netzwerke, sprach mit Menschen, die ich halt bloss ein oder zweimal im Jahr sehe. Leider konnte ich auch (noch) keine Audio-Aufnahmen erzeugen, dazu komme ich eventuell morgen noch.

    Thorsten überreichte mir heute Morgen ‎das Buch Einstieg in Ubuntu 9.10, welches ich anlässlich einer “Verlosung” auf ubuntuusers.de gewonnen habe. Vielen Dank!

    Ja, und morgen ist ja auch noch ein Tag an den CLT zu Chemnitz. In der Zwischenzeit sind einige Bilder entstanden, die ich auf tuxhart.ch teilweise veröffentlicht habe. Morgen wird wohl dann auch noch das eine oder andere Foto entstehen.

    Ähnliche Artikel

    • Keine ähnlichen Artikel vorhanden

    Diese Frage wurde mir in letzter Zeit häufiger gestellt, weshalb ich sie hier (zusammen mit der nach dem fortkommen des Listaller als XDG-Projekt) mal beantworten möchte.

    Wie einige vielleicht wissen, lief einige Zeit der Versuch, den Listaller und dessen Setup-Format IPK als Freedesktop-Projekt zu erstellen. Die Anfrage wurde vom XDG-Team abgelehnt, mit der Begründung, dass es viele Anstrengungen in diese Richtung gibt und der Listaller als XDG-Projekt im Grunde das Ausrufen eines neuen Standards wäre. Man wolle daher lieber zunächst abwarten, bis eine oder zwei größere Linux-Distributionen das Projekt unterstützen. Davon abgesehen wurde ich gefragt, warum ich nicht die LSB und das RPM-Format unterstütze, und lieber noch ein neues Format entwickelt habe.

    Eigentlich eine berechtigte Frage. Die LSB (=LinuxStandardsBase) der Linux-Foundation gibt in unregelmäßigen Abständen eine Liste von Komponenten heraus, die auf einem LSB-zertifizierten Linux-System enthalten sein müssen. Dazu gehören wichtige Dinge wie z.B. ein teilweise erweiterter POSIX- und SUS-Standard oder die Festlegung der Dateisystemstruktur. In der LSB sind aber auch Versionen von GUI-Widgetsets wie Qt und GTK+ und anderer Libs festgelegt, welche jedes LSB-Linux-System haben muss. Dummerweise ist die LSB selbst in der aktuellen Version 4.0 stark veraltet, da sie auf Unternehmensdistributionen abziehlt, die generell ältere Bibliotheken verwendet, die länger getestet sind. Ich würde aber auch gerne besonders die neuen Technologien unterstützen. Daher möchte ich mich nicht auf LSB-Komponenten als einzige Abhängigkeiten festlegen. IMO ist die LSB in ihrer Extremform wirklich nur für Distributionen mit komerziellem Unternehmenssupport über mehrere Jahre geeignet, für welche andere Hersteller dann Software entwickeln wollen. (Da ist eine gemeinsame Basis dann wirklich wichtig)

    Die LSB hat zudem RPM als Standard für Linux-Pakete festgelegt. Daran (können und wollen) sich Systeme wie Debian und Ubuntu natürlich logischerweise nicht halten. Ich bin bestimmt nicht der Einzige, der sich daher schon überlegt hat, ein PlugIn für Debians APT-Paketmanager zu schreiben, welches RPM-Pakete wie DEB-Pakete installieren kann. (Also beides gleichzeitig auf einem System verwaltet) Leider ist das aktuell unmöglich.

    Ein RPM-Paket enthält, wie DEB-Pakete auch, die zu installierenden Dateien plus Paketbeschreibung, Checksummen und eine Liste der Abhängigkeiten zu anderen Paketen sowie weitere Daten. Und da beginnt das Problem: Das RPM-Paket enthält z.B. eine Abhängigkeit zu “PackageKit” oder “Oxygen-Iconset”. Wollte man jetzt dieses Paket mittels APT installieren, würde schon die einfachsten Abhängigkeiten nicht gefunden. Das RPM-Paket “PackageKit” heist in Ubuntu/Debian nämlich “packagekit”, die Oxygen-Icons des KDE-Projektes sind unter Debian nicht im Paket “Oxygen-iconset”, sondern in “kde-icons-oxygen”. Woher soll APT wissen, wo sich die Abhängigkeiten des RPM-Paketes befinden? Und damit nicht genug: Selbst zwischen verschiedenen RPM-Basierten Distributionen wie openSUSE oder Fedora gibt es diese Unterschiede, weshalb man RPM-Pakete meistens nicht unter diesen Distributionen austauschen kann. Zudem hat RPM ein paar weitere Inkonsistenzen, da lange Zeit jeder Distributor seinen eigenen Fork davon entwickelt hat. Erst in letzter Zeit beginnt man, RPM wieder auf eine einheitliche Basis zu stellen.

    Alleine schon wegen der Benennung der Abhängigkeiten ist es also quasi unmöglich, ein PlugIn für APT zu programmieren, welches RPM-Pakete verarbeiten kann. Umgekehrt kann man natürlich auch kein PlugIn für den RPM-Paketverwalter “yum” erstellen, welches mit DEB-Paketen arbeiten kann. Manche RPMs enthalten zwar auch direkte Referenzen auf die benötigten Bibliotheken, solche Pakete sind aber extrem selten.

    Programme wie alien können zwar RPM-Pakete in DEB-Pakete umwandeln (und umgekehrt), dabei gehen jedoch alle Abhängigkeiten verloren. Unter Anderem deshalb kann man die installierten Anwendungen oft nicht nutzen.

    Der einzige Ausweg aus diesem Problem ist z.B. das parallele installieren der Abhängigkeiten, wie es Autopackage macht. Oder aber ein Paketformat, welches keine Abhängigkeiten zu Paketen hat, sondern nur zu Bibliotheken und Dateien. So ist z.B. das Listaller-Format aufgebaut, welches nur ein “Rezept” für Abhängigkeiten enthält. Ähnlich macht es auch das Projekt Klik-Install.

    Diese Probleme mit den verschiedenen Paketformaten sind ein wichtiger Grund, warum es keinen Standard für Linux-Setups gibt. Das hat also nicht – wie viele oft meinen – mit der Arroganz der Entwicklergemeinden zu tun, sondern hat schlicht technische Gründe. (Auch wenn meiner Meinung nach natürlich das DEB-Format RPM haushoch überlegen ist :-P :-D )

    Zumindest in der Handhabung der Paketmanagementsysteme sind sich die Distributionen allerdings seit PackageKit näher gekommen. (Obwohl es in der Debian-Community noch immer Vorbehalte gegen das Projekt gibt)

    Creative Commons, wilhei55

    Mit WebDAV lässt sich unter Ubuntu schnell und einfach der Zugriff auf eine Online-Festplatte einrichten. Viele Hosting-Anbieter haben mittlerweile solche Online-Festplatten im Sortiment. Strato bietet zum Beispiel mit HiDrive eine Online-Festplatte mit 100 GB Speicherplatz für 3,90 EUR pro Monat an. Eine Online-Festplatte eignet sich gut um ein Backup an einem zweiten Ort anzulegen. So sind die persönlichen Daten wie z.B. Bilder noch besser geschützt als auf einer USB-Festplatte. Bedenken sollte man natürlich, dass die Daten das eigene Hoheitsgebiet verlassen.

    Aber zurück zur WebDAV unter Ubuntu. Eine Online-Festplatte ermöglicht üblicherweise den Zugang über WebDAV. Unter Ubuntu kann man so ganz einfach eine solche Online-Festplatte einbinden.

    • Im Menü “Orte” auf “Verbindung zu Server …” klicken.
    • Als Dienste-Typ “Sicheres WebDAV (HTTPS) auswählen.
    • Im Dialog die Daten für die Online-Festplatte eingeben. (Werden vom Hoster bereitgestellt).
    • Wenn gewünscht noch die Option “Lesezeichen hinzufügen” auswählen.
    • Mit “Verbinden” bestätigen. Die Verbindung zur Online-Festplatte wird aufgebaut. Über Nautilus kann man anschließend die Online-Festplatte, wie von anderen Speichermedien gewohnt, verwenden.

    Weitere Informationen zu WebDAV finden sich im ubuntuuseres-Wiki.

    Hier habe ich mich ja schon mit verschiedenen Möglichkeiten, TV-Karten über 4vl2 anzusprechen, beschäftigt. Mittlerweile habe ich mich noch nach einigen Möglichkeiten umgesehen, ein Video aufzuzeichnen und zeitgleich zu sehen.

    vlc

    vlc v4l2:// –v4l2-dev /dev/video0 –input-slave alsa:// –v4l2-caching 300  –v4l2-width 640 –v4l2-height 480   –v4l2-input=1 –v4l2-standard 2 –v4l2-fps 25 –sout ‘#duplicate{dst=”transcode{vcodec=mpgv,vb=1024,acodec=mpga,ab=128,venc=ffmpeg,aenc=ffmpeg,deinterlace,audio-sync}:std{access=file,mux=ps,dst=test.avi}”,dst=display’

    VLC bietet wirklich eine unglaubliche Vielzahl an Möglichkeiten, die sich allesamt auch über die Befehlszeile realisieren lassen. Hier wird zunächst v4l2 als Video-Quelle und Alsa als Audio-Quelle definiert. Die weiteren Einstellungen legen (wie auch hier schon) Tuner-Eingang, Video-Standard und Bildgröße fest.
    Wirklich interessant wird es aber mit dem Parameter stout: Hier werden die Ausgabeoptionen angegeben. Im vorliegenden Fall wird mit duplicate der Stream kopiert, so dass man ihn gleichzeitig transkodieren (transcode) bzw. speichern (std) und anschauen (display) kann. VLC bietet sehr viele Optionen an: Ohne große Änderungen lässt sich der Stream so beispielsweise auch mit x264 kodieren und streamen. Eine Übersicht der möglichen Befehle gibt es in der Dokumentation.

    Allerdings ist VLC – zumindest, wenn man gleichzeitig transkodieren und sehen möchte – sehr langsam. Das hängt aber auch sehr stark von dem verwendeten Codec ab: MPEG1 mit hohen Bitraten kodiert deutlich schneller, als etwa XviD mit geringen Bitraten – eigentlich naheliegend.
    Sehr gut gefallen mir aber die vielen Möglichkeiten, die man mit VLC hat – das geht über das bloße Kodieren weit hinaus.

    mencoder

    Mit einem kleinen Trick lassen sich auch TV-Streams, die mit dem mencoder gespeichert werden, gleichzeitig anschauen.

    mencoder tv:// -tv fps=25:buffersize=64:driver=v4l2:width=640:height=480:device=/dev/video0:forceaudio:adevice=/dev/dsp:norm=pal:input=1 -ovc lavc -oac mp3lame -lameopts cbr:br=128:mode=3 -lavcopts vcodec=mpeg2video:vrc_buf_size=1835:vrc_maxrate=9800:vbitrate=1800:ilme:ildct:mbd=2:threads=2 -o >(tee filename.avi|mplayer -)

    Wie auch beim VLC setzt sich die Befehlszeile im Wesentlichen aus den Parametern fürs Lesen (v4l2, Tuner, TV-Norm) und den Parametern fürs Schreiben/Transkodieren zusammen. Die Ausgabedatei wird dabei mit dem Parameter -o festgelegt. Da mencoder (meines Wissens) über keine Möglichkeit verfügt, den Stream wie bei VLC zu verdoppeln, müssen wir mit tee etwas nachhelfen.Diese Methode funktioniert soweit ganz gut, allerdings hat sie den großen Nachteil, dass die transkodierten Videodaten tatsächlich nur geschrieben werden, so lange das Abspielprogramm (hier mplayer) nicht pausiert ist: Pausiert man den mplayer, werden auch keine Daten mehr auf die Festplatte geschrieben und der Video-Buffer der TV-Karte läuft sehr schnell über. Das ist beim VLC nicht der Fall.

    Um dieses Problem zu umgehen, kann man natürlich auch den Stream zunächst wegspeichern und dann – zeitversetzt – abspielen lassen. Diese Möglichkeit ist vermutlich erstmal die Naheliegendste und geradezu trivial – hat aber auch Nachteile:

    mencoder tv:// -vf pp=lb,eq2=0.5:1:0:1 \
    -tv fps=25:buffersize=64:driver=v4l2:width=640:height=480:device=/dev/video0:forceaudio:adevice=/dev/dsp:norm=pal:input=1 \
    -oac mp3lame -lameopts cbr:br=128:mode=3 \
    -ovc xvid -xvidencopts bitrate=700:pass=1 \
    -o filename.avi& sleep 1; mplayer filename.avi

    Der relevante Unterschied findet sich in der letzten Zeile: Hier wird die Datei ganz normal gespeichert (filename.avi) und mencoder im Hintergrund ausgeführt. Danach wird eine Sekunde gewartet (sleep 1) und der mplayer gestartet. So kann man den mplayer pausieren, ohne dass der Buffer der TV-Karte überläuft.
    Diese Methode hat den Nachteil, dass die Wiedergabe dem Original immer um 1 Sekunde hinterher hinkt. In den meisten Fällen sollte das aber ohne Bedeutung sein.

    http://danielnoegel.de/wordpress/?p=469
    Wenn ich bisher eingescannte Dokumente zu einer PDF konvertieren wollte so habe ich sie einfach an den PDF Drucker geschickt. Bei mehrseitigen Dokumenten ist dieser Herangehensweise allerdings unpraktisch. Also musste eine andere Lösung her. Die Lösung hört dabei auf den Namen gscan2pdf und kann unter Ubuntu über den Paketmanager installiert werden.

    Dabei handelt es sich um eine Anwendung mit der man gescannte Dokumente effektiv zu PDFs konvertiert werden können. Daneben beherrscht gscan2pdf auch Texterkennung (über tesseract-ocr) sowie eine automatische Verbesserung der Scans mittels Unpaper. Die Software selbst steht dabei unter GPL. Die offizielle Seite ist unter http://gscan2pdf.sourceforge.net/ zu finden.

    Weitere Informationen gibt es unter:
    http://wiki.ubuntuusers.de/gscan2pdf

    Wenn ich bisher eingescannte Dokumente zu einer PDF konvertieren wollte so habe ich sie einfach an den PDF Drucker geschickt. Bei mehrseitigen Dokumenten ist dieser Herangehensweise allerdings unpraktisch. Also musste eine andere Lösung her. Die Lösung hört dabei auf den Namen gscan2pdf und kann unter Ubuntu über den Paketmanager installiert werden.

    Dabei handelt es sich um eine Anwendung mit der man gescannte Dokumente effektiv zu PDFs konvertiert werden können. Daneben beherrscht gscan2pdf auch Texterkennung (über tesseract-ocr) sowie eine automatische Verbesserung der Scans mittels Unpaper. Die Software selbst steht dabei unter GPL. Die offizielle Seite ist unter http://gscan2pdf.sourceforge.net/ zu finden.

    Weitere Informationen gibt es unter:
    http://wiki.ubuntuusers.de/gscan2pdf

    Weil ich mich mit dem Ubuntu Netbook Remix nie wirklich anfreunden konnte, setze ich bereits seit der ersten Alpha der Kubuntu Netbook Edition eben diese auf meinem Samsung NC10 ein. Nun handelte es sich dabei bislang nur um eine Tech Preview und war noch nicht unbedingt für den tagtäglichen Einsatz gedacht. Mit dem im April erscheinenden (K)ubuntu Lucid Lynx (10.04) soll sich das ändern: die Netbook Edition ist erwachsen geworden.

    Auf meinem Netbook setze ich bereits Lucid Lynx ein und konnte mich so von der Funktionsweise überzeugen, deren wichtigste Änderungen ich euch hier vorstellen möchte. Natürlich kann sich hier angesichts des frühen Stadiums noch einiges ändern. Ausserdem sind aus Gründen der Faulheit die in diesem Blogpost enthaltenen Screenshots mit einer virtuellen Maschine entstanden.

    Generell wirkt die Oberfläche sehr flüssig und ist bereits heute (obwohl es sich bei der Installation um die Alpha 3 handelt) überraschend stabil. Die Anordnung der einzelnen Kategorien für Applikationen, bzw. deren Inhalt hat sich kaum verändert. Neu ist hier, neben ein paar kleineren Animationen, lediglich die Suchleiste, die nicht nur die Suche nach Programmen ermöglicht, sondern unter anderem auch Dateien oder Ordner findet. Natürlich lassen sich hier allerhand PlugIns (de-)aktivieren und konfigurieren.

    Besonders ins Auge sticht jedoch die konsequente Umsetzung der Pages (im Prinzip nichts anderes als Activites). So lassen sich diese Seiten mit beliebigen Widgets füllen und so an die individuellen Bedürfnisse anpassen. Im Gegensatz zum großen Bruder (dem regulären Desktop) lassen sich die Widgets nicht völlig frei positionieren, sondern werden über ein Gittersystem angeordnet.

    Der Wechsel zwischen den geöffneten Programmen erfolgt über die Liste der aktiven Anwendungen oder ALT + Tabulator. Die Liste weist dabei noch einige Fehler auf. Beispielsweise stimmt die angezeigte Zahl der aktiven Applikationen nicht mit den Einträgen der Liste überein.

    Last but not least habe ich noch eine Kleinigkeit entdeckt, bei der ich keine Information dazu finden konnte, ob es sich um eine gewollte Funktion oder einen Bug handelt. Die Programme enthalten allesamt keine Fensterleiste. Das schafft zwar eine Menge Platz für die Anwendung, ist zu Beginn aber sicher sehr gewöhnungsbedürftig.

    Alles in allem gefällt mir die Netbook Edition sehr gut. Der mit der Technology Preview eingeschlagene Weg wird konsequent forgesetzt. Die Oberfläche ist funktional und steht dem Anwender doch nicht im Weg. Meiner Meinung nach genau die richtige Oberfläche für Netbooks!

    Ähnliche Posts:

    1. Sprache in Horde Groupware Webmail Edition lässt sich nicht ändern
    2. Kubuntu Karmic Soundprobleme und Lösung
    3. Vier Wochen KDE: Tag 1 – Installation von KDE

    12. März 2010

    Texteditoren sind unter Windows-Nutzern verschrien als einfache Werkzeuge die zu nicht viel taugen. Wenn man sich das Standardprogramm mit dem Windows von Haus aus bestückt ist ansieht kann man dem nur zustimmen:

    Ein Texteditor der seit seiner Einführung keine merkbaren Änderungen oder Verbesserungen erfahren hat. Der umgebrochene Zeilen beim Speichern automatisch mit einem harten Zeilenumbruch versieht. Der kein wortweises Löschen unterstützt sondern bei strg+backspace bis zum Zeilenanfang, bzw. bei strg+entf alles was vor bzw. hinter dem Cursor steht löscht. Offenbar wurde der Editor auch mit kaum einer anderen Überlegung geschrieben als als Einkaufszettelschreibprogramm zu dienen.

    Aber Texteditoren können mehr. Seit meinem Wechsel zu Linux im Jahre 2005 ist Kate für alle Projekte der Editor meiner Wahl. Er beherrscht:

    • Syntaxhervorhebung (für einen Haufen von Programmier-, Auszeichungs- und sonstigen Computer-Sprachen: C++, C, C#, Java, Delphi, Python, Pascal, Ada, Prolog, Modula-2, CSS, LaTeX, XML, DTD, HTML, PHP, Perl, Makefile, Ruby, Bash, AWK, SQL, Assembler, JavaScript, Lua, R-Script, diff, …)
    • Zeilennummerierung (mit Berücksichtigung von umgebrochenen Zeilen)
    • Text-Vervollständigung (einstellbar, im Standard ab drei Buchstaben)
    • Tabs (alternativ neben oder über/unter dem Textfenster)
    • Automatische Einrückung (C-Style, Python-Style, LISP-Style, Ruby-Style)
    • Verschiedene Textkodierungen (Unicode-8/-16, ISO 8859-1, Schriftsatz speziefische Kodierungen)
    • Das manuelle Erstellen von Modi in denen der Nutzer viele der obigen Eigenschaften zusammenfassen können
    • Automatisches Erkennen der Sprache und entsprechendes automatisches Setzen des Modus
    • Unlimitiert geteilte Fenster
    • Code-Einfaltung
    • Einbindung anderer KParts (zum Beispiel der Konsole)
    • Einbinden von Plug-Ins

    Kate gehört zu den Standardprogrammen einer KDE-Installation. Die KPart-Technologie ermöglicht es eine Funktionalitätensammlung zu erstellen die dann von anderen Programmen genutzt werden kann. So kann Konqueror zum Betrachten von Bildern einfach eine Instanz von Gwenview öffnen die die aktuelle Ordneransicht ersetzt (das bedeutet, dass kein neues Programmfenster geöffnet werden muss). Dasselbe gilt für Textdokumente und Kate oder PDFs und Okular/KPDF. Eine Vielzahl anderer KParts ermöglicht massig Möglichkeiten zur Kombination. GNOME-Nutzer kennen eine solche Technologie als Bonobo.

    Da die Editor-Komponente von Kate sebst ein KPart ist kann sie in jedes andere Programm eingebunden werden. Kile (LaTeX-Editor) macht davon Gebrauch. Da diese Auflistung aber natürlich nur nach einem Schwanzlängenvergleich mit dem offensichtlich schwächeren Texteditor aussehen kann will ich hier die Nützlichkeit dieser Funktionen demonstrieren:

    Kate in Action
    Abb. 1: Kate in Action

    In diesem Bild kann man bereits mehrere der oben genannten Funktionen erkennen:

    • Zum ersten die Aufteilung des Editorfensters in beliebig viele Unterfenster (in diesem Fall 4) mit unabhängiger Anzeige.
    • In jedem dieser Fenster ist eine Quelldatei in einer anderen Programmiersprache mit jeweiliger Syntaxhervorhebung zu sehen (in westlicher Leserichtung: C++, Java, Ruby, Python; die Dateien in Ruby und Python sind nicht von mir sondern von zwei KIs aus dem ersten KI-Wettbewerb des freiesMagazin welche man hier herunterladen kann (Eitel(Ruby), Golemo(Python)) ).
    • Weiters sieht man links die seitliche Tab-Anzeige. Zuletzt angesehene Dateien werden farblich hinterlegt und blassen mit der Zeit (mit Zugriffen auf andere Dateien) aus. Dadurch erkennt man leichter "wo war nochmal die Funktion foo()?" wenn man soviele Dateien geöffnet hat wie abgebildet.
    • Die beiden oberen Dateien sind im Einrückungsmodus "C-Style geschrieben"
    • Die Zeilennummerierungen welche umgefalteten Zeilen folgen kann man im Java-Fenster sehr gut erkennen.
    • Die gelben Balken in jedem Fenster sind zum Einklappen von Funktionen, bzw. Geltungsbereichen geeignet. Die Dreiecke zeigen an wo eine Funktion eingeklappt werden kann. Je dünkler der Balken desto tiefer die Ebene.
    • Im unteren Bereich ist die eingebundene Konsole zu sehen welche man verwenden kann um zu testen ob das Programm einwandfrei kompiliert (oder alles andere, es handelt sich um ein vollwertiges Terminal).

    Sprachunterstützung in Kate
    Abb.2 Sprachunterstützung in Kate

    Das zweite Bild zeigt eine Auswahl der Modi für die Syntaxhervorhebung. Das geöffnete Menü zeigt die verfügbaren Modi für kompilierbare Sprachen. Hier wird sicherlich jede/r ProgrammiererIn seine/ihre Lieblingssprache finden. Skriptsprachen und Markup-Sprachen sind in separaten Menüpunkten (rechts vom großen Menü) zu finden.

    Die großen Symbole sind übrigens nicht Teil der Standardkonfiguration sondern nur mein persönlicher Geschmack. Selbstverständlich lassen sich die Symbole auch mit Text versehen und in der Größe nach unten und oben anpassen. Alles in allem: den Zweiflern sei gesagt, dass Kate ein Projekt ist welches mit den Bedürfnissen seiner Nutzer gewachsen ist (wie so ziemlich jedes Open Source Projekt) und deshalb eine enorm große Palette an Funktionalität anbieten kann. Dabei finden sich hier keine Funktionen mit abstraktem Wert (schön, dass sie da ist, benutzt nur keiner) sondern ausschließlich solche die den Arbeitsablauf verbessern und erleichtern.

    Texteditoren sind nicht nur zum Einkaufszettel schreiben fähig. Obwohl Kate das natürlich auch kann. Optional mit Zutatenhervorhebung.

    Creative Commons License
    This work by Stefan Ohri is licensed under a Creative Commons Attribution-ShareAlike 3.0 Austria License

    =-=-=-=-=
    Powered by Blogilo


    Filed under: Computer, KDE, Programmieren, Ubuntuusers

    Aktuell geht ja der Hype Chatroulette durchs Internet (Achtung: Auf Chatroulette sieht man viele Dinge, die man eigentlich nicht sehen möchte. Wer nicht weiß was Chatroulette ist, der sollte sich diesen Artikel auf Spiegel Online ansehen) Auch unter Linux lässt sich das Vergnügen nutzen, mehr als Adobe Flash braucht es dazu ja nicht. Allerdings gibt es einen kleinen Stolperstein. Der Dialog, in dem man dem Chat-”Programm” erlaubt auf die Webcam zuzugreifen, funktioniert unter Linux nicht richtig. Die Bedienelemente “Zulassen” oder “Verweigern” lassen sich nicht anklicken und das selbst dann, wenn man das Klickproblem löst, das seit Ubuntu Karmic bei manchen Benutzern auftritt.

    Die Webcam für Chatroulette freigeben

    Doch dieses Problemchen lässt sich lösen. Adobe bietet ein “Frontend” zur Verwaltung von Adobe Flash an. Es ist nicht sonderlich bekannt doch es gibt einen Settings Manager für Adobe Flash. Lasst euch nicht verwirren, doch über diese Webseite könnt Ihr eure lokale Flash-Installation managen.

    Um nun Chatroulette, Camchat und Co. (oder jeder anderen Webseite, die via Adobe Flash eure Hardware ansprechen möchte) zu erlauben die Webcam zu nutzen, öffnet Ihr Chatroulette erst einmal im Browser und klickt auf “Preview your Cam”. Daraufhin sollte der besagte Dialog kommen, in dem Ihr nichts anklicken könnt.

    Nun geht auf die oben genannte Seite mit dem Settings Manager, dort sollte jetzt unter “Website-Zugriffsschutzeinstellungen” chatroulette.com (oder die von euch gewünschte Seite) aufgeführt sein. Wählt den Eintrag aus und setzt über “Immer zulassen” die Erlaubnis.

    Adobe Flash den Zugriff auf die Webcam erlauben

    Geht nun zurück zu Chatroulette und ladet die Seite neu. Eventuell ist es nötig die Page via Strg+F5 komplett neu laden zu lassen. Klickt nun wieder auf “Preview your cam” und schon sollte Ihr euer Bild sehen können. Tja, und dann konnte Tux es nicht lassen ein paar Leuten ein Lächen auf das Gesicht zu zaubern…

    Es ist im Planet oder in manchen Feed-Reader leider nicht möglich eingebettete Videos anzusehen. Schaut daher bitte ins Blog, falls Ihr hier kein Video sehen solltet.

    Obwohl apturl, welches die Installation von Paketen durch simples Klicken auf Links ermöglicht, bereits seit Ubuntu 7.10 Gutsy Gibbon in der Standardinstallation enthalten ist, kommt es im Internet nur selten zum Einsatz.

    Die meisten Websitebetreiber möchten sich nicht den Aufwand machen, apturl-Links anzubieten, da das mit WYSIWYG-Editoren nicht möglich ist und daher ein Eingriff in den Quellcode der Beiträge notwendig ist (ist also ein gewisser Aufwand ;) ).

    Doch warum schreibe ich das alles? Ganz einfach – weil es eine unkomplizierte Lösung gibt :-D !

    Das Greasemonkey-Skript Apt-linker wandelt folgende Zeilen in anklickbare apturl-Links um:

    sudo apt-get install vlc ubuntu-restricted-extras amarok
    aptitude install vlc ubuntu-restricted-extras amarok
    $ sudo aptitude install vlc ubuntu-restricted-extras amarok
    apt://vlc,ubuntu-restricted-extras,amarok
    apt:vlc,ubuntu-restricted-extras,amarok

    Firefox

    Variante 1: Erweiterung Apt-linker

    Einfach die Firefox-Erweiterung Apt-linker wie gewohnt installieren. Das Add-on hat zwar noch den experimentellen Status, funktioniert aber dennoch ohne Probleme.

    Dennoch würde ich empfehlen, Apt-linker mit Greasemonkey zu installieren, da sich das Skript so notfalls leicht deaktivieren lässt:

    Variante 2: mit Greasemonkey installieren (empfehlenswert)

    Nach der Installation von Greasemonkey lässt sich das Skript von userscripts.org mit einem Klick auf “Install” installieren und sofort verwenden.

    Opera

    Apt-linker installieren

    Die meisten Greasemonkey-Skripte funktionieren auch mit Opera – so auch Apt-linker. Doch zunächst muss Opera für die Verwendung sogenannter “User JavaScripts” konfiguriert werden:

    • Ordner “user-js” im unsichtbaren Verzeichnis “~/.opera” anlegen:
      mkdir ~/.opera/user-js
    • nun muss Opera mitgeteilt werden, wo sich die User JavaScripts befinden. Dazu entweder den Pfad “/home/BENUTZER/.opera/user-js” unter “Extras -> Einstellungen -> Erweitert -> Inhalte -> JavaScript Optionen… -> User-JavaScript-Verzeichnis” eintragen oder die Seite opera:config aufrufen und folgende Einstellungen vornehmen:


    Nun kann man das Skript installieren, indem man die Seite userscripts.org besucht, dort auf “Install” klickt und die Datei mit [Strg]+[S] im Verzeichnis “~/.opera/user-js/” speichert (Dateiendung muss “.user.js” lauten).

    apt-Links mit apturl öffnen

    Damit Opera “weiß”, was es mit apt-Links anfangen soll, muss das Protokoll noch registriert werden. Dazu unter “Extras -> Einstellungen -> Erweitert -> Programme -> Hinzufügen…” bei “Protokol”apt” und unter “Mit anderem Programm öffnen”apturl” eintragen.

    Chrome / Chromium

    Bei Google Chrome bzw. Chromium gibt es derzeit noch ein paar Probleme mit fremden Protokollen wie apt, die wohl erst mit Erscheinen der Version 5.0 behoben sein werden. Grundsätzlich unterstützt Chrome aber seit Version 4.0 Greasemonkey-Skripte nativ.


    Ähnliche Beiträge

    Ich will euch hier mal kurz multicd.sh vorstellen. Dies ist ein Bash-Skript, welches unterschiedliche Live-CDs mit Hilfe von Plugins und isolinux zu einer CD zusammen baut. Es erstellt also eine Multiboot-CD .

    Rescue-CD Screenshot
    Welche Distributionen im Moment von multicd.sh unterstützt werden kann man auf der Webseite nachlesen.

    Installation

    Die Installation ist ziemlich einfach. Man lädt sich einfach das Skript herunter und legt es an einen Ort seiner Wahl, zum Beispiel /opt/multicd, wo man es dann entpackt:

    $ tar zxvf multicd-5.2-nosyslinuxincluded.tar.gz

    Zusätzlich muss man entweder genisoimage oder mkisofs installiert haben. isolinux (und Memtest86+) lädt das Skript automatisch aus dem Internet herunter bzw. kann man auf der Webseite auch direkt eine Version mit isolinux zusammen herunterladen.

    Archlinux Nutzer können alternativ auch das Paket aus dem AUR installieren: klick .

    Benutzung

    Man lädt sich jetzt einfach die Isos der Distributionen, die man zusammenbacken möchte, in den Ordner in dem auch das Skript liegt herunter und benennt die Isos so um, wie auf der Webseite genannt. Hat man dies getan muss man einfach nur das Skript mit Root-Rechten ausführen:

    $ sudo ./multicd.sh

    und der Rest funktioniert von alleine.

    Kommandozeilen-Optionen

    Auch wenn nicht dokumentiert, besitzt multicd.sh ein paar Kommandozeilen-Optionen die man anhängen kann:

    --m Memtest86+ wird nicht automatisch hinzugefügt.
    --v Aktiviert den Verbose-Modus.
    --modules Startet einen Dialog in der Konsole mit einer Auswahl für einzelne Slax-Module (Macht natürlich nur Sinn, wenn man Slax mit einbindet). Die Anwendung dialog muss dazu installiert sein.
    --md5 multicd erstellt eine Liste mit Checksummen der einzelnen Dateien, der Iso die es erstellt.

    Reihenfolge der Einträge im Bootmenü ändern

    Um die Reihenfolge der Einträge der einzelnen Distributionen im Boot-Menü zu ändern muss man die Plugins im plugins Ordner nennen. In der Reihenfolge, in welcher die Skripte gefunden werden, werden auch die Einträge gemacht. Will man also eine CD mit DSL und Archlinux erstellen und haben, dass die DSL Einträge vor den Archlinux einträgen erscheinen, nennt man die Plugins zum Beispiel so um:

    $ cd /opt/multicd/plugins
    $ mv dsl.sh 01-dsl.sh
    $ mv arch.sh 02-arch.sh

    Bootmenü Überschrift ändern

    Das Bootmenü der erstellten CD hat automatisch die Überschrift “Welcome to GNU/Linux!“. Will man dies ändern, muss man einfach nur das Skript mit einem Texteditor seiner Wahl öffnen und die Zeile:

    menu title Welcome to GNU/Linux!

    nach seinem gefallen ändern, zum Beispiel:

    menu title Rescue-CD

    eigene Plugins entwickeln

    Ein eigenes Plugin zu entwickeln ist ziemlich einfach, da sie ebenfalls nur Shell-Skripte sind. Ich hab mir auch direkt eines für Finnix gemacht gehabt, welches wunderbar funktioniert (Download: finnix.sh). Am besten schaut man sich dazu einfach die vorhandenen Plugins an und liest sich den How it works Artikel auf der Webseite von multicd.sh durch.

    Achja auf meiner Rescue-CD die ich mit multicd.sh erstellt habe und die man auf dem Screenshot oben sieht befinden sich übrigens: Finnix, Damn Small Linux, Ultimate Boot CD, GParted Live, Parted Magic, Balder(FreeDos) und Memtest86+.


    Der Ubuntu 10.04 Installer hat nun neue Slides bekommen, die während der Installation dem User präsentiert werden. Ich fand diese Idee schon bei Ubuntu 9.10 sehr gut, weil dem Benutzer damit schonmal ein kleiner Einblick in Ubuntu gegeben wird. Ubuntu und verschiedene Programme werden in diesen Slides vorgestellt: Firefox, FSpot, Rhythmbox, Evolution, Empathy, OpenOffice, Ubuntu One … Die Komplette “Diashow” könnt ihr euch hier auf people.ubuntu.com ansehen. Meiner Meinung nach, sind die Slides sehr sinnvoll. Und was meint ihr ?


    Ähnliche Artikel:
    Copyright © 2010
    Das Implementieren des RSS-Feeds von www.pablo-bloggt.de auf anderen Seiten ist ohne die Erlaubnis von www.pablo-bloggt.de verboten und verstößt gegen das Urheberrecht! (Digital Fingerprint:
    de5b9a1940bbb4ee5a332103e8c6711c)