ubuntuusers.de

21. April 2010

Synaptics stellt allen OEM-Partnern von nun an eine Gesture-Suite für Linux bereit.


Von nun an stellt Synaptics Ihre Gesture-Suite für Touchpad´s mit Multitouchfunktion auch für das freie Betriebssystem Linux zum kostenlosen Download bereit. Jedoch vorest nur für OEM-Kunden.

Gesten wie das Spreizen von zwei Fingern oder das Wischen von Rechts oder Links  auf  dem Touchpad ermöglicht nun das Ausführen verschiedener Aktionen. Auch komplexere Gesten wie das Drehen zweier Finger zum Transformieren eines Bildes solllen ausführbar sein.

Offiziell werden von der Suite die Linux-Distributionen Ubuntu, Xandros Fedora, Linpus, Red Flag und SLED 11  unterstützt

Quelle: Golem

Vor einigen Wochen hatte ich schon meine Workstation in der Firma auf Ubuntu 10.04 (lucid) aktualisiert (s. hier). Im großen und ganzen war ich damit eigentlich ja schon recht zufrieden.

Nun habe ich meinen privaten Laptop ebenfalls aktualisiert (s. Dell Studio 17) – und wieder ist alles einwandfrei bis auf den ATI Treiber. Ich habe mir die aktuelle Version des Treibers besorgt und leider auch damit kein Glück gehabt. Also nutze ich zur Zeit den OpenSource ATI Treiber. Mein Eindruck ist eh, dass dieser – auch auf der Workstation in der Firma – um einiges schneller ist. Um nicht Äpfel mit Birnen zu vergleichen muss man natürlich auch erwähnen, dass der OpenSource Treiber für meine Karte keine Effekte unterstützt und somit auch weniger “zu tun” hat.

PS: durchgeführt habe ich das Upgrade mit dem Befehl “do-release-upgrade -d”

[Update]

Man lernt nie (nie!) aus. Obwohl ich jetzt schon recht lange mit Ubuntu arbeite kann ich natürlich auch noch jeden Tag aufs neue in ein Fettnäpfchen treten. So wieder geschehen. Durch ein paar Kommentare bin ich mal auf die Idee gekommen, die Effekte mit dem zur Zeit aktiven OpenSource Treiber zu aktivieren – zu meiner (ja, lediglich meiner) Schande muss ich gestehen: Es funktioniert!! Super!

Lange Zeit, eigentlich bis eben, bin ich davon ausgegangen dass man den proprietären Treiber benötigt um die Effekte und die ganzen Features der Karte zu nutzen, und hab es auch deshalb nicht mit dem OpenSource Treiber ausprobiert. Vielen Dank an Euch! Morgen werde ich das ganze auf meiner Workstation in der Firma testen.

Also wenn ich das jetzt richtig verstehe, benötigt man den proprietären Treiber nur, wenn man die allerneueste Karte hat!?

Hat Dir dieser Eintrag gefallen? Dann lade uns doch zu einem Kaffee ein! (3€,PayPal)

Am Donnerstag, 29. April, erscheint die finale Version von Ubuntu 10.04 und der Ansturm auf die Server mit den ISO-Abbildern wird wieder losgehen. Teilen sich mehrere Anwender einen Internetzugang, kann das sofortige und gleichzeitige Herunterladen all der neuen Abbilder ein echtes Problem werden.

Verfügt der Verwalter des Internetzugangs über einen Web-Proxy, so lässt sich die Sache etwas entschärfen. Ein Caching Proxy, der heruntergeladene Dateien speichert und damit die Internetverbindung selbst entlastet, ist eine mögliche Methode. Andererseits kann mit wenigen Regeln ein Proxy-Server auch dazu gebracht werden, statt der Download-Server eine spezielle Fehler-Seite anzuzeigen. Das passende Regelwerk für den freien Proxy Squid und die kommerzielle ProxySG von Blue Coat könnte wie folgt aussehen:

Squid

# Bereich mit ACL-Definition
acl UbuntuServer dstdom_regex \w*.*releases.ubuntu.com|cdimage.ubuntu.com

# Bereich mit den Zugriffs-Definitionen
http_access deny UbuntuServer

# Zum Abschluss
deny_info http://intranet.example.com/ubuntu.html UbuntuServer

Blue Coat

<Proxy Ubuntu>
; Die eigentliche Regel
condition=UbuntuServers action.UbuntuRedirect(yes)

; Definition der Server
define condition UbuntuServers
    url.host=cdimage.ubuntu.com
    url.domain=//releases.ubuntu.com/
end

; Definition der Aktion
define action UbuntuRedirect
        redirect(302, ".*", "http://intranet.example.com/ubuntu.html" );
end

Erklärung
Beide Regelsätze unterbinden Zugriffe auf die Server releases.ubuntu.com und aller länderspezifischen Server, die darunter aufgehängt sind (wie de.releases.ubuntu.com), sowie den Server cdimage.ubuntu.com. Es wird jeweils auf die HTML-Seite ubuntu.html weitergeleitet, die auf dem Server intranet.example.com abgelegt ist - zumindest letzterer sollte natürlich an das eigene Intranet angepasst werden.

Besonders fürsorgliche Admins legen die gebräuchlichsten ISO-Abbilder im eigenen Netzwerk ab und verlinken sie auf der Fehlerseite, soweit die Richtlinien der Firma dies zulassen. Die Abbilder von der Vorversion können ja auch mittels zsync aktualisiert werden (siehe Tips & Tricks: Aktualisierung von ISO-Abbildern mit Zsync).

 

Mit dem Tool “notify-send” kann man über die Kommandozeile Nachrichten an den Gnome-Desktop versenden.

Hier ein kleines Beispiel mit einer Testnachricht:

notify send notify send: Nachrichten an den Desktop senden unix ubuntu shell planetuu notify send linux libnotify kdialog gnome Desktop bash backup

notify-send sendet Nachrichten an den Desktop

Läuft z.B. ein länger andauerndes Skript, kann man sich dessen Beendigung grafisch am Desktop anzeigen lassen, ohne dass man alle paar Minuten dies manuell überprüfen muss. Um z.B. die Benachrichtigung “Backup beendet” am Desktop anzeigen zu lassen, müsste man folgende Zeile am Ende des Skripts einfügen:

notify-send "Backup beendet"

Oder man hängt obige Zeile manuell einfach als Folgebefehl an das Backupskript an:

backup.sh; notify-send "Backup beendet"

Mit der Option -t kann man noch festlegen, wie lange eine solche Nachricht (in ms) angezeigt werden soll (Standard: 5 Sekunden) – dies hat mit Ausnahme des Wertes “-t 0″ bei mir unter Jaunty jedoch nicht funktioniert. Ist der Wert 0, verschwindet die Nachricht erst dann, wenn der Nutzer dies mit “OK” bestätigt. Beispiel:

notify-send "Backup beendet" -t 0

backup beendet notify send: Nachrichten an den Desktop senden unix ubuntu shell planetuu notify send linux libnotify kdialog gnome Desktop bash backup

Nutzt man diese Option, wechselt notify-send  in einen anderen grafischen Benachrichtigungsmodus und zeigt ein richtig schönes Fenster an.

Das Tool ist in den Ubuntu-Paketquellen enthalten und ist ein Teil von libnotify-bin. Installation mit:

sudo apt-get install libnotify-bin

Das recht simple Tool hat noch ein paar Erweiterungen wie das Anzeigen von Icons. Näheres dazu in der Manpage. KDE-Nutzer sollten sich das Tool kdialog ansehen.

16 Kommentare Permalink | © 2010 by Netz 10 | Tags: , , , , , , , , , , ,

Ähnliche Artikel

  1. Dateisystemlabel anzeigen und anpassen
  2. Rechner zeitgesteuert herunterfahren
  3. Laptop-Display (1): Abschalten mit vbetool
  4. Bildformate mit `convert` umwandeln

Seit gestern versuche ich mittels Fail2ban zu vermeiden, dass mein git-daemon “geDOSt” wird. Also bei ca 10 Downloads die Klappe für die IP schliessen.
unter:

$ git clone git://zwetschge.org/roborobo.git

lässt sich über den Daemon ein Repo auschecken. Der Logeintrag bei Access sieht folgendermaßen aus:

2010-04-20_11:37:52.05907 [16810] Connection from 200.200.200.200:54283

Nun lässt sich über ein einfaches Script, beispielsweise:

$ for i in $(seq 1 100) ; do git clone git://zwetschge.org/roborobo.git gitrepodos$i ; done

den Server total auslasten. Gerade bei grossen Repos wäre das fatal.
Über RegExp und fail2ban-regexp lässt sich der Ausdruck im Logfile auch filtern und testen:

fail2ban-regex '2010-04-20_19:52:01.41131 [26818] Connection from 200.200.200.200:54283' '.*Connection from <HOST>:.{4,5}$'

gibt zurück der Ausdruck würde matchen. Meine Filterregel sieht auch dementsprechend aus:

failregex = .*Connection from <HOST>:.{4,5}$

und der Eintrag in der jail.local (damit als jail erkannt wird):

[git-daemon]
enabled  = true
port     = git
filter   = git-daemon
logpath  = /var/log/git-daemon/current
maxretry = 5

ist eingerichtet. Keine Fehler im Fail2ban-Log. Alles erfolgreich gestartet. Aber der Filter matched einfach nicht wenn ich das Script ausprobiere.

Statusabfrage des Jails:

$ fail2ban-client status git-daemon

Status for the jail: git-daemon
|- filter
|  |- File list:    /var/log/git-daemon/current
|  |- Currently failed:    0
|  `- Total failed:    0
`- action
|- Currently banned:    0
|  `- IP list:
`- Total banned:    0

Ich weiss mir gerade nicht zu helfen. Obwohl ich das selbe Spiel mit vsftp auch gemacht habe. LINK

Ich habe heute längerfristig das Web durchforsten müssen, wie ich eine URL für den

git clone git://zwetschge.org/roborobo.git

Befehl in gitweb hinterlege. Das fand ich sehr hilfreich, denn seit ich meinen git-daemon wieder installiert habe, wäre es theoretisch möglich die PublicProjects darüber auszuchecken. Damit gitweb nun diese URL kennt, ist es nötig in dem Remote-Verzeichnis die Datei cloneurl anlegen. Kurz und prägnant damit ich es nicht wieder vergesse:

echo "git://zwetschge.org/roborobo.git" > /home/git/public/roborobo.git/.git/cloneurl

Dieses File liesst gitweb dann aus und schreibt die URL (in meinem Falle für roborobo) in die Summary-Übersicht mit rein.

Beispiel: http://git.zwetschge.org/?p=roborobo.git;a=summary

Fast habe ich den Termin verpasst: Am 9. April 2009 sprach ich noch etwas zaudernd auf Geheiss vom Bürgermeister in mein Mikrophon und gab den für mich ersten Ubuntu Wochenrückblick von ubuntuusers.de als “Ubuntu Weekly-News” bei RadioTux wieder. Inzwischen ist fast jede Woche ein solcher Beitrag bei RadioTux entstanden. An einigen Tagen reichte die Zeit einfach nicht und daher gab es hin und wieder keinen solchen Podcast. Doch seit dem ich im Team von Ikhaya mitwirken darf, rutschte der UWR in meiner Prioritätenliste etwas nach oben und ich versuche, den Beitrag noch am selben Abend, an dem er erscheint, fertig zu stellen. Immer wird das nicht klappen, aber ich hoffe doch, dass es zur Regel wird.

An dieser Stelle möchte ich ein dickes Dankeschön an die Crew des Ubuntu Wochenrückblicks richten. Da steckt eine grosse Arbeit dahinter und vielleicht schaffe ich es doch noch irgendwann einmal, dort mitzuwirken. Sobald unsere Release-Party vorbei ist und wir die Geburtstags-Folge von Deimhart produziert haben, kann ich mir wieder etwas mehr Zeit für andere Arbeiten nehmen, bevor dann der grosse Brocken namens LinuxTag zu Berlin auf mich wartet. Dort wirke ich dann im Dienste von RadioTux und stehe während vier Tagen mehr oder weniger im Dauereinsatz. Unser Adjutant Sirko schmiedet schon an den Schlachtplänen für das Programm.

PDF-Datei dieses Artikels erzeugen



Ähnliche Artikel

Wie wohl inzwischen alle Interessierten wissen dürften ist Lucid Lynx, die in etwa einer Woche erscheinende nächste Version von Ubuntu endlich wieder eine LTS (Long Time Support). Das bedeutet, dass auch die Desktop-Variante einen Lebenszyklus von 3 Jahren mit halbjährlich erscheinenden Updates (etwa das was bei Windows unter "Service Pack" bekannt ist) beginnen wird (das ist bei den nicht-LTS-Versionen nur der Server-Variante vorbehalten, wobei die Desktop-Varianten nur 18 Monate Support erhalten). Vor allem dann wenn man sich per Distributionsupgrade von Version zu Version gehangelt hat und schon manch ein Knirschen durch die Zahnräder des Systems geht ist mit Lucid eine vollständige Bereinigung der Festplatte und ein nachfolgendes neues Aufsetzen des nagelneuen Ubuntu zu empfehlen.

Denn LTS-Versionen glänzen nicht durch Bleeding-Edge-Software sondern durch erhöhte Stabilität (die normalerweise bereits bei der Beta einer nicht-LTS-Version recht hoch ist). Korrupte Config-Dateien, inkompatible Bibliotheks-Versionen und Schäden durch extern (sprich nicht über die Paketverwaltung) installierte Programme sind vor allem für Anfänger am leichtesten durch eine frische Installation zu lösen und hier kommt ihnen Lucid gerade recht.

ABER!

WIr haben noch eine Woche Zeit! Sofern du nicht gerade zu beschäftigt bist mit produktivem Werkeln ist das deine Chance dein System näher unter die Lupe zu nehmen, es auseinander zu reißen und neue Sachen auszuprobieren, die du dich auf dem "running System" einfach nicht getraut hast. Die kommende stabile Grundlage bietet also starken Anreiz zu experimentieren. Das kann das Ausprobieren einer neuen Systemsprache sein, das Installieren und Konfigurieren eines Web-Servers mit PHP und Datenbank oder das Ausprobieren eines alternativen Desktops oder von Bleeding-Edge-Programmen oder du kannst das Anpassen der Fensterknöpfe üben :) .

Da bei mir bereits Apache mit PHP5 und MySQL läuft, mein Thunderbird auf den Namen "Shredder" hört (Thunderbird 3.0), mein KDE die Versionsnummer 4.4.2 mitbringt und ich mit der Position meiner angepassten Fensterknöpfe zufrieden bin habe ich mich für die übrige Alternative entschieden. Von heute an bis zur Installation von Lucid wird mein System in der englischen Sprache erscheinen. Das ist nichts Weltbewegendes und sollte in keiner Weise die Leistung des Systems beeinträchtigen.

Unter KDE4 wird die Spracheinstellung des Systems so vorgenommen:

K-Menü -> Rechner (Reiter) -> Systemeinstellungen

In dem neuen Fenster im Abschnitt "Persönliches" auf Land/Region&Sprache klicken. Gleich im neuen Fenster kann man Sprachen hinzufügen und die Systemsprache einstellen, für die man jedoch das root-Passwort benötigt. Ich habe die Systemsprache auf Englisch (UK) gestellt (einfach weil mir Britisches Englisch besser gefällt als US-Englisch, bleibt aber dir selbst überlassen welchen Dialekt du wählst).

[UPDATE] Ich habe einen weiteren meiner Weisen Ratschläge befolgt und installiere gerade GNOME aus den Quellen. Eine Anleitung zum Ändern der Spracheinstellungen für GNOME folgen in Kürze.[/UPDATE]

[UPDATE 2]
Unter GNOME kann man die Systemsprache folgender Weise umstellen:

System -> Administrierung -> Sprachunterstützung

Hier kannst du neue Sprachen installieren und die zu verwendende Sprache einstellen.
[/UPDATE 2]

Viel Spaß beim Experimentieren! Nutze die Chance, sie kommt erst in zwei Jahren wieder.

Creative Commons License
This work by Stefan Ohri is licensed under a Creative Commons Attribution-ShareAlike 3.0 Austria License

=-=-=-=-=
Powered by Blogilo


Filed under: Computer, KDE, Kubuntu, Ubuntu, Ubuntuusers, Vermischtes

Die Linux Foundation hat wie schon 2009 auch dieses Jahr einen Video-Wettbewerb durchgeführt. Dem Sieger winkten eine Reise zur LinuxCon in Boston und ein Linux-Laptop. Gestern wurden die Sieger bekannt gegeben und wie sagt man so schön? Aaaaand the Oscar goes to… Go Linux. Naja, oscarverdächtig sind die Videos nicht gerade, doch die ersten Zwei sind gar nicht mal soooo schlecht. ”Lust” auf einen Umstieg hin zu Linux machen sie jedoch in meinen Augen trotzdem nicht. Schade, es fehlt eigentlich mal eine richtig professionell aufgemachte Linux-Werbung.

Erster Platz: Go Linux

Zweiter Platz: Create Something Unique

Dritter Platz: Linux: Free Your Computer

20. April 2010

Um eine Videodatei aus einer PowerPoint-Präsentation (jaja, leider ist das noch immer der Standard hier an der Uni und auf Konferenzen) abzuspielen, sollte das Video möglichst im MPEG1-Format vorliegen, da dieses Format auf jeder Windoof-Kiste abgespielt werden kann. Mittels ffmpeg wandle ich also das gewünschte Material um. Dies erfolgt mit folgendem Befehl: ffmpeg -i INPUT -r 25 -f mpeg -vcodec mpeg1video -ar 48000 -b 1500k -acodec mp2 -ar 44100 -ac 1 -s 640x480 -y OUTPUT1.

Um eine Videodatei aus einer PowerPoint-Präsentation (jaja, leider ist das noch immer der Standard hier an der Uni und auf Konferenzen) abzuspielen, sollte das Video möglichst im MPEG1-Format vorliegen, da dieses Format auf jeder Windoof-Kiste abgespielt werden kann. Mittels ffmpeg wandle ich also das gewünschte Material um. Dies erfolgt mit folgendem Befehl:

ffmpeg -i INPUT -r 25 -f mpeg -vcodec mpeg1video -ar 48000 -b 1500k -acodec mp2 -ar 44100 -ac 1 -s 640x480 -y OUTPUT1.mpg

…wobei INPUT logischerweise durch den Namen des Originalvideos ersetzt werden muss. Die hierdurch erzeugt Datei OUTPUT.mpg kann nun in PowerPoint abgespielt werden.

An dieser Stelle sei noch einmal erwähnt, dass PowerPoint die Videodatei nicht in der Präsentation selber abspeichert, sondern lediglich einen Link zur Datei verwendet! Die Ordnerstrukturen können aber von PC zu PC verschieden sein (z.B. weil die Usernamen unterschiedlich sind). Dies kann dazu führen, dass die Präsentation auf einem fremden PC (z.B. dem Kongress-Laptop) das Video nicht findet, (obwohl es auch auf den fremden PC kopiert wurde)! Hui, dann steht man aber doof da!

Die Lösung

Will man die Präsentation samt Video auf einem fremden Rechner (z.B. auf einem Kongress) abspielen, sollte man vorher unbedingt einen eigenen Ordner für die Präsentation anlegen. In diesen Ordner kommen sowohl die PowerPoint-Datei als auch die Videodatei. Jetzt öffnet man die Präsentation und fügt das Video an gewünschter Stelle ein. PowerPoint speichert zwar immernoch lediglich den Link zur Videodatei ab, da aber beide Dateien im selben Ordner liegen, spart PowerPoint die komplette Pfad-Angabe aus. Das bedeutet, dass egal wo der Ordner nun liegt, die Videodatei auf jeden Fall innerhalb der Präsentation gefunden wird (sofern beide Dateien im selben Ordner liegen).
So ist man in der Lage, den Ordner z.B. auf einen USB-Stick bzw. auf den Kongress-Laptop zu kopieren, und die Präsentation wie gewünscht mit Video abzufahren.

Wer Gmail und Google Chat verwendet, der kennt wahrscheinlich die Funktion, dass man bei Eintreffen eines Links zu einem YouTube-Video automatisch das Video im Chat selber angezeigt bekommt. Ich persönlich finde diese Funktion gar nicht so schlecht, da man so nicht noch ein weiteres Fenster öffnen muss. Freunde von Pidgin wird es sicherlich freuen, dass man diese Funktionalität dank dem Pidgin Embedded Video Plugin auch mit Pidgin nutzen kann.

Das Plugin beschränkt sich dabei nicht nur auf YouTube, sondern erkennt zusätzlich Links zu Video-Portalen wie CollegeHumor, Dailymotion, Google Video, Metacafe, MySpace Video, Trilulilu, Vimeo, Yahoo! Video. Genauso wie das “Vorbild” bei Google Chat bindet es das Video automatisch in den Chat ein. Vermisst Ihr “eurer” Video-Portal, so lasst es die Entwickler wissen und meldet euren Wunsch im Bugtracker des Projekts. Einen Kleinen Haken hat die Sache. das Plugin gibt es jedoch aktuell nur für Linux, aber das dürfte euch ja nicht stören…

Die Installation ist unter aktuellen Ubuntu-Versionen recht einfach. Auf der Projektseite findet Ihr .deb Pakete für Ubuntu, die Ihr mit einem Doppelklick installieren könnt. Einzige Voraussetzung ist, dass Adobe Flash installiert ist. Nutzer älterer Ubuntu-Versionen müssen das Plugin selber compilieren, Infos zu den Abhängigkeiten und den Quelltext gibts im Wiki.

Videos direkt in Pidgin betrachten

Nach der Installation des Pakets müsst Ihr das Plugin noch unter “Werkzeuge -> Plugins -> Pidgin Embedded Video” aktivieren. Über den Button “Plugin konfigurieren” am unteren Ende des Fensters könnt Ihr bei Bedarf noch bestimmen, dass Videos erst eingeklappt angezeigt werden und man sie bei Bedarf über einen kleinen Pfeil ausklappen kann. Danach sollte Pidgin Embedded Video ein einsatzbereit sein.

Wie vielen bekannt ist wird Ubuntu 10.04 "Lucid Lynx" ja eine LTS Version. Das bedeutet man bekommt damit länger Support als für ein normales Ubuntu.

Viele achten auf so etwas nicht und haben immer die neueste Version von Ubuntu, oder verwenden eine Distribution mit Rolling-Releases wie z.b. Arch. Ich selbst lege aber großen Wert auf ein System das ich möglichst lange ohne große Änderungen verwenden kann.

Dies liegt zum einen daran das ich einige Kundenserver betreue, diese laufen jetzt alle noch auf Ubuntu Hardy und werden auch bestimmt noch mind. 1 Jahr lang bei Hardy bleiben. Das gleiche gilt für meinen Homeserver, auch wenn hier die Dienste natürlich keine so hohen Anforderungen an Verfügbarkeit haben.

Meine Rootserver laufen eh schon (aus historischen Gründen) mit Debian, was ich auf absehbare Zeit auch nicht ändern werde.

Die Clients werde ich alle von 8.04/9.10 auf 10.04 aktualisieren sobald es 10.04.1 gibt, da hiermit wohl die gröbsten Fehler gefixt sein dürften. In einer VM werde ich natürlich (wie auch jetzt schon) testen wie sich Lucid so macht.

Ich denke mit diesen Upgrades geht jeder anders um, ich selbst werde das Upgrade aber noch etwas verschieben. Schon allein weil ich so die ohnehin schon überlasteten Server etwas schonen kann. Gleichzeitig werde ich wie jedes Jahr auf den Rootservern die ich betreue die Torrents seeden!

Wie vielen bekannt ist wird Ubuntu 10.04 "Lucid Lynx" ja eine LTS Version. Das bedeutet man bekommt damit länger Support als für ein normales Ubuntu.

Viele achten auf so etwas nicht und haben immer die neueste Version von Ubuntu, oder verwenden eine Distribution mit Rolling-Releases wie z.b. Arch. Ich selbst lege aber großen Wert auf ein System das ich möglichst lange ohne große Änderungen verwenden kann.

Dies liegt zum einen daran das ich einige Kundenserver betreue, diese laufen jetzt alle noch auf Ubuntu Hardy und werden auch bestimmt noch mind. 1 Jahr lang bei Hardy bleiben. Das gleiche gilt für meinen Homeserver, auch wenn hier die Dienste natürlich keine so hohen Anforderungen an Verfügbarkeit haben.

Meine Rootserver laufen eh schon (aus historischen Gründen) mit Debian, was ich auf absehbare Zeit auch nicht ändern werde.

Die Clients werde ich alle von 8.04/9.10 auf 10.04 aktualisieren sobald es 10.04.1 gibt, da hiermit wohl die gröbsten Fehler gefixt sein dürften. In einer VM werde ich natürlich (wie auch jetzt schon) testen wie sich Lucid so macht.

Ich denke mit diesen Upgrades geht jeder anders um, ich selbst werde das Upgrade aber noch etwas verschieben. Schon allein weil ich so die ohnehin schon überlasteten Server etwas schonen kann. Gleichzeitig werde ich wie jedes Jahr auf den Rootservern die ich betreue die Torrents seeden!

Durch das baldige Release von Ubuntu Lucid Lynx möchte ich euch 3 neue Tutorials schreiben: VDPAU mit 10.04VDR mit VNSI-Server (schnellere Umschaltzeiten) und XBMC mit VDR-Frontend (VNSI-Plugin). Damit nutzen wir selbstverständlich eine neuere verbesserte Version von XMBC pvr-testing2. icon mrgreen

xbmc live tv 1024x576

Voraussetzung:

  • Ubuntu Lucid Lynx (10.04)
  • Ubuntu 10.04 – NVIDIA VDPAU (HowTo)
  • Ubuntu – DVB-S2 – Treiber s2-liplianin installieren (HowTo)
  • Ubuntu 10.04 – VDR 1.7.14 & VNSI-Server für XBMC vorbereiten (HowTo)

Auf dem Launchpad PPA von Henning Pingel gibt es ein schönes Repository für XBMC PVR-TESTING2.

sudo su -
add-apt-repository ppa:henningpingel/xbmc
aptitude update

Alternativ zu add-apt-repository die Oldschool Variante.

sudo su -
vi /etc/apt/sources.list
deb http://ppa.launchpad.net/henningpingel/xbmc/ubuntu lucid main
deb-src http://ppa.launchpad.net/henningpingel/xbmc/ubuntu lucid main
# PGP-Key - NO_PUBKEY B3C827F7299F360A
gpg --keyserver keyserver.ubuntu.com --recv B3C827F7299F360A && gpg --export --armor B3C827F7299F360A | apt-key add - && aptitude update

Jetzt installieren wir das aktuelle XBMC Paket von Henning Pingel.

aptitude install xbmc

Wir können XBMC nun über den Terminal mit xbmc oder über das Gnome-Menü Unterhaltungsmedien starten.

Um Live TV zu aktivieren müssen wir das VDR-VNSI-Plugin unter System > Erweiterungen > PVR-Clients aktivieren und dann System > TV aktivieren. Jetzt finden wir auf der Startseite von XBMC den Eintrag Live TV. icon cool

Viel Spaß!


© loggn.de - Tutorials und Erfahrungen, 2010. | Permalink | 46 Kommentare
_nico bei Twitter und Google+ | loggn.de bei Facebook und Google+

Copyright © 2009-2012
Dieser Feed ist ausschließlich für den privaten Gebrauch bestimmt. Der gewerbliche Gebrauch, in gedruckter oder digitaler Form, ist ohne ausdrückliche Zustimmung des Betreibers nicht erlaubt.

Über das freie RadioTux gelangte die Anfrage zu mir, ob wir vom Radio einen Bericht über die aktuelle Linux-Distribution Salix machen würden. Dabei handelt es sich um die Version 13, welche auch als Live-CD getestet werden kann. Für solche Aufgaben bin ich (fast) immer zu haben, sofern es mein arg strapaziertes “Zeitbudget” zulässt. Irgendwie schaffe ich es dann immer, die nötige Zeit bereitzustellen.

Auf der Website zum Projekt ist in deutscher Sprache zu lesen, wie leicht und flink Salix wäre:

Salix ist eine auf Slackware basierende Linuxdistribution, die einfach, schnell und leicht zu nutzen ist. Salix ist zudem voll rückwärtskompatibel mit Slackware. Daher stehen die Salix Paketquellen als hochwertige „extra“ Quellen allen Slackware-Nutzern für ihr bevorzugtes Betriebssystem zur Verfügung. Ähnlich einem Bonsai ist Salix klein, leicht und das Ergebnis andauernder Pflege.

Ohne gross in die Details vorzudringen, kann ich nach einem zweistündigen Test mit einer Live-CD bestätigen, dass sich Salix sehr leicht bedienen lässt und vor allem ist es flink – auch wenn man es als Live-CD startet. Unterstützt wird die rassige Arbeitsweise auch durch die Arbeitsumgebung Xfce, die bei Salix standardmässig zum Einsatz kommt. Ausserdem begegnete ich bei meiner Hardware, mit der ich Salix 13 testete, keinerlei Herausforderungen. Auf meinem Thinkpad R61 wurde die korrekte Auflösung dargestellt, das WLAN funktionierte auf Anhieb und alle weiteren Bestandteile auch – bis auf den Fingerprint-Sensor “Upek Biometric”, aber der funktionierte bislang mit keiner Distribution.

Salix basiert auf Slackware, der wohl ältesten noch gepflegten Linux-Version. Die Kompatibilität zu Slackware wäre gegeben; das konnte ich aber nicht testen, da ich mit Slackware keinerlei Erfahrung habe. Im Gegensatz zur Paketverwaltung bei Slackware namens PKG, welches keine Abhängigkeiten zu andern Paketen auflöst und auch keine Warnungen ausgibt, falls bestehende Pakete überschrieben werden, soll Salix ein Paketmanagement aufweisen, welches die Abhängigkeitsunterstützung anbietet. Dazu gibt es auch ein GUI, womit die Benutzer Software relativ einfach installieren können. Dort fand ich das für mich noch recht wichtige Paket audacity nicht. Hingegen ist es bei Slackware verfügbar und das dürfte höchstwahrscheinlich reichen, um es auch unter Salix nutzen zu können.

Die aktuelle Live-CD-Version nutzt den 2.6.29-Kernel. Das System braucht einen Moment, um ab dem Stick zu starten, das Warten lohnt sich aber. Es stehen verschiedene Sprachen zur Verfügung, mit den das Linux gestartet werden kann. Das Tastaturlayout steht allerdings beim Booten nur in Deutsch für Deutschland zur Verfügung, das richtige – in meinem Fall für die Schweiz – kann man sich nach dem Start über das entsprechende GUI einrichten. Ich kenne Slackware und damit Salix kaum und kann leider dazu nicht sehr viele technischen Hintergründe liefern. Auch auf der Projektwebsite muss man sich die technischen Details zusammensuchen; sie stehen nicht sauber gebündelt zur Verfügung oder ich habe sie nicht gefunden. Aber das Linux selbst zeigt sich von einer angenehmen Seite und schliesslich ist es das, was zählt. Der Hintergrund mit den “MIB-Tuxen” gehört zum Standardset. Während dem Betrieb mit einer Live-CD oder ab einem Stick steht die Funktion “Beständigkeit” zur Verfügung, mit der man sehr leicht die kosmetischen Anpassungen und vor allem die persönlichen Daten auf ein Stick auslagern kann. So gehen die Daten der vergangenen Session nicht verloren. Die Funkion “Beständigkeit” ist mit drei Mausklicks eingerichtet.

Xfce ist leicht und intuitiv zu bedienen. Ich persönlich mag lieber Gnome und habe mich schon (fast zu fest) an die Applikationen unter Gnome gewohnt. Deswegen schaue ich mir gerne auch mal andere Arbeitsumgebungen an. Der Vorteil von Xfce dürfte der enorme Geschwindigkeitsvorteil und die ressourcenschonende Arbeitsweise sein. Dagegen spricht, dass nicht durchwegs alle Applikationen, welche für andere Arbeitsumgebungen optimiert sind, darauf laufen, ohne dass viel von Hand angepasst werden muss.

Auf der ISO-Datei sind einige Anwendungen verpackt, die somit beim Start ab einem Stick oder einer CD zur Verfügung stehen. Dazu gehören Programme wie OpenOffice 3.1, Firefox 3.6.3, Geany, Gimp, Ristretto, XSane, Asunder, Brasero, Exaile, Totem, ClawsMail, Pidgin, Wicd, gFTP sowie ein umfassendes Zubehör und Systemprogramme wie gParted und weitere. Es ist also eine mannigfaltige Auswahl an Programmen bereits vorhanden – wie immer eine Applikation pro Aufgabe. Die Anwendungsvielfalt unter Slackware ist ja recht gross und so dürfte auch unter Salix eine breite Palette von Anwendungen bereitstehen.

Ab dem USB-Stick oder der Live-Cd kann Salix direkt installiert werden. Es bietet sich ein Installations-Wizard an, der allerdings voraussetzt, dass die nötigen Partitionen bereits angelegt sind.

Salix kennt drei Installationsmodi, die je eine andere Zusammenstellung der Pakete anbieten. Wie bei Ubuntu sind auf dem Installationsmedium pro Aufgabe nur je eine Applikation vorhanden. Das Hilfesystem scheint mir recht ausgereift, ich fand zumindest alles, wonach ich suchte. Und natürlich steht auch eine gesunde Community zur Verfügung, wo man seine Fragen deponieren kann.

Wer eine flinke Linux-Distribution mit einem stabilen und historischen Hintergrund sucht, welche auch noch auf etwas älterer Hardware läuft, dürfte mit Salix ganz gut bedient sein. Da eine Live-CD zur Verfügung steht, ist das Testen um einiges einfacher. Schon kurz nach dem Booten kann man rasch feststellen, ober Salix alle Hardware erkannt hat oder ob man nachhelfen muss. Mir hat der Ausflug zu diesem Linux auf jeden Fall sehr gut gefallen. Diesen Beitrag werde ich dann für RadioTux aufbereiten – lautsprachlich, versteht sich.

PDF-Datei dieses Artikels erzeugen



Ähnliche Artikel

Die Wartezeit war diesmal nicht ganz so lange, auch die Anzahl der Änderungen fiel deutlich geringer aus. Alles in allem sieht -rc5 nach einem ganz normalen RC aus.

Ein großer Teil der Änderungen wird von Aufräumarbeiten im i915-Treiber für Intel-Grafikchips beansprucht. Hier wurde die Klassen intel_output in intel_encoder umbenannt, um den veränderten Strukturen des DRM (Direct Rendering Manager) im Vergleich zu UMS (User Mode Setting), auf dessen Basis ein großer Teil des i915-Codes entwickelt wurde, Rechnung zu tragen.

Viele kleinere Fehlerkorrekturen runden die neue Vorabversion ab, darunter ein Patch für ein Problem beim Starten des Kernels (Bugzilla #15749). Dieser traf einige Nutzer und war auf eine Division-durch-Null im ACPI-Treiberumfeld.

Quelle: Linux Kernel Mailing List


Kernel-Quellen:

 

Wer einen Linux Desktop beruflich nutzt, bekommt je nach Umgebung diverse Aufgaben gestellt um sich in einem heterogenen Netzwerk zurecht zu finden. Dazu gehört zum Beispiel Lotus Notes ans Laufen zu bringen oder auch der gemeinsame Zugriff auf zentrale Laufwerke.

Fileserver werden (leider) recht selten unter Linux betrieben. Von daher muss man Möglichkeiten und Wege finden sich damit zu arrangieren. Im folgenden möchte ich ein Script vorstellen, welches einen Teil dieser Interoperabilität sehr einfach unterstützt.

Worum geht es ?

Man bekommt eine eMail. In dieser Mail wird auf ein zentral abgelegtes Dokument verwiesen. Wie ? Na ganz einfach per “I:\Ordner\Dokument.doc” – ein Link auf ein gemapptes Laufwerk. Unter Ubuntu darauf klicken und Firefox (das wird als Link verstanden) sagt “Ich weiß nicht wirklich was ich damit machen soll !”.

Lösung !

Ich habe ein Script geschrieben, welches dieses Szenario wie folgt löst:

  1. Link kopieren
  2. Script starten
  3. es öffnet sich Nautilus, bzw. die Anwendung

Das ganze hört sich erst einmal komplizierter an als es ist. Das Script starten kann man eleganter weise nämlich z.B. über gnome-do oder mit einem einfachen Shortcut unter Gnome erledigen. Dann macht das ganze auch Sinn und ist komfortabel.

Prerequisites:

  • libnotify-bin
  • xclip
  • um gemappte Laufwerke (s. Beispiel oben) zu nutzen, müssen diese an einem zentralen Punkt beispielsweise per auto-mounter zur Verfügung stehen. Im Script ist das ganze bei mir unter /mnt/cifs/ gemappt. Diese einzelnen Laufwerke und deren Pfade müssen im Script angepasst werden.
#!/usr/bin/perl -w
#
# Script zum oeffnen von Windows "Links" unter Ubuntu
#
#  - Umsetzung von Links wie I:\Ordner\dokument.doc
#   - das Dokument wird direkt geoeffnet
#  - Umsetzung von Links wie I:\Ordner
#   - der Ordner wird in Nautilus geoeffnet
#  - Umsetzung von Links wie \\Server\... wird ebenfalls unterstuetzt
#
# Prerequisites:
#  - libnotify-bin
#  - xclip
#
# Ronny Becker, 02.2009
 
# get clipboard data
$path=`xclip -o -selection c`;
chomp($path);
# show information
system("DISPLAY=:0.0 dbus-launch /usr/bin/notify-send -u low -t 3000 \"Win Path\" \"\nöffne\n\n\'$path\'\"");
 
if ( $path !~ /[a-zA-Z]/ ) { exit; }
 
# LW \\...
if ( $path =~ /^\\\\/ ) {
 $path =~ s/^\\\\/smb:\/\//;
}
 
# for each drive a separate config
# LW Q (Dokumentation)
if ( $path =~ /^[qQ]:/ ) {
 $path =~ s/^[qQ]:/\/mnt\/cifs\/Q/;
}
 
# mapped drive I
if ( $path =~ /^[iI]:/ ) {
 $path =~ s/^[iI]:/\/mnt\/cifs\/I/;
}
 
# mapped drive W
if ( $path =~ /^[wW]:/ ) {
 $path =~ s/^[wW]:/\/mnt\/cifs\/W/;
}
 
# mapped drive L
if ( $path =~ /^[lL]:/ ) {
 $path =~ s/^[lL]:/\/mnt\/cifs\/L/;
}
 
# set \ to /
$path =~ s/\\/\//g;
 
# if the link target is a document use xdg-open, otherwise open with nautilus (folder)
if ( $path =~ /\.[a-z]{3}$/ ) {
 system("xdg-open \"$path\"");
} else {
 system("nautilus \"$path\"");
}

Download: win_path

Damit man sieht, dass das Script auch ausgeführt wird, wird der an das Script übergebene Link per “Bubble” angezeigt. Das Script kann natürlich auch auf der Konsole ausgeführt werden – z.B. zur Fehlersuche.

[Update]

Ein Update wegen eines xclip Problems gibt es hier.

Hat Dir dieser Eintrag gefallen? Dann lade uns doch zu einem Kaffee ein! (0.99€)

Der Call for Papers für die diesjährige Ubucon ist nun offiziell gestartet.

Wir freuen uns über alle Einsendungen, können aber nicht garantieren, dass sie auch angenommen werden.

Gerade Neueinsteiger und noch nicht so erfahrene Vortragende und Workshopleiter werden gesucht. Niemand muss Angst haben.

Ach ja, bevorzugt berücksichtigt werden Workshops mit 100 Minuten oder längerer Dauer.

Alle Vorschläge werden bis Mitte August gesammelt, Rückfragen gestellt und ausgewertet. Danach wird ein Programm aufgestellt und bekannt gegeben.

19. April 2010

Monocaffe Verbindungs Manager

Monocaffe Verbindungs Manager

Im Laufe der Zeit sammeln sich zunehmend Serververbindungen an, die man immer wieder nutzt. Monocaffe bietet als zentrales Verwaltungsprogramm ein bisschen Übersicht im Dickicht der Verbindungsvielfalt.

In Monocaffe können Verbindungen zu Servern angelegt und bei Bedarf immer wieder aufgerufen werden. Mit der recht aufgeräumten Oberfläche bietet es somit einen schnellen Zugriff auf die gewünschte Verbindung. Mehrere gleichzeitige Verbindungen werden in eigenen Tabs sortiert, für mehr Übersichtlichkeit und schnelle Wechsel.

Monocaffe unterstützt aktuell folgende Verbindungstypen:

  • SSH
  • VNC
  • RDP
  • FTP
  • Telnet
  • SSH Tunnel

Die eingetragenen Verbindungen können exportiert und an anderer Stelle wieder importiert werden, so ist es recht bequem machbar, dass man zwei Installationen von Monocaffe auf unterschiedlichen PCs auf dem gleichen Stand hält. Darüber hinaus erlaubt es Monocaffe Befehle auf alle geöffneten Verbindungen zu publizieren, um ein und den selben Aufruf in allen SSH Verbindungen (z.B.) auszuführen.

Monocaffe ist unter GPLv3 veröffentlicht, fertige Pakete für Debian/Ubuntu Systeme stehen auf der Downloadseite zur Verfügung. Ein ideales Tool für Alle, die häufig mit Servern und unterschiedlichen Verbindungstypen zu tun haben.

Wichtige Links im Überblick:


© nodch.de 2004-2010
(Digital Fingerprint: c8852a572a3164bae81758859bb9f2b4)

Da mir F-Spot zu Mono-lastig ist, habe ich mich auf die Suche nach Alternativen begeben. Solang ist mir noch zu sehr Alpha, d. h. es ist öfters mal abestürzt… Schlussendlich bin ich bei Shotwell hängen geblieben.

Shotwell ist eine schlanke und leistungsfähige Bildverwaltungssoftware die sich gut in den Gnome Desktop einfügt.

Shotwell Hauptfenster

Features

Import-Unterstützung von über 1000 Kameramodellen dank libgphoto2
Zoom Funktion für Vorschaubilder
Integrierte Bildbearbeitungsfunktionen
Veröffentlichung von Bildern bei Facebook, Flickr und Picasa
Chronologische Ablage von Fotos (Analog zu F-Spot)
Taggen von Fotos
Diashow

Fotobearbeitungsfunktionen

Drehen
Zuschneiden
Rote Augen entfernen
Anpassen (Sättigung, Beleuchtung etc.)
Automatische Bildverbesserung

Bildbearbeitung / Anpassen

Installation

Debian/Sidux

Debian Squeeze bzw. Sid:
aptitude install shotwell

Ubuntu, Opensuse, Fedora, restl. Distributionen siehe Anleitung auf der Shotwellseite.


Weiterführende Links

Userguide
Wiki

Kurzes Fazit

Soweit bin ich wirklich zufrieden mit Shotwell, es stürzt nicht ab und bietet mir alle benötigten Funktionen. Einzig und allein eine Skalier-Funktion (als zusätzliches Schmankerl ;) ) fehlt mir noch, da aber die Software weiterentwickelt wird, ist es sicherlich nur eine Frage der Zeit, bis dieses Feature implementiert wird.


Durch das baldige Release von Ubuntu Lucid Lynx möchte ich euch 3 neue Tutorials schreiben: VDPAU mit 10.04VDR mit VNSI-Server (schnellere Umschaltzeiten) und XBMC mit VDR-Frontend (VNSI-Plugin). Damit nutzen wir selbstverständlich eine neuere verbesserte Version von XMBC pvr-testing2. :mrgreen:

Voraussetzung:

  • Ubuntu Lucid Lynx (10.04)
  • Ubuntu 10.04 – NVIDIA VDPAU (HowTo)
  • Ubuntu – DVB-S2 – Treiber s2-liplianin installieren (HowTo)

Zuerst fangen wir an unser VDR in der Version 1.7.14, vorzubereiten und…

sudo su -
aptitude install libfreetype6-dev libfontconfig1-dev libjpeg62-dev libcap-dev libncurses5-dev libncursesw5-dev unzip gettext subversion
cd /usr/src
<div>wget ftp://ftp.tvdr.de/vdr/Developer/vdr-1.7.14.tar.bz2
tar xvfj vdr-1.7.14.tar.bz2
ln -s vdr-1.7.14 vdr

Jetzt löschen wir die nicht benötigten <strong>Default Plugins</strong> und… <!–more–>

rm -Rf /usr/src/vdr/PLUGINS/src/*

…laden den Source Code des VNSI-Server Plugins.

cd /usr/src/vdr/PLUGINS/src
svn co http://xbmc.svn.sourceforge.net/svnroot/xbmc/branches/pvr-testing2/xbmc/pvrclients/vdr-vnsi/vdr-plugin-vnsiserver vnsi

Wir benötigen noch den aktuellen ExtensionPatch für unser VDR.

cd /usr/src/vdr
wget http://copperhead.vdr-developer.org/downloads/extensionpatch/ExtP-NG-vdr-1.7.14-V5.diff
patch -p1 < ExtP-NG-vdr-1.7.14-V5.diff

Nun erstellen wir das Make.config File und…

cp Make.config.template Make.config

…können ein paar Variablen anpassen.

vi Make.config
DVBDIR   = /usr/src/s2-liplianin
MANDIR   = /usr/local/man
BINDIR   = /usr/local/bin
LOCDIR   = /usr/share/locale
PLUGINDIR= ./PLUGINS
PLUGINLIBDIR= /usr/local/lib
VIDEODIR = /etc/vdr/video
CONFDIR  = /etc/vdr

Jetzt heißt es Daumen drücken beim kompilieren!

make clean && make clean-plugins && make && make plugins && make install

Nach erfolgreicher Kompilierung erstellen wir die allowed_hosts.conf, …

rsync -avP /usr/src/vdr/PLUGINS/src/vnsi/vnsi-server /etc/vdr/plugins/

…in der Datei legen wir die IP-Adressen fest die den Stream empfangen dürfen

vi /etc/vdr/plugins/vnsi-server/allowed_hosts.conf

Sollte noch keine channels.conf vorhanden sein können wir noch einen Sendersuchlauf starten. (Download)

aptitude install dvb-apps
scan -o vdr /usr/share/dvb/dvb-s/Astra-19.2E > /etc/vdr/channels.conf

Zu guter Letzt starten wir unser VDR.

/usr/local/bin/vdr -d -P vnsiserver

Seit einigen Jahren werden immer mehr kreative Inhalte unter Lizenzen wie den Creative Commons veröffentlicht. Während sich diese Lizenzen bei schriftlichen Inhalten oder Musik mehr und mehr durchsetzen, bleiben filmische Werke unter diesen rar. Inzwischen gab es auch die ein oder andere Veranstaltung, auf der freie Filme bzw. unter Creativ Commons lizensierte Filme gezeigt wurden. Aber die Auswahl zumindest was sogenannte programmfüllende Filme betrifft bleibt rar. Deshalb werden da immer wieder die gleichen Filme gezeigt, sei es nun CH7Route66, StarWreck in the Pirkening und neuerdings Valkaama.

Ist die Schöpfung von filmischen Werken als Open Source überhaupt möglich, was macht einen Film überhaupt zu Open Source und gibt es Möglichkeiten, mit derartigen Werken überhaupt Geld zu verdienen oder ist es chancenlos? Der Vortrag gibt einen Überblick über die Welt der freien Filme und zeigt Möglichkeiten der Finanzierung derartiger Projekte auf. Welche Arbeitsweisen und -methoden aus der Welt der freien Software sind überhaupt auf die Schaffung von Filmen übertragbar? Das sind eine Menge Fragen, die werde ich aber nicht hier sondern in ich werde versuchen diese in meinem Vortrag auf dem LinuxTag zu klären. Also wen das interessiert, der kann ja am Samstag den 12. Juni 2010 um 10.00 Uhr im Saal Berlin I auf dem LinuxTag vorbeischauen.

Linux – AHA hat die erst Auszeichnung gewonnen. Naja, es ist nicht direkt eine Auszeichnung – aber wir fühlen uns extrem geehrt.

Am letzten Samstag ist Linux-AHA auf planet.ubuntuusers.de aufgenommen worden. Der “planet” zeigt quasi ausgewählte Blogs rund um Ubuntu, Linux und OSS auf einer Seite zusammen geführt. Dabei heraus kommt ein Mix aus diversen Themen, von diversen Autoren mit diversen Stilen. Eine oft interessante Mischung mit einigen AHAs ;-)

Ich hoffe, dass wir unseren Teil dazu beitragen können und wie gesagt – wir fühlen und geehrt!

Spielen auf dem PC mag ich gar nicht. Selten nehme ich mir Zeit dafür. Es gibt aber auch Ausnahmen, zu denen ich mich hinreissen lasse. Eine davon bildet der Film Tron aus dem Jahre 1982, der damals als erster “teil-computer-animierter” Film in die Kinos kam. Zu der Zeit war ich noch jung und kräftig; ich war mitten in der Berufslehre zum Zimmermann. Heute bin ich nur noch und. Jener Film hat mir sehr gut gefallen, nicht nur wegen der damals neuartigen Animation, sondern vor allem wegen der Handlung. In diesem Film gibt es eine bekannte Szene – hierzu gibt es auf Youtube ein Video -, in der die Guten gegen die Bösen mit digitalen Motorrädern “kämpfen”. Daraus sind dann jene Spiele entstanden, darunter auch eines, das unter Ubuntu in den Quellen vorhanden ist.

Das Paket dazu heisst armagetronad und es lässt sich wie gewohnt ganz einfach installieren:

sudo apt-get install armagetronad

Mir gefällt daran besonders gut, dass sich das Spiel im lokalen Netzwerk spielen lässt, ohne dass ein Spielserver vorhanden sein muss. Jeder Computer kann die Rolle des Spielservers übernehmen. Das Spiel fordert keine grossartigen, akrobatischen Hochleistungen im Bereich der Intelligenz, aber es macht trotzdem Spass. Nach einer gewissen Zeit wird das Spiel dann aber doch etwas langweilig. Aber immerhin wird die räumliche Vorstellungskraft etwas trainiert.

Das Spiel lässt sich sehr fein konfigurieren, auch mehrere Spieler können miteinander am gleichen Rechner oder im LAN, beziehungsweise über das Internet spielen.

Noch viel besser gefällt mir die Aussicht auf die neue Verfilmung (oder vielmehr die Produktion) der Geschichte von Tron. Erwartet wird Tron 2010 im Dezember 2010 in den Kinos. Ich hoffe, dass aufgrund der enormen Verbesserungen der Technik, um solche animierten Filme zu erzeugen, der Inhalt nicht zu untergeordnet daherkommt. Denn Tron 2010 soll von Walt Disney als 3D-Film produziert werden. Nach dem Vorschaufilm zu urteilen, fügt sich die Handlung des neuen Films an diejenige des ersten Films an.

PDF-Datei dieses Artikels erzeugen



Ähnliche Artikel