ubuntuusers.de

16. November 2010

Im Oktober 2010 wurde die Entwicklung der Open Source Software Ramen eingestellt. Bei dieser für Linux, Windows und Mac OS erhältlichen Software handelt es sich um eine Compositing Lösung für Videos. Der derzeitige Entwickler hat einfach keine Zeit mehr für das Projekt. Doch hier sieht man wie ich finde wieder einmal die Vorteile von Open Source. Jeder der es möchte kann sich den Sourcecode schnappen und die Software weiterentwickeln. Der Entwickler teilte das Projekt vor der Einstellung in eine Shared Library und eine GUI welche in Python geschrieben wurde. So können sich andere Projekte auch nur den Sourcecode der Bibliothek schnappen und ihn verwenden. Hoffen wir mal das sich jemand der Weiterentwicklung annimmt. Die offizielle Seite von Ramen ist unter http://ramenfx.org zu finden.

Weitere Informationen gibt es unter:
http://blog.ramenfx.org/blog/
http://www.slashcam.de/artikel/Essays/Ramen-R-I-P.html

Im Oktober 2010 wurde die Entwicklung der Open Source Software Ramen eingestellt. Bei dieser für Linux, Windows und Mac OS erhältlichen Software handelt es sich um eine Compositing Lösung für Videos. Der derzeitige Entwickler hat einfach keine Zeit mehr für das Projekt. Doch hier sieht man wie ich finde wieder einmal die Vorteile von Open Source. Jeder der es möchte kann sich den Sourcecode schnappen und die Software weiterentwickeln. Der Entwickler teilte das Projekt vor der Einstellung in eine Shared Library und eine GUI welche in Python geschrieben wurde. So können sich andere Projekte auch nur den Sourcecode der Bibliothek schnappen und ihn verwenden. Hoffen wir mal das sich jemand der Weiterentwicklung annimmt. Die offizielle Seite von Ramen ist unter http://ramenfx.org zu finden.

Weitere Informationen gibt es unter:
http://blog.ramenfx.org/blog/
http://www.slashcam.de/artikel/Essays/Ramen-R-I-P.html

Den aktuellen -rc1 habe ich verbummelt (wie so einige Versionen davor), aber allmählich wird es Zeit, Mal wieder einen genaueren Blick auf die Entwicklung zu werfen, bevor ich ganz davon abgehängt werde.

Am 1. November wurde die erste Vorabversion des neuen Linux-Kernel veröffentlicht, fast 10.000 Änderungen sind während des Merge Window aufgenommen worden. Besonders bemerkenswert fand Torvalds, dass die Verwendung des Big Kernel Lock (BKL), einem überholten und nur aus Gründen der Kompatibilität bisher beibehaltenen Locking-Mechanismus für den Kernel (siehe „Kernel-Rückblick“, freiesMagazin 06/2008), mittlerweile aus fast allen zentralen Komponenten getilgt ist. Einige Treiber nutzen BKL immer noch, sodass bei einer Kompilierung ohne BKL-Unterstützung trotzdem noch mit Einschränkungen zu rechnen ist. Eine der umfangreichsten Änderungen betrifft die Treiber für das HTC Dream, diese flogen raus da sie nicht mehr aktiv bearbeitet werden und es nach Ansicht Kroah-Hartmans sowieso zweifelhaft ist, ob sie sich überhaupt kompilieren lassen.

-rc2 liegt jetzt auch vor. Trotz der Zeitspanne von zwei Wochen, die hauptsächlich des Kernel Summits und der Linux Plumbers Conference geschuldet sind, liegt die Zahl der Änderungen in einem normalen Rahmen. Einen Löwenanteil daran hat das Verschieben der gesamten tty-Umgebung, die nun einen eigenen Bereich, also ein eigene Unterverzeichnis im Baum des Kernel-Quellcodes, erhalten hat. tty ist die Abkürzung für Teletypewriter, zu deutsch Fernschreiber. Es dient der Darstellung der Linux/Unix-Standardausgabe und reicht Eingaben über die Standardeingabe an Anwendungen und Prozesse weiter. Bislang war tty im Bereich des char-Treibers beheimatet, der die Kommunikation mit zeichenorientierten Geräten wie der seriellen Schnittstelle übernimmt. Grundsätzlich wäre das ja auch passend, allerdings liegt im char-Bereich einiges an überflüssigem Code herum, den aufzuräumen Greg Kroah-Hartman nun offensichtlich begonnen hat.

 

15. November 2010

Gestern habe ich eine Interessante Nachricht unter all meinen Mails gefunden. Der entgültige Termin der Veröffentlichung des Videoeditor Lightworks unter der OpenSource Lizenz steht nun fest.

Der 29 November 2010 wird der Tag des Quellcode-Releases von Lightworks 2010 sein. Für Entwickler soll die Software erst später zugänglich gemacht werden.

Wer es nicht weiß: Lightworks ist ein professionelles Editing und Colour Grading Tool für den Professionellen Einsatz von Filmproduktionen. Bei sehr bekannten Filmen wie: Mission Impossible oder Shutter Island konnte Lightworks schon öfter seine sensationelle Leistung präsentieren.

Die Firma hinter Lightworks ist seit August letzten Jahres Edith Share.

Die schlechte Nachricht: Lightworks wird zunächst nur für Windows  verfügbar sein. Ubuntu (Linux) und Mac OS X Versionen werden vermutlich erst 2011 folgen. Schade eigentlich, aber ein Grund sich noch mehr auf den Editor zu freuen :D

“We are still receiving questions regarding OS support for Lightworks. Currently, Lightworks runs on Windows 7 32-bit and 64-bit, and Windows XP 32-bit. We are looking to port it to Linux and OSX, but this won’t happen until late 2011.”

Lightworks Videoeditor

Demnächst als freier Download erhältlich: Der Video-Editor Lightworks von EditShare.

Weitere Links zum Artikel:

Okay, eigentlich geht der Spruch anders aber hier passt er. Wir haben die letzten Tage und Wochen wieder viele Änderungen auf den Weg gebracht und nach und nach online gestellt. Hauptsächlich betrifft dies Fehlerbehebungen und kleinere Detailänderungen. Anschließend eine kleine Liste:

Größere Änderungen
  • #193: Das Design des Planeten wurde überarbeitet
  • #36: Wir haben im Wiki die Anordnung der Buttons und Auswahllisten im Editor überarbeitet
Kleinere Änderungen
  • #137: Benutzer, die einen Artikelvorschlag einreichen, werden nun zusätzlich via privater Nachricht über die Lösung/Umsetzung des Vorschlages benachrichtigt
  • #155: Wenn zu einem nicht existenten Artikel ein Artikel in der Baustelle existiert wird nun darauf hingewiesen
  • #191: Das CSS Style-Attribut max-width wird nun nicht mehr durch den CSS-Filter entfernt
  • #163: Die Schriftart des Portals wurde nun auf die Systemschrift sans-serif umgestellt

Weitere Tickets die behoben wurden: #183, #147, #205, #198, #192, #190

14. November 2010

Auf der openrheinruhr.de habe ich gestern einen sehr interessanten Vortrag über Greylisting von Evgeni Golov gehört.


Ich selber hatte bis vor einigen Stunden noch eine Kombination aus Black- & Greylisting + SpamAssassin + ClamAV. Das Problem welches einige kennen ist, dass E-Mails dadurch ggf. verloren gehen oder zumindest verzögert werden, wenn ein "guter" Absender auf einer Blacklist kommt.

Das gewichtetet Greylisting erweitert das normale Greylisting um eine selektive Komponente, somit wenden nur auffällige Sender (welche in einer DNSBL (Blackliste) ist, nicht RFC-konformes EHLO übergibt etc...) werden gegreylisted. Das heißt, dass dem Absender mitgeteilt wird, dass momentan die E-Mail nicht zugestellt werden kann und er es gleich noch einmal versuchen soll, alle anderen werden durchgelassen. Spamer kommen jedoch (noch) nicht noch-einmal, um die selbe E-Mail ein zweites Mal zuzustellen.

Normalerweise werden bei "normalem" Greylisting unbekannten Absender direkt temporär abgewiesen und dessen Reaktion abgewartet. Bei dem "gewichtetem" (intelligentem) Greylisting wird der erste Zustellversuch zunächst analysiert. Anhand dieser Analyse wird entschieden, ob die E-Mail sofort angenommen werden soll oder ob Greylisting zum Einsatz kommt und die E-Mail somit mit einem temporären Fehler abgelehnt wird.


die Analyse:
  1. Absender hat bereits eine E-Mail erfolgreich zugestellt -> E-Mail sofort annehmen
  2. Absender in einer bekannten Whitelist -> E-Mail sofort annehmen
  3. Absender in einer bekannten Blacklist -> Greylisting
  4. Absender verwendet einen nicht standardkonformen Namen im SMTP-HELO, Absender kommt aus einem DialUp-Netzwerk etc... -> Greylisting
  5. SPF-Check (Sender Policy Framework) schlägt fehl -> Greylisting
  6. ansonsten -> E-Mail annehmen
Golov2009a.pdf (docs.google.com) -> S.42


Bley verwendet die Policy-Daemon-Schnittstelle des SMTP-Servers Postfix und ist somit leicht in existierende Umgebungen integrierbar bzw. "policyd-weight" zu ersetzen.
Als Vergleich wurde "bley" & "policyd-weight" auf einem Server mit ca 20.000 E-Mails/Tag getestet, dabei filterte policyd-weight 97,5% der E-Mails als Spam, bley 97%, der Vorteil von bley ist jedoch, dass E-Mails ggf. nicht Verzögert und nicht verloren gehen.
Für den praktischen Einsatz wird die Kombination von bley mit einer inhaltsbasierten Spam-Erkennung (z.B. SpamAssassin) vorgeschlagen. Dadurch, dass bley bereits die meisten Spam-Mails mit minimalem Rechenaufwand auf Protokollebene abweisen kann, müssen rechenaufwändige inhaltsbasierte Verfahren (z.B. SpamAssassin) nur noch auf eine sehr viel geringere Zahl von E-Mails angewendet werden.


Es folgt noch ein kurzes How-To: icon wink bley   gewichtetes Greylisting + Cache debian


Software nachinstallieren:

aptitude install python-setuptools python-twisted-core python-twisted-names python-spf python-psycopg2 postgresql python-pgsql

bley herunterladen und entpacken:

cd /usr/src
mkdir bley && cd bley
wget http://bley.mx/download/bley-0.1.4.tar.gz
tar xzvf bley-0.1.4.tar.gz
cd bley-0.1.4/

Datenbank anlegen:

su postgres
createuser bley
Enter password for new role: ********
Enter it again: ********
Shall the new role be a superuser? (y/n) n
Shall the new role be allowed to create databases? (y/n) n
Shall the new role be allowed to create more new roles? (y/n) n
 
createdb --owner=bley bley
 
exit

bley installieren:

python setup.py build
python setup.py install
 
cp -vp build/scripts-2.6/bley /usr/bin/

Konfiguration anpassen (Datenbank -> Passwort):

vim /etc/bley/bley.conf

Autostart für bley anlegen:

vim /etc/init.d/bley
#! /bin/sh
### BEGIN INIT INFO
# Provides:          bley
# Required-Start:    $remote_fs $syslog
# Required-Stop:     $remote_fs $syslog
# Default-Start:     2 3 4 5
# Default-Stop:      0 1 6
# Short-Description: bley initscript
# Description:       intelligent greylisting daemon for Postfix.
### END INIT INFO
 
# Author: Evgeni Golov <evgeni@debian.org>
 
# Do NOT "set -e"
 
# PATH should only include /usr/* if it runs after the mountnfs.sh script
PATH=/sbin:/usr/sbin:/bin:/usr/bin
DESC="intelligent greylisting daemon for Postfix"
NAME=bley
DAEMON=/usr/bin/$NAME
DAEMON_ARGS=""
DAEMON_USER=$NAME
PIDFILE=/var/run/$NAME/$NAME.pid
SCRIPTNAME=/etc/init.d/$NAME
 
# Exit if the package is not installed
[ -x "$DAEMON" ] || exit 0
 
# Read configuration variable file if it is present
[ -r /etc/default/$NAME ] && . /etc/default/$NAME
 
# Load the VERBOSE setting and other rcS variables
. /lib/init/vars.sh
 
# Define LSB log_* functions.
# Depend on lsb-base (>= 3.0-6) to ensure that this file is present.
. /lib/lsb/init-functions
 
# Add pidfile to DAEMON_ARGS
DAEMON_ARGS="-p $PIDFILE $DAEMON_ARGS"
 
#
# Function that starts the daemon/service
#
do_start()
{
	# Return
	#   0 if daemon has been started
	#   1 if daemon was already running
	#   2 if daemon could not be started
 
	# prepare /var/run/bley which can be gone if /var/run is cleaned on reboot
	if [ ! -d /var/run/bley ]; then
		mkdir /var/run/bley
		chown bley:bley /var/run/bley
	fi
 
	# start bley
	start-stop-daemon --start --quiet --pidfile $PIDFILE --startas $DAEMON --test > /dev/null \
		|| return 1
	start-stop-daemon --start --quiet --pidfile $PIDFILE --chuid $DAEMON_USER --startas $DAEMON -- \
		$DAEMON_ARGS \
		|| return 2
	# Add code here, if necessary, that waits for the process to be ready
	# to handle requests from services started subsequently which depend
	# on this one.  As a last resort, sleep for some time.
}
 
#
# Function that stops the daemon/service
#
do_stop()
{
	# Return
	#   0 if daemon has been stopped
	#   1 if daemon was already stopped
	#   2 if daemon could not be stopped
	#   other if a failure occurred
	start-stop-daemon --stop --quiet --retry=TERM/30/KILL/5 --pidfile $PIDFILE --name $NAME
	RETVAL="$?"
	[ "$RETVAL" = 2 ] && return 2
	# Wait for children to finish too if this is a daemon that forks
	# and if the daemon is only ever run from this initscript.
	# If the above conditions are not satisfied then add some other code
	# that waits for the process to drop all resources that could be
	# needed by services started subsequently.  A last resort is to
	# sleep for some time.
	start-stop-daemon --stop --quiet --oknodo --retry=0/30/KILL/5 --exec $DAEMON
	[ "$?" = 2 ] && return 2
	# Many daemons don't delete their pidfiles when they exit.
	rm -f $PIDFILE
	return "$RETVAL"
}
 
case "$1" in
  start)
	[ "$VERBOSE" != no ] && log_daemon_msg "Starting $DESC" "$NAME"
	do_start
	case "$?" in
		0|1) [ "$VERBOSE" != no ] && log_end_msg 0 ;;
		2) [ "$VERBOSE" != no ] && log_end_msg 1 ;;
	esac
	;;
  stop)
	[ "$VERBOSE" != no ] && log_daemon_msg "Stopping $DESC" "$NAME"
	do_stop
	case "$?" in
		0|1) [ "$VERBOSE" != no ] && log_end_msg 0 ;;
		2) [ "$VERBOSE" != no ] && log_end_msg 1 ;;
	esac
	;;
  status)
       status_of_proc "$DAEMON" "$NAME" && exit 0 || exit $?
       ;;
  restart|force-reload)
	log_daemon_msg "Restarting $DESC" "$NAME"
	do_stop
	case "$?" in
	  0|1)
		do_start
		case "$?" in
			0) log_end_msg 0 ;;
			1) log_end_msg 1 ;; # Old process is still running
			*) log_end_msg 1 ;; # Failed to start
		esac
		;;
	  *)
	  	# Failed to stop
		log_end_msg 1
		;;
	esac
	;;
  *)
	echo "Usage: $SCRIPTNAME {start|stop|status|restart|force-reload}" >&2
	exit 3
	;;
esac
 
:
chmod +x bley
 
update-rc.d bley defaults

User anlegen & Rechte setzen:

adduser --system --quiet --disabled-password --no-create-home --home "/var/run/bley" --gecos "intelligent greylisting daemon for Postfix" --group bley
chown root:bley /etc/bley
chmod 750 /etc/bley
chown bley:bley /etc/bley/bley.conf
chmod 600 /etc/bley/bley.conf
vim /etc/bley/bley.conf

log_file = /var/log/bley/bley.log

cd /var/log
mkdir bley
chown bley:bley bley/
mkdir /var/run/bley
chown bley:bley /var/run/bley
/etc/init.d/bley start

Postfix anpassen:

vim /etc/postfix/main.cf
smtpd_recipient_restrictions =
        permit_mynetworks,
        permit_sasl_authenticated,
        #reject_invalid_hostname,
        #reject_unknown_recipient_domain,
        #reject_unauth_pipelining,
        reject_unauth_destination,
        #reject_non_fqdn_hostname,
        #reject_non_fqdn_sender,
        #reject_non_fqdn_recipient,
        #reject_unknown_sender_domain,
        #reject_unknown_recipient_domain,
        #reject_unauth_pipelining,
        #reject_unauth_destination,
        #check_client_access hash:/etc/postfix/rbl_override,
        check_policy_service inet:127.0.0.1:1337,
        ##check_policy_service inet:127.0.0.1:12525,
        #reject_rbl_client multi.uribl.com,
        #reject_rbl_client dsn.rfc-ignorant.org,
        ##reject_rbl_client dul.dnsbl.sorbs.net,
        #reject_rbl_client list.dsbl.org,
        #reject_rbl_client sbl-xbl.spamhaus.org,
        #reject_rbl_client bl.spamcop.net,
        ##reject_rbl_client dnsbl.sorbs.net,
        #reject_rbl_client cbl.abuseat.org,
        ##reject_rbl_client ix.dnsbl.manitu.net,
        #reject_rbl_client combined.rbl.msrbl.net,
        #reject_rbl_client rabl.nuclearelephant.com,
        permit

Wonach wurde gesucht?

Ähnliche Blog-Einträge

Vor Kurzem ist Linux Mint in einer neuen Version (Mint 10 “Julia”) erschienen. Wenngleich die Distribution auf dem (sicherlich bekannteren) Ubuntu basiert, ist Linux Mint in der letzten Zeit mehr und mehr für mich zum “besseren Ubuntu” geworden.

Viele Entscheidungen, die ich bei der Ubuntu-Entwicklung nicht verstanden habe (z.B. die Minimieren und Schließen Buttons auf der Linken Seite, die Wahl des Instant-Messangers Empathy statt dem übersichtlicheren Pidgin, Ubuntu One oder die - künftige - Einbindung von Unity) wurden bei Mint anders gelöst. Die positive Entwicklung setzt sich meiner Meinung nach auch mit Mint 10 fort. Die meisten größeren Änderungen betreffen die Verbesserung der Usability. So lassen sich beispielsweise über den Begrüssungsbildschirm schnell und einfach fehlende Codecs installieren. Die (De)Installation von ist dank des kategorisierten Softwarecenters sehr simpel, neue Programme werden im Startmenü (wie von Windows her bekannt) gesondert hervorgehoben. Da auch das Menü in Kategorien unterteilt ist, wirkt es sehr aufgeräumt und auch Einsteiger sollten sich schnell zurecht finden. Zudem wurde der Update-Manager verbessert, sodass auf Wunsch auch nur bestimmte Pakete aktualisiert werden können.

Screenshots

Fazit: Die neue Version von Mint Linux kann ich nur jedem an’s Herz legen, der direkt ein einsatzbereites System haben möchte, denn die DVD bringt eigentlich alle nötigen Programme für den normalen PC-Gebrauch mit. Auch Windows-Umsteiger haben mit dem System sicherlich ihre Freude. Mir persönlich gefällt der Mix aus dunklen, hellgrauen und Grüntönen beim Mint-Theme besser als das dunklere Ubuntu-Design. Der Erfolg gibt Mint offenbar Recht, denn aktuell sind die Downloadserver so überlastet, dass im Blog bereits weitere Ausweichquellen gepostet wurden =): http://blog.linuxmint.com/?p=1587

Die Wichtigsten Neuerungen:

Verbesserungen im Hauptmenü

  • Neu installierte Programme werden hervorgehoben
  • Finde und installiere Programme aus den Paketquellen
  • Integration von Internet-Suchmaschinen
  • Unterstützung von GTK-Favoriten
  • Unterstützung von GTK-Themen

Softwareverwaltung

  • Programm-Icons
  • Verbesserte Kategorisierung

Aktualisierungsverwaltung

  • Ignoriere Updates
  • Grösse der Updates

Uploadmanager

  • Verbesserte Benutzeroberfläche
  • Überprüfung der Verbindung
  • Upload abbrechen / im Hintergrund durchführen

Optische Verbesserungen Verbesserungen im System ** ** Systemanforderungen

  • x86-Prozessor (für 32-bit-Version)
  • x86_64-Prozessor (für 32- und 64-bit-Version)
  • 256 MB Ram
  • 5 GB freier Speicherplatz
  • Grafikkarte, Monitor mit min. 800x600 Pixeln
  • CD/DVD-Laufwerk oder USB-Anschluss

Gebt Mint eine Chance! ;-)

Firefox 4

Vor kurzer Zeit ist die nächste Betaversion von Firefox, mittlerweile die siebte, erschienen. Ich habe mir diesmal wieder die Zeit genommen und mir die Neuerungen etwas näher angesehen.

Auf der Willkommensseite zur siebten Betaversion wird überwiegend mit dem neuen JavaScript Engine JägerMonkey angegeben. Dieser lässt Javascriptanwendungen schneller laufen. Das ist gerade in der heutigen Zeit, in der immer mehr Internetauftritte mit Javascript und Ajax daherkommen, sehr wichtig.

Doch nun zu den offensichtlichen Neuerungen:

Wie auch in den Betaversionen davor sind die Tabs oberhalb der Adresszeile angeordnet. Über Sinn und Unsinn dieser Maßnahme haben wir bereits vor ein paar Wochen geschrieben.

App-Tab

App-Tab

Die App-Tabs wurden verbessert. Unter einem App-Tab versteht man einen kleinen, statischen Tab, den Firefox auf der linken Seite der Tableiste anbringt. Dieser hat die Absicht, Internetseiten, die überwiegend wegen ihrer Funktion geöffnet sind, klein, unauffällig und dennoch erreichbar anzuordnen. Zu dieser Art von Internetseiten gehören z.B. Internetradios, Twitter sowie weitere soziale Netzwerke.
Einen normalen Tab kann mit über das Kontextmenü als App-Tab anpinnen. Was mir aufgefallen ist: Sollte irgendetwas auf der Seite passieren, während sie im Hintergrund ist, wird sie farblich hervorgehoben (sie Screenshot am Twitter-Tab).

Firefox-Sync

Firefox-Sync ist da! Um ehrlich zu sein, weiß ich nicht seit welcher Beta, aber jetzt ist es auf jeden Fall drin. Diese Funktion entstammt den berühmt berüchtigten Mozilla Labs und geht aus dem Projekt Firefox Weave hervor. Es handelt sich dabei um einen Dienst mit dem man (über eine verschlüsselte Verbindung) seine Lesezeichen mit einem Mozillaserver synchronisiert. Dies hat den Nutzen, dass man an einem beliebigen PC mit Firefox 4 seine Lesezeichen von Zuhause dabei hat. Der Clou: Wenn man möchte, kann man auch einen eigenen Server dazu verwenden. Man braucht dazu eigentlich nichts weiter als einen Server mit PHP, einer MySQL und dem Server von der Mozilla-Homepage.

Panorama

Die Funktion von Panorama habe ich mehr oder weniger zufällig gefunden. Es handelt sich dabei um das Projekt, was früher unter dem Namen Tab Candy eingeführt wurde. Gott sei Dank wurde es umbenannt. Über Strg + E gerät man in eine Übersicht aller geöffneten Tabs. Ganz Apple-like findet man dort auch gleich ein erklärendes Werbevideo dazu: Auf dieser „Schreibtischoberfläche“ kann man seine geöffneten Tabs in Gruppen gliedern. Ganz einfach via drag&drop aus der Mappe herausziehen, und entweder auf den Schreibtisch oder in eine schon bestehende Mappe legen. Das ist für diejenigen ganz praktisch, die gleich 100 Sachen gleichzeitig im Internet erledigen wollen und früher unter der Tabflut ertrunken sind. Jetzt kann man z.B. eine Mappe für die geöffneten sozialen Netzwerke und eine für Blogs aufmachen. Wenn man in dieser Darstellung ist, genügt ein Klick auf eine der Internetseiten und sie öffnet sich. Und um sie herum finden sich Tabs mit den restlichen Seiten aus der Mappe.

Firefox 4 mit der Funktion „Panorama“. Sie ermöglicht das gruppieren von Tabs.

Kleinigkeiten

Der Adresszeie wurde nun auch die Funktionen der Statusleiste anvertraut.

Der Reload- bzw- Stopp-Button ist verschwunden… äh, gewandert! Er findet sich bei genauerer Betrachtung des Bildschirms nun rechts direkt neben der Adresszeile

Die Statuszeile ist weg. Endlich! Bei Widescreen-Bildschirmen hat sie eh nur genervt, aber ausblenden hatte zur Folge, dass man bei Mouseover nicht mehr das Ziel eines Linkes sah. Jetzt ist es in den rechten Teil der Adresszeile gewandert: In hellgrauer Schrift sieht man dort das Ziel des Links.

Wenn man in der Tableiste eine Adresse eingibt, die bereits in einem anderen Tab geöffnet ist, fragt Firefox nach, ob man dorthin möchte. Das verhindert das versehentliche öffnen von ein und derselben Seite mehrmals im Browser.

Die Frage, ob Firefox ein Passwort speichern soll oder nicht, kommt nicht mehr über eine Leiste oberhalb der Internetseite, sondern über ein kleines Dialogfenster im oberen Fensterbereich.

Was noch fehlt, aber kommen soll

Bisher fehlt noch die Verlegung von Chronik und Downloads in Tabs. Der Addon-Manager hat es bereits geschafft, aber die beiden erstgenannten benötigen weiterhin eigene Fenster. Mir war lange Zeit auch schleierhaft, ob diese Maßnahme sinnvoll ist oder nicht, aber seitdem ich Chromium als primären Browser nutze, (dort läuft bereits dies alles über Tabs) habe ich den Sinn erkannt: Es ist einfach aufgeräumter. Der Single-Window-Effekt macht sich hier bezahlt.

Was bei den App-Tabs noch fehlt ist die strengere Handhabung. Wenn ich das richtig verstanden habe, dürfte es eigentlich nicht möglich sein, einen App-Tab über einen Link daraus heraus zu ersetzen.

Wer an eine vollständigen Liste der Neuerungen interessiert ist, sei hier glücklich.

Seit gestern gibt es auf http://weltkarte.invertika.org die neue Webapplikation zur Darstellung der der Invertika Karte. Die alte Version hatte ein paar Probleme welche sich nicht einfach ausbessern ließen. So wurde der Beschluss gefasst, das ganze auf Basis des YUI Frameworks neuzuschreiben. Das Framework bietet dabei eine genügende Abstraktion von den unterschiedlichen Browsern so das nun auch Touchscreengeräte unterstützt werden.

Beim Redesign gab es einige Designziele:

- Unterstützung von Touchscreengeräten
- Zoom der Karte ohne Reload der Seite
- Zoom mittels Mausrad
- Anpassung der Zoomstufe beim Start anhand der Clientauflösung.
- Verschiebbares Infopanel
- ansprechenderes Design (das alte Design war doch etwas grobschlächtig)

Einige Dinge haben es allerdings noch nicht in die neue Version geschafft, so wird z.B noch nicht angezeigt welche Musik auf der Karte gespielt wird, wobei dies mit der dahinterliegenen Datenbank zusammenhängt und so ohne Anpassung an der eigentlichen Applikation ergänzt werden kann. Die Anwendung (worldmap genannt), ist dabei wie schon der Vorgänger unter die GPL gestellt worden.

Für alle die jetzt gar nicht wissen was Invertika ist noch eine kurze Erklärung. Bei Invertika handelt es sich um ein freies Open Source MMORPG in deutscher Sprache. Der Client ist dabei für Linux, Windows und Mac OS verfügbar. Die offizielle Seite ist unter http://invertika.org zu finden.

Seit gestern gibt es auf http://weltkarte.invertika.org die neue Webapplikation zur Darstellung der der Invertika Karte. Die alte Version hatte ein paar Probleme welche sich nicht einfach ausbessern ließen. So wurde der Beschluss gefasst, das ganze auf Basis des YUI Frameworks neuzuschreiben. Das Framework bietet dabei eine genügende Abstraktion von den unterschiedlichen Browsern so das nun auch Touchscreengeräte unterstützt werden.

Beim Redesign gab es einige Designziele:

- Unterstützung von Touchscreengeräten
- Zoom der Karte ohne Reload der Seite
- Zoom mittels Mausrad
- Anpassung der Zoomstufe beim Start anhand der Clientauflösung.
- Verschiebbares Infopanel
- ansprechenderes Design (das alte Design war doch etwas grobschlächtig)

Einige Dinge haben es allerdings noch nicht in die neue Version geschafft, so wird z.B noch nicht angezeigt welche Musik auf der Karte gespielt wird, wobei dies mit der dahinterliegenen Datenbank zusammenhängt und so ohne Anpassung an der eigentlichen Applikation ergänzt werden kann. Die Anwendung (worldmap genannt), ist dabei wie schon der Vorgänger unter die GPL gestellt worden.



Für alle die jetzt gar nicht wissen was Invertika ist noch eine kurze Erklärung. Bei Invertika handelt es sich um ein freies Open Source MMORPG in deutscher Sprache. Der Client ist dabei für Linux, Windows und Mac OS verfügbar. Die offizielle Seite ist unter http://invertika.org zu finden.

13. November 2010

skweez.net 13. November 2010 12:04

Jag

Jag ist ein typisches Spiel für zwischendurch. Man sitzt vor einem Gebilde aus Steinen, die man versuchen muss durch geschicktes vertauschen der Nachbarsteine zum Einsturz zu bringen. Dabei müssen mindestens drei gleiche Steine in einer Reihe bzw. Spalte sein. Sobald dies zutrifft, explodieren die Steine und neue kommen von oben nach. Bedingung ist jedoch, dass nach jedem Zug mindestens ein Gebilde explodiert, ansonsten ist der Zug ungültig. Um das Spiel zu gewinnen, muss man Steine an bestimmten stellen ein bzw. zweimal zum Explodieren bringen, so die Grundidee. Damit das Spiel auf lange Sicht nicht zu öde wird, gibt es spezielle Steine und Werkzeuge, die man durch sammeln von Punkten freischalten kann. Auf diese Werkzeuge ist man ab und zu angewiesen, da ansonsten der Countdown einem Einholt.

Jag in Aktion

Ein nettes Feature ist, wenn das Fenster den Fokus verliert, dass das Spiel dann wie bei manchen GNOME-Spielen pausiert und das Spiel erst bei einem Klick auf die entsprechende Schaltfläche fortgeführt wird. Zudem gibt es noch einen Leveleditor, an dem man sich neue Herausforderungen erstellen kann, falls einem mal die Levels ausgehen oder einem die Zusatzlevels auf der Homepage zu langweilig erscheinen.

Für Archlinuxbenutzer steht im AUR bereits ein Paket zur Verfügung. Ubuntu- und Debianbenutzer können sich auf der Downloadseite ein DEB-Paket herunterladen. Daneben stehen noch RPM-Pakete und der Quelltext zur Verfügung.

Ein weiteres nettes Spiel von den Machern von Jag ist Bubble Chains, das ich bis jetzt jedoch unter Archlinux noch nicht zum laufen gebracht habe.

Falls euch das Spiel gefällt, könnt ihr ja den Entwicklern etwas spenden. Einen Spendeknopf findet man direkt auf der Homepage.

Es ist zwar noch relativ zeitig und man kann noch nicht all zuviel über die OpenRheinRuhr, nur soviel die Übernachtung war schon ein Abenteuer. Ich wußte gar nicht das Oberhausen mitten in Afrika liegt, so jedenfalls ist etwa der Standard des Gasthofes. Ansonsten ist die OpenRheinRuhr bisher schon ganz gut besucht und das trotz der Hochwasserprobleme, die es hier derzeit gibt. Dafür gibts aber hier schon mal ein paar Bilder.

Heute hat eine der wichtigsten und folgenreichsten Erfindungen des 20. Jahrhunderts seinen 20. Geburtstag :

Vor exakt 20 Jahren (am 13.11.1990) stellten Tim Berners-Lee und Robert Cailliau die allererste Webseite online.

Ohne die Pioniertat der beiden Informatiker wäre das Internet heute wahrscheinlich immer noch so trostlos und trocken wie vor über 20 Jahren und  es würde heute wahrscheinlich immer noch die proprietären Inseln AOL, Compuserve und MSN geben.

Ich glaube die Beiden haben sich nicht einmal in ihren kühnsten Träumen ausgemalt, welchen Einfluss ihre Erfindung auf die menschliche Kultur haben würde.

12. November 2010

Lange hat es gedauert, aber jetzt ist es geschafft: PackageKit ist in den Quellen von Debian Sid!

PackageKit ist eine Abstraktionsschicht für das distributionseigene Paketmanagement. Es erlaubt z.B. die Entwicklung von Paketmanager-Oberflächen für Fedora, openSUSE und Debian/Ubuntu, ohne geau zu wissen, welches Paketmanagement verwendet wird. So hat man auf jeder Distribution die gleiche GUI zu Verfügung und muss sich kaum umstellen. Zudem hat das weitere Vorteile,  z.B. können Anwendungen im Falle eines Crashes automatisch Debuginformationen nachinstallieren, Multimedia-Player fehlende Codecs automatisch nachrüsten oder aber Anwendungen selbstständig PlugIns nachinstallieren. Außerdem bietet PackageKit ein verbessertes Update-Management und viele weitere Funktionen. PK ist mit seiner Oberfläche KPackageKit Standard in Kubuntu.

Die Paketierung für Debian, welche auch in Ubuntu Natty zu finden sein wird, wurde von mir erledigt. Die wirklich wichtige Arbeit haben aber Richard Hughes und Daniel Nicoletti erledigt. Daniel hat einen Weg gefunden, Debconf in PackageKit zu nutzen und hat diesen auch gleich in KPackageKit implementiert, während Richard Hughes, der Erfinder von PK, die letzten Codeteile geschrieben hat, um dem Kommandozeilentool “pkcon” und GNOME-PackageKit Debconf beizubrigen.

Für die, die jetzt denken “Was zur Hölle ist Debconf, und warum ist das so wichtig?”, hier eine kurze Erklärung: Debconf stellt die (meistens grafischen) Konfigurationsdialoge von Debian-Paketen zu Verfügung. Damit lassen sich z.B. bestimmte Einstellungen direkt setzen, wie z.B. Tastaturlayouts etc. PackageKit hat nun jedoch die Designentscheidung getroffen, dass eine Installation, sobald sie einmal angestoßen ist, auf keinen Fall mehr Fragen an den Nutzer stellen darf und völlig unbeaufsichtigt laufen muss. Alle Fragen müssen vor der Installation gestellt werden, während Debconf das jedoch während der Installation tut. (Und es für Debconf auch technisch unmöglich ist, das vorher zu tun)

Aus diesem Grund haben viele Debian-Entwickler PackageKit als “crap” und “broken by design” abgetan und es gab viele teils sehr emotionale Diskussionen vor allem über die “keine-Fragen-während-der-Installation-Regel”. (auch als “Hughsie’s Law” bekannt) Das ging soweit, dass einige wichtige Leute sich komplett gegen PackageKit sperrten und den Prozess, das Paket in Debian aufzunehmen, blockierten. Inzwischen benutzt PK für Debconf einen Workaround,  PK funktioniert nun also mit absolut allen Debian-Paketen, wodurch die PK-Gegner weniger Argumente hatten :P

Jetzt ist das Paket jedoch “durch”  und Michael Vogt (APT-Entwickler) höchstselbst hat sein okay dazu gegeben. (Michael entwickelt auch das APTd-basierte Ubuntu-Software-Center)

Der Maintainer von SessionInstaller, einer von Debian produzierten Python-basierten Konkurrenzanwendung zu PackageKit hat auch bereits mitgeteilt, das Projekt zu unterstützen bzw. zu helfen die Projekte aufeinander abzustimmen.

Ich bin froh, dass jetzt auch Debian PackageKit hat, was den größten Vorteil von PK, seine Distributionsunabhängigkeit, nun erst richtig zu Geltung bringt. Vielleicht wird sogar das Ubuntu-Software-Center irgendwann auf PackageKit aufbauen. (Es gibt Überlegungen in diese Richtung. Damit könnte das USC von allen anderen Distributionen ebenfalls verwendet werden.)

Danke an alle, die es möglich gemacht haben, PK in Debian zu bringen!

Um allen Gerüchten vorzubeugen: PackageKit ist in den Debian-Repositories, es wird aber keine Standardkomponente einer Debianinstallation sein und auch nicht in Squeeze enthalten sein. (wegen dem aktuellen Freeze)

Applets für den Desktop sind oft nur eine Spielerei und verlangsamen den PC zusätzlich. Anders sieht der Ansatz bei dem Linux-Tool conky aus: Conky ist sehr schlank und - wie bei vielen Programmen unter Linux individuell anpassbar. Dadurch, dass man zum Beispiel die Augaben sämtlicher Befehle auf einfache Weise (nämlich mit dem ${execi}-Befehl) auf dem Desktop anzeigen lassen kann, sind der Fantasie wenig grenzen gesetzt. Dass es folglich viele Beispielkonfigurationen im Netz gibt, brauche ich wohl kaum erwähnen - ein paar Links für Interessierte habe ich im folgenden Abschnitt gesammelt…

Conky-Hilfe

Gute Anlaufstellen für Beispielkonfigurationen

Meine Conky-Config

Natürlich konnte ich es mir nicht entgehen lassen, selbst ein wenig mit Conky herumexperimentieren ;), deswegen möchte ich auch mein Zwischenergebnis hier nicht verschweigen: Meine aktuelle Conky-Konfiguration: Klicke hier für einen Screenshot des gesamten Desktops. Conky Meine .conkyrc (gehört in den Ordner /home/DEINUSERNAME):

background yes
use_xft yes
xftfont Sans:size=8
xftalpha 1
update_interval 1.0
total_run_times 0
own_window yes
own_window_transparent yes
#own_window_type desktop
own_window_hints undecorated,below,sticky,skip_taskbar,skip_pager
double_buffer yes
minimum_size 200 200
maximum_width 200
draw_shades yes
draw_outline no
draw_borders no
draw_graph_borders yes
default_color white
default_shade_color black
default_outline_color white
alignment top_right
gap_x 12
gap_y 50
no_buffers yes
uppercase no
cpu_avg_samples 2
override_utf8_locale yes

TEXT
${font sans-serif:bold:size=8}SYSTEM ${hr 2}
${font sans-serif:normal:size=8}$sysname $kernel $alignr $machine
Host:$alignr$nodename
Uptime:$alignr$uptime
File System: $alignr${fs_type}

${font sans-serif:bold:size=8}PROCESSORS ${hr 2}
${font sans-serif:normal:size=8}${cpugraph cpu1}
CPU1: ${cpu cpu1}% ${cpubar cpu1}
CPU2: ${cpu cpu2}% ${cpubar cpu2}

${font sans-serif:bold:size=8}MEMORY ${hr 2}
${font sans-serif:normal:size=8}RAM $alignc $mem / $memmax $alignr $memperc%
$membar

${font sans-serif:bold:size=8}DISKS ${hr 2}
${font sans-serif:normal:size=8}/ $alignc ${fs_used /} / ${fs_size /} $alignr ${fs_used_perc /}%
${fs_bar /}
SWAP $alignc ${swap} / ${swapmax} $alignr ${swapperc}%
${swapbar}


${font sans-serif:bold:size=8}HEAT ${hr 2}
${font sans-serif:normal:size=8}HDD ${alignr}${execi 30 hddtemp /dev/sda | cut -c 28-29}°C
GPU ${alignr}${execi 30 nvidia-settings -t -q GPUCoreTemp}°C

${font sans-serif:bold:size=8}TOP PROCESSES ${hr 2}
CPU 
${font sans-serif:normal:size=8}${top name 1}${alignr}${top cpu 1} %
${top name 2}${alignr}${top cpu 2} %
$font${top name 3}${alignr}${top cpu 3} %
$font${top name 4}${alignr}${top cpu 4} %
$font${top name 5}${alignr}${top cpu 5} %

${font sans-serif:bold:size=8}MEMORY
${font sans-serif:normal:size=8}${top_mem name 1}${alignr}${top mem 1} %
${top_mem name 2}${alignr}${top mem 2} %
${top_mem name 3}${alignr}${top mem 3} %
${top_mem name 4}${alignr}${top mem 4} %
${top_mem name 5}${alignr}${top mem 5} %

${font sans-serif:bold:size=8}NETWORK ${hr 2}
${font sans-serif:normal:size=8}IP address: $alignr ${addr ppp0}
${downspeedgraph eth0}
DLS:${downspeed eth0} kb/s $alignr total: ${totaldown eth0}
${upspeedgraph eth0}
ULS:${upspeed eth0} kb/s $alignr total: ${totalup eth0}

In der Nacht auf den heutigen Freitag war der große Freeze für die KDE Plattform, Workspaces und Application Releases in Version 4.6. D.h. es dürfen keine neuen Features eingespielt werden und keine Änderung an Texten vorgenommen werden. Die KDE Entwickler Community wird sich nun ganz auf das Stabilisieren und Bugfixing konzentrieren bis zum Release Ende Januar. Die erste Beta Version wird bereits am 24.November erscheinen.

Wie man sich vorstellen kann, war der gestrige Abend noch etwas stressig. Code wollte noch geschrieben werden (sonst müssten die User noch ein halbes Jahr auf ein Feature warten), Review Requests angeschaut, getestet und kommentiert werden und so weiter. Zum Glück ist das Release Team nicht ganz so streng was das Einhalten der Frist angeht und so hat ein KWin Entwickler heute morgen um halb sieben noch einen Commit eingespielt ;-)

Für mich war der 4.6 Entwicklungszyklus auch sehr interessant. Es war der erste Zyklus in dem ich nicht mehr Student bin und musste diese Doppelbelastung auch erst einmal organisiert bekommen. Gerade wenn man als Softwareentwickler arbeitet, hat man ja abends nicht immer die Lust noch einmal zu programmieren. So muss ich leider auch erkennen, dass ich weit weniger für KWin implementieren konnte, als ich mir eigentlich vorgenommen hatte.

Das 4.6 Release ist aus KWin Sicht nun für mich besonders interessant, da es das erste Release ist, bei dem mein Name in den aboutData als Maintainer aufgeführt ist. Natürlich fühle ich mich geehrt Maintainer einer der wichtigsten, ältesten und ausgereiftesten Komponenten des KDE Workspaces sein zu dürfen. Wenn mir jemand vor drei Jahren gesagt hätte, dass ich Maintainer von KWin werde, hätte ich ihn wohl nur verwirrt angeschaut. Aber das ist ja das schöne, dass man nicht in die Zukunft schauen kann.

Trotzdem werde ich das nun machen. Mit dem Freeze hinter sich, hat man mehrere Monate Zeit um sich Gedanken zum nächsten Zyklus zu machen. Was wollen wir in 4.7 neues bieten, worauf sollen wir achten? In den letzten Wochen hat sich für mich angedeutet worauf wir uns konzentrieren müssen. Wayland wird vermutlich kommen, genauso wie ARM. KWin ist hier sicherlich die Anwendung aus dem KDE Lager, welche am stärksten angepasst werden muss. 4.7 wird also der erste Releasezyklus auf dem langen Weg zu Wayland. Insgesamt ist es nicht so viel Arbeit wie ich anfänglich dachte, jedoch wird es sicherlich mindestens zwei Jahre dauern, bis diese Anpassung abgeschlossen sind. Ich hoffe hier vor allem mit den Compiz Entwicklern zusammenarbeiten zu können.

Insgesamt bedeutet das nun eine Verschiebung meiner Implementierungsideen. Wollte ich eigentlich KWin zuerst auf OpenGL ES 1.1 portieren, werde ich die Arbeit daran nun einstellen und direkt auf OpenGL ES 2 gehen. Dies ist nicht nur für mobile Geräte interessant, sondern wird auch benötigt um Wayland zu unterstützen. Alle Änderungen, die ich dabei mache, werden auch direkt für die aktuelle Desktop Version vorteilhaft sein. So plane ich das einfache Rendern von Fenstern (keine Effekte aktiv) auf einen moderneren Code zu heben. Der Shader dafür liegt schon auf Papier niedergeschrieben auf meinem Schreibtisch ;-) Leider ist das auch immer eine Gratwanderung: Optimierung bei einem Treiber kann zu riesigen Performanceproblemen bei einem anderen führen. Da aber der alte Code nicht entfernt wird, sollte es problemlos zurückschaltbar sein.

Interessante Zeiten liegen vor den Entwicklern von s/Fenstermanagern/Compositor/.

=-=-=-=-=
Powered by Blogilo

11. November 2010

Des Öfteren werde ich gefragt, wie ich Podcasts abonniere und warum ich das so mache. Hier kommt die Auflösung.

Nachts um 0:00 Uhr holt das Programm podracer alle Podcasts des vergangenen Tages auf meinem root-Server ab. Obwohl das Programm relativ alt ist, unterstützt es das BitTorrent-Protokoll. Alle Downloads landen im Unterverzeichnis podracer/jjjj-mm-tt (jjjj-mm-tt kennzeichnet natürlich das aktuelle Datum) unterhalb des Homeverzeichnisses. In der Datei .podracer/subscriptions stehen alle Feeds, die heruntergeladen werden sollen, bei mir ist diese Datei ein Link auf die entsprechende Datei in meinem Subversion-Repository. Der Grund dafür, den Download auf dem root-Server zu machen, ist, dass ich so auch die Episoden bekomme, bei denen die Server zum Zeitpunkt der Bereitstellung überlastet sind.

Die so heruntergeladenen Dateien hole ich mir mit der vollen Geschwindigkeit per rsync morgens auf meinen Heimrechner. rsync nutze ich ständig, weil ich damit den Download auch unterbrechen kann, wenn die Zeit nicht reicht. Die Downloads auf dem root-Server werden von mir von Hand gelöscht, das muss noch geändert werden, ist aber auch ein "Sicherheits-Feature". ;-)

Wenn das erledigt ist, kommt die Speicherkarte des mobilen Musikabspielgerätes in den Rechner und ein selbst geschriebenes Skript bringt die Podcasts auf die Karte, das ist ein Riesenvorteil gegenüber dem vorherigen Gerät, das ganze "Kabel-Geraffel" hört damit auf. Das Skript löscht zuerst alle Dateien, die der Player nicht versteht, sagt dann, wie viele Minuten Podcast dazu gekommen sind und wie viele ich insgesamt noch zu hören habe. Anschliessend werden die Dateien noch in Unterverzeichnisse mit den Namen der Podcasts gesteckt, ein Backup per rsync auf dem Rechner gemacht und fatsort aufgerufen, um die Dateien alphabetisch zu sortieren.

Ich hoffe, ich habe nichts vergessen. Im Zweifelsfall bitte nachfragen.

10. November 2010

Nach dem Brandenburger Linux-Infotag steht dieses Wochenende die nächste Veranstaltung ins Haus – die OpenRheinRuhr. Diese findet in diesem Jahr zum zweiten Mal statt, nach dem sie letztes Jahr in Bottrop gestartet ist zieht sie in diesem Jahr nach Oberhausen ins Rheinische Industriemuseum. Dieses kann man übrigens mit der Eintrittskarte für die OpenRheinruhr auch besuchen. Ansonsten gibt es eine Austellungsfläche mit freien Projekten rund um Linux und Open Source, die sich sehen lassen kann. Im Austellungsbereich findet man auch einen Speakers Corner mit Kurzvorträgen rund um freie Software.

Und natürlich ein Vortragsprogramm mit drei paralellen Tracks. Mich findet man auch in diesem ich habe am Sonntag Morgen einen Vortrag zu Inkscape, ja richtig einen Vortrag. Den eingereichten Workshop hat man kurzerhand in einen solchen verwandelt, als Veranstalter hat man es da ja einfach. Ich hingegen mag die Idee eine Software wie Inkscape in einem Vortrag vorzustellen überhaupt nicht. Deshalb werde ich nur wenige Worte über SVG und Inkscape verlieren und den Rest der Zeit lieber zu einer “Leistungsshow” nutzen. Ich werde eine Erweiterung von Inkscape näher vorstellen und ich hoffe man sieht während der Demonstration, wie einfach es ist mit Inkscape zu anspruchsvollen Ergebnissen zu kommen.
Neben mir gibt es natürlich auch noch andere Dinge im Vortragsprogramm, so hat ebenfalls am Sonntag z.B. Charly Kühnast einen Vortrag “Kryptographie durch die Jahrtausende” – eine Geschichtsstunde. Ausserdem gibt es Vorträge zu Kommandozeilenwerzeuge, zu Verschlüsselung, zu jeder Menge freier Software und viele Vorträge zu Groupware.
Also wer am Wochenende Zeit hat um ins Ruhrgebiet zu reisen oder vielleicht von da stammt, das RIM liegt direkt gegenüber des Bahnhof in Oberhausen.

Gibt man unter Linux ein Verzeichnis writable = yes/read only = no frei, erlaubt es den Benutzern das “Schreiben” auf diesem Share. Logischerweise somit auch das “Löschen” von Dateien & Verzeichnissen! Aus diesem Grund passt man sicherheitshalber die smb.conf an, damit gelöschte Dateien & Verzeichnisse nur verschoben werden und diese dann je nach Alter von Hand gelöscht werden können. 8-)

Link: Tips & Tricks: Samba Trash

[share$]
   comment = share$
   path = /home/nico/Share
   guest ok = yes
   browseable = no
   read only = no
        vfs object = recycle
        recycle:repository = .deleted/%U
        recycle:keeptree = Yes
        recycle:touch = Yes
        recycle:versions = Yes
        recycle:maxsixe = 0
        recycle:exclude = *.tmp
        recycle:exclude_dir = tmp
        recycle:noversions = *.doc

Beispiel: Samba RecycleBin

# vfs modul 'Papierkorb' einbinden
vfs objects = recycle
# Verzeichnis fuer PK
recycle: repository = .deleted/%U
# Verzeichnisstruktur im PK mitsichern
recycle: keeptree = Yes
# sofort zu loeschende Dateitypen
recycle: exclude = *.tmp, *.temp, *.log, *.ldb
# sofort zu loeschende Verzeichnisse
recycle: exclude_dir = tmp
# PK Dateien versionieren
recycle: versions = Yes
# Ausnahmen fuer Versionierung
recycle: noversions = *.doc, *.xls, *.mdb, *.pdf

Dieses Wochenende, am 13. und 14. November 2010, findet in Oberhausen zum zweiten Mal die OpenRheinRuhr statt. Der Veranstaltungsort ist das Rheinische Industriemuseum und liegt damit direkt am Bahnhof. Verkehrstechnisch geht es also nicht besser.

Samstag und Sonntag werden die Pforten von 9:30 Uhr bis 18.00 Uhr für lappische 5€ (beide Tage zusammen) geöffnet sein und Samstag Abend gibt es natürlich den nicht wegzudenkenden Social Event mit Verpflegung in Form von Pizza. Das vielfältige Programm steht natürlich auch schon seit einiger Zeit und kann sich unter http://programm.openrheinruhr.de/2010/ angesehen werden.

Wer jetzt noch immer  keine Lust hat, sich am Wochenende ins wunderhübsche Ruhrgebiet aufzumachen, dem sei als Schmankerl noch gesagt, Ubuntu hat dort natürlich auch einen professionell betreuten Stand.  Also, was kann man bei dem Wetter schon besseres tun als ein paar alte und neue Gesichter zu sehen und sich inspirieren zu lassen?

Nachdem ich im Artikel “Ubuntu macht Werbung” schon einige Werbevideos gezeigt hatte, bin ich nun bei der Produktion von druckbaren Postern angelangt.

Entstehung

Eigentlich hatte ich ja zur Release Party vom 10.04 schon diverse Poster gemacht. Damals war aber die Layout-Strategie von Canonical gerade im Umbruch und ich musste raten wie das neue Layout aussehen wird. Jetzt ist aber die Layout-Definition von Canonical offiziell erschienen und ich konnte mich mit den ganzen Definitionen und Farbwerten auseinander setzen. Als Grundlage für den Inhalt der Poster hat mir das Werbevideo von Canonical geholfen. Der Kommentar von @burli hat mich auf das Video aufmerksam gemacht. Wer das Video noch nicht gesehen hat, der kann dies hier in einer dezenten oder rockigen Version nachholen.

Produktion

Die Poster wurden mit Inkscape erstellt. Ich finde Inkscape unter den OpenSoure Design-Programmen die ausgereifteste Applikation für solche Aufgaben. Zukunftsorientiert ist auch das SVG Datei-Format dass Inkscape wunderbar beherrscht. Das Layout der einzelnen Poster konnte ich gut erstellen. Die Objekte im Poster habe ich vom Video versucht ab-zu-zeichnen. Es sind mir nicht alle Objekte zu 100% gelungen, das muss aber auch nicht sein, denn ich arbeite ja nicht bei Canonical. Die Poster sind in einer ersten Version in der Original englischen Abschrift entstanden. Die Slogans sind übernommen und auf das Layout eingepasst worden.

Formate

Als Ausgabeformate wurden png Dateien erzeugt. Wer die Poster als Resourcen nutzen möchte, kann die SVG Dateien im Spreadubuntu downloaden. Im Moment stehen die Formate A5, A4 und A3 zur Verfügung. Man kann aber das Poster im A5 Format auch sehr gut auf Webseiten nutzen, wenn man das Bild etwas kleiner erscheinen lässt.

Slogans

Die Poster beinhalten folgende Slogans:

  1. Ubuntu, the ideal open-source operating system
  2. Ubuntu ist the world’s fastest gwowing linux-based operating system
  3. Ubuntu has millions of users
  4. Ubuntu has an internationaly active developer community
  5. Ubuntu is, and always will be, absolutely free
  6. Ubuntu is Fast
  7. Ubuntu is Safe
  8. Ubuntu is Open
  9. Ubuntu runs on desktops
  10. Ubuntu runs on servers
  11. Ubuntu runs in the cloud

Download

Die Poster können von meinem Webserver herunter geladen werden. Im Moment stehen nur die englischen Versionen zu Verfügung

Weitere Poster

Ich möchte die Poster noch gerne in Deutsch anbieten. Andere Sprachen würden auch in Frage kommen. Leider bin ich da aber auf den Input von Euch angewiesen.

Hat jemand Lust mir die Slogans in andere Sprachen zu übersetzen ?

Wenn ja dann meldet Euch einfach in diesem Blog.

PDF-Datei dieses Artikels erzeugen

Ähnliche Artikel

  • Keine ähnlichen Artikel vorhanden

9. November 2010

Heute möchte ich eine kurze Einführung geben, wie man Auktionsvorlagen (Templates) für SaleZ erstellen kann. Eine Auktionsvorlage für SaleZ ist nichts weiter als eine HTML Seite ohne <html>, <head> und <body> Tag. Dementsprechend einfach ist es auch eine solche Vorlage zu erstellen – entsprechende HTML/CSS Kenntnisse vorausgesetzt.

SaleZ nutzt die Tag IDs um z.B. den Titel oder den Untertitel in eine Vorlage einzufügen, deshalb müssen in jedem Template folgende IDs vergeben sein:

  • title – Für den Titel
  • subtitle – für den Untertitel
  • content – für die Beschreibung
  • image_1 bis image_10 – für die Bilder

Zu den Bildern sei noch folgendes gesagt: Die image_1 bis image_10 dürfen nicht einem <img> Tag vergeben werden, da SaleZ den <img> Tag selbst einfügt (in dieser Form: <img src=’imageURL’ style=’width: 100%’ />), d.h. am besten gibt man einem <div> die image ID und legt im <div> die Höhe/Breite des Bildes fest.

Die Standardvorlage in SaleZ ist folgendermaßen aufgebaut:

<div id="page" style="width: 90%; margin: auto auto; -webkit-border-radius: 10px; -webkit-box-shadow: 0 1px 5px grey; -moz-border-radius: 10px; -moz-box-shadow: 0 1px 5px grey; border: 2px solid grey; background-image: -webkit-gradient(linear, 0 0, 0 100, from(lightgrey), to(white)); background: -moz-linear-gradient(-90deg,lightgrey, white); -moz-background-size:100% 100px; background-position:top; background-repeat:no-repeat;">
 <h3 id="title" style="text-align: center;">Title</h3>
 <h4 id="subtitle" style="text-align: center;">Subtitle</h4>
 <div id="image_1" style='max-width: 500px; padding: 10px; margin: auto auto;'></div>
 <div id="content" style="padding: 10px;">Enter your description here</div>
 <div id="image_2" style='max-width: 300px; padding: 10px; float: left;'></div>
 <div id="image_3" style='max-width: 300px; padding: 10px; float: left;'></div>
 <div id="image_4" style='max-width: 300px; padding: 10px; float: left;'></div>
 <div id="image_5" style='max-width: 300px; padding: 10px; float: left;'></div>
 <div id="image_6" style='max-width: 300px; padding: 10px; float: left;'></div>
 <div id="image_7" style='max-width: 300px; padding: 10px; float: left;'></div>
 <div id="image_8" style='max-width: 300px; padding: 10px; float: left;'></div>
 <div id="image_9" style='max-width: 300px; padding: 10px; float: left;'></div>
 <div id="image_10" style='max-width: 300px; padding: 10px; float: left;'></div>
 <div style="clear: both; display: block;"> </div>
</div>

Der einzige Nachteil an jeder Vorlage für eBay Auktion ist, dass der CSS Code direkt in die Elemente eingefügt werden muss. Eine weitere Einschränkung ist, dass Grafiken, die man für sein Template verwenden will, über eine URL eingefunden werden sollten (d.h. die benötigten Grafiken irgendwo bei einem ImageHoster hochladen oder anderweitig verfügbar machen).

Hat man einmal den HTML/CSS Teil erledigt (index.html speichern), fehlt noch ein kleiner Schritt, damit SaleZ auch die Auktionsvorlage findet. Zu jedem Template gehört eine template.info Datei, welche im gleichen Verzeichnis, wie die Auktionsvorlage (index.html) liegen muss. Diese Datei enthält nur eine Zeile:

name=Meine Auktionsvorlage

Danach kopiert man diese beiden Dateien in .$HOME/.salez/templates/MyTemplate/. SaleZ sollte nun beim nächsten Start die Auktionsvorlage erkennen (ab Version 0.1-public4).

Ich freue mich über weitere Auktionsvorlagen für SaleZ :)

3 Kommentare

Dieser Blog-Post ist als Antwort auf die Frage "Nun würde mich mal interessieren, welche Tools euch zum Administrieren eines Linux Servers helfen und speziell auch welchen Taskmanager ihr verwendet.", aus dem folgendem Blog gedacht. -> infoblog.li/besserer-taskmanager-fuer-den-linux-server-htop/


1.) Überblick verschaffen

Wenn man nicht genau weiß, wo das Problem liegt, muss man sich erst-einmal einen groben Überblick über die Situation verschaffen, dabei helfen die folgenden Befehle:


1.1) top - CPU- und Arbeitsspeicher-Auslastung analysieren

top


1 -> zeigt die Auslastung der einzelnen CPUs an

b / B -> hebt die aktiven Prozesse hervor

z -> wie "b oder B" nur mit Farbe icon wink Linux Server analysieren debian

i -> zeigt nur aktive Prozesse an

M -> zeigt die Prozesse sortiert nach dem Speicherverbrauch an

P -> zeigt die Prozesse sortiert nach der CPU-Last an

d -> gibt die Aktualisierungszeit an

k -> kill - tötet einen Prozess


top 1 P 150x150 Linux Server analysieren debian top b 150x150 Linux Server analysieren debian top z 150x150 Linux Server analysieren debian top i 150x150 Linux Server analysieren debian top M 150x150 Linux Server analysieren debian top P 150x150 Linux Server analysieren debian top d 150x150 Linux Server analysieren debian top k 150x150 Linux Server analysieren debian df h 150x150 Linux Server analysieren debian lsof beispiel 150x150 Linux Server analysieren debian



1.2) df / du - Festplattenverbrauch analysieren

df -h

-h -> auch für Menschen lesbar (--human-readable)



df h 300x215 Linux Server analysieren debian

df -h


Wenn wir den Speicherverbrauch nun weiter analysieren müssen, weil z.B. ein Verzeichnis unter /var zu groß ist, können wir dies mit "du" machen.

du -h | grep "^[0-9,]*[MG]" | sort -hr | less


Erklärung: "du" gibt die Größe von Dateien und Verzeichnissen aus "-h" zeigt dies leserlich an, "|" der Pipe leitet die Ausgabe weiter, "grep" ist universal einsetzbar, um etwas (Dateien / Ausgaben...) zu durchsuchen und wir suchen alle Zeilen, in denen "^" am Anfang eine Zahl  "0 1 2 3 4 5 6 7 8 9" oder / und "," in beliebiger Häufigkeit "*" gefolgt von einem großen "M" oder einem "G". Diese Ausgabe wird per Pipe "|" an "sort" weitergegeben, wo diese Ausgabe nach sortiert wird und "|" schließlich mit "less" angezeigt wird. (mit q kann man less wieder beenden) Wer mehr über Reguläre Ausdrücken lernen möchte, kann sich dies hier antun icon wink Linux Server analysieren debian -> http://linuxwiki.de/


Wer will kann dich solche "Funktionen" einfach in die .bashrc eintragen...

alias du_suckup='du -h | grep "^[0-9,]*[MG]" | sort -hr | less'


1.3) lsof - Beziehung zwischen Dateien & Prozessen analysieren

Der Befehl "lsof" kann eingesetzt werden, um z.B. zu analysieren, welcher Prozess oder Anwender momentan eine bestimmte Datei verwendet oder auch welcher User, welchen Port offen hält + die dazugehörige PID (ProzessID)...

lsof -a -i -u www-data


lsof beispiel 300x215 Linux Server analysieren debian

lsof - Beispiel


Wer mehr zu dem Thema erfahren möchte, kann in einen alten Blog-Beitrag weiter lesen -> suckup.de/blog/2010/02/22/lsof-list-open-files


2.) Prozesse analysieren

Hier verweise ich einfach mal auf zwei alte Blog-Beiträge.:

2.1) der Befehl "ps", um bestimmte Prozesse aufzuspüren -> suckup.de/blog/2010/09/14/shell-ps-prozessstatus

2.2) und noch einige Programm, um den verbrauchten Arbeitsspeicher zu analysieren -> suckup.de/blog/2010/02/08/speicherverbrauch-anzeigen-lassen


3.) Hardware analysieren

Auch hier verweise ich auf einen alten Beitrag.:

3.1) hier noch eine Sammlung von Befehlen mit denen man z.B. die Festplatte auf Fehler prüfen kann ->  http://suckup.de/blog/2010/02/08/systeminfos-anzeigen-lassen/


4.) Netzwerk analysieren

Und auch hier verweise ich auf ein paar alte Beiträge.:

4.1) mit "TCPdump" kannst du den Netztraffik analysieren (sniffen) ähnlich wie Wireshark, nur auf der Konsole. icon smile Linux Server analysieren debian -> suckup.de/blog/2010/08/02/tcpdump-howto

4.2) offene Ports analysieren mit "nmap" + "fuser" -> suckup.de/blog/2010/03/28/offene-ports-analysieren


weitere Schritte

Mit Hilfe dieser Befehl sollte man einige Problem bereits eingrenzen können, ich würde parallel unter /var/log/ nachschauen, ob irgendetwas auffälliges in den Logfiles steht ...

ls -altr /var/log/

-> Dateien rekursiv nach ihrer letzten Änderung anzeigen (neuste Datei steht nun unten)

tail -f test.log

-> das Logfile wird nun kontinuierlich mit-gelesen, so dass man neu auftretende Fehler bemerkt

Wonach wurde gesucht?

Ähnliche Blog-Einträge

Vor einigen Tagen ist eine neue Ausgabe von freiesMagazin erschienen. Mit dabei war ein Artikel über Zentyal. Dabei handelt es sich um eine auf Linux basierende Alternative zum Windows Small Business Server. So kann Zentyal als Gateway zum Internet, als DNS oder DHCP Server und für vieles mehr benutzt werden. Wer jetzt neugierig geworden ist, der sollte den Artikel lesen :) Die entsprechende Software kann unter http://www.zentyal.org/ bezogen werden.

Weitere Informationen gibt es unter:
http://www.freiesmagazin.de
http://de.wikipedia.org/wiki/Zentyal
http://de.wikipedia.org/wiki/Windows_Small_Business_Server