ubuntuusers.de

5. November 2011

OMG Ubuntu hat eine alternative Lens für das Unity Dash vorgestellt. Die Lens dient als Alternative für die Application Lens, also den Anwendungsstarter von Unity. Für den Test habe ich die klassische Application Lens deinstalliert.

sudo apt-get remove unity-lens-applications

Zum Installieren von Unity Bliss läd man das Archiv von Launchpad herunter. Das Archiv wird entpackt und man wechselt in das Verzeichnis. Die Installation ist wie immer simpel.

./configure --prefix=/usr --sysconfdir=/etc
make
sudo make install

Ich bin mir nicht sicher, ob das make überhaupt nötig ist. Nach der Installation meldet man sich ab und neu an, um die Lens zu aktivieren.

Hat man die normale Application Lens deinstalliert kann man Bliss wie gewohnt mit der Tastenkombination SUPER+A aufrufen. Mit der Maus klickt man auf den Ubuntu Button im Launcher.

Für die Navigation wird ein “back” Icon angezeigt, welches sich jedoch alphabetisch einordnet.

(Youtube Video nur im Blog verfügbar)

Möchte man die Lens wieder los werden kann man sie einfach deinstallieren und die normale Lens installieren.

Im Verzeichnis von Bliss führt man diesen Befehl aus:

sudo make uninstall

Anschließend installiert man wieder die normale Lens

sudo apt-get install unity-lens-applications

Nachdem man sich neu angemeldet hat hat man wieder den ursprünglichen Zustand.

diasporaDas dezentrale soziale Netzwerk Diaspora* geht gerade in großen Schritten auf die Beta-Phase zu.

Seit meinem letzten Artikel zum Thema ist einiges passiert, zu den interessantesten Neuerungen zählt sicher die Möglichkeit #Hashtags zu folgen. Leider führt diese Funktion auch zu Spam, welcher glücklicherweise noch Seltenheitswert auf Diaspora* hat. Die EntwicklerInnen haben mit einer ‘ignorieren’ Funktion auf das Problem reagiert. Die Funktion ähnelt im Moment einem AdBlocker, betroffene Posts werden schlicht ausgeblendet, eine ‘richtige’ Block-Funktion wird wohl aber folgen.

Aber auch in der Community rund um das Projekt hat sich einiges getan. Neben einem deutschsprachigen Wiki und Forum zu Diaspora*, sind Seiten wie http://whatisdiaspora.com/, http://www.findapod.com/http://diasporial.com/, Diaspora : Le guide du parfait débutant und ein englisch sprachiges Forum enstanden. Außerdem gibt es mittlerweile eine vielzahl an Browser und WordPress Plugins, Share Buttons und sonstige nette tools, im offiziellen Wiki sind einige gesammelt.

Für alle Interessierten, hier noch ein schickes kleines Stop-Motion Video über Diaspora*

https://www.youtube.com/watch?v=_4mMSxWEnjU


4. November 2011

Neulich habe ich ja einen Artikel über meine Einführung des WLAN Standards 802.11n verfasst. Kurz danach gab es Fragen mit welchem Tool ich den meine Bandbreiten eigentlich ermittelt habe, den Namen des Tools - iperf - habe ich zwar kurz erwähnt, wie es funktioniert habe ich aber nicht erklärt.

Das möchte ich natürlich mit diesem Artikel nachholen, zuvor muss iperf natürlich installiert werden, was über die Paketverwaltung der Distribution erfolgen sollte. Anschließend muss man sich entscheiden welcher der Rechner im Netzwerk den der Server sein sollte, ich nehme hierbei immer den Router, den die meisten IP Pakete müssen irgendwann an den Router ;-)

Gestartet wird der Server in einem Terminal mit folgendem Befehl:

iperf -s
Mehr ist auf dem Server auch nicht zu machen, jetzt geht es an den Client, was jeder PC im Netz sein kann, in der Regel wird man aber die Bandbreite von einem bestimmten PC messen wollen. Auf dem Client wird iperf wie folgt aufgerufen:
iperf -c server
Der Parameter server muss hierbei natürlich durch den Server ersetzt werden, entweder die IP Adresse oder aber der (auflösbare!!!) Hostname des Servers.

Ein normaler Test, also mit den Standard Parametern dauert pro Aufruf ca. 10 Sekunden und wird sowohl am Client als auch am Server geloggt. Das kann z.B. so aussehen:

---------------------------------------------------------

Neulich habe ich ja einen Artikel über meine Einführung des WLAN Standards 802.11n verfasst. Kurz danach gab es Fragen mit welchem Tool ich den meine Bandbreiten eigentlich ermittelt habe, den Namen des Tools - iperf - habe ich zwar kurz erwähnt, wie es funktioniert habe ich aber nicht erklärt.

Das möchte ich natürlich mit diesem Artikel nachholen, zuvor muss iperf natürlich installiert werden, was über die Paketverwaltung der Distribution erfolgen sollte. Anschließend muss man sich entscheiden welcher der Rechner im Netzwerk den der Server sein sollte, ich nehme hierbei immer den Router, den die meisten IP Pakete müssen irgendwann an den Router ;-)

Gestartet wird der Server in einem Terminal mit folgendem Befehl:

iperf -s
Mehr ist auf dem Server auch nicht zu machen, jetzt geht es an den Client, was jeder PC im Netz sein kann, in der Regel wird man aber die Bandbreite von einem bestimmten PC messen wollen. Auf dem Client wird iperf wie folgt aufgerufen:
iperf -c server
Der Parameter server muss hierbei natürlich durch den Server ersetzt werden, entweder die IP Adresse oder aber der (auflösbare!!!) Hostname des Servers.

Ein normaler Test, also mit den Standard Parametern dauert pro Aufruf ca. 10 Sekunden und wird sowohl am Client als auch am Server geloggt. Das kann z.B. so aussehen:

------------------------------------------------------------
Client connecting to server, TCP port 5001
TCP window size: 16.0 KByte (default)
------------------------------------------------------------
[  3] local 192.168.1.8 port 59185 connected with 192.168.1.1 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-10.0 sec   810 MBytes   680 Mbits/sec
Hier sieht man das mein installiertes Gigabit LAN ~680 MBit/s bei diesem Test überträgt. Die volle Bruttobandbreite wird man nur selten erreichen, zumindest SOHO-Komponenten wurden nur selten so gebaut das man auch alles bekommt was die Spezifikation verspricht ;-)

Mehr über iperf kann man in der entsprechenden Manpage nachlesen.

Es ist noch nicht so lange her, dass wir unseren ubunteros.ch Stammtisch eingeführt haben. Jetzt haben wir beim nächsten Stammtisch die Möglichkeit uns in der Stammtisch-Lounge zu treffen.

Die Lounge befindet sich im gleichen Gebäude einen Stock tiefer. Der Eingang kann auch von aussen vom unteren Eingang benutzt werden. Marcus hat gemeint, dass die Lounge doch viel bequemer sei als der Konferenz-Raum. Wifi ist wie gehabt vorhanden und auch für das leibliche Wohl ist gesorgt. Wir durften an unserem November-Stamm schon einmal ein Probe-Sitzen machen.

Weitere Informationen zu unserem Stammtisch finden sich unter:

http://ubunteros.ch/stammtisch

PDF-Datei dieses Artikels erzeugen

Ähnliche Artikel

  • Keine ähnlichen Artikel vorhanden

Ich bin gerade auf identi.ca über einen interessanten Blog-Eintrag von Adam Williamson gestolpert. In dem schreibt er über das kommende Release von fedora 16, am kommenden Dienstag. Und, was noch viel spannender ist, über eine Neuerung in fedora 17:
Die Gnome-Shell wird demnach ohne 3D Beschleunigung auskommen. Das ist natürlich eine riesen Verbesserung, da nun der Fallback-Mode nun nicht mehr wirklich gebraucht wird. So wird es natürlich auch möglich sein, die Shell in einer virtuellen Maschine zu nutzen. Einen Screenshot dazu kann man in seinem Blog “bewundern”. Das Ganze soll demnächst in rawhide, dem Entwicklerzweig von fedora, eintreffen.

Erkauft wird dieser Vorteil durch mehr CPU Power: Alles, was normalerweise die Grafikkarte machen würde, muss dann die CPU machen.

Gestern habe ich mein NAS (mit Ubuntu Server) von 11.04 auf 11.10 geupdatet. Soweit lief auch alles gut. Nur ein Problem gab es: der Rechner wollte nicht herunterfahren. Normalerweise fuhr ich ihn immer mittels

sudo halt

herunter. Dabei fährt er das System auch herunter, bleibt dann am Ende allerdings stehen und schaltet das Netzteil nicht ab. Abhilfe schafft es hier

sudo shutdown -h now

oder

sudo poweroff

welche den Rechner beide erfolgreich herunterfahren.

Weitere Informationen gibt es unter:
http://wiki.ubuntuusers.de/herunterfahren
http://linux.about.com/library/cmd/blcmdl8_halt.htm
http://www.cyberciti.biz/faq/shutdown-ubuntu-linux-computer/

Nach einem kurzen Ausrutscher in Richtung Google Analytics habe ich mich entschlossen für die Webanalyse wieder Piwik einzusetzen. Ich möchte Euch zeigen wie einfach es ist, Piwik auf seinem eigenen Server zu installieren.
Für die Installation benötigt Ihr eine MySQL Datenbank und eine Domain. Ich habe hierfür die http://tortuga.pirates-of-art.de verwendet.

 

Zuerst laden wir uns die aktuelle Version von Piwik wie folgt herunter:
  wget http://piwik.org/latest.zip
 

Anschließend wird das Archiv mit    unzip latest.zip entpackt.
 
Nun können wir die Installation im Browser mit http://tortuga.pirates-of-art.de/piwik/ aufrufen. Es kann sein, dass noch die Rechte für die temporären Ordner und die Benutzerrechte angepasst werden müssen. Die benötigten Konsolenbefehle werden jedoch direkt auf der Seite angezeigt.
 
Bitte denkt daran das entpacken mit dem passenden Web-User zu Eurem Web-Account durchzuführen, ansonsten müssen noch die Dateiberechtigungen mit   chown angepasst werden.
 

Folgende Punkte werden während der Installation abgearbeitet:
 
1. Willkommen => kurze Begrüßung
2. Systemprüfung => Anzeige ob die Voraussetzungen für die Installation vorhanden sind
3. Datenbank einrichten => Eingabe der Datenbank-Zugangsdaten
4. Datenbankprüfung => Prüfung ob die Datenbank erreichbar ist
5. Erstelle die Tabellen => Anlegen der Tabellen
6. Superuser => Anlegen des Administrators
7. Webseite hinzufügen => Hier könnt Ihr Eure erste Webseite angeben
8. Javascript-Tracking-code => Der Code der in die Seiten eingebunden werden muss.
 
9. Glückwunsch => Abschluss der Installation
 

 
Piwik ist installiert und wir können uns über das Webinterface einloggen.
 
Um nun die Daten zu erhalten muss der Trackingcode noch in die zu analysierende Webseite, vor dem Ende des Body-Tag, eingefügt werden.
 

Zum Test ruft Ihr einfach Eure Homepage auf und aktualisiert anschließend das Piwik Webfrontend und schon seht Ihr Euren ersten Besuch.
 

 
Anleitung wurde mit Ubuntu 10.04 erstellt
 
Fazit: Im Gegensatz zu Google Analytics stimmen die erfassten User ziemlich genau und es werden keine Daten an dritte übermittelt. Piwik bietet einem umfangreiche Möglichkeite zur Analyse der Besucherzahlen. Einfach über die Weboberfläche die verschiedenen Einstellungen ausprobieren, so findet man am schnellsten die für sich wichtigen Informationen.
 
Klar soweit?
Euer RSB

3. November 2011

Wie vielleicht ein paar unter euch wissen läuft fgreinus.de auf einem vServer mit Debian 6. Als Webserver verwende ich Apache2, sowie PHP 5.3. Jedoch geht mir Apache in letzter Zeit, um es mal nett auszudrücken, gehörig auf den Keks. Da ich Innovationen und Neuem generell sehr offen gegenüberstehe habe ich mich jetzt dazu entschieden von apache auf nginx umzusteigen.

Davon verspreche ich mir einfachere Handhabung und vorallem eine stabilere Umgebung. Es mag daran liegen, dass ich den Apache wohl nie 100%ig im Griff hatte, jedoch war dieser recht instabil und fraß des Öfteren mal den gesamten RAM meines Servers auf.
Ich habe bisher nginx mit Froxlor (meinem Control-Panel) auf einer lokalen virtuellen Maschine getestet und hoffe, dass es dann live genauso gut läuft wie hier lokal bei mir.

Das heißt natürlich auch, dass der Blog in den kommenden Tagen eventuell mal nicht erreichbar sein wird, aber ich denke dass der Umstieg ganz gut verlaufen wird. Wie genau alles geklappt hat und womit ich vielleicht zu kämpfen habe, das wird einen auf den Umstieg folgenden Blogpost schmücken.

Also, wünscht mir Glück ;) .

Kennt man nicht die schnellen Änderungen in der einen oder anderen Konfigurationsdatei? Und die immer mehr werdenden Sicherungskopien?

  • configfile.bak
  • configfile.201111031811
  • configfile.201111031815
  • configfile.mgsimon
  • configfile…

Wieso nicht mit einer einfachen Versionsverwaltung? Old school RCS ist auf so gut wie jedem Linux, Unix oder Mac OS X vorhanden …

HinweisDas folgende Beispiel wurde unter Mac OS X 10.6.8 mit der RCS Version 5.7 durchgeführt.
RCS

Revision Control System (RCS) ist eine Versionierung für einzelne Dateien. Dabei werden die Versionen mit einer zusätzlichen „,v-Datei“ verwaltet. Ohne ein Repository können beliebige Dateien schnell und einfach versioniert werden. Ideal zur Verwaltung verschiedener Konfigurationsstände, ohne gleich jedes Mal eine manuelle Sicherungskopie erstellen zu müssen.

TippDie für Windows frei verfügbare Unix Emulation Cygwin unterstützt RCS.

Sicherung

ohne RCS

$ cp logging.properties logging.properties.201111031811

mit RCS

$ rcs -i -U logging.properties
RCS file: logging.properties,v
enter description, terminated with single '.' or end of file:
NOTE: This is NOT the log message!
>> existing version
>> .
done
$ ci -u logging.properties
logging.properties,v  
TippDamit die Zugriffsrechte erhalten bleiben und die aktuelle Arbeitskopie nicht gelöscht wird immer erst eine initiale Version ohne "strict locking" (rcs -i -U datei) erstellen und anschließend (ci -u datei) versionieren.

Neue Konfiguration

Gewünschte Anpassungen in der der aktuellen Datei vornehmen, speichern und sichern.

ohne RCS

$ cp logging.properties logging.properties.201111031815

mit RCS

$ ci -u logging.properties
logging.properties,v  > log more startup messages
>> .
done

Versionshistorie

ohne RCS

nicht wirklich möglich

mit RCS

$ rlog logging.properties

RCS file: logging.properties,v
Working file: logging.properties
head: 1.2
branch:
locks:
access list:
symbolic names:
keyword substitution: kv
total revisions: 2;	selected revisions: 2
description:
existing version
----------------------------
revision 1.2
date: 2011/11/03 18:46:57;  author: mgsimon;  state: Exp;  lines: +2 -2
log more startup messages
----------------------------
revision 1.1
date: 2011/11/03 18:44:54;  author: mgsimon;  state: Exp;
Initial revision
=============================================================================

Veränderungen

ohne RCS

$ diff logging.properties logging.properties.201111031811 
61,62c61,62
< org.apache.catalina.startup.ContextConfig.level = FINE
< org.apache.catalina.startup.HostConfig.level = FINE
---
> #org.apache.catalina.startup.ContextConfig.level = FINE
> #org.apache.catalina.startup.HostConfig.level = FINE

mit RCS

$ rcsdiff logging.properties
===================================================================
RCS file: logging.properties,v
retrieving revision 1.2
diff -r1.2 logging.properties
mgBook:conf mgsimon$ rcsdiff -r1.1 logging.properties
===================================================================
RCS file: logging.properties,v
retrieving revision 1.1
diff -r1.1 logging.properties
61,62c61,62
< #org.apache.catalina.startup.ContextConfig.level = FINE
< #org.apache.catalina.startup.HostConfig.level = FINE
---
> org.apache.catalina.startup.ContextConfig.level = FINE
> org.apache.catalina.startup.HostConfig.level = FINE

Alte Konfiguration

ohne RCS

$ cp logging.properties.201111031811 logging.properties

mit RCS

$ co -r1.1 logging.properties
logging.properties,v  -->  logging.properties
revision 1.1
writable logging.properties exists; remove it? [ny](n): y
done

Konfigurationsänderungen

ohne RCS

nicht wirklich möglich

mit RCS

$ find conf/ -name *,v
conf//catalina.properties,v
conf//context.xml,v
conf//logging.properties,v
conf//server.xml,v
conf//tomcat-users.xml,v
conf//web.xml,v

Zusammenfassung

rcs -i -U datei => ci -u datei => vi datei => ci -u datei => ...

Keep IT simple ... ;)

Weiter ...

Es gibt mal wieder Neuigkeiten aus dem Hause Dropbox. Eine neue experimentelle Forum-Build (Version 1.3.2) soll ein paar Fehler bereinigen. Im Forum-Beitrag wird auf 2 Verbesserungen unter Linux hingewiesen:

- Better check for xattr support in Linux
- Fix issue on Linux where overlay icons were not being updated

Zumindest der letzte Bugfix funktioniert bei mir (Ubuntu 11.10 mit GNOME-Shell) noch nicht so 100%ig. Mal bleibt das Icon zum synchronisieren stehen, manchmal ändert es sich auf den grünen Haken. Wie dem auch sei, es handelt sich dabei um keinen großen Fehler und es stört mich nicht wirklich.

Zum Ausprobieren kann man die Dropbox-Version 1.3.2 hier herunterladen:
Linux x86: http://dl-web.dropbox.com/u/17/dropbox-lnx.x86-1.3.2.tar.gz
Linux x86_64: http://dl-web.dropbox.com/u/17/dropbox-lnx.x86_64-1.3.2.tar.gz
Windows: http://dl-web.dropbox.com/u/17/Dropbox%201.3.2.exe
Mac OS X: http://dl-web.dropbox.com/u/17/Dropbox%201.3.2.dmg

Die 32-bit-Version kann man die folgenden Befehle zum Installieren nutzen:

dropbox stop
cd ~
mv .dropbox-dist .dropbox-dist.old
wget http://dl-web.dropbox.com/u/17/dropbox-lnx.x86-1.3.2.tar.gz
tar -xzf dropbox-lnx.x86-1.3.2.tar.gz
dropbox start

Für die die 64-bit-Version muss der Dateiname auf dropbox-lnx.x86_64-1.3.2.tar.gz angepasst werden.

Viele haben es sicher schon gelesen, Origin sammelt fleissig Daten von eurem Computer wenn BF3 installiert wird / ist. Auf Amazone hat das Game sehr miese Bewertungen bekommen und viele Gamer schreiben, dass sie das Game nicht mehr kaufen werden oder es zurückgeben. Viele Gamer boykottieren das Game, andere kaufen es und nehmen Origin einfach hin.

Angeblich wurde jetzt die Nutzungsbedingung von Origin angepasst, viel hat sich meiner Meinung nach aber nicht geändert. Auch wenn Origin noch die Nutzungsbedingungen zufriedenstellend anpassen würde, wer garantiert mir, dass Origin nicht trotzdem weiterhin unerlaubt Daten sammeln wird? Das Vertrauen in Origin ist dahin.

Wie ich von Kollegen erfahren habe, hat das Game ein paar “lustige” Fehler. Zum Beispiel stirbt man in der Kampagne an bestimmten Stellen im Game dank Scripted Events, wenn man sich im Spiel nicht genau so verhält, wie sich das die Programmierer von BF3 vorgestellt haben. (Beispiel 1, Beispiel 2) BF3 ist angeblich nicht so gut, wie sich das einige erhofft haben, nachdem sie die vielversprechenden Werbungen für das Game gesehen haben. Der grosse Hype um das Game soll wohl nicht berechtigt sein.

Oft gibt es ein paar Tage nach Veröffentlichung eines Games (oder bereits vor der Veröffentlichung) diverse Cracks für das veröffentlichte Game. Zum Beispiel wird das Game gecrackt und komplett  zum Download angeboten oder es gibt zum Beispiel auch “No-CD Cracks”, damit die CD nicht im Laufwerk eingelegt sein müsste, wenn man ein Game zocken möchte. An dieser Stelle weise ich darauf hin, dass das Gamen von gecrackten Spielen illegal ist. Kauft das Game, wenn euch das Game gefällt und unterstützt damit den Hersteller!

Neu gibt es jetzt auch noch einen “No-Origin Crack“. Das ist ein vollkommen neuer Begriff. Cracker haben extra eine EXE-Datei zur Verfügung gestellt, mit welcher man Battlefield 3 ohne Origin zocken können soll. Der Crack funktioniert angeblich nur, wenn man das Game legal gekauft hat. Auch Multiplayer soll angeblich möglich sein, auf diversen Websites wird aber davon abgeraten, mit dem Crack online zu zocken.

Der neue “No-Origin Crack” ist eine vollkommen neue Situation. Cracks könnten schadhaften Code enthalten, welcher der Cracker selbst einbauen könnte. Würde man selbst einen Crack benutzen, müsste man wohl oder übel darauf vertrauen, dass der Cracker keinen schadhaften Code in den Crack einprogrammiert hätte. Man müsste dem Cracker vertrauen, dass er einen “sauberen” Crack programmiert hätte. Jeder der diesen “No-Origin Crack” verwendet, vertraut dem Cracker mehr als dem Hersteller von Battlefield 3 selbst! Ich finde das erstaunlich, jedoch nicht weiter schlimm, nachdem was Origin abgezogen hat …

Dies ist eine neue Situation, denn der Crack wurde zum ersten Mal erstellt, um die Gamer vor Origin zu schützen, nicht damit das Game nicht mehr gekauft werden muss. Somit würde beim Benutzen des Cracks kein Schaden entstehen, da das Game trotzdem legal gekauft werden muss. Trotzdem ist wohl das Benutzen des Cracks nicht legal, obwohl der Crack meiner Meinung nach, für eine “gute Sache” programmiert wurde.

Ich habe mich lange sehr auf Battlefield 3 gefreut und habe meinen Computer für das Spiel aufgerüstet. Mit der Zeit finde ich aber immer wieder offensichtliche Fehler auf Webseiten und Foren, zum Beispiel dass man angeblich die individuelle Steuerung im Moment nicht anpassen können soll. Ich möchte kein Geld für ein Game bezahlen, dass noch offensichtliche und peinliche Fehler hat, mal von Origin abgesehen … Darum (aber vor allem wegen Origin) werde ich Battlefield 3 nicht kaufen. Natürlich gibt es auch positive Dinge an Battlefield 3, welche ich jedoch nicht kenne, da ich das Game nicht zocke.

Da ich aber meinen Computer schon aufgerüstet habe und nicht vergebens auf ein super Game gewartet haben möchte, freue ich mich schon jetzt sehr auf das Release von Call of Duty Modern Warefare 3 :D .

Lasst euren Meinungen zu diesem Thema in den Kommentaren freien Lauf.

2. November 2011

Seit ein paar Monaten bin ich nun reger Nutzer von Google Music geworden (Wer noch eine Einladung braucht, darf gerne etwas in die Kommentare schreiben).
Der einzige wirklich ärgerliche Nachteil am PC ist, dass man die Medientasten der Tastaturen so nicht benutzen kann, da das ganze einzig im Browser läuft.
Diesen Nachteil hat auch Jiří Janoušek erkannt und für Ubuntu das Programm Google Music Frame geschrieben, welches Google Music sehr nah an einen fest im System integrierten
Player bringt, wodurch zum einen alle Medientasten funktionieren, aber auch eine feste Einbindung in das Sound-Applet stattfindet.

Zur genauen Installation verweise ich mal auf den Artikel von Christoph von Linux und Ich, bei dem ich auch zum ersten Mal auf das Programm gestoßen bin.

Insgesamt bin ich sehr zufrieden mit dieser Integration, vor allem da es derzeit in aktiver Entwicklung ist und alle paar Tage neue Funktionen hinzukommen. Neben der Integration z.B. der Pause-Taste ist es bereits möglich die Musik zu pausieren und fortzusetzen, auch wenn man gerade keine Multimediatasten hat.

Gleichzeitig sind derzeit Schnellzugriffsbuttons hinzugekommen, die einen in die Musikbibliothek zurückbringen und es wird immer der letzte Stand gespeichert, wo man aufgehört hat Musik zu hören. Außerdem funktioniert die von mir vermisste Notification-Anzeige innerhalb von Ubuntu sehr gut und die Unity-Anbindung läuft auch einwandfrei.

 

Alles in allem wirklich eine Empfehlung wert, für alle die Google Music am PC mit Ubuntu besser nutzen wollen. Wer mit Chrome unterwegs ist, kann sich auch mal die Erweiterung Better Music Beta for Google Chrome anschauen, die ebenfalls einen Komfortgewinn bringt.



Nach einer saftigen Orange, einem leckerem Pfirsich und der stinkenden Eierfrucht namens Durian, gibt es eine neue Frucht unter dem Dach der Blender Foundation – die Mango. Der Codename Mango, dient für das nächste Filmprojekt von Blender, welches vor einem Monat seinen offiziellen Start hatte. Klar ist bisher nur grob welchen Inhalt der kommende Film haben soll – Amsterdam in der Zukunft. Sicher ist auch wer das Drehbuch schreiben wird und wer als Director für diesen Film dienen wird, Ian Hubert vom “Project London”. Wie bei den vergangenen Projekten auch, kann man sich wieder bewerben und an diesem Film arbeiten gegen ein kleines Taschengeld und freie Unterkunft. Mehr dazu auf der Call for Partizipation-Seite. Mittlerweile sind allerdings einige Beitragende bereits bekannt. So wird sich Michael Williamson um das Stroy Board und die Art Konzepte kümmern, Jori Kerbosch besetzt den Posten des Director of Photography, Rob Tuytel dient als Produktionsassistent. Das Blog hat bereits ein Re-Design von Fabian Reus erfahren, der bereits für das Logo der Blender Conference 2011 verantwortlich war und ein gewisser Andy Goralczyk plant ebenfalls seinen Sommer mit der Arbeit an dieser Frucht zu verbringen. Wer noch alles an diesem Projekt arbeiten wird, zumindest die Namen der 4-7 Designer, die Vollzeit daran arbeiten werden, wird im Dezember bekannt gegeben. Dann startet auch wieder die Möglichkeit eine DVD mit dem Film im voraus zu ordern und so zur Finanzierung beizutragen. Erscheinen soll der Film dann im August/September nächsten Jahres. Dann freuen wir uns schon einmal auf einen weiteren tollen freien Film.

1. November 2011

Windows ist einfach, Linux ist schwierig zu installieren, so die nach wie vor gängige Ansicht über die beiden Betriebssysteme. Dass das längst keine allgemeingültige Regel mehr ist, zeigt sich, wenn man es einfach mal ausprobiert.

Noch vor ein paar Jahren war Linux eine recht „unsichere“ Sache: Läuft es oder läuft es nicht? Als Anfänger hatte man dann nur die Möglichkeit, verschiedene Distributionen auszuprobieren oder die – noch nicht sehr große – Community um Hilfe zu bitten. Eine umfassende und hilfreiche Anlaufstelle wie etwa das Ubuntuusers-Wiki gab es noch nicht. Windows lief „out of the geschützte Wiederherstellungspartition“ – und Linux wollte oft nicht aus der Box.

Heute ist die Situation paradoxerweise oft genau andersherum: Linux ist für den Anfänger einfacher zu installieren als jedes Windows. Allein der Umstand, dass Windows bei Neugeräten oft vorinstalliert ist, lässt dessen Installation als einfacher erscheinen. Doch wenn der Anfänger Windows selbst neuinstalliert und gar die Gerätetreiber-CD nicht zur Verfügung hat, dann sieht es schon ganz anders aus.

Auch heute lautet der Tipp bei Linux noch: Nicht zu neueste Hardware, denn dafür gibt es noch keine Treiber. Neu hinzugekommen ist der Tipp für Windows: Nicht zu neue Hardware, denn sonst gibt es überhaupt keine Treiber mehr. Zumindest, wenn man es mit älterer Software versucht, dem immer noch beliebten XP etwa, und Treiber nur noch ab Windows Vista angeboten werden.

Ein Selbstversuch dieser Tage machte das mal wieder wunderbar deutlich: Neues Notebook, ein frisches Ubuntu installiert – und alles läuft. Ton, Internet, Graphik, Energieoptionen. Anschließend wird versucht, Windows XP zu installieren: überhaupt nichts funktioniert. Kein Ton, kein Netzwerk, kaputte Graphik, kein Energiemanagement. Das ist nicht die Schuld von Windows, wenn Hardwarehersteller keine XP-Treiber mehr beilegen, bzw. es ist die Schuld des Anwenders, wenn er von veralteten Betriebssystemen denselben Komfort erwartet wie von aktuelleren, aber es zeigt exemplarisch, wie bequem und flexibel eine Linuxinstallation heutzutage sein kann. Während bei Windows zig Treiber selbst zusammengesucht werden müssen, um ein Notebook halbwegs zum Laufen zu bringen, tut es ebenso auch eine aktuelle Linux-CD, ohne dass weitere Handgriffe vonnöten wären.

Man wird regelrecht zum Linux-Idioten. Alles läuft so perfekt, komfortabel und reibungslos, dass man überhaupt nicht mehr hinter die Kulissen zu schauen braucht. CD rein, starten – und fertig ist das benutzbare Linux. Doch wenn mal etwas nicht so läuft wie erwartet, dann gibt’s gleich eine ganze Reihe von offiziellen oder inoffiziellen Treibern, die zur Auswahl stehen. Wenn’s danach immer noch hakt, kann man manuell eingreifen, z.B. die Xorg.conf editieren, wenn die Graphikeinstellungen noch nicht passen. Unter Windows weiß man sich an dieser Stelle oft schon gar nicht mehr zu helfen. Ich jedenfalls war verblüfft, dass bei der Linuxinstallation überhaupt keine Nacharbeit mehr erforderlich war – und gleichzeitig über mich selbst erschrocken, wie wenig ich mir bei Windows noch selbst zu helfen wusste. Das nennt man dann wohl „angekommen bei Linux“. Man kann Windows tatsächlich „verlernen“.

Mir ist gerade mal ein witziger kleiner Design-Fehler in der GNOME-Shell aufgefallen. Bei manchen Fenstern fehlen einfach die Buttons, um das Fenster zu schließen. hier zum beispiel in der Channel-Liste des IRC-Clients XChat:

Das Fenster lässt sich nur mit einem Rechtsklick auf den Fensterrahmen oben schließen.

Ist jetzt zwar nicht wirklich schlimm, aber ich glaube nicht, dass das so beabsichtigt war. Mit ESC kann man das Fenster übrigens auch nicht schließen…

31. Oktober 2011

Keinen Monat nach dem Ende des Humble Frozen Synapse Bundle ist nun das Humble Voxatron Debut erschienen. Das “Bundle” beinhaltet wieder nur einen Titel – Voxatron. Und wieder ist das Spiel einfach nur klasse… :)

Auf der Humble Bundle Homepage wird Voxatron ein “old-school-gone-new platform shooter” genannt. Das, finde ich, trifft es recht gut. Die Grafik ist sehr grob. Die Umgebung und die Figuren sind aus Blöcken/Voxels zusammengesetzt. Auch der Sound erinnert an “längst vergangene Tage”. Trotzdem ist das Gameplay aber natürlich nicht altmodisch.

Wichtig ist, zu wissen, dass das Spiel derzeit als Alpha-Version verkauft wird. Kommende Updates bekommt man als Käufer des Humble Bundles aber.

Ein Video findet sich ebenfalls auf der Bundle Homepage. Das lässt schon sehr gut erahnen, wie das Spiel läuft.

Für diejenigen, die das Humble Bundle bislang noch nicht kennen, hier ein paar Stichpunkte:

  • Das Angebot gilt nur zeitlich begrenzt (~ 14 Tage).
  • Das Bundle kann zu einem selbst bestimmten Preis bezogen werden. Bezahlt wird per PayPal, Amazon Payments oder Google Checkout.
  • Der Download kann kurz nach der Bezahlung begonnen werden. Der Key zur Downloadseite soll unbegrenzt bestehen bleiben.
  • Die angebotenen Spiele laufen i.d.R. auf den großen drei Plattformen: Windows, Mac und natürlich Linux.
  • Der bezahlte Preis kann beliebig auf die Spiele-Entwickler, das Humble Bundle und auf zwei wohltätige Organisationen aufgeteilt werden.

Weitere persönliche Eindrücke vom Spiel werde ich in den nächsten Tagen in diesem Artikel online stellen – nachdem ich das Spiel noch etwas besser kennen gelernt habe…

UPDATE 02.09.2011:

Mittlerweile wurde das Bundle zum echten Bundle, in dem es um zwei Spiele erweitert wurde (die beiden anderen Spiel gibt’s allerdings nur dazu, wenn man mehr als den Durchschnittspreis bezahlt). Zudem, denke ich, kann ich nun zu allen Spielen etwas schreiben:

Voxatron

Ein tatsächlich cooles Spiel. Die Grafik ist der Hit: alles ist aus Voxels (soz. ein 3D-Pixel) zusammengesetzt, der Raum, die Gegenstände usw. Wenn man auf Gegenstände schießt, entstehen daran Schäden, man schießt also Voxels aus dem Gegenstand heraus. Und wenn es schneit, dann sieht das so aus, dass Voxels vom Himmel kommen und diese liegen bleiben.

Grafik, Sound und Fun sind also gegeben. Wie lange das Spiel begeistern kann ist tatsächlich noch offen. Toll ist natürlich auch der integrierte Level-Editor. Wer will kann einfach von der Community erstellte Levels spielen. So gibt es z.B. ein Level, in dem ein User den Raum wie einen Mac-Shop aussehen ließ (das derzeit wohl beliebteste User-Level).

Mit der Steuerung kämpfe ich immer noch etwas – ist aber machbar. Der Adventure-Modus kann schon relativ hart sein. Dabei stört mich etwas, dass man nicht mehr in alte Räume zurück kann und dort vielleicht noch Gegenstände einsammeln kann. Ist man zu Beginn eines Raumes stark geschwächt muss man den Raum wohl oder übel so überstehen.

Übrigens merkt man dem Spiel seinen Alpha-Status überhaupt nicht an!

Blocks That Matter

(Derzeit) das Spiel im Bundle mit dem besten Spiel-Prinzip. Vereinfacht gesagt, steuert man einen Roboter der durch eine zweidimensionale Welt läuft und springt. Er kann á la Mario “Steine” auflösen – per Sprung von unten dagegen. Diese Steine wandern dann aber ins Inventar des Roboters. Genauso Steine, die seitlich mit einem Bohrer angebohrt werden. Aus den gesammelten Steinen, kann/muss man sich dann im Puzzle-Modus Brücken und Stufen bauen, um ans Ziel zu kommen.

Nicht leicht zu erklären. Schaut euch das Video auf der Webseite des Spiels an!

Ein Hinweis noch für die Installation unter Ubuntu: das Programm ist wohl in Java geschrieben, daher braucht man ein JRE – das sollte ja aber i.N. schon vorhanden sein. Außerdem müssen per Paketverwaltung noch die beiden Pakete libopenal1 und liblwjgl-java installiert werden. Vorher lässt sich das Programm nicht starten. (gilt wohl nur für die .tar.gz-Variante. Wenn man das .deb-Paket installiert ist das nicht notwendig)

The Binding of Isaac

Ein für mich enttäuschendes Spiel. Ich kann wirklich nicht so richtig erkennen, was hier den Reiz ausmachen sollte. Die einleitende Story war eigentlich noch ganz nett. Das Spiel danach war dann aber mehr als langweilig…

pssst, weitersagen!
  • Facebook
  • Twitter
  • Delicious
  • Digg
  • Google Buzz
  • StumbleUpon
  • Add to favorites
  • Email
  • RSS

Der schon vor einiger Zeit angekündigte Serverumzug zu einem anderen Anbieter und Wechsel von einem Webhostingpaket zu einem vServer ist jetzt endlich abgeschlossen. Probleme gab es erstaunlicherweise so gut wie gar keine.

Als Anbieter hat Strato das Rennen gemacht. Das Preis/Leistungsverhältnis hat einfach gestimmt (simple Studenten-Rechnung: Je teurer und leistungsfähiger der Server, desto weniger 5-Minuten-Terrine im Schrank. Und was würden wir ohne Konservenfutter nur tun? :P) Leider hört man zu Strato einige negative Berichte, die aber auch alle ein wenig älter sind… Allerdings gehören zu jedem größeren Anbieter enttäuschte Kunden und schlechte Kritiken. (ich habe echt keinen mit einer ganz weißen Weste gefunden) Also probiere ich das jetzt einfach aus. Sollte es Probleme geben, so kann ich aber relativ einfach kündigen und wieder den Server wechseln, daher ist das Risiko denke ich gering. (obwohl der Frustfaktor und die zusätzliche Arbeit wohl hoch wäre)

Die alte Website auf den neuen Server zu bringen war erstaunlich einfach: Ich hatte in der Zeit zuvor alles, was auf dem Server lag in einzelne, unabhängige Module zerlegt. (Der vorige Webspace wurde nicht nur von mir genutzt, sondern auch von ein paar anderen Leuten. Außerdem lief einiges an Software (Foren, Bildergalerien, etc.) darauf, was teilweise durch hässliche PHP-Hacks miteinander verbunden war.)

Diese einzelnen Stücke, meistens bestehend aus einer MySQL-Datenbank oder einigen Tabellen daraus, PHP-Scripten und HTML konnte ich dann einzeln auf den neuen Server schieben, während auf dem alten noch alles weiter lief. Dann war für das “veröffentlichen” der Module auf dem neuen Server sobald alles stabil lief nur noch eine Änderung der DNS-Einstellungen nötig.  :) Die Ausfallzeit war marginal, einzige Probleme gab es mit dem Umzug der Domains: Zum einen hatte ich den Aufwand nicht bedacht, mit dem der Umzug einer .net-Domain verbunden ist (zig Unterschriften & Ausweiskopie per Post/Fax versenden). Zum anderen hatte der Umzug ziemlich merkwürdige Seiteneffekte: So waren teilweise Subdomains kurzzeitig mit anderen Zielen als vorgesehen verknüpft, die Haupseite durch das Standard-Schild (“Hier entsteht eine neue Homepage!”) ersetzt mit der IP des alten Servers als Ziel, während ein Unterordner (example.com/blah) verfügbar war und auf die IP des neuen Servers zeigte… Wie das möglich war ergibt sich mir noch immer nicht, das sollte soweit ich weiß technisch gar nicht gehen… Nach drei Tagen jedoch waren die Probleme weg und alles funktionierte wie geplant. (naja, fast – PHP wollte noch eine kleine Sonderbehandlung)

Zu den technischen Details: Auf dem Server läuft – hätte bestimmt kein Leser dieses Blogs vermutet :P – Debian Squeeze mit PHP, MySQL, Perl und Python. Als Webserver wollte ich zunächst Lighttpd verwenden (mein Standard-Testserver), da aber auch Nginx ganz interessant aussah, habe ich beides ausprobiert. Relativ schnell bin ich dann auch auf Cherokee gestoßen. Dieser Webserver verspricht ähnliche Performance wie Lighttpd und Nginx (soll angeblich sogar besser sein) und bietet als besonderes Feature eine grafische Konfigurationsoberfläche (webbasiert).

Da ich auf dem neuen vServer zunächst wenig kaputtmachen konnte (es war ja noch kein Inhalt da) und ich eh ziemlich experimentierfreudig bin, habe ich beschlossen – nach der Installation und Konfiguration von Nginx, welche wirklich nicht so schwer ist, wie gedacht (man muss auch kein Russisch mehr dafür können!) – doch auch mal Cherokee auszuprobieren. Die GUI-Konfiguration habe ich dabei zunächt nicht benutzt, da mir das doch etwas “seltsam” vorkam, einen Server grafisch einzurichten. Inzwischen gefällt mir die Oberfläche jedoch recht gut, vor allem da man eventuelle Probleme in einer übersichtlichen GUI manchmal schneller findet als in einem oder mehreren config-files. Cherokee wird aktiv entwickelt, Bugs werden (anders als es offenbar bei Lighttpd bei einigen Bugs zugeht) schnell behoben und es existiert eine kleine Community. Die mangelnde Apache-Kompatibilität ist manchmal etwas lästig, ansonsten ist Cherokee aber sehr einfach zu verwalten.

Ich setzte den Server jetzt auf allen Seiten produktiv ein und hoffe, dass alles weiterhin so gut läuft :) . Verglichen mit vorher laden alle Websiten merklich schneller und die “Error 505″-Fehler sind nun auch alle passé. Die Performance von Cherokee ist schonmal absolut ausreichend und ist zu Spitzenzeiten sogar geringfügig besser als die von Lighttpd (zu Nginx habe ich keine Daten – man kann “Lastbetrieb” auch nur schwer simulieren. Ein DDoS-Angriff zum Webservertest wäre mal cool :P )

    Ubuntu läuft bereits heute auf Tablets wie dem WeTab

    Mark Shuttleworth hat in einem Interview mit ZDnet erzählt, dass er nach Fertigstellung von Ubuntu 12.04 (Precise Pangolin) den Umfang des Betriebssystems auf weitere Geräte ausbauen möchte. Er sieht das als eine weitergehende Interpretation des Ubuntu-Slogans „Linux for Human beings“, weswegen nun auch Smartphones, Tablet PCs und intelligente Fernseher als Hardware für Ubuntu herhalten sollen.

    Einige Stimmen, z.B. der Ubuntu Community Manager Jono Bacon, sehen hier auch den Grund dafür, dass Unity von Canonical entwickelt wird. Diese Oberfläche soll wohl für Tablets besonders geeignet sein (auch wenn wir da anderer Meinung sind).

    Bisher wurde allerdings noch nicht ernsthaft damit begonnen. Shuttleworths erste Schätzung sagt, dass ab Ubuntu 14.04 (Talented Tiger?) damit zu rechnen ist, dass Ubuntu auf Smartphones und anderen Geräten zu rechnen ist.

    Ich halte das für eine gute und interessante Idee. Wie wir wissen ist es ja bereits heute möglich, Ubuntu auf einem Tablet-PC laufen zu lassen (Video). Dennoch ist es momentan noch ziemlich aufwendig, Ubuntu auf Touchbedienung umzurüsten. Momentan läuft es noch komplett als Computer Betriebssystem, von Kernel und der Oberfläche gibt es keine explizite Anpassung auf das WeTab (abgesehen von zusätzlichen Paketen). Dementsprechend frisst Ubuntu auch noch unnötige Ressourcen, wenn man es auf einem Tablet laufen lässt.

    Bis Ubuntu auf Smartphones salonfähig wird, wird es meiner bescheidenen Meinung nach noch länger als bis April 2014 dauern. Dafür muss sich auch auf dem Smartphonemarkt noch einiges tun. Am schönsten wäre es sicherlich, wenn es einen offenen Bootloader gäbe, so dass man (analog zum PC) ein beliebiges Betriebssystem installieren kann. Außerdem ist eine weitere (neben Android?) Linuxkonkurrenz zu den bisherigen OS für Smartphones gut angebracht!

    Fazit: Rein technisch gesehen ist Ubuntu schon bereit für den Angriff auf Smartphones und Tablets. Es gibt ja mittlerweile sogar einen „echten“ App-Store, mit kommerziellen, proprietären Programmen. Dennoch muss man noch einige Entwicklungen im Umfeld abwarten, bis sich hier wirklich etwas ändert. Ob sich aber tatsächlich Unity durchsetzen wird, oder das das praktischere Gnome 3, wird sich wohl erst in den nächsten Monaten/ Jahren zeigen.

    Hallo liebe Community,

    dies ist ein Brief an euch.
    Ich habe das Problem, dass ich Archlinux gerne auf meinen Rechner auf eine Partition installieren möchte. Der Partitionierungseditor von Arch ist zu rudimentär um dieses Problem zu lösen. Ich kann dort eine Partition nicht verkleinern. Er versteht auch kein ext-Dateisystem.

    Nun habe ich eine Frage: Kann ich Arch auf einer vorher erstellten Erweiterten Partition installieren? Auf eine Partition die ich mit GParted erstellt habe?

    Wenn mir jemand helfen kann, der melde sich gerne über die Kommentarfunktion oder per E-Mail.

    Vielen Dank,

    Maik 

      Vor ein paar Tagen (mittlerweile Wochen) hat das Designteam von Canonical ein Werbevideo für Ubuntu Oneiric Ocelot veröffentlicht. Das Video wird auf Youtube verbreitet. Gleichzeitig gibt es im Blogeintrag von Iain Farrell den Aufruf, die Rohdateien herunterzuladen und in die eigene Sprache zu übersetzen. Wahlweise kann man diese oder eigene Materialien verwenden, um einen völlig eigenen Werbeclip für diese Linuxdistribution zu schneiden.

      Ich bin diesem Aufruf nun nachgekommen. Aus Bequemlichkeit habe ich auf zusätzliches Videomaterial verzichtet (liegt wohl auch daran, dass ich bisher noch Natty verwende ;) ) und mir erlaubt, die Werbebotschaften teilweise frei zu übersetzen.

      Das Video könnt ihr hier im Blog bzw. auf unserem Youtubechannel ansehen. Ich wünsche euch viel Spaß dabei :)

      http://www.youtube.com/user/bejonetblog#p/a/u/0/gEtrnuMElM4

      Weitere Sprachen:

      30. Oktober 2011

      Wieder ist ein Monat vorbei und pünktlich dazu steht das Invertika Update an. In diesem Update hat sich eine ganze Menge getan.

      Auf der Mapseite wurde der Greganyzoo erweitert und Burg Cedric wieder aufgebaut. Neben der Burg gibt es nun auch die sogenannte Bolereohöhle in der der Guffer zu finden ist. Auf Burg Cedric gibt es nun eine kleine Feier welche den Wiederaufbau feiert (jeden Tag um 18 Uhr). Die Anzahl der Bankfilialen im Spiel hat spürbar zugenommen und einige Banken (wie die in Rostock) haben nun ihr eigenes Gebäude. In Selphi Timlet wurde der Fluchttunnel und das Ta No Hauptquartier ausgebaut, sowie ein gut versteckter Shop eingebaut. Auch die Stadt Umora wurde an vielen Stellen verbessert. Neben den Banken gibt es auch eine Reihe von neuen Netheksäulen quer im Spiel verteilt, an welchen der Spieler den Segen empfangen kann. Die verlassende Wüstenfestung wurde auch aufgebaut und sieht nun recht „wohnlich“ aus.

      Auch gibt es nun eine ganze Menge neue Innenmaps, so das viele Häuser nun auch betreten werden können. Daneben wurde viele kleinere Fehler wie Kollisionsfehler, fehlerhafte Warps oder Unschönheiten behoben (z.B. in der Missusarena oder am Nearisee) sowie das Wegesystem ausgebaut.

      Auf der Skriptingseite hat sich auch vieles getan, so wurden einige Quest repariert und auch wiederholbar gemacht. Im Bankerskript wurden einige kleinere Fehler behoben sowie erste Arbeiten an der Rennlogik für die Missusarena getätigt. Neben kleineren Fehlern wie Rechtschreibfehlern gab es auch Korrekturen an der NPC Bibliothek und den Grabsteinen in Lyet. Auch am Entwicklertisch in Invertika gibt es einen Neuzugang, welcher dort besucht werden kann.

      Im Allgemeinen wurde wieder vieles ausbalanciert wie die Monsterpräsenz in manchen Gebieten sowie deren Itemverteilung. Auch wurden einige NPCs in ihrem Aussehen angepasst und viele neue NPCs dem Spiel hinzugefügt. So wurden auch einige neue Items wie z.B. diverse Hosen, ein Zeiteisen und ein MacGuffin hinzugefügt. Auch Mammuts sind nun im Spiel zu finden.

      Grafisch wurden einige Tilesets erweitert um den Mappern noch mehr Möglichkeiten zu geben. Auf der Toolsseite gabe es einige Arbeiten an der GTK Version des Invertika Editors sowie einige Anpassungen an die neue MonoDevelop Version.

      Auf der Serverseite wird im Moment an einer Implementation von AngelScript gearbeitet, welche dann zur bevorzugten Skriptsprache in Invertika werden soll da sie einige Vorteile wie z.B. die Unterstützung von Klassen bietet. Beim Client wurde die Enet Bibliothek nun statisch in den aktuellen Client kompiliert um Probleme mit der neuen Enet Version von Ubuntu zu vermeiden.

      Wer jetzt neugierig geworden ist, der kann uns unter http://invertika.org besuchen. Eine Übersicht über die Welt gibt es dabei bei http://weltkarte.invertika.org/.

      29. Oktober 2011

      Wem der Look der Ubuntu-Schriftarten zu rund ist, der braucht Alternativen. Im folgenden habe ich 5 freie Schriften zusammengetragen, die sich besonders gut für das User-Interface eignen.

      Droid Sans

      Freie Schrift Droid Sans

      Die Droid Sans ist meiner Meinung nach die beste Schrift, die es für Benutzerschnittstellen gibt - das schließt auch kommerzielle Schriften mit ein. Ursprünglich würde sie für das Handy-Betriebssystem Android enwickelt. Sie eignet sich neben Handys besonders gut für (kleinere) Laptops. Die Lesbarkeit der Droid Sans ist exzellent; insgesamt wirkt sie größer als die meisten anderen Schriften.

      Liberation Sans

      Freie Schrift Liberation Sans

      Die Liberation Sans wurde von Red Hat als Ersatz für die hässliche Arial in Auftrag gegeben - die Buchstaben haben die gleiche Höhe und Breite.

      PT Sans

      Freie Schrift PT Sans

      Die PT Sans entstammt einer Schriftfamilie der russischen Förderation. Der Charakter der PT Sans ist sehr klar und sie hat einem großen Zeichensatz.

      Carto Gothic

      Freie Schrift Carto Gothic

      Die Carto Gothic lehnt sich an die Myriad Pro von Adobe an und hat ein wenig dickere Linien als die meisten Schriften.

      M Plus

      Freie Schrift M Plus

      Die M Plus ist eine junge freie Schrift mit einem riesigen Zeichensatz und ausgezeichneter Lesbarkeit.

      Bonus-Schrift: Roboto

      Freie Schrift Roboto

      Aus aktuellem Anlass packe ich die neue Roboto für Android 4.0 noch mit in diese Liste. Damit seid ihr so was von modern. Immerhin gibt es ja noch kaum Android 4.0 Geräte auf dem Markt.

      28. Oktober 2011

      Wie TiPb berichtet, steht der verlustfreie Audio-Codec ALAC (Apple Lossless Audio Codec) künftig unter der Apache-Lizenz 2.0 und ist somit Open Source. Apple hat damit ALAC zu dem gemacht, was FLAC (Free Lossless Audio Codec) schon von Anfang an war, nämlich verlustfrei und quelloffen.

      Nach der Jobs-Ära scheint man in Cupertino einen Schritt in die richtige Richtung zu machen. Besonders Hersteller von Multimediageräten dürften sich über diese Nachricht freuen, lässt sich der Codec doch nach der Freigabe des Quellcodes einfacher in die Geräte implementieren.

      ALAC ist nun frei, doch es dauert wohl noch ein bisschen, bis Apple zum Linux-Kernel beiträgt. ;-) Bild: fl0914 / BY-NC-SA 3.0

      Ich bin gespannt, ob sich ALAC dadurch verbreiten wird oder ob die Hersteller weiterhin eher FLAC als verlustfreien Sound-Codec einsetzen.

      An sich ist es sowohl für die Hardwarehersteller als auch für die Community eine gute Nachricht. Schliesslich gilt der Mac-Hersteller in Sachen freier Software sonst eher als zurückhaltend und restriktiv. Vielleicht ist es auch ein erstes Zeichen, dass sich Apple in Sachen Open Source nun mehr engagiert.

      Ob der IT-Konzern mit dem Apfel-Logo nun auch noch den verlustbehafteten AAC-Codec (Apple Audio Codec) – als Alternative zu zu OGG Vorbis – unter eine freie Lizenz stellt, bleibt abzuwarten.

      Wie dem auch sei, ich bleibe jedenfalls beim bewährten FLAC-Codec bzw. bei OGG Vorbis – der Mensch ist halt doch ein Gewohnheitstier. :-)

      27. Oktober 2011

        Eine ganz tolle Sache an Ubuntu ist meiner Meinung nach das Notify-OSD. Die laufenden Programme können über eine Schnittstelle darauf zugreifen und uns Benutzer über neue Aktivitäten informieren. Klassischer Anwendungsfall sind z.B. ankommende Chatnachrichten, neue E-Mails oder wechselnde Musiktitel.
        Diese Art der Kommunikation mit dem Benutzer kann man auch dazu nutzen, um über das aktuelle Weltgeschehen informiert zu werden. Ich stelle nun drei Wege vor, wie man das Notify-OSD hierfür nehmen kann.

        Liferea und RSS-Feeds

        Mit dem GNOME-eigenen RSS-Feedreader Liferea kann man bequem die Feeds seiner Lieblingsnachrichtenseiten abonnieren. Das Programm ist sehr leicht und verständlich aufgebaut und lässt sich intuitiv bedienen. Über den +Button kann man neue Abos hinzufügen, diese erscheinen dann in der Liste und werden regelmäßig aktualisiert. Nun muss man in den Einstellungen noch an der richtigen Stelle einen Haken setzen, und schon wird man über neue Nachrichten informiert. ABER: Man sieht nur, DASS es neue Nachrichten gibt, nicht wie sie lauten.
        Wer sich dennoch dafür interessiert, mit folgendem Befehl bekommt ihr das Programm:

        sudo apt-get install liferea

        RSS-Aware

        Ein relativ unbekannter RSS-Reader ist RSS-Aware. Für diesen gibt es bisher keine PPA, aber mit dem beiliegendem Installationsskript ist es dennoch sehr einfach, das Programm zu installieren (siehe unten).
        Das Programm nistet sich als Tray-Icon in das Gnome-Panel ein und informiert über das Notify-OSD über neue Artikel. Im Gegensatz zu Liferea wird hier nicht nur die Nachrichtenquelle, sondern auch die zugehörige Überschrift geliefert, was als Breaking News gesehen werden kann.
        Über das Tray-Icon sieht man dann auch eine Liste mit den Überschriften und kann mit einem Klick den vollständigen Artikel im Browser laden. Für den hier vorgestellten Anwendungszweck dringend zu empfehlen!
        Die Installation läuft hier so ab: Das Paket von der Homepage herunterladen, entpacken und im Terminal in den Ordner navigieren. Danach das Installationsskript im Terminal ausführen:

        cd /pfad/zum/rss-aware-VERSION
        ./rss-aware-install.sh
        [Passworteingabe zur Installation]
        python /usr/bin/rss-aware.py

        Der letzte Befehl startet das Programm. Über das Tray-Icon können nun neue Feeds in ein Textdokument hinzugefügt werden. Um das RSS-Aware beim Systemstart zu starten, solltet ihr diesen Befehl zu den Startprogrammen hinzufügen.

        Gwibber und Twitter

        Da mittlerweile nahezu jede Nachrichtenseite einen Twitter-Account hat, kann man auch dies ausnutzen, um die Breaking News zu bekommen. Gwibber ist in den noch unterstützten Ubuntuversionen entweder schon vorinstalliert oder kann mittels

        sudo apt-get install gwibber

        nachinstalliert werden.
        Nun muss man sich einen Twitteraccount anlegen und die Nachrichtenseiten abonnieren. Den Twitteraccount kann man mit Gwibber verbinden und so einstellen, dass jede ankommende Nachricht im Notify-OSD erscheint.
        Der Vorteil dieser Methode liegt darin, dass erstens die Nachrichtenseiten das wichtigste in 140 Zeichen zusammenfassen, das Notify-OSD also nicht überladen wird. Außerdem verbraucht Gwibber als Daemon weniger Ressourcen als Liferea, welches komplett laufen muss. Außerdem zeigt Gwibber bei den Nachrichten auch das Logo der Nachrichtenseite an, was ich sehr komfortabel finde.
        Obwohl Gwibber als Daemon ziemlich schlank ist, ist das Interface quasi unbenutzbar, weil es furchtbar träge ist. Doch nach der einmaligen Einrichtung läuft es problemlos.

        Links sind im Notify-OSD übrigens nicht anklickbar, außer den Breaking News sieht man hier also wirklich nichts!