ubuntuusers.de

18. Dezember 2009

GlühbirneIBM developerWorks hat mal die für sie wichtigsten 10 Linux Entwicklungen im vergangenen Jahrzehnt in einem kleinen Artikel zusammengefasst.

Mit dabei sind zum Beispiel das LPI, Samba, SELinux, LiveCDs, Virtualisierung und das OLPC-Projekt.

Wie schauts bei euch aus? Was steht auf eurer Liste der besten Entwicklungen im Linuxbereich?

Bildquelle: [brokenarts|sxc.hu]

Tags: | | | |

Einige werden es ja wissen, dass ich aktuell an meiner Masterthesis arbeite und dafür Akonadi aus der KDE Plattform in Version 4.4 einsetze. Es ist für meine Aufgabenstellung die perfekte Lösung. Nun nutze ich viele der Neuerungen in KDE SC 4.4 – nicht nur von Akonadi, sondern auch die neu Lösung des Systemabschnitts (Status Notifiers).

Nun hatte ich das Problem, dass ich das ganze schlecht testen konnte. Da die Status Notifier in KDE SC 4.3 nur experimentell waren und die API sich geändert hat, konnte meine 4.4 Anwendung nicht mit dem 4.3 Workspace „sprechen“ und die Funktionalität war nicht vorhanden. Meine Lösung für das Problem ist eigentlich ein zweiter X Server in dem eine reine 4.4 Sitzung läuft. Unglücklicherweise meint mein System aktuell sich aufzuhängen, wenn ich zwischen X Sessions wechsel. So auch heute als ich wieder testen wollte.

Da ich mittlerweile soweit bin, dass ich über den Einsatz im Produktivsystem nachdenke (d.h. ich vertraue meiner Implementierung so weit, dass ich sie auf meine E-Mails loslassen werde und keine Angst mehr vor Datenverlust habe) brauche ich eine 4.4 Sitzung. Also nach dem freeze bedingten Neustart hat es mir gereicht und anstatt in die 4.3 Sitzung hab ich zum ersten Mal mein Produktivsystem in das selbstkompilierte 4.4 gestartet.

Bisher hatte ich 4.4 immer nur zum Testen eingesetzt und das ist ja nicht wirklich vergleichbar. Nun sehe ich also zum ersten Mal im produktiven Einsatz die Früchte der Arbeit des letzten halben Jahres. Und ich bin wirklich begeistert. Das System fühlt sich bedeutend flüssiger an, die leichten Animationen fallen nicht störend auf, sondern machen das System angenehmer. Auch meine eigenen Implementierungen machen sich sehr gut: Alt+Tab ist eine tolle Verbesserung im Vergleich zu vorher und auch Aurorae gefällt mir gerade sehr gut – mittlerweile gibt es ja einige nette Themes. Von den anfänglichen Performance Problemen merke ich auch nichts mehr. Generell ist das Vergrößern der Fenster bedeutend angenehmer geworden.

Insgesamt fühlt sich 4.4 schon sehr rund an. Die Veränderungen sind größtenteils gering aber sehr nützlich. Hier sei bespielhaft die Verbesserungen von KRunner erwähnt: das Interface erscheint nun von KWin animiert an der oberen Bildschirmkante, die Einstellungen sind direkt in das Interface integriert und es gibt bedeutend mehr und sinnvolle Runner (auch einen von mir ;-) ).

Mit der jetzt von mir eingesetzten Version, die in etwa der Beta 2 entspricht, bin ich sehr zuversichtlich, dass 4.4 ein tolles und rundes Release wird. Wenn man mal überlegt wo die Community vor zwei Jahren stand… Nun haben wir die Säulen mit Nepomuk und Akonadi endlich integriert und der KDE Plasma Desktop ist einfach nur umwerfend. Ich war ja schon von 4.0 begeistert (vom technischen Standpunkt aus gesehen), aber dass sich das Produkt so hervorragend entwickelt, hätte ich dann doch nicht für möglich gehalten. Wer jetzt noch KDE 3.5 will, ist selber Schuld ;-)

=-=-=-=-=
Powered by Blogilo

Doppelte Dateien unter Ubuntu mit fslint finden

Doppelte Dateien unter Ubuntu mit fslint finden

Mit zunehmender Nutzungsdauer von Systemen, nimmt auch der Datenmüll auf diesen zu, dopplte Dateien, seien es Bilder oder Musikdateien, sind ein übliches Vorkommnis. Es gibt jedoch Mittel und Wege gegen dieses Übel, eines soll hiermit vorgestellt sein: fslint eine GUI um doppelte Dateien aufzuspüren und das System von unnötigem Ballast zu befreien.

Ubuntu bringt zwar den Computer Janitor mit, diese eignet sich jedoch nur für Überbleibsel in Bezug auf Pakete und nicht mehr benötigte Konfigurationsdateien. Fslint geht einen Schritt weiter, so werden die Arbeiten des Computer Janitors (Installierte Pakete usw.) übernommen, sowie doppelte und temporäre Dateien, leere Verzeichnisse und mehr bereinigt/entfernt.

Die Installation ist dank Apt schnell erledigt, das zu installierende Paket nennt sich fslint. Danach findet sich die GUI unter den Systemprogrammen und kann von dort gestartet werden.

Das Home Verzeichnis ist die Vorauswahl, nach dem Programmstart und wird rekursiv durchsucht. Weitere Verzeichnisse, bzw. das komplette Dateisystem lassen sich schnell hinzufügen und ebenfalls durchsuchen.

Die Suchergebnisse werden sauber aufgelistet, die gleichen Dateien gruppiert und mit Pfad angezeigt. Zur eigene Sicherheit kann man aus der Liste in den die Datei beinhaltenden Ordner wechseln und schauen ob die Datei dort nötig ist, bzw. sie direkt löschen.

Ein sinnvolles Tool für alle die Platz und Ordnung schaffen wollen und sich mittels “fdupes” auf der Kommandozeile tendenziell schwer tun.

In der Nacht auf heute habe ich dieses Blog umgezogen. Bisher lag es bei dem Schweizer Hoster cyon. Ein kleines und sympathisches Unternehmen, das ich immer wieder gerne empfohlen habe. In letzter Zeit mehrten sich aber die Herausforderungen wieder; nichts Schlimmes und nichts, was nicht rasch mit einem Mail oder Telefon hätte behoben werden können. Aber ich betreibe bei HostEurope noch ein virtuelles Serverli, das auch etwas kostet und jene Maschine will ich etwas besser nutzen. Deswegen hab ich nun dieses Blog dorthin umgezogen.

UbuntuAuf dem Virtual Server Linux XL 3.0 läuft noch immer ein gutes, altes Dapper. In der Server-Version wird dieses Ubuntu noch immer aktiv von Canonical unterstützt. Zwar steht nicht die neueste PHP-Version zur Verfügung, aber immerhin ist schon 5.1.xx da. Ansonsten sehe ich – ausser beim Kernel – keine grossen Unterschiede zur nächstfolgenden Version namens Hardy. Aber unter der Haube und inmitten einiger Bibliotheken wird es wohl schon Unterschiede geben. Wir werden übrigens in der kommenden Ausgabe von DeimHart auf die verschiedenen Varianten von Ubuntu-Servern und Desktop-Varianten und deren Support-Unterstützung in der Zeitlinie eingehen.

Mit dem Umzug fällt nun auch die mittlerweile schon fast historisch angehauchte Subdomain ubuntu.yoda.ch definitiv weg, auf der dieses Blog erreichbar war. Das Wiki mit den Informationen zu den Ubuntu-Partys werde ich so rasch wie möglich wieder bereitstellen. Jene Seiten sind dann wie zuvor unter party.ubuntublog.ch wieder zugänglich. Aufgrund der Umstellung gab es wohl die eine oder andere Störung; die sollten nun aber behoben sein. Sollte etwas nicht so funktionieren, wie es müsste, bitte ich um eine kurze Nachricht. Danke!

Ähnliche Artikel

DeimHartBeim wohl abschliessenden Podcast in Form eines ShortCasts in diesem Jahr durften Dirk und ich auf DeimHart den legendären Jan Tissler per Telefon befragen und mit ihm über die Welt der Online-Community sprechen. Es hat riesig Spass gemacht, mit einem Menschen zu diskutieren, der viel von seiner Arbeit versteht und dennoch niemals abgehoben wirkt. Jan ist vor allem bei T3N aktiv, wirkt aber auch bei dem Upload-Magazin und auf Twitter.

Jan sprach auch über unsere Zunft, über Barcamps und die technische Entwicklung im Allgemeinen. Wir lernen dadurch immer mehr dazu; so macht die Arbeit mit DeimHart Spass und ist immerzu spannend. Der aktuelle ShortCast – der Name passt hier eigentlich nicht, denn das Gespräch dauert immerhin 30 Minuten – steht hier für den Download bereit.

Bei dieser Gelegenheit haben wir den neuen Telefon-Konferenz-Dienst talkyoo.net, welcher eine MP3-Datei ausspuckt, ausprobiert. Da wir das Ergebnis im Voraus nicht abschätzen konnten, haben wir alle drei mit unseren Aufnahme-Geräten gearbeitet und unsere eigene Stimme aufgezeichnet. Diese haben wir dann zum Schluss zusammengefügt. Zum Glück, denn die mp3-Datei taugt zu wenig für einen Podcast.

Sorry Jan, ich habe leider kein sz auf meiner Tastatur, deswegen heisst Du hier und auf DeimHart Jan Tissler ;-)

Ähnliche Artikel

17. Dezember 2009

Es gibt eine heiße Diskussion, bzw. Streit, bzw. Gerichtsverfahren zwischen der Europäischen Union und dem amerikanischen Konzern Microsoft. Und dabei gibt es ein neues Ergebnis:

Die Käufer eines neuen PCs werden dann in naher Zukunft einen Auswahldialog finden, der ihnen die Wahl zwischen fünf verschiedenen Browsern gibt. Neu dabei ist: Dieser Auswahldialog findet sich nicht mehr im Internet Explorer. Um die neutrale Auswahl weiterhin zu gewähren, wird die Reihenfolge der 5 installierbaren Browser bei jedem Fensteraufruf per Zufallsgenerator sortiert.

Die fünf Browser sind:

Die Frage die sich mir stellt: Braucht Ubuntu so etwas auch? Wie wäre es mit einem Auswahldialog bei der Installation des Systems, dass dem Benutzer die Möglichkeit gibt, zwischen Browsern, Chatclients, Bildbearbeitungsprogrammen, Fenstermanagern etc. zu wählen? Klar: Das würde die Installation nur unnötig verlängern und den sowieso schon knappen Platzbedarf auf dem Installationsmedium verschwenden. Wer was ändern möchte, kann das ja nachträglich tun, doch dieses Argument gilt auf für Windows ;-)

Artikel teilen: Digg del.icio.us Facebook Google Bookmarks Identi.ca Reddit Slashdot Twitter Yahoo! Buzz Yigg MisterWong.DE

rssUm bestimmte Beiträge des Blogs im Planeten erscheinen zulassen, hab ich wie bereits beschrieben einen Feed einer bestimmten Kategorie erstellt.
http://noqqe.de/?feed=rss&cat=ID_364

Nach kurzer Rücksprache mit Ritze vom Ubuntuusers-Team ergab sich aber das mit dem generierten Feed was nicht stimmt. <published> und <updated> Tags würden fehlen und somit liess sich der Feed nicht in den Planeten einbinden. Ich begann meinen Feed mit anderen Blogfeeds des Planeten zu vergleichen. Diese rief ich immer mit http://blog.de/?feed=rss auf. Mysteriöserweise erkannte ich nie Unterschiede.

Am End war trotzdem nur eine einzige Ziffer ausschlaggebend.
http://noqqe.de/?feed=rss&cat=ID_364

http://noqqe.de/?feed=rss2&cat=ID_364

Wer erkennt den Unterschied?
Kopf -> Tisch.


Nun bin ich auch auf dem Planeten DER deutschen Ubuntu-Community zu finden, was mich natürlich sehr freut, da es sich bei ubuntuusers.de um eine der größten Linuxgemeinschaften im Lande handelt.

Was könnt Ihr von meinem Blog erwarten? In meinem Blog geht es hauptsächlich um Themen rund um Linux, mit einem Schwerpunkt auf Debian, Arch und Fedora. Schaut Euch einfach mal um, evtl. sind für Euch schon ein paar interessante Artikel dabei. :)

16. Dezember 2009

Linux-Maskottchen Happy TuxTausende von Servern laufen ohne irgendeine Aktivität 24 Stunden am Tag, 7 Tage die Woche und 365 Tage im Jahr. Aber wenn kein Client im Netzwerk aktiv ist muss in den meisten Netzwerken auch kein Server mehr aktiv sein. In meinem Fall läuft der Server auch 24 Stunden am Tag, obwohl dieser auch nur laufen müsste wenn ein anderen Client im Netzwerk aktiv ist. Mein System (NAS, Backup, VDR-Stream und Virtualisierung) hat eine Leistungsaufnahme von 140 W, das entspricht 3,4 kWh am Tag, 100,8 kWh im Monat. Bei 20 Cent pro Kilowattstunde ergibt das umgerechnet 20,16 € im Monat.

Da kommt der c’t-Artikel in der 25. Ausgabe 09 auf Seite 190 gerade richtig.

Flexibler Ladenschluss
Wake on LAN und Schlaf bei Bedarf für Server und NAS
Linux-Server laufen meist den ganzen Tag, was reichlich Strom vergeudet. Ein Skript legt sie immer dann schlafen, wenn niemand mehr im LAN ist, der ihre Dienste braucht.

Der Autor Reik Kaps hat einen sehr interessanten Artikel geschrieben, das aktuelle Skript kann von einem Mercurial-Repository bei Intuxication heruntergeladen werden. (server-sleepd)

Kurz und knapp meine Zusammenfassung

ACHTUNG!Debian vs. Ubuntu Server – Suspend to RAM

Zuerst installieren wir benötigte Software.

aptitude install ethtool mercurial

Danach aktivieren wir Wake On Lan (pre-down ethtool -s eth0 wol g) in der /etc/network/interfaces,…

vi /etc/network/interfaces
# This file describes the network interfaces available on your system
# and how to activate them. For more information, see interfaces(5).
# The loopback network interface
   auto lo
   iface lo inet loopback
# The primary network interface
   allow-hotplug eth0
   iface eth0 inet static
   address 192.168.0.100
   netmask 255.255.255.0
   gateway 192.168.0.1
   dns-nameservers 192.168.0.1
   pre-down ethtool -s eth0 wol g

…mit diesem Befehl testen wir welche Schlafmodien unser System unterstützt.

echo; for i in --suspend --hibernate --suspend-hybrid; do pm-is-supported $i && echo "$(echo $i | tr [:lower:] [:upper:] | tr -d -) is supported"; done; echo 

Nun zum Skript, ich bevorzuge lieber den Namen “sleepmed” an Stelle von “server-sleepd”,…

cd /usr/src
hg clone http://mercurial.intuxication.org/hg/server-sleepd
cp /usr/src/server-sleepd/server-sleepd /etc/init.d/sleepmed

Jetzt passen wir das Skript noch an, es müssen die jeweiligen IPs der Clients und die gewünschte Aktion festgelegt werden.

vi /etc/init.d/sleepmed

Ein paar Codeschnipsel als Beispiel.

# Liste der zu testenden Adressen
# nicht zu überprüfende lassen
# sich auskommentieren
HOSTS=`grep -v ^# <<!
#192.168.0.1 >> Router
#192.168.0.100 >> ...das NAS selber!
192.168.0.100
192.168.0.101
192.168.0.102
192.168.0.200
!`
# shutdown- oder sleep-Befehl samt Parameter
# *BITTE anpassen* /bin/true ist zum testen gedacht!
#
# CMD="/sbin/shutdown -h"
# CMD="/sbin/halt"
# CMD="/usr/sbin/pm-suspend"
# CMD="/usr/sbin/pm-powersave"
CMD="/usr/sbin/pm-suspend"

Das Skript kann dann mit folgenden Optionen gefüttert werden.

/etc/init.d/sleepmed run      #Starte Skript im Vordergrund
/etc/init.d/sleepmed start    #Start als Daemon
/etc/init.d/sleepmed stop     #Stopt den Daemon
/etc/init.d/sleepmed restart  #Neustart des Daemons
/etc/init.d/sleepmed status   #Statusabfrage

Ab jetzt wird fleißig Geld gespart. :mrgreen:

Links:
pm-utils
Schlafmodi
server-sleepd
Flexibler Ladenschluss c’t-Artikel

Update:
Nach dem Suspend to RAM kann das System per Magic Packet (Wake On Lan), von einem beliebigen Client im Netzwerk, wieder aufgeweckt werden.
Linux: wakeonlan 12:23:45:67:89:0a
Windows: Wake.exe 12-23-45-67-89-0a xxx.xxx.xxx.255

Linux-Maskottchen Happy TuxIn den meisten Fällen ist der Ruhezustand und der Bereitsschaftsmodus unter Ubuntu kein Problem mehr. Mit der Linux-Distribution Debian habe ich festgestellt, dass es mit bestimmter Hardware hin und wieder zu Problemen kommt. Das kann daran liegen, dass bei Ubuntu die Pakete wesentlich aktueller gehalten werden.

Server-Hardware:

Board: MSI P45D3 Platinum
CPU: Intel Pentium Dual-Core E2220
RAM: G.Skill DIMM 2GB PC3-10667U
GPU: ASUS Extreme N6200LE TC256
DVB-S2: TechnoTrend S2-3200 HDTV-S2
SYS-HDD: OCZ Throttle eSATA Flash Drive 8GB
DATA-HDDs: Samsung SpinPoint F1 1000GB (HD103UJ)

Die letzten 6 Tage habe ich mich mit dem Bereitschaftsmodus (Suspend to RAM) unter Debian Lenny (ohne X-Server) beschäftigt. Nachdem ich alle erdenklichen Wiki-Einträge, Foren-Threads und Blog-Artikel über dieses Thema gelesen habe, alle möglichen Kommandos inkl. Optionen ausprobiert habe, bin ich zu dem Fazit gekommen > “Was für ein Sch***!”.

Problem: In meinem Fall ist das System beim pm-suspend problemlos in den Bereitschaftsmodus gefahren. Auch die Logdatei /var/log/pm-suspend.log wurde geschrieben, keinerlei Fehlermeldungen. Nach dem Aufwachen sollte jedoch genau in diese Logdatei auch wieder geloggt werden, das geschah nicht. Ein Ping kam circa 5-10 Sekunden nach dem Aufwachen am System an, danach ist es eingefroren. Nach über 30 Minuten warten wachte das System nicht mehr auf. Da keine Logdatei geschrieben wurde ging ich Anfangs davon aus, dass es am eSATA-Stick bzw. dem Kernelmodul liegt. Mittlerweile konnte ich aber den eSATA-Stick, die DVB-S2 Karte, das RAID und die GPU durch Hardwaretausch ausschließen, auch ein neuer Kernel brachte kein Erfolg.

Mit meinem Media-PC unter Ubuntu 9.10 gibt es keinerlei Probleme mit dem Bereitschaftsmodus. Aus diesem Grund wollte ich einen letzten Test mit dem Ubuntu Server durchführen. Dort funktionierte, nach der Installation einiger Pakete, der Bereitschaftsmodus Out-of-the-Box!

Lösung: Vorausgesetzt Ubuntu Server 9.10 ist installiert!

Mit der Installation von pm-utils wird die noch zusätzlich benötigte Software installiert.

aptitude install pm-utils

Bevor das System das erste Mal in den Bereitschaftsmodus gefahren wird, muss es neu gestartet werden.

reboot

Nach dem Neustart kann der Computer problemlos mit…

pm-suspend

…in den Bereitschaftsmodus gefahren werden.

EDIT: Wenn man einen Server ohne Monitor nutzt kann die Datei 99Video aus dem Verzeichniss /usr/lib/pm-utils/sleep.d gelöscht oder verschoben werden.

Links:
pm-utils
Schlafmodi

15. Dezember 2009

Gestern ist mein Blog in den Ubuntuusers-Planet aufgenommen worden! Ich wollte mich mit diesem Post ganz kurz vorstellen(auch wenns ein wenig Offtopic ist^^):
Flo – 20 – Fachinformatiker – LPIC 1 – CiscoCNA Modul 1 – Ubuntuuser seit 3 Jahren

Werde mein möglichstes tun um auch einen Beitrag zur Community zu leisten :)

Freut sich hier sein zu dürfen,
Flo

Da Thunderbird vor ein paar Tagen endlich in der dritten Version mit vielen Neuerungen veröffentlicht wurde, wird es Zeit für ein Upgrade. Wie immer fließen solche Releases erst in zukünftige Ubuntuversionen ein, aber wer will schon so lange warten? Also los geht’s…

Installation

Ich habe einige Möglichkeiten ausprobiert und bin letztendlich bei der Lösung gelandet, die die Paketverwaltung umgeht. Es gibt zwar ein Repository für Thunderbird 3, aber dort ist nur die englischsprachige vorhanden. Außerdem handelt es sich um daily builds. Ich benutze also lieber die offizelle deutsche Version. Diese wird einfach entpackt – zum Beispiel nach /opt/Programme – und kann dann sofort benutzt werden. Der Menüeintrag muss selbst erstellt werden.

Vor dem ersten Start sollte der Ordner ~/.mozilla-thunderbird in ~/.thunderbird umbenannt werden. Schließlich sollen die E-Mails, Einstellungen, etc. beibehalten werden. Allerdings empfehle ich an dieser Stelle nachdrücklich ein Backup dieses Ordners anzulegen.

Bei dieser Vorgehensweise kommen natürlich keine Updates über die Paketverwaltung, allerdings sollten diese dann über das Autoupdate von Thunderbird selbst kommen.

Hinweis: Viele Addons sind noch nicht mit Thunderbird 3 kompatibel!

Ja, ich bin mittlerweile stolzer Besitzer eines HTC Hero! :-)
Ein super Spielzeug (Männer werden nicht erwachsen, es wird nur das Spielzeug teurer)! Aber wer keine Zeit oder Lust hat Stunden damit zu verbringen, für den ist es wohl eher nichts. Für alle anderen möchte ich an dieser Stelle ein paar Empfehlungen geben, welche Applikationen ich nutze.

Die erste App, die ich etwas ausführlicher vorstellen werde heißt “UltimateFaves” und ist eine tolle Möglichkeit, Platz auf dem Screen zu schaffen. Wenn man eine Weile im Market unterwegs ist, landen immer mehr Apps auf dem Handy. Zugegeben, nicht alle sind notwendig, aber es sind recht schnell ein paar dutzend zusammen, die man nicht mehr missen möchte. Und dann wird der Wunsch nach einem “Schnellstarter” groß. Ein kurzer Klick auf UtimateFaves und schon hat man den direkten Zugriff auf die Apps, die man täglich benötigt.

Ein Bild sagt mehr als tausend Worte. 25 Bilder pro Sekunde sagen wohl noch einen Tick mehr. :-)

Hier findet ihr eine hübsche Übersicht über die Features mit vielen Bildern.
Im Google Market gibt es die kostenlose Version. Die PRO-Version hat noch ein paar Funktionen mehr (z.B. mehrere Karussels). Ich empfehle sie aber hauptsächlich, weil ich finde, dass der Programmierer die $1,49 redlich verdient hat und er außerdem sehr nett und offen für Verbesserungsvorschläge ist. Leider ist es immer noch nicht möglich in Israel kostenpflichtige Apps über den Google Market anzubieten (dies ist vom Land in dem man wohnt abhängig). Aber es gibt die Möglichkeit mit Paypal.

Zugegeben, Android Apps sind nicht wirklich FLOSS. Aber meiner Meinung nach ist Android das offenste zur Zeit benutzbare Betriebsystem für Handys.

Moin liebe Lesergemeinde,

lang ist’s her, dass ich mal was von mir hören ließ. Deswegen soll es nun heute wieder eine Vorlage für LaTeX Liebhaber geben.

Vor einiger Zeit ist mir der Zettelwust in der Küche mit den Rezepten auf die Nerven gegangen, hier mal ein Rezept hingekritzelt, da mal vergessen, das Rezept zu benennen und man weiß nicht mehr was man da eigentlich kochen wollte. Da kam ich auf die Idee das ganze mit einem eigenen Design zu digitalisieren und damit zu ordnen und vor allem auch durchsuchbar zu machen – die Idee zu einem eigenen Kochbuch war geboren.

Da ich nunmal ein Liebhaber von LaTeX bin, lag der Schluss nahe, ein Kochbuch in LaTeX zu verfassen. Zumal mir Word/OpenOffice/Scribus eher ungeeignet dafür erschienen, da man hier auch mit Vorlage immer noch formatieren muss.

Es gibt bereits einige Kochbuchklassen in einigen LaTeX Paketen, jedoch hat mir sowohl der Aufbau des Kochbuches als auch der Quelltext für ein Rezept nicht gefallen. So habe ich mir meine eigene Rezeptumgebung zusammen programmiert. Da ich bisher mit richtiger LaTeX-Programmierung sehr wenig am Hut hatte (und trotz viel Übung immer noch habe) hat das Ganze doch geraume Zeit gedauert. Nun möchte ich euch das Ergebnis präsentieren.

Hier gibt’s erstmal das Paket zum Download: Kochbuch Vorlage

So sieht ein Beispielrezept aus:

kochbuch

Wenn das Zip Archiv entpackt wird, befinden sich mehre Dateien und Ordner darin. Die PDF im Hauptordner ist eine vorkompilierte Beispieldatei. In die Ordner ./bilder/ und ./rezepte/ kommen jeweils die Bilder für die Rezepte und die jeweiligen Tex-Dateien für jedes einzelne Rezept. Die cook.sty im Hauptordner ist meine Style-Datei, die alle notwendigen Befehle und Umgebungen für mein Rezeptbuch beinhaltet. Diese muss sich immer in dem selben Ordner wie die cookbook.tex (Hauptdokument) befindet.

Öffnet man dieses Hauptdokument (cookbook.tex) ist das in dem Beispiel sehr übersichtlich. Je mehr Rezepte, desto länger wird auch dieses Dokument. In der zweiten Zeile der cookbook.tex sieht man wie die Style-Datei (cook.sty) eingebunden wird. In den folgenden Zeilen werden verschiedene Schriftarten für abwechslungsreiche Rezeptüberschriften geladen. Will man dies nicht, können diese Zeilen auskommentiert/gelöscht werden. Im Allgemeinen ist für die Nutzung der Schriftarten das Paket texlive-fonts-extra nachzuinstallieren. Nach den Schriftarten erfolgt die Deklaration der PDF Metadaten und der Titelseite.

Will man sein Rezeptbuch in verschiedene Kategorien unterteilen, kann man das wie in der Datei zu sehen, wie gewohnt mit den \section-Befehlen tun. Bei zweiseitigem Druck ist darauf zu achten, wie Titelseiten und Rezeptbeginn angeordnet sind (meistens auf der ungerade Seite). Mit \newpage kann man entsprechende Leerseiten einfügen. Rezepte werden an der entsprechenden Stelle mit dem Befehl \input{./rezepte/….tex} eingebunden.

Im Ordner ./rezepte/ liegt bereits ein Beispiel Rezept, wie es aussehen könnte.

Die Datei dummy.txt im Hauptordner des Kochbuchs listet alle Befehle mit ihren Parametern/Optionen auf. Diese Datei ist sehr wichtig, wenn man sein Kochbuch weiter individualisieren will (Bilder, mehrseitige Rezepte, Tipps, Anmerkungen, etc.). Ich bitte darum diese Datei aufmerksam zu lesen.

Bevor ihr eigene Rezepte in das Kochbuch einfügt, solltet ihr überprüfen, ob alles einwandfrei funktioniert. Eventuell sind einige Pakete nachzuinstallieren. Ich habe eine vollständige Textlive Distri installiert, so dass ich nicht weiß, welche Pakete in einer Standardinstallation über die Ubuntuquellen nicht enthalten sind. Sollte es nicht funktionieren, könnte es helfen im Hauptdokument alle Schriftarten und im Beispielrezept den optionalen Parameter in der Rezeptdeklaration >>[font=\rustfamily]<< zu entfernen.

Viel Spaß beim Testen, weitere Anregungen/Fehler/Lob bitte in die Kommentare ;-)

Neben TTCut haben auch Teile von Avidemux mit Ubuntu 9.10 den Geist aufgegeben. Zum Beispiel das Speichern der Projektdateien. Oder das Verwenden von alten Templates. Also mal wieder selbst Hand anlegen. Aber erstmal langsam…

Das erste Problem auf das ich bei Avidemux gestoßen bin war, dass ich die vorherigen Templates (oder Presets) nicht mehr benutzen konnte (in Avidemux unter dem Menüpunkt “Individuell” zu erreichen). Dies ließ sich aber lösen, indem ich eine ältere Version installiert und Screenshots von den Einstellungen gemacht habe.
Beim Erstellen der neuen Templates habe ich dann leider festgestellt, dass die Einstellungen nicht in der Projektdatei gespeichert werden. Dieses Problem wurde aber in Revision 5564 behoben (Bug-Report). Also wird Avidemux selbst kompiliert und installiert. Leider ist diese Version dann nicht mehr komplett deutschsprachig.

Bevor es los geht erstmal eine Dankeschön an Henrik für die Hilfestellung.

Voraussetzungen

Die folgenden Pakete müssen installiert sein, eventuell fehlen aber weitere Pakete. Dies seht ihr an der Ausgabe beim Kompilieren.

libdts
libxml2-dev
libfreetype6-dev
libx11-dev
liba52-0.7.4
liba52-0.7.4-dev
libfaac-dev
libfaad2-dev
libstdc++6
libgtk2.0-dev
libglib2.0-dev
libsdl-console-dev
libxv-dev
pkg-config
liblame-dev
libmad0-dev
libvorbis-dev
libxml2-dev
libpng
libasound2-dev
automake
automake 1.7
automake 1.8
automake 1.9
libsamplerate0-dev
libesd0-dev
libjack0.100.0-dev

Avidemux kompilieren

Im ersten Schritt wird Avidemux per SVN heruntergeladen, kompiliert und installiert:

svn co svn://svn.berlios.de/avidemux/branches/avidemux_2.5_branch_gruntster
cd avidemux_2.5_branch_gruntster/
mkdir build
cd build/
cmake ..
make
sudo checkinstall

Alternativ zu checkinstall kann natürlich auch make install und ldconfig benutzen.

Plugins kompilieren

Der zweite Teil sind die Plugins, die mit dem SVN-Befehl bereits heruntergeladen wurden und jetzt nur noch kompiliert und installiert werden müssen:

cd plugins
mkdir build
cd build/
cmake -DAVIDEMUX_LIB_DIR=/usr/lib -DAVIDEMUX_SOURCE_DIR=/home/florian/Software/Avidemux/avidemux_2.5_branch_gruntster -DAVIDEMUX_CORECONFIG_DIR=/home/florian/Software/Avidemux/avidemux_2.5_branch_gruntster/build/config -DAVIDEMUX_INSTALL_PREFIX=/usr/local ..
make
sudo checkinstall

Auch hier kann alternativ zu checkinstall auch make install und ldconfig benutzt werden.

Zukünftige Updates

Bei zukünftigen Updates genügt es, wenn ihr die beiden build-Ordner löscht und nach einem

svn update

Avidemux sowie die Plugins wie oben beschrieben nochmals kompiliert und installiert.

Dieser Beitrag ist mir im Rahmen der Blogwichtel-Aktion von Bhuti zugefallen. Ich freue mich sehr darüber, besonders weil ich eigentlich nicht wissen dürfte, von wem er stammt. Aufgrund des gewählten Themas habe ich aber einen leisen Verdacht. Wie dem auch sei; vielen Dank an den Verfasser! Der Beitrag fügt sich nicht nur passgenau in dieses Blog ein, er gibt daneben auch noch ein Thema wieder, das mir sehr am Herzen liegt. Und hier folgen nun die Worte des Verfassers:

Über die Gemeinsamkeiten zwischen freier Software und freier Wissenschaft

Zuerst muß ich etwas beichten: der Rechner, auf dem ich diesen Blogwichtelbeitrag schreibe, läuft mit Windows. Und das ist, wenn ich mir es richtig überlege, eigentlich erstaunlich. Denn furchtbar sympathisch ist mir Microsoft nicht; und auf der anderen Seite gefällt mir die Idee, die hinter Linux und den verschiedenen Distributionen steckt. Sollte ich auf meinen Rechner vielleicht doch Ubuntu aufspielen?

Das wäre aber eine ganz andere Geschichte, als ich sie an dieser Stelle erzählen will. Denn ich will hier doch die Chance nutzen und erklären, weshalb es ein wirklich netter Zufall ist, daß ausgerechnet ich einen Blogbeitrag für Romans Blog schreiben darf. Und ich will erzählen, weshalb sich das Ubuntublog und der Bereich aus dem ich komme (die Wissenschaft) doch sehr, sehr nahe sind.

Es ist bescheuert, Informationen zu verschließen

In beiden Bereichen geht es darum, Informationen zu (ver)teilen. Das ist die entscheidende Gemeinsamkeit. Denn ganz egal, ob es um ein „freies Betriebssystem“ oder um eine offene, dynamische Wissenschaft geht. Dahinter steht eine gemeinsame Idee. Nämlich die Einsicht, daß es bescheuert und kontroproduktiv ist, wenn man Informationen zurückhält, daß es idiotisch ist, wenn man Wissen hinter verschlossenen Türen oder schweren Buchdeckeln verschließt.

Eigentlich ist das gar nicht so schwer einzusehen. Denn schließlich handelt es sich bei Informationen, Ideen und Wissen nicht um eine konventionelle Ressource, deren Wert abnimmt, wenn sie von vielen Akteuren „genutzt“ wird. Ganz im Gegenteil: in Wissensgesellschaften des 21. Jahrhunderts gilt genau die umgekehrte Logik – je mehr Personen am Wissen teilhaben und es nutzen dürfen, desto wertvoller wird der gesamte Wissensschatz.

Das ist ehrlicherweise keine Erkenntnis, die erst mit dem Internet geboren wurde. Schon George Bernhard Shaw formulierte (daran erinnerte Peter Glaser bei der letzten Re:publica):

„Wenn du einen Apfel hast und ich habe einen Apfel und wir tauschen die Äpfel, wird jeder von uns nach wie vor einen Apfel haben. Aber wenn du eine Idee hast und ich habe eine Idee und wir tauschen diese Ideen aus, dann wird jeder von uns zwei Ideen haben.“

Soweit zur (faszinierenden) Theorie. Doch wie es eben so ist: die schönsten Ideen nutzen nicht viel, wenn niemand für sie „kämpft“, wenn niemand von diesen Ideen fasziniert ist und sie weitergibt. Aber zum Glück gibt es solche Menschen. Roman zum Beispiel.

Er ist so jemand, der in seinem Blog und in den verschiedenen Welten des Web 2.0 genau für diese Idee eintritt. Jedenfalls (jetzt folgt die zweite „Beichte“) habe ich Roman selbst so kennengelernt. Bei verschiedenen Barcamps (zuerst in München vor über zwei Jahren, danach immer wieder) habe ich Roman getroffen, mit ihm gemeinsam Sessions besucht und in Pausen diskutiert.

Und das Schöne ist: Roman „lebt“ genau diese Idee des Wissen-Teilens. Wissen ist da, um es für alle zugänglich zu machen. Wer etwas Schlaues zu sagen hat, der soll davon erzählen. Auf Barcamps, im Blog. Eigentlich ganz egal wo. So einfach ist das. Und Roman macht das einfach. Und das finde ich klasse.

Open Access: Freier Zugang für wissenschaftliches Wissen

Doch bevor das jetzt in einer Lobhudelei ausartet, nochmal zurück zu den Parallelen zwischen Software bzw. Betriebssystemen und der Wissenschaft. Denn was Open-Source im Bereich der Software ist, das ist Open Access in der Welt der Wissenschaft.

Hinter Open Access steckt nämlich genau dasselbe Prinzip, wie ich es oben skizziert habe: es geht um den freien Zugang zu (wissenschaftlichem) Wissen. Das besondere Problem innerhalb der Wissenschaft ist nämlich, daß sich über viele Forschergenerationen hinweg ein spezielles Publikationssystem etabliert hat. Klar, solange es für Wissenschaftler keinen anderen Weg gab, als in Büchern bzw. Zeitschriften miteinander in den Dialog zu treten, mußte es Druckereien und Verlage geben. Die technische Infrastruktur, die Distribution von Wissen war zeit- und ressourcenaufwendig. Und zugleich übernahmen die wissenschaftlichen Verlage die Organisation eines wichtigen Teils der Qualitätssicherung, des Peer-Review.

Bis in die 80er Jahre des letzten Jahrhunderts war das unumgänglich. Aber: wir leben nicht mehr in den 80ern. Das Internet bietet heute die Möglichkeit, wissenschaftliches Wissen (unter bestimmten Bedingungen) im Web für die Nutzer kostenlos zugänglich zu machen.

Doch diese Möglichkeit wird nur sehr, sehr zögerlich genutzt. Das hängt damit zusammen, daß die Wissenschaft als System ausgesprochen langsam ist (was manchmal auch gute Seiten hat). Und es hängt damit zusammen, daß die Wissenschaftsverlage ein verdammt gutes Geschäft machen.

Denn Wissenschaft wird ja zu einem überwiegenden Anteil durch öffentliche Gelder finanziert, doch genau an dem Punkt, an dem es um die Publikation geht, treten die Verlage in Erscheinung: sie übernehmen die für sie kostenfrei produzierten Inhalte (teilweise lassen sie sich von den Wissenschaftlern sogar noch dafür bezahlen), drucken die Zeitschriften und verkaufen die wieder zurück an die Wissenschaft – nämlich die Instituts- und Unibibliotheken.

Eigentlich kann man darüber nur mit dem Kopf schütteln. Höchste Zeit also, daß Open Access stärker gefördert wird. Aktuell gibt es in Deutschland eine E-Petition an den Bundestag. Sie stammt vom Wissenschaftsblogger Lars Fischer und hat schon über 20.000 Unterzeichner. In der Petition heißt es:

„Der Deutsche Bundestag möge beschließen, dass wissenschaftliche Publikationen, die aus öffentlich geförderter Forschung hervorgehen, allen Bürgern kostenfrei zugänglich sein müssen. […]“

Noch bis zum 22.12.2009 kann man dort mit seiner Unterschrift diese Petition unterstützen. Es ist ein kleiner Baustein auf dem Weg in eine offene, freie Wissensgesellschaft. Wer noch nicht unterschrieben hat, sollte das tun. Ich nehme an, daß Roman nichts dagegen hat. ;-)

Link zur Petition: www.oapetition.de

Ähnliche Artikel


So kann man bei den verschiedenen Distributionen IPV6 ausschalten:

Debian / Sidux / Ubuntu / Linux-Mint:

Als root die Datei /etc/modprobe.d/aliases öffnen
und die Zeile

alias net-pf-10 ipv6
in
alias net-pf-10 off
ändern.

Um das manuelle Laden des ipv6-Moduls zu verhindern kann noch die Zeile alias ipv6 off angehängt werden.

Archlinux

In der Datei /etc/modprobe.d/modprobe.conf die Zeilen

#Laden von IPV6-Modul verhindern
alias net-pf-10 off

einfügen.

Fedora 12 (gilt vermutlich auch für RedHat Enterprise 6 + CentOS 6)

In die Datei /etc/modprobe.d/blacklist.conf folgende Zeilen eintragen:

# ipv6 deaktiviert
blacklist ipv6
install ipv6 /bin/true

OpenSuse 11.2

Da IPV6 fest in den Kernel kompiliert wurde und sich über Yast nicht deaktivieren lässt, muss man bei Grub
/boot/grub/menu.lst die Parameter ipv6.disable=1 anhängen.

Firefox / Iceweasel

Damit auch bei Firefox IPV6 deaktiviert ist muss man inder Adresszeile about:config eingeben, anschließend den Wert des Strings network.dns.disableIPv6 auf true setzen

Still und leise hat sich Dropbox die URL dropbox.com gesichert. Der Umstieg von getdropox.com zu dropbox.com funktioniert dank Weiterleitungen auf den Webservern von Dropbox nahtlos, doch die alten Paketquellen streiken. Probiert man aktuell Dropbox aus den “alten” Quellen…

# Dropbox
deb http://linux.getdropbox.com/ubuntu karmic main
deb-src http://linux.getdropbox.com/ubuntu karmic main

…neu zu installieren, dann erhält man eine Fehlermeldung…

$ sudo apt-get install --reinstall nautilus-dropbox
Paketlisten werden gelesen... Fertig
Abhängigkeitsbaum wird aufgebaut
Lese Status-Informationen ein... Fertig
Erneute Installation von nautilus-dropbox ist nicht möglich,
es kann nicht heruntergeladen werden.
0 aktualisiert, 0 neu installiert, 0 zu entfernen und 0 nicht aktualisiert.

Schaut also in eure /etc/apt/sources.list und passt die URL an. Anstatt getdropbox.com müsst ihr dropbox.com eintragen…

# Dropbox
deb http://linux.dropbox.com/ubuntu karmic main
deb-src http://linux.dropbox.com/ubuntu karmic main

…nur so kommt ihr an Updates wenn Dropbox nautilus-dropbox aktualisiert. Bitte vergesst nicht die Zeilen an die von Euch genutzte Ubuntu-Version anzupassen.

Software Center History-Funktion

Software Center History-Funktion

Das Ubuntu Software Center, in seiner jetzigen Version, ist auf nodch.de nicht gut weggekommen, um ehrlich zu sein. Die Kommentare pendeln von überflüssig, zu unübersichtlich bis hin zu blockierend.

Was soll man also mit dem Software Center anfangen? Im Moment am besten meiden!

Schauen wir uns jedoch die Roadmap an, könnte das Software Center für den Einen oder Anderen eventuell interessanter werden. Hangeln wir uns Schritt für Schritt heran.

Das Software Center verfolgt einen 4 Stufen-Plan und befindet sich im Moment in Entwicklungsstufe 1 von 4. Bis zum April 2011 soll das Software Center seine angedachte Finale Version erreicht haben und sich in der Zwischenzeit mit den kommenden Ubuntu Releasen weiterentwickeln. Stufe 2 von 4 werden wir schon in der kommenden Version 10.04 sehen können.

  • Für Lucid ist die Einführung eines Bewertungssystemes angeplant, wie man es aus vielen anderen Software/App Stores kennt. Benutzer können Bewertungen die für eine Anwendung abgegeben wurden einsehen und eigene Bewertungen verfassen, die soll der besseren Beurteilung der entsprechenden Anwendung beitragen.

Bewertungssystem (Entwurf)

Bewertungssystem (Entwurf)

  • Ebenfalls schon für Lucid geplant ist der vollständige Ersatz von Synaptic als Paketverwaltung (keine Sorge, Ubuntu bleibt Ubuntu und man kann sich natürlich Synaptic wieder installieren!). Um Synaptic ersetzen zu können soll eine neue Kategorie im Software Center hinzukommen, damit man alle Pakete finden kann, die keine Anwendungen im klassischen Sinne sind.
  • Neben kosmetischen Änderungen und weiteren Kategorien sowie Unterkategorien, um die Software besser zu sortieren soll es eine History-Funktion geben. Mittels dieser Funktion soll der Benutzer eine Übersicht darüber erlangen wann Anwendungen installiert, deinstalliert oder geupdatet wurden.

In den weiteren Schritten für die kommenden Ubuntuversionen stehen ebenfalls bereits erste Vorstellungen fest, so soll Ubuntu 10.10 erstmals die Möglichkeit bieten Software über das Software Center kaufen zu können, sowie die eine einfache Verwaltung von PPAs im Software Center bieten. Hätte zwar der aktuellen Version schon gut gestanden, aber PPAs sind seit Karmic ohnehin recht einfach hinzuzufügen.

Im finalen Schritt, vorgesehen für Ubuntu 11.04 wird eine soziale Komponente angeplant, so soll die Softwaresuche Suchergebnisse liefern können, auf Basis der Anwendungen, die “Freunde” installiert haben. Eine Verwaltung der installierten Lizenzen, mit kosten und Laufzeiten, sowie die Möglichkeit Anwendungen zur Installation auf mehreren PCs herunterzuladen, runden die Zukunftsvision ab.

Ich bin gespannt wie ihr zu Canonicals Zukunftsplänen bezüglich des Software Centers steht.

via (webupd8 & Ubuntu wiki)

14. Dezember 2009

Nachdem man Xubuntu 9.10 auf dem Hercules EC-800 installiert hat, ob nun mit der Live- oder der Alternate-CD, wird man feststellen, dass die Bildschirmauflösung bei 800×600 liegt, anstatt der gewünschten 800×480. Dafür gibt es aber eine Lösung, die Albrecht in seinem Blog präsentiert: Eine eigens für den EC-800 erstellte xorg.conf. Die Datei kopiert man in das Verzeichnis /etc/X11 und meldet sich anschließend aus Xfce, dem Desktop von Xubunt, ab. Dabei muss man aber darauf achten, dass das Häkchen bei “Speichere Sitzung für weitere Logins” im Abmeldefenster nicht gesetzt ist. Ansonsten merkt sich Xfce die Einstellung 800×600 und wählt sie beim nächsten Start automatisch wieder. Will man statt 800×480 lieber 1024×600 Pixel verwenden, muss man in der Datei xorg.conf nach folgendem Eintrag suchen:

Modeline "800x480"   33.45 800 840 968 1056 480 490 492 525 -hsync -vsync
# Modeline "1024x600" 48.96  1024 1064 1168 1312  600 601 604 622 -hsync +vsync

Das Kommentarzeichen (#) wird in der zweiten Zeile gelöscht und dafür in die erste Zeile gesetzt. Nach einem Neustart des X-Server hat man dann die neue Auflösung.

xubunt

Ich fand den Fenstermanager von Xfce, Xfwm4, allerdings ein bisschen zu langsam für den EC-800 und habe ihn durch Openbox ersetzt. An Xfce selbst ändert sich dabei nicht soviel, ausgenommen vielleicht die Fensterdeko. Um Openbox einzusetzen, muss man den Fenstermanager erstmal installieren:

sudo apt-get install openbox

Danach startet man eine normale Xfce-Sitzung und führt folgenden Befehl im Terminal aus:

killall xfwm4; openbox --replace

Anschließend muss man sich aus Xfce ab- und wieder anmelden. Diesmal muss man aber darauf achten, dass das Häkchen bei “Speichere Sitzung für weitere Logins” im Abmeldefenster auf jeden Fall gesetzt ist, damit die Sitzung beim Abmelden auch gespeichert wird. Sonst wird beim Anmelden wieder Xfwm4 gestartet.

Als Browser verzichte ich auf Firefox zu Gunsten von Opera, da Opera 10 einfach schneller ist und ein Feature wie Datenkomprimierung als “Opera Turbo” anbietet. Um Opera 10 unter Xubunt zu installieren benötigt man die Paketquellen von Debian

deb http://deb.opera.com/opera/ stable non-free

und man muss eventuell noch einen Schlüssel installieren:

wget -O - http://deb.opera.com/archive.key | sudo apt-key add -

Ist das erledigt, sollte die Installation von Opera reibungslos funktionieren:

sudo apt-get install opera

Update: Mittlerweile habe ich Opera und Firefox zugunsten von Midori deinstalliert.

Was aber auf dem EC-800 nicht so gut im Browser klappt, ist das Gucken von YouTube-Videos. Bekanntermaßen erzeugt der Flashplayer von Adobe unter Gnu/Linux eine hohe CPU-Last. Abhilfe schaffen Minitube oder das YouTube-Plugin von Totem. Totem ist unter Xubuntu schon installiert. Unter Bearbeiten -> Plugins … kann man das Plugin installieren, indem man ein Häkchen davor setzt. Ansonsten klappt das Abspielen von Videos mit Totem oder das Fernsehen gucken über DVB-T mit MPlayer ganz gut.

Fazit

Trotz seiner schwachen Hardware hat das Hercules EC-800 auch ein paar Vorteile: Der Akku hält mehr als drei Stunden, es wiegt weniger als 1 kg, dadurch, dass es keinen Lüfter hat, ist es wirklich sehr leise. Ob das den Nachteil der wirklich schwachen Hardware aufhebt, muss jeder für sich selbst entscheiden. Was mich an meinem EC-800 nervt, ist ein sehr hohes Pfeifen, wenn ich es im Betrieb auflade. Das Pfeifen ist nicht da, wenn ich es ausgeschaltet auflade. Ob das bei anderen Modellen auch der Fall ist, kann ich aber nicht sagen. Außerdem ist die Reichweite der W-LAN-Karte sehr begrenzt.

Für mich ist das Netbook definitiv ein Spielzeug, um mal Abends im Bett zu surfen, oder um meine Musiksammlung zu einer Party mitzunehmen, wofür ich sonst mein gutes Notebook mit schleppen müsste, ich kann damit an der Anlage in der Küche Podcasts oder Internetradio hören, kurz: Ich kann es für all die Kleinigkeiten einsetzen, für die mein Notebook schon zu groß ist.

Die letzten Tutorials, welche ich alle hier veröffentlicht habe, waren mehr oder minder alle für Inkscape gedacht. Gimp ist bei mir immer seltener im Einsatz, für das folgende Tutorial ist er allerdings das Werkzeug der Wahl. Wenn ich das mit Inkscape bauen würde, würde mein Rechner ganz schnell durch die Anzahl der Farbverläufe und vor allen die vielen Unscharf-Einstellungen, die ich dafür benötigen würde an seinen Leistungsgrenzen.
Seit einigen Wochen hab ich Lust auf farbiges und habe viel mit Farbverläufen in Gimp und Inkscape herum gespielt. Ich hab irgendwo ein Wallpaper gesehen mit einem Farbverlauf und plastischen Linien mit schönen Leuchteffekten.

Im Gimpforum fand  ich diesen Eintrag und habe es eine ganze Weile mit dem Fraktal “Barcode” versucht, was meinem Ergebnis schon sehr nahe kam aber immer häßliche Nebeneffekte hatte. Irgendwann fand ich dann eine Anleitung die schon eher dem entsprach,was ich suchte. Allerdings experementiere ich immer noch mit dem Leuchten, denn damit bin ich noch nicht so zu 100% zufrieden. Hier allerdings schon mal ein Tutorial mit dem man etwas anfangen kann.

Als erstes legen wir ein neues Bild mit unserer Desktopauflösung, bei meinem Beispielbild sind das 1024×768 Pixel und einem schwarzem Hintergrund an. Da die neueren TFT auch eine Auflösung vonmehr als nur 72 bzw. 75 dpi schaffen, nicht vergessen diesen Wert auf 90 hochzusetzen.

Dann öffnen wir den Ebenendialog und legen eine neue Ebene über dem Hintergrund an und setzen die Vordergrundfarbe auf einen dunklen Farbton, ich habe hier ein dunkles Blau mit dem Wert 0D0077 gewählt. Wir wählen aus dem Werkzeugfenster das Werkzeug Füllen mit Farbverlauf und stellen auf einen Kreisförmigen Farbverlauf von Vodergrund nach Transparent. Und füllen die neue Ebene von Zentrum ausgehend mit einem Farbverlauf, das ganze sollte dann aussehen, wie auf Abbildung 1.
Wir legen im Ebenendialog eine weitere Ebene an und wechseln auf diese füllen diese komplett mit Schwarz und rufen den Filter Render > Wolken > Differenz-Wolken auf. Den zufälligen Anfangswert setzen wir auf 3, schalten die Turbulenz an, setzen den Wert für die Details auf 15 und den Wert für X setzen wir auf 16 und den für Y auf 0.1 . Die Einstellungen kann man auch auf dem Bild mit dem entsprechenden Dialog finden, zum Vergrößern einfach klicken.

Das Ergebnis sollte dann in etwa aussehen, wie auf Abbildung 2.

Dieser Ebene geben wir noch etwas Schärfe mit Filter > Verbessern > Schärfen, der Wert dafür liegt bei 80. Siehe auch  Abbildung Nummer 3.
Jetzt legen wir wieder eine neue Ebene an und füllen diese mit einem linearen Farbverlauf. Dafür stellen wir die Werkzeugeinstellung entsprechend um und wählen aus den vordefinierten Farbverläufen “Full saturation spectrum CW” aus. Das Ergebnis sollte in etwa so aussehen, wie auf der  Abbildung 4.

Das kann man gut und gerne auch mit einem anderem Farbverlauf machen, nur sollten die Farben möglichst grell sein, das sich nachher wie man sieht nachdunkeln. Für Ubuntufans an dieser Stelle, ein Farbverlauf von Gelb über Orange nach einem kräftigem Rot wäre da durchaus geeignet. Dann solltet ihr allerdings auch für den Fabrverlauf überdemHintergrund eher einen dieser Farbtöne wählen.
Dann setzen wir den Ebenenmodus dieser bunten Ebene auf Überlagern und duplizieren diese Ebene. Siehe auch auf die Abbildung mit dem Ebenendialog.

Nun blenden wir die Ebene “Hintergrund” und die Ebene mit dem dunkelblauen Farbverlauf im Ebenendialog aus, in dem wir auf das Augensymbol klicken und wählen die oberste ebene mit dem bunten Farbverlauf.

Ein Rechtklick im Ebenendialog öffnet das Kontextmenü und in diesem wählen wir alle sichtbaren Ebenen vereinen.
Jetzt wählen wir in den Werkzeugeinstellungen einfach die rechteckige Auswahl und ziehen einen Rahmen etwa bis zur Hälfte des Bildes und schneiden die Auswahl aus in dem wir die Entfernen-Taste drücken. Nachdem wir im Ebenendialog die Ebenen mit dem Hintergrund und dem dunkelblauen Farbverlauf wieder sichtbar gemacht haben dürften diese wieder im Bild sichtbar sein unddas Ergebnis sollte so aussehen wie im nächsten Beispielbild.
Was jetzt folgt ist mehr oder minder eurem Geschmack überlassen. Ich füge dem Bild noch einen Schriftzug hinzu. Ich habe mich hier für den Schriftzug des Goblin-Projektes entschieden. Ihr könnt aber gerne auch eigene nehmen oder selbst etwas ins Bild schreiben, ihr müßt dann die Schritte nur entsprechend anpassen.

Ich importiere den Schriftzug, den ich bei Andrew Wafaa im Blog gefunden habe ganz einfachals neue Ebene ins Bild. Dann wähle ich im Ebenendialog den Alphakanal aus und vergrößere die Auswahl um 5 Pixel (Auswahl > Vergrößern) und wechsle auf die Ebene mit dem bunten Farben und entferne die Auswahl von dort mit der Entfernentaste. Dann hebe ich die Auswahl auf (Auswahl > Nichts auswählen) und wähle auf der Ebene mit dem Logo wieder den Alphakanal und fülle jetzt die Auswahl einfach mit Weiß. Das ist hier nötig, weil das Logo ja schwarz ist. Die Ebene vergrößere ich dann auf Bildgröße (Ebenendialog, Rechtsklick im Kontextmenü Ebene auf Bildgröße) Dann füge ich einfach noch einen Schriftzug “geeko powered moblin” hinzu undverankere diesen wenn ich ihn an die entsprechende Position verschoben habe auf der Ebene mit dem Logo.

Als letzen Schritt muss man eventuell noch die Ebene mit dem dunkelblauen Farbverlauf ein wenig verschieben, so das auch sie zentriert hinter dem Logo erscheint. Dann ist unser Wallpaper schon fertig undichwünsche euch viel Spaß, beim Nachmachen. Ergebnisse oder Anregungen, wie immer dafür ist Platz in den Kommentaren.

Unter Ubuntu nutze ich die TeX Live-Umgebung der Distribution. Letztens stand ich vor dem Problem, dass ich innerhalb eines LaTeX-Dokuments einige Sätze auf “elbisch” schreiben bzw. einige Runen setzen wollte.

Es existiert das Paket “tolkienfonts“, welches ich gerne verwenden wollte. Da ich zum ersten Mal neue Fonts in LaTeX hinzugefügt habe, möchte ich kurz erklären, wie man dieses Paket installiert.

  1. Lade das Paket “tolkienfonts” herunter
  2. Das Paket enthält leider keine Fonts. Diese müssen gesondert heruntergeladen werden. Das Paket benötigt die Fonts:
  3. Zuerst entpackt man tolkienfonts.zip. Das Paket enthält unter anderem die Unterordner “fonts” und “tex“.
  4. Wechsle in den Unterordner “fonts”. Hier erstellt man einen Ordner namens “truetype” und darin wieder einen Ordner namens “tolkienfonts“.
  5. In diesen Ordner “truetype/tolkienfonts/” entpackt man nun die vier heruntergeladenen Fontpakete, so dass alle .ttf-Dateien in eben diesem Ordner liegen.
  6. Der Ordner truetype/tolkienfonts/ wird nun wiefolgt nach /usr/share/texmf-texlive/fonts/truetype/public/ kopiert (erforter root-Rechte):
    sudo cp -r /PFAD/ZU/tolkienfonts/fonts/truetype/tolkienfonts /usr/share/texmf-texlive/fonts/truetype/public/
  7. im Unterordner fonts/map/ liegt die Datei tolkien.map. Diese muss nun in den Ordner /usr/share/texmf-texlive/fonts/map/pdftex/tolkienfonts/ kopiert werden:
    sudo mkdir /usr/share/texmf-texlive/fonts/map/pdftex/tolkienfonts
    sudo cp  /PFAD/ZU/tolkienfonts/fonts/map/tolkien.map  /usr/share/texmf-texlive/fonts/map/pdftex/tolkienfonts/
  8. Das selbe Spielchen wiederholt man nun für die Unterordner “tfm“, “vf” sowie für den Inhalt des Ordners “tex/latex“:
    sudo mkdir /usr/share/texmf-texlive/fonts/tfm/tolkienfonts
    sudo cp -r /PFAD/ZU/tolkienfonts/fonts/tfm/* /usr/share/texmf-texlive/fonts/tfm/tolkienfonts/
    
    sudo mkdir /usr/share/texmf-texlive/fonts/vf/tolkienfonts
    sudo cp -r /PFAD/ZU/tolkienfonts/fonts/vf/* /usr/share/texmf-texlive/fonts/vf/tolkienfonts/
    
    sudo mkdir /usr/share/texmf-texlive/tex/latex/tolkienfonts
    sudo cp -r /PFAD/ZU/tolkienfonts/tex/latex/* /usr/share/texmf-texlive/tex/latex/tolkienfonts/
    
  9. Jetzt muss texhash aufgerufen werden, um den Dateiindex zu aktualisieren:
    sudo texhash
  10. Jetzt muss die tolkien.map dem System bekannt gemacht werden per:
    sudo updmap --enable Map=tolkien.map
  11. Jetzt kann das Paket innerhalb von LaTeX eingebunden werden per \usepackage{tolkienfonts}

Unter Ubuntu nutze ich die TeX Live-Umgebung der Distribution. Letztens stand ich vor dem Problem, dass ich innerhalb eines LaTeX-Dokuments einige Sätze auf “elbisch” schreiben bzw. einige Runen setzen wollte. Es existiert das Paket “tolkienfonts”, welches ich gerne verwenden wollte. Da ich zum ersten Mal neue Fonts in LaTeX hinzugefügt habe, möchte ich kurz erklären, wie man dieses Paket installiert. Lade das Paket “tolkienfonts” herunter Das Paket enthält leider keine Fonts.