ubuntuusers.de

13. März 2008

Nun, die Schlange wurde entfesselt und schlägt sich recht gut, die Benutzer sind am testen und das Webteam am fixen. Zeit genug mal die Mittagspause zu nutzen und die Benutzer über den Unterbau sowie den Grund von Inyoka zu informieren.

Die Bibliotheken

Wir benutzen für Inyoka viele Open Source Projekte, um das Rad nicht ständig neu erfinden zu müssen. Das ist ja der große Vorteil von Open Source und einer der Gründe warum wir Inyoka Ende des Jahres ebenfalls als Open Source Projekt weiterführen werden.
Deshalb benutzen wir unter anderen folgende Bibliotheken, um einzelne Teile Inyokas abdecken zu können:

Und um Inyoka auf unseren Servern laufen zu lassen und der Öffentlichkeit zur Verfügung zu stellen, kommen MySQL für die Datenbank, Apache für das Ausliefern von dynamischen, sowie Lighttpd für das Ausliefern von statischen Inhalten zum einsatz.
Als Caching-System benutzen wir Memcached

Und zu guter letzt sei erwähnt, das all das nun mit einer einzigen Programmiersprache umgesetzt wurde: Python!

Warum eigentlich Inyoka?

Der Grund, warum wir uns vor gut einem halben Jahr dazu entschlossen haben Ubuntuusers.de auf eine neue Softwarebasis zu stellen, ist relativ leicht genannt: Das aktuelle System ist ein riesiges Gefrickel.

Das Wiki wurde mithilfe von MoinMoin umgesetzt, das Forum läuft bekanntermaßen mit phpBB in Version 2 und das Portal sowie Ikhaya sind Eigenentwicklungen die in Python mithilfe von Django umgesetzt wurden.

Das phpBB ist stark modifiziert, wodurch das patchen von Sicherheitslücken nach offiziellen Patches relativ schwer wurde. Das Benutzersystem hat seine Ursprünge in phpBB, das Wiki, Ikhaya und das Portal haben ein ">Django umgesetzt wurden.

Das phpBB ist stark modifiziert, wodurch das patchen von Sicherheitslücken nach offiziellen Patches relativ schwer wurde. Das Benutzersystem hat seine Ursprünge in phpBB, das Wiki, Ikhaya und das Portal haben ein "eingefrickeltes" Benutzersystem das auf jenes vom Forum zurückgreift.

Das ist der Grund, warum wir den Entschluss gefasst haben: Hier muss was neues, einheitliches her!

Der Werdegang

Armin hat daraufhin angefangen, einen neuen Branch im SVN anzulegen und damit begonnen die Grundstrukturen zu schaffen. Schnell wuchs Inyoka heran, schnell zeigten sich vergleichbar klare Strukturen. Die damalige Grundlage bestand nur aus Django und Jinja. Jinja haben wir von Anfang an als Template Engine benutzt, da es A) auf den Django-Templates basiert und B) sowohl schneller als auch angenehmer zu benutzen ist. Weiterhin ist mit Armin der Entwickler von gar zwei Biblitheken, unter anderem Jinja, bei uns an Bord.

Schnell zeigten sich aber auch die Grenzen von Django. Django ist hervorragend für sog. CRUD-Applikationen (Create Read Update Delete) geeignet. Das in Django integrierte Admin-Interface ist großartig jedoch für die Masse an Datensätzen wie Ubuntuusers.de zu verwalten hat nahezu ungeeignet. Mal braucht nur mal zu versuchen, einen von 50.000 Benutzern aus einer Drop-Down-Liste auszuwählen. Daher wussten wir relativ schnell, das wir hier selber Hand an legen müssen und Patches für Django basteln müssen. Das wurde jedoch erstmal nach hinten gestellt, da wir uns vorerst darauf konzentrieren mussten Inyoka als solches wachsen zu lassen.

Mit einer klaren Aufgabenverteilung ging es also ans Werk, die erste Version des Wiki wurde in nahezu einer Woche hochgezogen, das Forum wuchs gemächlich und das Portal ebenso. Unseren Pastebin sowie teile von Ikhaya konnten wir aus dem aktuellen System übernehmen. Auch der Planet war nahezu fertig. Die drei Teile wurden also erstmal in Angriff genommen.

Nun, wir schreiben, schreiben, schreiben, diskutieren, schreiben und schreiben...

Bis Ende Januar das gesamte Webteam ein produktives Wochenende in Nürnberg eingelegt hat (großen Dank nochmal an smurfix für die Bleibe!), um einen klaren Zeitplan zu bestimmen und um Inyoka ein großes Stück nach vorn zu bringen. Neben vielen Späßen im IRC, essen und dem stark zu kurz gekommenen schlafen, haben wir nahezu 8.000 Codezeilen geändert/gelöscht oder neu geschrieben. In gerade mal zwei Tagen! Zu diesem Zeitpunkt haben wir bereits ordentlich an der Grundlegenden Struktur geschraubt. Das Django-Admin-Panel wurde durch eine komplette Eigenentwicklung abgelößt, das Wiki war fast fertig, ebenso das Forum. Portal, Ikhaya und Pastebin waren es schon vorher nahezu. Nun stand eine klare Roadmap sowie viele kleine neue Features und Bufixes und wir konnten mit gutem Gewissen gen 9. März gehen.

Am 9. März haben wir dann die Betaphase gestartet und am 1. April soll dann unsere Schlange (zulu Inyoka) produktiv an den Start gehen.

Was-Wofür?

Nachfolgend eine kleine Zusammenfassung, wofür wir welche Biblitheken genau nutzen sowie kleine Erläuterungen über Probleme bzw. guten Erfahrungen mit diesen.
Django
Django haben wir für nahezu alles, mit Ausnahme der Template Engine, genutzt. Je mehr wir schrieben, desto mehr probleme traten auf. Kein Subdomain-Support, für uns zu unflexibles ORM, das Adminpanel skaliert nicht in unseren Dimensionen sowie andere kleine Problemchen die uns immer mehr fluchen ließen. Daher nutzen wir zur Zeit eigentlich nur noch das ORM und die newforms von Django. Mit ersterem sind wir mehr als unzufrieden, weshalb schon jetzt einige wenige Teile mithilfe von SQLAlchemy realisiert haben. Dazu gehört unteranderem das optimieren von SQL-Queries, Djangos select_related() ist buggy, weswegen wir große Probleme hatten die Anzahl der Queries drastisch zu senken. Django wird bis Ende des Jahres komplett durch die Kombination Werkzeug, Jinja und SQLAlchemy abgelößt.
Jinja
Jinja, die kleine sandboxed Template Engine aus dem Hause Ronacher die schnell und angenehm zu benutzen ist. Ausschlagende Argumente sie zu benutzen :=)
Werkzeug
Werkzeug ist ein kleines Toolkit um WSGI-Applikationen zu entwickeln. Es ist anders als Django kein ganzes Framework sondern wirklich nur eine Zusammenstellung aus Routing-System, Request/Response-Handling sowie anderen unterstützen Utilities. Wir nutzen es aktuell fürs Dispatching sowie für unsere eigenen Utilities.
Pygments
Pygments ist diese kleine Syntax-Highlightning Library aus dem Hause von Georg Brandl. Wir nutzen es um Quelltexte hervorzuheben, hauptsächlich für unseren Pastebin.
Xapian
Xapian ist eine sehr flexible Such-Engine, welche es uns erstmals ermöglicht Forum, Wiki und Ikhaya zusammen zu durchsuchen.
jQuery
Diese kleine Javascript-Library fügt Inyoka viele kleine nützliche Verschönerungen hinzu. Nichts desto trotz ist Inyoka komplett auch ohne aktiviertem Javascript nutzbar. Ebenfalls eine großartige Neuigkeit!
Universal Feed Parser
Diese Bibliothek ermöglicht es uns, andere Feeds zu importieren und in unseren Planeten darzustellen.
Tango!
Alle unsere Icons basieren auf denen von Tango bzw. sind nahezu kompatibel mit den Tango-Richtlinien.

Das soll jetzt erstmal ein kleiner Überblick über das neue System hinter Ubuntuusers.de sein, weiteres wird sicherlich in nächster Zeit folgen.

Im Forum wird gerade über den Parser diskuttiert. Genauer gesagt darüber wie er mit neuen Zeilen umzugehen hat. Aber was zur Hölle ist eigentlich so ein Parser und warum ist das mit den neuen Zeilen so eine trickreiche Sache?

Dazu müssen wir jetzt ein wenig ausholen. Vor etwa acht Jahren (ach was weiß ich wie lange das her war) hat irgendjemand für phpBB BBCode implementiert. Ich glaub das gabs früher schon für VB, aber die phpBB Programmierer haben da echt eine sehr seltsame Vorstellung davon gehabt, wie man sowas zusammenbastelt. Wie auch immer. phpBB hatte BBcode und das ist eigentlich nix anders als HTML ohne selber HTML schreiben zu müssen und vor allem ohne die Sicherheitsprobleme. Aber der phpBB Parser war zum "Sau fuatan."

Zum Beispiel dieser BBCode:

[ul]
  [*] foo
  [*] bar
[/ul]
baz

Wird in phpBB 2 zu dieser Tag-Suppe:

<ul><br  />
  <li>foo
  <li>bar
</ul><br>
baz

Das ist nicht nur grausig, sondern auch weder HTML noch XHTML. Deswegen validiert unser Forum momentan auch so hervorragend... Wie auch immer. phpBB nennt das was es da tut "BBCode parsen". Ich würde es eher "komisch rumtun und kaputtes HTML erzeugen" nennen, weil wenn man sich ansieht wie das gemacht wird, wird einem richtig übel.

Außerdem war keiner von uns sonderlich happy mit BBCode also haben wir uns gedacht, das neue Forum bekommt überall Wiki Syntax. Also musste jetzt ein neuer Parser her. Und zwar nicht der von Moin, der ähnlich schlimm aussieht.

Der neue Parser ist jetzt ein ziemlich komplexes Ding, dafür kann er nicht nur HTML erzeugen, sondern auch Docbook und vielleicht in der Zukunft noch andere Lustige Formate. Wie schaut der also aus?

Von der Wiki Syntax bis zum fertigen HTML Quelltext passieren viele Dinge, aber eins nach dem anderen:

Schritt 1: Lexing. Der erste Schritt, den unser Parser erledigt ist aus dem Wiki-Markup eine Liste von sogenannten Token zu erzeugen. Token sind zusammenhängende Zeichen, die zusammen ein "Ding" ergeben. Klingt komisch, ist aber so. Und so sieht das aus:

>>> for token in lex("'''Hallo''' ''Welt''.  "
...                  '"[:Startseite:ein Link]".'):
...  print token
... 
Token('strong_begin', u"'''")
Token('text', u'Hallo')
Token('strong_end', u"'''")
Token('text', u' ')
Token('emphasized_begin', u"''")
Token('text', u'Welt')
Token('emphasized_end', u"''")
Token('text', u'.  "')
Token('wiki_link_begin', u'[:Startseite:')
Token('link_target', (None, u'Startseite'))
Token('text', u'ein Link')
Token('wiki_link_end', u']')
Token('text', u'".')

Also wie man ganz schön sieht werden da aus dem Text kleine Teile rausgeschnitten und markiert. (Hervorgehoben-Anfang, Text, Hervorgehoben-Ende, Betont-Anang, Text etc.)

Schritt 2: das eigentliche Parsing. Jetzt wo wir diese schicken Token haben können wir daraus eine nette Verschachtelte Knotenstruktur machen. Der Parser macht daraus etwa sowas:

Document(
  Strong(Text('Hallo')),
  Text(' '),
  Emphasized(Text('Welt'))
  Text('.  "'),
  InternalLink(Text('ein Link')], page='Startseite'),
  Text('".')
)

Daraus entsteht also so ein baumartiges Konstrukt das schon gewissermaßen logisch strukturiert ist. Das interessante an dem Baum ist aber, dass weder Absätze, noch Zeilenumbrüche, noch Smileys, noch unsere schicken Typographischen Anführungszeichen gesetzt sind. Der Grund warum wir uns für dieses Konzept entschieden haben ist, dass Zeilenumbrüche und Absätze vor diesem Zeitpunk nicht klar definierbar sind. Zum Beispiel ist es technisch nicht möglich innerhalb von fettem, kursiven oder buntem Text einen Absatz einzufügen. Das geht einfach nicht! ja, es ging mit phpBB aber entweder wir halten uns an Standards oder tuns nicht. Weiters haben Zeilenumbrüche in unserer Wiki Syntax eine besondere Funktion. Sie beenden zum Beispiel Tabellenzeilen oder Listeneinträge. Deshalb:

Schritt 3: Transformer. Unsere Transformer schauen sich nach dem der Parser fertig ist die Struktur an und versuchen sie zu verbessern. Zum Beispiel haben wir einen Transformer der Absätze setzt (und zu Testzwecken auch Neue Zeilen), einen der Smileys einfügt, einen der Typographische Anführungszeichen setzt und so weiter. Auf den Baum von oben angewendet würde nun so eine Struktur rauskommen:

Document(
  Paragraph(
    Strong(Text('Hallo')),
    Text(' '),
    Emphasized(Text('Welt'))
    Text('.  „'),
    InternalLink(Text('ein Link')], page='Startseite'),
    Text('“.')
  )
)

Der große Vorteil an diesen Transformern ist, dass sie intelligent arbeiten und kontext-sensitiv sind. Zum Beispiel weiß der Transformer, der die Absätze setzt ganz genau welche Knoten laut HTML überhaupt Paragraphen besitzen und welche sogar welche erfordern. Bis auf wenige Ausnahmen, die wir im Laufe der Zeit beheben werden, kommt also immer gültiges XHTML raus. Ja, wir wissen, dass XHTML eine Katastrophe ist, aber wenn man sich anstrengt kommt man auch hier relativ weit.

Schritt 4: Rendering. Wenn also der Baum fertig aufgebaut ist wird daraus jetzt HTML erzeug (genauer gesagt XHTML). Jeder Knoten weiß wie er in XHTML / Docbook auszusehen hat und der Baum ruft sich also rekursiv auf bis das ganze Dokument erzeugt ist. Jep, Rekursion. In einer Sprache mit einem Stack und Rekursionslimit. Deswegen könnt ihr nicht tiefer als 200 Ebenen oder so quoten, dann stoppen wir den Parser und präsentieren euch eine Fehlermeldung.

Fertig erstellt sieht das etwa so aus:

<p><strong>Hallo</strong> <em>Welt</em>.
   „<a href="/Startseite">ein Link</a>“.</p>

So sieht also der Parser aus. Am Papier zumindest. In der Praxis ist das ganze etwas komplizierter und so nimmt das Ding momentan knapp 10% vom gesamten Quellcode ein. Aber dennoch glaube ich gibt das ein Verständnis wie das so in etwa funktioniert.

12. März 2008

Um uns verwĂśhnten Menschlein die Bedienung unseres Lieblingsbetriebssystems etwas zu Erleichtern gibt es mittlerweile viele, viele Windowmanager/Desktop-Systeme wie z.B. Openbox, Fluxbox, XFCE, KDE oder auch das von mir hochgeschätzte Gnome – um nur einige zu nennen. Gnome ist heute entsprechend dem sechsmonatigen Releasezyklus in Version 2.22 erschienen, die Release notes gibt es hier. Nun muss ich nur noch etwas Geduld aufbringen bis die fleissigen Packer die neue Version in die Arch Linux Repositories bringen – schonmal danke in voraus.

Vielleicht auch interessant:

©2008 CoreBlog.

11. März 2008

Das läuft ja wie am Schnürchen momentan. Ich war ja anfangs skeptisch wegen maix Bug-Tool aber das hat sich bis jetzt als sehr brauchbar erwiesen. Wir haben Feedback ohne Ende und auch schon viele neue gute Ideen in den Foren gefunden die hoffentlich alle in absehbarer Zeit im Quellcode enden.

Zunächst hier mal die Erklärung warum wir zehn Minuten nach dem Announcement schon wieder off waren: Das war Gott sei Dank keine Überlastung, sondern hing damit zusammen, dass memcache noch nicht ordnungsmäßig lief.

Ein großer Teil der gefundenen Fehler wurde bereits behoben und wir haben auch das Fehlersystem ein wenig verbessert. Internal Server Errors zB wandern direkt automatisiert in ein trac damit wir uns beim beheben von Fehlern nicht in die Quere kommen. Ab morgen wird das auch mit euren Fehlerreports passieren, dann sollte kein Fehler verloren gehen. Momentan ist das leider ein bischen ein Chaos, da Fehler sowohl im IRC Channel, als auch im Forum, als auch im Beta Forum als auch über die "Bug Melden" Funktion gemeldet werden.

Damit es keine weiteren Unklarheiten gibt werden sämtliche Updates jetzt über dieses Forum verbreitet, solltet ihr also uns weiter beim Testen unterstützen wollen raten wir euch dieses Blog im Feedreader eurer Wahl zu abonieren.

Für die technisch Interessierten unter euch wird es in den nächsten zwei Wochen immer wieder ein paar Infos zur Technik geben, aber dazu muss hier noch ausgelost werden, wer das erledigt ^^

Zwecks des Großen Ansturms an Leuten, die helfen wollen: der IRC Channel ist nach wie vor der beste Weg mit uns in Kontakt zu kommen. Weil wir momentan recht wenig Zeit für unser Standardprozedere haben werden wir warscheinlich temporären Zugriff für eine Woche vergeben und danach über alles weitere entscheiden.

frohes Testen!

10. März 2008

So, die Katze - oder vielmehr die Schlange - ist aus dem Sack.

Nach reichlich Monaten Entwicklung hat die Beta von Inyoka, das Licht der Welt erblickt. Unsere Entwickler rufen zum Test auf.

Zwei Sachen gibt es zu beachten. Erstens, für den Beta-Test muss man sich neu anmelden, die Anmeldung aus dem alten Forum funktioniert hier nicht und zweitens ist dies wirklich ein beta-Test, alle Postings sind nach der Beta-Phase verloren.

Im ubuntuusers forum ist gerade die Frage aufgetaucht warum Inyoka noch nicht OpenSource ist und für das Jahresende angekündigt ist. Nun das hat viele Gründe und die wichtigsten würde ich hier gerne mal aufführen:

  • Wir sind nicht genug Leute. Ein Projekt OpenSource stellen ist keine Sache von drei Minuten. Dazu müssen Lizenzen überprüft werden, interne Daten entfernt werden und noch so einiges mehr. Zudem ist unser Zeitplan verflixt knapp bemessen und bei aller Liebe zu OpenSource haben wir momentan keine Zeit dafür.
  • Der Unterbau ist noch nicht final. Momentan sind die Texte alle fest in die Templates geschraubt, wir haben eine grausige Mixtur aus dem anfänglichen Django und den Pocoo libs das noch aufgeräumt werden muss. Wenn wir jetzt den Quellcode freistellen ist damit niemanden geholfen und uns noch weniger.
  • Es wurde nicht als OpenSource Projekt entwickelt. Inyoka wurde mit den gesammelten Wünschen im Hinterkopf speziell für ubuntuusers entwickelt und das ohne, dass jemand etwas davon mitbekommen hat in etwa einem halben Jahr. Wäre das ein OpenSource Projekt hätten wir bis zu diesem Zeitpunkt schon Dutzende Diskussionen über den Weg gehabt, den Inyoka einschlagen sollte. "We've been there, we've done that".

Wir wissen, dass Inyoka ein gewagtes Experiment ist. Nicht nur gehen wir kurz vor Hardy online --- einem Zeitpunkt wo die Last auf dem Servern so hoch ist wie lange nicht mehr --- sondern haben auch die komplette Software ausgetauscht. Das ist gewagt weil bisherige größere Änderungen über zwei Wochen die Community geteilt haben.

Wir sind zuversichtlich, würden aber gerne für den Moment die Diskussionen um ein öffentliches Repo auf später vertagen. Wer Lust hat uns zu helfen: fähige Webdesigner / Grafiker / Python Programmierer sind immer Willkommen. Bei Fragen: #ubuntuusers-webteam auf irc.freenode.net

5. März 2008

Viele Benutzer von Ubuntu haben nach wie vor Probleme bei der Installation des proprietären Nvidia-Treibers. Mich persönlich wundert das etwas, denn der “Manager zum Verwalten eingeschränkter Treiber”, kurz der Restricted-Manager, leistet gute Dienste, den Treiber ohne Komplikationen und mit wenigen Klicks zu installieren.

Stattdessen wird der Treiber von der Nvidia-Homepage heruntergeladen und von Hand installiert oder mit Envy gearbeitet. Beide Methoden funktionieren auch, haben aber einen gravierenden Nachteil. Der Treiber wird jeweils nicht über die Paketverwaltung installiert. Kommt ein Kernelupdate, so kann der Xserver nicht mehr starten, weil das passende Kernelmodul fehlt. Bei der Installation über die Paketverwaltung kann das nicht passieren, denn das nötige Kernelmodul wird bei einem Kernelupdate automatisch mitgeliefert.

Ich habe neulich ein Testsystem mit einer Nvidia GeForce 7600 GS Grafikkarte, zwei Bildschirmen und Ubuntu Gutsy Gibbon 7.10 aufgesetzt. Der Treiber und der Dual-Monitor Betrieb ließen sich ohne Schwierigkeiten oder Basteleien an der xorg.conf einrichten. Ich habe ein paar Screenshots von der Aktion gemacht, vielleicht helfen die Tipps dem einen oder anderen.

Installation des Treibers

Den Restricted Manager findet man unter “System -> Systemverwaltung -> Verwaltung eingeschränkter Treiber”. Hat man diesen gestartet, so findet dieser die Grafikkarte und erkennt, dass der proprietäre Nvidia Treiber noch nicht installiert wurde. Man sieht dies an der Spalte “Aktiviert” und “Status”.

Über einen Klick in die noch leere Checkbox unter “Status” wird die Installation des Treibers in die Wege geleitet. Es erscheint ein Dialog der erklärt was der Treiber bewirkt, wozu er benötigt wird und ob man ihn wirklich installieren will.

Bejaht man diese Frage, so wird der Treiber automatisch aus dem Internet geladen und installiert.

Letztendlich ist der Treiber installiert. Nach einem Neustart des Systems - eigentlich würde ja auch ein Neustart des Xservers reichen - ist der Treiber aktiv. Man erkennt dies am Nvidia-Logo, das nun vor dem Start des Xservers erscheint.

Die Desktop-Effekte, sprich Compiz als Windowmanager, werden automatisch aktiviert.

Dual-Monitor Betrieb

Nun sollten auch beide Monitor zu einem großen Desktop verschmelzen. Direkt nach dem Start wird jedoch nur ein Monitor benutzt. Ubuntu bietet seit der Version 7.10 einen Assistenten zum Einrichten der Bildschirmauflösung an. Dieser kommt auch mit zwei Monitoren zurecht. Man kann ihn über “System -> Systemverwaltung -> Bildschirme und Grafik” starten. Der Assistent erkennt, dass an der Grafikkarte zwei Monitore angeschlossen sind. Für beide lassen sich dann jeweils Auflösung (und Wiederholraten) definieren.

Für den zweiten Monitor kann man definieren, welche Rolle er spielen soll. In meinem Fall möchte ich einen großen Desktop, so dass ich Fenster von einem Monitor auf den anderen Schieben kann. Dies lässt sich über die Option “Hauptbildschirm erweitern” machen.

Nach einem Neustart des Xservers (einfach einmal aus und wieder einloggen) ist der zweite Monitor aktiv. Fazit: Man sieht, Ubuntu ist einfach geworden, man muss die gebotenen Funktionen nur nutzen!

1. März 2008

Eben dachte ich dass ich Arch mit einem grossen Knall von der Platte fegen muss – oder sicherheitshalber gleich die ganze Platte samt Linux rausschmeisse, drauf rumtrete und den Rest in einen Metallschredder befĂśrdere. Der Grund: Nach einem mkinitcpio zwecks Hibernate-Modus-Einrichtung findet Arch Linux beim Booten (wie auch damals bei der Installation) die Rootpartition nicht mehr – und das zum absolut unpassendsten Zeitpunkt:
Attempting to create root device '/dev/sda4'
ERROR: Failed to parse block device name for '/dev/sda4' unknown
ERROR: root fs cannot be detected. Try using the rootfstype= kernel parameter.
Waiting for devices to settle...done.

Root device '/dev/sda4' doesn't exist, attempting to create it
ERROR: Failed to parse block device name for '/dev/sda4'
ERROR: Unable to create/detect root device '/dev/sda4'
Dropping to a recovery shell... type 'exit' to reboot
NOTE: klibc contains no 'ls' binary, use 'echo *' instead

If the device '/dev/sda4' gets created while you are here,
try adding 'rootdelay=8' or higher to the kernel command-line

Zwecks LĂśsung musste ich den Kernel von der Arch-Installations-CD in Verbindung mit dem Root-Filesystem booten, am Boot-Prompt der Installations-CD gebe man dazu folgendes ein (das sdaX muss durch die zu startende Rootpartition ersetzt werden):

arch root=/dev/sdaX

Nach dem Booten wechselt man per z.B. ALT-F6 in ein Terminal, in einem Gnome-Terminal-Fenster hat die Reparatur NICHT funktioniert. Einloggen als root und dann muss in die MODULES-Zeile der Datei /etc/mkinitcpio.conf das fĂźr die Rootpartition verwendete Dateisystem eingetragen werden, hier ext3. Danach wird das Kernelimage neu gebaut und das alte Image Ăźberschrieben (hier fĂźr kernel26, 2.6.24-ARCH):

mkinitcpio -k 2.6.24-arch -g /boot/kernel26.img

Neustart und gut war. Muss man erstmal drauf kommen, muss ich das jetzt bei jedem neuen Kernel respektive mkinitcpio machen? Schliesslich hatte sich die Konfigurationsdatei seit der Installation nicht verändert… Auf jeden Fall danke an diese Threadposter: Thread zur Fehlermeldung.

Vielleicht auch interessant:

©2008 CoreBlog.

28. Februar 2008

SyncML mit PalmOS

…funktioniert gut. Es gibt verschiedene Lösungen, seinen Palm mit seinem PC mit SyncML zu synchronisieren, offline (opensync) und online (diverse SyncML-Server).

Ich nutze die Online-Lösung mit Scheduleworld. PalmOS kann von sich aus kein SyncML, da braucht es ein extra Programm. Es gibt zwei davon, den von Synthesis und den von Funambol. Der Synthesys-Client arbeitet auf meinem Treo. Und das gar nicht mal so schlecht. Es werden neben dem Kalender auch die Aufgaben, Kontakte und Notizen synchronisiert. Mit PalmOS5 organisiert man seinen Kalender mit Kategorien. Manchmal sind aber mehrere Kalender gewünscht. Dabei hilft auch der SyncML-Server. Man erstellt einfach mehrere Kalender auf dem Server und ordnet diesen die Kategorien des Palm zu.

Auf dem PC verrichtet jetzt Thunderbird mit der Kalendererweiterung Lightning seine Arbeit. Die passende Erweiterung versorgt Lightning mit den Daten von Scheduleworld. Hier wird die Einrichtung beschrieben.

SyncML mit PalmOS

…funktioniert gut. Es gibt verschiedene Lösungen, seinen Palm mit seinem PC mit SyncML zu synchronisieren, offline (opensync) und online (diverse SyncML-Server).

Ich nutze die Online-Lösung mit Scheduleworld. PalmOS kann von sich aus kein SyncML, da braucht es ein extra Programm. Es gibt zwei davon, den von Synthesis und den von Funambol. Der Synthesys-Client arbeitet auf meinem Treo. Und das gar nicht mal so schlecht. Es werden neben dem Kalender auch die Aufgaben, Kontakte und Notizen synchronisiert. Mit PalmOS5 organisiert man seinen Kalender mit Kategorien. Manchmal sind aber mehrere Kalender gewünscht. Dabei hilft auch der SyncML-Server. Man erstellt einfach mehrere Kalender auf dem Server und ordnet diesen die Kategorien des Palm zu.

Auf dem PC verrichtet jetzt Thunderbird mit der Kalendererweiterung Lightning seine Arbeit. Die passende Erweiterung versorgt Lightning mit den Daten von Scheduleworld. Hier wird die Einrichtung beschrieben.

27. Februar 2008

Hardy Heron
Sodala, auf meinem Laptop läuft nun Ubuntu 8.04, Hardy Heron, Alpha 5.

Und wie war nun das Update bzw. die Installation? Kurzzusammenfassung: erst Frust, dann Lust… oder auch “The joy of alpha versions”…

Und Hardy? Hübsch, flott, auf den ersten Blick nicht viel neues und einige Alpha-Bugs.

Gestern habe ich nun meine wunderbar stabile Ubuntu version “Gutsy Gibbon” auf die Alpha 5 von Hardy Heron aktualisiert. Die stabile Version von Hardy erscheint im April, im Moment steht Hardy bei der Version Alpha 5.

Sagen wir so, ich wollte ein Update durchführen. Ich habe also brav ein

update-manager -d

in die Konsole eingetippt und dann mit dem Update-Manager das Update ausgeführt, so wie man es auch machen sollte. Ich fasse das Ganze mal ganz kurz zusammen:
Pakete wurden heruntergeladen, Update wurde fast bis zum Schluß ausgeführt. Kurz vor dem Ende des Updates ploppten plötzlich einige Fehler auf und das Update brach ab mit der Meldung, dass das System jetzt unbenutzbar sein könnte. Irgendwie habe ich aber verpasst, bei welchem Fehler das Update tatsächlich abgebrochen hat. Ich konnte also tatsächlich nach einem Neustart Ubuntu nicht mehr hochfahren. Grrr… die Partitionstabelle war aber OK.
Naja.. es kam was kommen musste - ich fuhr mein Windows hoch (Bootmanager hat also immer noch funktioniert) und habe mir die Hardy Heron Installations-CD heruntergeladen (Desktop-CD) und gebrannt.

Dann habe ich also eine Neuinstallation von Hardy durchgeführt. Dank einer seperaten /home -Partition war das schnell und schmerzfrei erledigt. Neuinstallation hat also nicht das geringste Problem gemacht. Nach der Installation habe ich mit dem Restricted-Manager den Nvidia-Treiber installiert, Neustart, alles perfekt, keine händische Fummelei an der XOrg.conf notwendig.

Erster Eindruck: Hardy fährt etwas schnell hoch und läuft auch etwas flüssiger. Die Sensität meines Touchpads ist irgenwie höher als vorher, weswegen ich des öfteren unabsichtlich klicke. Aber es ist nicht schlecht, nur etwas ungewohnt.

Auf den ersten Blick gibt es nicht viel neues. Optisch fällt sofort das neue Hintergrundbild auf (auf meinem obigen Screenshot zu sehen). Und das finde ich jetzt wirklich mal gelungen. Kompliment an den Künstler, das beste Hintergrundbild, das Ubuntu jemals hatte meiner Meinung. Ansonsten neue Programmversionen (z. B. Firefox 3), neues Gnome (2.21), neuer Kernel (im Moment 2.6.24-10).

Auf die Neuerungen im einzelnen gehe ich im nächsten Eintrag ein. Soweit läufts erstmal gut, alles wichtige läuft (WLAN, Grafik, Sound…).

Auf jedenfall werden jetzt wieder mehr Blogeinträge folgen! ;-)

Aber soweit sieht es erstmal gut aus

26. Februar 2008

Ich finde, heute ist ein guter Tag um meine schöne, stabile Ubuntu-Version auf die Alpha von Hardy zu updaten. :-)

Ich werde dann berichten wie es geklappt hat. Werde keine Neuinstallation machen, sondern ein Update. Vielleicht gibt’s dann ja auch wieder mehr hier zu lesen. Mein Ubuntu war einfach zu stabil und langweilig… hehe…

22. Februar 2008

GNOME-Panel und XFCE-Panel dunkel färben, helle Beschriftung statt schwarzer Text:

In der Datei .gtkrc-2.0 im home/-Ordner (alternativ direkt in die gtkrc-Datei eines Themes) Folgendes eintragen:

style “panel”
{
fg[NORMAL] = “#C0C0C0”
fg[ACTIVE] = “#9B9B9B”
bg[NORMAL] = “#323943”
bg[PRELIGHT] = “#5A6168”
bg[ACTIVE] = “#22272E”
}
widget "*PanelWidget*" style "panel"
widget "*PanelApplet*" style "panel"
widget "*Panel*" style "panel"
widget_class "*Panel*" style "panel"
class "*Panel*" style "panel"
class "*Tray*" style "panel"
class "*tray*" style "panel"

21. Februar 2008

Kleine Randnotiz des heutigen Tages:

Während die Entwicklung der nächsten Ubuntu-Version 8.04 (Hardy Heron), das im April veröffentlicht, in der heißen Phase steckt, hat Mark Shuttleword heute den Codename der übernächsten Ubuntu-Version 8.10 bekannt gegeben:

The Intrepid Ibex

Ich muss gestehen, dass ich erstmal das Wörterbuch meines Vertrauens um Rat fragen musste, um den Namen übersetzen zu können. Die Übersetzung lautet also “der unerschrockene Steinbock”. Wie ich diese Namen doch liebe! ;-)

Interessiert können sich im Archiv der Ubuntu devel-Mailliste Marks Beitrag durchlesen.

20. Februar 2008

19. Februar 2008

Mit Gnome unter Ubuntu kann man zwar als Bildschirmschoner eine Diashow auswählen, leider lässt sich aber der Ordner nicht frei wählen. Es wird der Standard-Bilder-Ordner von Gnome verwendet. Es gibt aber doch eine Möglichkeit, wie man den Ordner selbst definieren kann.

  • Bildschirmschoner GLSlideshow auswählen (siehe Bild)
  • Text-Datei ~/.xscreensaver anlegen (z.B. über nano -w ~/.xscreensaver)
  • Text-Datei mit folgendem Inhalt befüllen:
    chooseRandomImages: true
    imageDirectory: /home/user/bilder

Beim Setup meines Arch Linux Systems bin ich an folgendem Problem hängengeblieben: Das Paket fĂźr die grafische Druckerkonfiguration ist installiert, der Dialog in Gnome Ăźber System->Systemverwaltung->Drucken erreichbar. Man kann einen Drucker einrichten und/oder konfigurieren – dann Passwortabfrage, nichts passt, Abbruch.

Die LĂśsug war einfach, darauf gestossen (quasi mit Gewalt) hat mich der vorherige Beitrag bzgl. Systemadministrationstools. Wenn bei diesen das gksu fĂźr den Root-Zugang gefehlt hat, system-config-printers aber nicht zum Systemadmin-Paket gehĂśrt – dann greift die Terminalzeile aus eben dem vorherigen Beitrag hier auch nicht. Also mit locate nach system-config-printers und .desktop (fĂźr den Starter) gesucht, gefunden und die Exec-Zeile mit vorangestelltem gksu editiert. Fertig. Funktioniert. Ich bin begeistert. Den Starter findet man Ăźbrigens als /usr/share/applications/redhat-system-config-printer.desktop.

Vielleicht auch interessant:

©2008 CoreBlog.

Unter dem Gnome-MenĂź System->Systemverwaltung erwartete ich verwĂśhnterweise eine Reihe von Administrationsdialogen, geschĂźtzt durch eine vorgeschaltete Passwortabfrage. Damit das in Arch Linux auch wirklich so funktioniert ist etwas Vorarbeit nĂśtig:

Der Benutzer muss der Gruppe stb-admin angehĂśren und der zugehĂśrige Dienst stbd muss gestartet sein falls noch nicht geschehen. Sicherheitshalber habe ich ihn zwecks automatischem Start nun auch in der Datei /etc/rc.conf in die Daemons-Liste eingefĂźgt. Nach dem HinzufĂźgen eines Benutzers zu einer Gruppe ist ein Logout/Login nĂśtig.

gpasswd -a BENUTZERNAME stb-admin
/etc/rc.d/stbd start

Ausserdem benĂśtigt werden die Pakete sudo,gksu,gnome-system-tools und hal-cups-utils , letzteres fĂźr die Druckerverwaltung.

Lt. Thread im engl. Forum wird beim Einrichten der Starter der entsprechenden Systemprogramme allerdings nicht das gksu zwecks Passworteingabe vorangestellt was im Terminal nachgeholt werden soll:

for file in `pacman -Ql gnome-system-tools | grep desktop | cut -d" " -f2`; do cat $file | sudo sed 's/\(^Exec=\)\(.*-admin\)/\1gksudo \2/g' | sudo tee temp.desktop.tmp; sudo mv temp.desktop.tmp $file; done

Fßr alle Dialoge ausgenommen dem Druckerkonfigurationsdialog hat das wunderbar funktioniert, alle KonfigurationsmÜglichkeiten sind nun ßber den Passwortdialog zugänglich und benutzbar.

Ein Fallstrick ist für Benutzer eines Fingerabdrucksensors zu beachten – aus irgendeinem Grund mochte gksu hier pam_fprint nicht und stürzte just zur Passwortabfrage ab – also alle entsprechenden Aufrufe aus /etc/pam.d/su entfernt und die Passwortabfragen funktionierten wieder.

Vielleicht auch interessant:

©2008 CoreBlog.

18. Februar 2008

Mit dem Miniprojekt Arch Linux auf einem Lenovo 3000 N200 soll ein laufend aktualisierter Installations- und Erfahrungsbericht zu Verfügung gestellt werden der einerseits anderen helfen und allgemein informieren soll und mir selbst andererseits als Installation-Ablauf-Backup dient. Dank an Slyon für den Schubs in Richtung Arch Linux. Über weitere Informationen zum Lenovo und/oder Arch Linux, Kommentare, Kritik, Verbesserungsvorschläge oder Anregungen per Kommentar oder Mail würde ich mich natürlich freuen.

Vielleicht auch interessant:

©2008 CoreBlog.

15. Februar 2008

Zwecks mehr Leistung und höherer Bildschirmauflösung hatte ich ja schon länger ein Auge auf Lenovo-Laptops geworfen, mittlerweile ist ein Lenovo 3000 N200 mit 1.5Ghz Doppelkern, 2GB RAM, 160GB Festplatte, Fingerprintreader, Webcam und NVidia 7300 (512Mb) hier eingetroffen und wird auf Ubuntu-Tauglichkeit untersucht…

Erster Eindruck

Der allererste Eindruck zum Lenovo 3000 N200 war: Auweia. So toll schaut das silbergraue Äussere aber nicht aus. Das Gehäuse wirkt recht massiv, knarzt bei Druck minimal und ist äusserlich in einem matten Plastik-Silbergrau gehalten, Tastatur und Monitorbereich sind schwarz.

Die Tasten sind sehr gross beschriftet, im ersten Moment etwas irritierend sind die Doppel- und Dreifachbelegungen einiger Tasten, besonders aufgefallen bei der Punkt-Taste: Diese erzeugt nicht nur Punkt und Doppelpunkt wie gewohnt sondern auch das Komma des imaginären Nummernblocks. Direkt neben dem normalen Komma. Macht aber nach einer Minute keine Probleme mehr. Druckpunkt/Schreibgefühl ist meiner subjektiven Meinung nach gut, das Schreibgeräusch Standard und nicht unangenehm klapprig.

Vistapartition verkleinern

Der Rechner kommt mit vorinstalliertem Windows Vista und ohne Recovery-DVD(s). Die nötigen Recoverydaten sind auf einer knapp unter 6GB grossen versteckten Partition auf der Festplatte gespeichert. Für den Fall der Fälle sollte diese Partition auch so bestehen bleiben, man weiss nie was man mit dem Gerät noch alles vorhat.

Der Restliche Festplattenplatz ist der vorinstallierten Vista-Version zugeteilt, komplett und NTFS-formatiert. Zwecks Ubuntu-Installation habe ich diese Partition beim ersten Versuch entfernt und den kompletten Platz für Ubuntu verwendet, beim 2. Anlauf wurde sie dann mit ntfsresize vorbereitend bearbeitet und dann mit dem Partitionseditor (gParted) der LiveCD endgültig verkleinert. Hat wunderprächtig funktioniert.

Gutsy Installation

Die Installation von Ubuntu 7.10 (Gutsy) verläuft mit dem grafischen Installer problemlos, keine unangenehmen Begebenheiten und ist nach ca. 20 Minuten beendet. Das Installieren des persönlichen Softwarepools dauert nochmal 5 Minuten, dann Theme- und Programm-Anpassungen soweit nicht schon durch Mitnahme des alten /home-Verzeichnisses geschehen, fertig. Dauert hier insgesamt ca. 30-45 Minuten.

Bildschirm/Xorg/Compiz Fusion

Die native Auflösung von 1680×1050 Pixeln wurde sowohl mit dem offenen ‘nv’- als auch unter dem proprietären Nvidia-Treiber problemlos erkannt und angewendet. Das Schriftbild ist klar und deutlich, mit der Option ‘Glättung mittels Subpixel’ auf Stufe ‘gering’ auch noch wesentlich angenehmer. Das spiegelnde Display ist nicht wirklich mein Ding, wird aber nach 5 Minuten arbeiten in Zimmerbeleuchtung nicht mehr bemerkt.

Compiz Fusion läuft prächtig, einzig ein ab und an auftauchendes, sehr kurzes schwarzes Flackern des Bildschirms stört (wirklich extrem kurz), nach kurzem Forschen habe ich derzeit in den Grafikkarteneinstellungen für NVidia alle Einstellungen für SyncToVBlanc auf ‘on’ gesetzt – bisher kein Flackern mehr. Mal sehen…

Lüfter/Suspend/Hibernate

Dieser Bereich ist so ein bischen das Problem des Gerätes. Zuerst zum Lüftergeräusch – im Gegensatz zu vielen im Netz geposteten Meinungen erscheint mir das Lüftergeräusch nicht wirklich störend zu sein, der Lüfter läuft alle paar Minuten kurz an, säuselt in niedriger Frequenz und geht dann wieder aus. Könnte seltener sein, aber es geht noch so. Vielleicht bringt ja ein BIOS-Update irgendwann Besserung. Temperatur des Rechners lt. lm-sensors und sensors-applet im Schnitt beim Surfen/Schreiben ~48°C. Bei CPU-intensiven Aktionen geht die Temperatur gleichzeitig mit der Lüfterdrehzahl etwas höher, gibt sich aber schnell wieder. Kurz – für einen Hörsaal wäre es zu laut, als teilmobiler Desktopersatz durchaus tauglich. Lärmpegel bei CPU- und Grafikkarten-intensiven Geschehnissen (Flugsimulation, Shooter etc.) kann ich (noch?) nicht beurteilen.

ACPI/Suspend/Hibernate

Gutsy kernel, driver “nvidia” (most recent via envy) - Suspend ergibt einen Blackscreen, Reboot nötig. - Hibernate funktioniert prächtig, der Lüfter bleibt aber still -> gefährlich. Gutsy kernel, driver “nv” - Genau wie mit Treiber “nvidia”. Hardy Kernel, driver “nvidia” - Suspend funktioniert jetzt, leider danach kein Lüfter mehr. - Hibernate funktioniert wie in Gutsy, danach kein Lüfter mehr. uswsusp-Paket, Gutsy kernel, driver “nv” - Genau wie unter Gutsy ohne uswusp

Das Problem scheint bekannt zu sein, unter Ubuntu Hardy gibt es möglicherweise Fortschritte, nur den Hardy-Kernel unter Gutsy installieren bringt zwar funktionierenden Suspend, am Lüfterproblem ändert das aber nichts. genau ein einziges Mal ist hier der Lüfter nach Resume wieder zum Leben erwacht und dass nur auf kleinster Stufe. Wenn hier jemand eine Idee hat – immer her damit.

Webcam

Funktioniert out-of-the-box, Skype zum testen geladen, Optionen->Video, Bild ist da.

Fingerprintreader

Hier verweise ich an Sylon, nach diesem HowTo funktioniert der Fingerabdrucksensor gut. Genaueres wird der Langzeittest zeigen.

Sound

Auch hier habe ich ein HowTo befolgt, direkt nach Installation funktioniert der Sound auf dem Rechner noch nicht. Das Einfügen folgender Zeile in die Datei /etc/modprobe.d/alsa-base löst das Problem nach einem Reboot:

options snd-hda-intel model=lenovo

WLAN

Funktioniert out-of-the-box, inkl. WPA2. Umstieg auf WICD musste natürlich trotzdem sein.

Touchpad

Eigentlich nicht erwähnenswert aber nachdem das Pad so einwandfrei unterstützt wird trotzdem einige Informationen: Out-of-the-box funktionieren das Touchpad an sich, Doppelklick-Tapping, Scrolling über den rechten Rand und das Würfeldrehen in Compiz Fusion.

Cardreader

Der Kartenleser wurde bisher noch recht selten beschrieben, mangels Karten kann ich leider auch nicht testen ob diverse HowTos funktionieren. Der Kartenleserchip ist von Ricoh und ein lspci ergibt hier folgendes:

cywhale@hal:~/Packages/fprint$ lspci | grep Ricoh
08:06.0 FireWire (IEEE 1394): Ricoh Co Ltd R5C832 IEEE 1394 Controller
08:06.1 Generic system peripheral [0805]: Ricoh Co Ltd R5C822 SD/SDIO/MMC/MS/MSPro Host Adapter (rev 19)
08:06.2 System peripheral: Ricoh Co Ltd R5C843 MMC Host Controller (rev 01)
08:06.3 System peripheral: Ricoh Co Ltd R5C592 Memory Stick Bus Host Adapter (rev 0a)
08:06.4 System peripheral: Ricoh Co Ltd xD-Picture Card Controller (rev 05)

Nach diversen Postings könne ein solcher Kartenleser mit setpci zur Mitarbeit bewegt werden. Da ich bisher nicht Testen kann verlinke ich Bugreport/Lösungen hier im Anhang, im Bugreport sind auch einige Lösungsversuche enthalten.

Fazit

Anfänglich war ich mir wirklich nicht sicher was ich von dem Gerät halten soll, gross, recht ‘eckig’, man liest von nervigem Lüfter usw. usw… Schlussendlich bin ich aber doch zufriedem mit dem Lenovo 3000 N200, er verrichtet seine Arbeit zügig, Das Display ist mit seiner hohen Auflösung (und das war definitiv ein Kaufgrund) recht angenehm und der Lüfter ist auch erträglich. Ich glaube ich mag ihn. Den Rechner. Wenn jetzt noch Suspend oder wenigstens Hibernate MIT Lüfter nach dem Aufwachen funktionieren würde…

Links zum Thema

8. Februar 2008

Ab und an kommt man doch in die Verlegenheit den Ursprungszustand einer Windowsinstallation auf einer vorhandenen FAT32-Partition möglichst ohne Datenverlust wiederherzustellen. Wie genau das mit Linux (Ubuntu verwendet) möglich ist soll hier beschrieben werden:

Vorwort

Der hier beschriebene Weg hat bei mir prächtig funktioniert und keinen Datenverlust zur Folge gehabt. Trotzdem kann ich keine Verantwortung für Schäden irgendeiner Art resultierend aus diesem Beitrag übernehmen. Wenn man nach diesem HowTo vorgehen will ist Grundwissen bzgl. Partitionierung/Festplattenkennzeichnung und Installation/Bedienung von Programmen im Terminal unter Linux von grossem Vorteil, eine falsche Eingabe kann zum Datenverlust führen. Man sollte wissen was man tut.

Ubuntu Live CD

Zuerst benötigt man eine bootbare Live-CD mit der das System gestartet werden kann, im besten Fall sind die benötigten Tools gParted und ms-sys bereits installiert. Auf der hier zufällig noch vorliegenden Gutsy-Alpha-LiveCD fehlte das Paket ms-sys allerdings.

ms-sys nachinstallieren

Nach dem booten der LiveCD öffnet man ein Terminal, öffnet mit

sudo gedit /etc/apt/sources.list

die Paket-Sourcen-Liste und entfernt die Kommentarzeichen ## vor den Zeilen die die Universe-Paketquellen enthalten. Speichern und dann im Terminal mit

sudo apt-get update

die Sourcelisten updaten und mittels

sudo apt-get install ms-sys

das Paket installieren.

Partitionierung

Im Menü Anwendungen->Zubehör der Live-CD Desktopumgebung (hier Gnome) findet man den Partitionseditor gParted. Nach dem Starten des Programmes werden alle Partitionen eingelesen und können (falls gemountet) ausgehängt und danach editiert, d.h. in diesem Fall gelöscht werden. Genau das wird mit den nicht mehr benötigten Partitionen für Ubuntu und Swap getan. Wir erhalten als Ergebnis die unberührte Windows-Partition (fat32) und eine Menge nicht zugewiesenen Speicherplatz.

Boot-Flag für Windows

Bevor gParted beendet wird weisen wir per Rechtsklick der Windows-Partition noch das Bootflag zu da sie sonst beim Booten nicht gefunden wird.

Windows MBR wiederherstellen

Da Ubuntu mit Grub seinen eigenen Bootloader mitbringt muss nach dem Entfernen der Distribution/seiner Partitionen der Windows Master Boot Record (MBR) wiederhergestellt werden. Dazu wird wieder ein Terminal geöffnet und der Befehl

sudo ms-sys -m  /dev/Festplatte

verwendet, wobei das Festplatte durch die korrekte Festplattenkennung ersetzt wird, in meinem Fall war das sda, der Parameter war also /dev/sda. Um die Festplattenkennung festzustellen kann man den Befehl

sudo fdisk -l

in einem Terminalfenster verwenden, er sollte alle Partitionen beginnend mit einer Partitionsbezeichnung wie /dev/sda1 oder /dev/hda1 auflisten (wenn bisher alles geklappt hat eben nur die eine Windowspartition). Diese Kennung abzüglich der Zahl am Ende ergibt die Festplattenbezeichnung, die Zahl selbst würde für die Partitionsnummer stehen darf hier auf keinen Fall mitbenutzt werden.

FAT32 Partition vergrössern

Bleibt also nur noch den bisher nicht zugewiesenen freien Speicherplatz wieder der Windowspartition zuzuweisen, diese also möglichst ohne Datenverlust zu vergrössern. In einem Terminal wird das Programm parted gestartet, es bietet in wenigen Schritten genau diese Funktionalität. Parted wird über eine Kommandozeile bedient, mit der Eingabe von help gibt es eine Befehlsübersicht. Mit p bekommen wir eine Liste der Partitionen bzw. der (einzigen) Partition, ausserdem werden Informationen zur Festplatte ausgegeben. Mit resize wird das Vergrössern gestartet, Partitionsnummer und Start/Endpunkt auf der Festplatte werden abgefragt, hier habe ich die Vorgabewerte die die volle Grösse beschrieben belassen. Nach dem letzten Bestätigen wird die Partition vergrössert. Mit quit kann man parted nun wieder verlassen. Nach einem Reboot ohne LiveCD sollte nun das ursprüngliche Windows ohne weiteres Zutun wieder korrekt starten.

Links

6. Februar 2008

“A Duck’s Claw” (Die Klaue einer Ente) – komplettes Icon-Theme für Claws Mail 3.x in leuchtenden, braun-orangefarbenen Tönen. Claws-Mail fügt sich damit z.B. gut in die Ubuntu-Human-Oberfläche ein. Das Theme basiert auf Blaue Klaue.

In English, please: “A Duck’s Claw”, complete icon theme for Claws Mail, based on Blaue Klaue. Shiny brown and clawrange colors. Fits with Ubuntu’s “Human” theme.

Vorschau/preview:

Download:
A Duck’s Claw (tar.gz) [XPM]
A Duck’s Claw (tar.gz) [PNG]

2. Februar 2008

Mit meiner selbstangepassten Ubuntuversion hatte ich in letzter zeit Probleme mit einem langam reagierenden Gnome, beispielsweise gab es bei Klick auf das Menü Anwendungen eine Pause von 2 Sekunden bis das Untermenü erschien, Firefox schien etwas langsamer zu sein als gewohnt, Tab-Switching gab es nur mit Verzögerungen usw…

Die Lösung war das systemweite Deaktivieren von IPv6. Dieses Protokoll wird im allgemeinen täglichen Umgang mit dem Internet noch nicht verwendet, auch unterstützen einige ältere Router es noch nicht und wie man durch googlen erfährt hat Ubuntu Gutsy doch das eine oder andere Problem mit der Implementierung von IPv6 was zu Verzögerungen im Umgang mit dem Desktop und dem Internet führt. Die Deaktivierung ist keine neue Idee, für einige Ubuntuversionen immer wieder empfohlen worden und hat mir mein gewohnt einigermassen zügig reagierendes System zurückgebracht:

/etc/hosts editieren

Man gebe dem localhost in der ersten Zeile nach einem Leerzeichen noch den Rechnernamen mit – hat nicht wirklich etwas mit IPv6 zu tun, soll aber das System beschleunigen. Alle IPv6-spezifischen Einträge werden auskommentiert.

127.0.0.1       localhost HAL
127.0.1.1       HAL
# The following lines are desirable for IPv6 capable hosts
#::1     ip6-localhost ip6-loopback
#fe00::0 ip6-localnet
#ff00::0 ip6-mcastprefix
#ff02::1 ip6-allnodes
#ff02::2 ip6-allrouters
#ff02::3 ip6-allhosts

/etc/modprobe.d/aliases editieren

Der Eintrag für net-pf-10 ipv6 wird deaktiviert:

alias net-pf-10 off

Am Ender der Datei wird noch ein Eintrag zur IPv6-Deaktivierung hinzugefügt sofern nicht schon irgendwo vorhanden:

alias ipv6 off

/etc/modprobe.d/blacklist editieren

Ein Eintrag für IPv6 wird ans Ende hinzugefügt:

blacklist ipv6

Firefox: about:config

Nach eingabe von about:config in die Adresszeile sucht man nach ipv6. Der erscheinende Eintrag sollte network.dns.disableIPv6 sein und wird mit einem Doppelklick auf True gesetzt.

Für Firefox wird nur ein Browserneustart benötigt, für die Systemeinstellungen sollte ein Reboot vorgenommen werden. Fertig. Zumindest hier auf meinem Amilo 1425 hat es funktioniert und ich habe wieder ein für Ubuntu-Verhältnisse gut reagierendes System.