ubuntuusers.de

17. August 2008

Nun, da das iPhone 3G seine Wege auch in die kleine Schweiz gefunden hat, durfte ich mir das ’super Telefon’ auch mal ansehen. Und dann sehe ich auf dem Apfelblog die Verkaufszahlen, und muss mir an den Kopf fassen, wie kann ein Newcommer soviel Markt in so kurzer Zeit einnehemen?

Gut, zugegeben es ist ja nicht irgendeine Firma, sondern immernoch Apple, die ja schon zuvor unglaublichen Erfolg mit dem iPod und OS X usw. hatten. Aber trotzdem, wie schon viele Kritiker sagen, hat Apple ausser dem Multi Touch Patent nichts neues entwickelt, sondern lediglich alte Technologien so verbunden, dass diese in ganz neuem Licht erscheinen. Die Kunst liegt darin diese so zu bündeln dass ein inteligentes Zusammenspiel entsteht, welches den Leuten den Eindruck gibt: ‘Wow das ist ja hightech, und muss super gut funktionieren’. Doch der erste Blick trügt. Das iPhone ist in den Funktionen ziemlich beschränkt, trotz App Store usw. Und wie immer mussten Linux Entwickler den entscheidenden Anstoss geben, um Apple dazu zu bringen, einen App Store überhaupt zu veröffentlichen. Es war der Jailbreak, den ich persönlich einfach genial finde. Bei den Computern kommt OS X zum Einsatz, es ist ein hervorragendes Betriebssystem, schön, elegant, und schlicht. Doch unter der Haube steckt, wie Apple selber zugibt, ein Unix Kern. OS X ist also nur ein BSD Abkömmling. Dazu kommt noch das OS X in so manch einem Fall ohne Grund abstürtzt, und als Server sehr langsam ist. Der Clou ist aber, dass Apple das OS an die Computer anpasst, was bei Windows und Linux aufgrund der verschiedenen Computer Sorten nicht oder nur  eingeschränkt möglich ist (Linux machts aber besser als Windows!).

Kurz zusammengefasst:

Apple erfindet nicht viel neues, es lässt alte Technologien, durch neue GUI’s und angepasste Hardware in neuem Licht erscheinen. Den Anstoss müssen meisstens Leute aus der Umgebung geben (Jailbreak usw.)

Vorschlag für Ubuntu:

Wie wäre es wenn Ubuntu sich nicht auf allzu neue Software konzentrieren würde (anstatt bei jedem Relase irgend ein neues Programm mitzubringen, ausser es ist besser), sondern mehr darauf achten würde das alte zu verbessern. Zb. Kein neuer Style sondern den alten perfektionisieren? Naja da weiss ich zu wenig. Was denkt ihr?

PS. iPHONE FOR SUNRISE!

Wie kann man Supercomputer-Leistung erzielen, ohne einen Top500-Rechner anzuschaffen?

Die Antwort auf diese Frage lautet verteiltes Rechnen (distributed computing) bzw. in einer weiteren Entwicklungsstufe Grid-Computing. Die Idee dabei ist einfach umschrieben, dass die Prozessoren vieler Computer zeitweise nicht ausgelastet sind und diese ungenutzte Rechenzeit gebündelt wird.

Die ersten Projekte waren unter anderem mathematische Fragestellungen (Finden eines Schlüssels für eine verschlüsselte Nachricht) oder angewandte Astrophysik (Finden regelmäßiger Signale in Daten von Radio-Teleskopen).

Eines der derzeit besten verfügbaren Projekte das sich Gemeinnützigkeit auf die Fahnen geschrieben hat, ist das World Community Grid. Hier werden nur gemeinnützige Projekte aus dem medizinisch-biologischen und ökologischen Bereich unterstützt, deren Ergebnisse im Anschluss gemeinfrei (sprich als Public Domain) veröffentlicht werden.

Die aktuell aktiven Projekte von WCG beschäftigen sich mit der Suche nach Mitteln gegen AIDS und Impfstoffen für die Flavivirus-Familie, der Verbesserung des Ertrags von Reis und in der menschlichen Protein-Forschung.

Am einzelnen Rechner wird BOINC verwendet, dieser Client ist beispielsweise für Linux, Solaris, Mac OS X und Windows verfügbar. Für Ubuntu gibt es die Pakete “boinc-client” bzw. “boinc-manager” im Universe-Repository.

Weitere Informationen und die Voraussetzungen zur Teilnahme am WCG-Projekt sind auf der Projektseite und beim Rechenkraft.net e.V. zu finden.

Laut Tagesschau soll ein Informant über 1,5 Millionen Datensätze verfügen. Es ist ein Skandel, das die Firmen es soweit gebracht haben und wieder nur Kommissar Zufall in der Lage war so etwas anzuprangern. An so einen Anruf kann ich mich auch erinnern, "Wollen Sie nicht wieder mal Ihr Glück versuchen, Sie waren doch schon mal bei der SKL". Hätte ich da schon gewußt, das die meine kompletten Daten zur Verfügung haben und nur einen Knopf drücken brauchen, um ihre Maschinerie in Gang zu setzen, ich hätte Anzeige erstattet. Aber das ist ja nicht so einfach, weil die Gauner ja immer mit Rufnummerunterdrückung arbeiten. Aber das ist ja jetzt bald vorbei!

Da ist die  Golem Meldung von 50000 weiteren Daten ja gerade zu nebensächlich ...

16. August 2008

Nachdem ich eine Woche nicht daran hab arbeiten können, da der Ati Chip in meinem Laptop keine Shader unterstützt, hab ich mich heute wieder an die Kugel gemacht und konnte die Caps fertigstellen. Wird auch langsam Zeit: übermorgen ist Code Freeze für die Abgabe bei Summer of Code. Das Ergebnis sieht nun so aus:

Die Kugel wurde etwas nach hinten vorschoben um vollständig auf den Monitor zu passen und die Spiegelung wurde deaktviert, da sie mit der unteren Cap überschneiden würde. Kugel und auch Zylinder können übrigens nicht verwendet werden um den Wechsel der Arbeitsfläche zu animieren. Dafür gibt es nur den Würfel. Alles andere würde das Bild bei einer Animation von ca. einer halben Sekunde zu stark stören.

Leider sind meine Versuche Zylinder und Kugel andere Tastenkürzel zu geben erst einmal gescheitert. Irgendwie scheint mir die Vererbung in C++ doch nicht so ausgereift zu sein wie in Java. Eigentlich ja nicht überraschend, da C++ ja auch gelinkt werden muss. Da die Tastenkürzel im Konstruktor festgelegt werden und der Konstruktor von Cube als Elternklasse zuerst ausgeführt wird, hat auch Zylinder und Kugel dessen Tastenkürzel reserviert. Daher bleibt es vorerst dabei, dass man Cube nicht starten kann, wenn Zylinder oder Kugel aktiviert ist. Die Einstellungen sollten sich jedoch noch ändern lassen. Werde ich mir morgen mal anschauen ;-)

Mit einem der heutigen Aktualisierungen habe ich die interne Struktur der Ikhaya-Artikel etwas geändert sodass der administrative Aufwand hübscher wird sowie URLs beständiger sind.

Als kleinen Nebeneffekt hatte das allerdings zur Folge, das sich einige Artikel-URLs geändert haben – das war nicht beabsichtigt, ich habe nicht gewusst das die `slug`s derart geändert wurden.

Nun, geschehen ist geschehen und ich möchte hiermit darauf aufmerksam machen, das einige Ikhaya-Artikel nun unter einer neuen URL zu finden sind (welche und wie viele kann ich nicht sagen – daher hier provisorisch die Warnung), siehe „Warum ist “Warnung vor proposed-Paketquellen” in Ikhaya nicht mehr verfügbar?“. Daher bitte bei Verlinkungen überprüfen ob der Link wirklich der richtige ist. Google wird hoffentlich in wenigen Tagen die neuen URLs indiziert haben, unsere Hauseigene Suche wird das vermutlich nicht so schnell machen.

Aus servertechnischen Gründen ist es uns zur Zeit nicht möglich die Suche zu aktualisieren – Wodurch der bisherige Stand der Suche vom 01.08.2008 sich leider nicht ändern lässt. Wir arbeiten an dem Problem!

MfG euer Webteam!

Aus technischen Gründen konnten wir die Kommentare nicht aus dem alten Blog mit importieren. Alte Kommentare lesen.

Erneut ist es soweit. Die Seite Carrier Command ist mal wieder online! Diverse Game Magazine haben heute davon berichtet. Die Ankündigung auf der Website gehen weit über das hinaus, was Martin G. Bell entwickelt, wenn ich das richtig beurteilen kann. So bin ich nun nicht sicher, ob das Game nun identisch ist mit dem was Martin in meinem Interview angedeutet hat. Der avisierte Release Termin Mitte 2010 ist leider noch sehr weit in der Ferne, hoffentlich bekommen wir bald die erste Alpha Version von Martin zu Gesicht! Bei der Gelegenheit habe ich ein schönes Video entdeckt in dem das Original von 1988 wunderschön vorgestellt wird, die paar Minuten sollte sich jeder gönnen, auch wenn er das Spiel nicht kennt, oder gerade dann :) 
Carrier Command: Gaea Mission

15. August 2008

Ohne Schwierigkeiten produzierte das Yalm-Team die neue Ausgabe des bekannten und freie erhältlichen Online-Magazins. Von einem Sommerloch ist nichts zu spüren, die Themen sind diesesmal:
Yalm

  • Rückblick
  • Amarok
  • Interview mit Ian Monroe
  • OpenOffice Base – Teil 1
  • GnuPG – Teil Ⅱ
  • Tipps und Tricks für die Shell Teil 3
  • Sprechblasen mit GIMP erstellen
  • Bunte Seite
  • Story: Gekaufte Zeit
  • Intern

Die Ausgabe könnt ihr unter http://www.yalmagazine.org/yalm/10 herunterladen.

Es war eine tolle Woche und leider ging sie viel zu schnell vorbei. Aber man freut sich schon auf nächstes Jahr in Gran Canaria zusammen mit den Leuten von Gnome. Fällt leider voll in die Klausuren- und Lernphase.

Die KDE Community ist einfach umwerfend. Alle Leute sind super nett. Generell war es riesig. Wir 350 Leute haben ja nicht mal mehr auf das Gruppenfoto gepasst, daher hab ich mich auch noch nicht darauf entdeckt.

Die ersten zwei Tage waren geprägt von Konferenzen. Sehr viele Talks und Keynotes. Die meisten richtig interessant und manchmal gab es auch zwei Talks die ich gerne gleichzeitig gehört hätte. Zum Glück wurde aufgezeichnet ;-) Sehr interessant war natürlich die Keynote von Nokia, unseren neuen besten Freunden. Für die, die es nicht wissen: Nokia hat am Anfang des Jahres Trolltech übernommen und ist nun die Firma hinter Qt und somit KDEs wichtigster Partner. Von der Keynote her denke ich nun noch mehr, dass Nokia sich der Verantwortung gegenüber KDE bewusst ist und das Verhältnis noch weiter ausbauen will und KDE stärker fördern wird. Wäre natürlich sehr erfreulich.

Zwischen den Talk wurden auch die aKademy Awards verliehen. Ich denke Amarok, Oxygen und Aaron Seigo für Plasma sind passende Gewinner für diese Auszeichnungen. Amarok ist einfach eine geile Anwendung, Oxygen ist mit das schönste was ich je auf dem freien Desktop gesehen habe und Aaron hat die Auszeichnung für seine Arbeit und seine Ideen an Plasma durchaus verdient.

Am Samstag Abend war das Social Event in einer Brauerei mit Freibier gesponsort von Nokia. Hier hatte man so richtig die Gelegenheit neue KDE-ler kennenzulernen und sich mit ihnen über ihre Projekte und Arbeit auszutauschen. Um es einfacher zu machen hatte jeder KDE-ler ein Namensschild umhängen. Sonntag morgen waren die ersten Vorträge doch etwas träge. Eigentlich verständlich bei Bier mit 9 % - und keiner hat uns gewarnt ;-)

Montag war die Hauptversammlung des KDE e.V. Das hat die meisten aKademy Teilnehmer beschäftigt. Da ich kein Mitglied bin, durfte ich nicht hingehen und habe mich stattdessen dem Coding gewidtmet. Es ist auch ein bißchen was darbei herumgekommen ;-)

Dienstag war der Thementag zu Mobile Devices. Dieser stand natürlich unter dem Einfluss der 100 N810 die Nokia an die KDE Entwickler verschenkt hatte. Die Akkus waren zum Glück schon geladen und die Mac Adressen waren in der Firewall freigeschaltet. So kam es, dass man den ganzen Tag über Leute über ihr neues Spielzeug gebeugt gesehen hatte, die ihre ersten Gehversuche mit Gnome machen. Bin ja mal gespannt, was die Community für diese Geräte leisten wird. Denke aber mal schon, dass es bald die ersten KDE 4 Pakete für Maemo geben wird. Wäre schön. Natürlich müssen die Anwendungen auch ein bißchen angepasst werden. Aber das sollte ja nicht so schwer sein. Ich weiß noch nicht, ob das Gerät einen 3D-Chip hat, daher hab ich noch keine Ahnung ob meine Effekte laufen werden ;-)

Am Dienstag konnte ich mich auch einmal mit meinem GSoC Mentor und KWin Maintainer (wer Planetkde liest: der mit den blauen Haaren) zusammensetzen und über unsere Pläne für 4.2 reden. War meiner Meinung nach ein sehr fruchtbares Gespräch und ich werde mich nun stärker in KWin einarbeiten und mich auch mal mit den Bereichen abseits der Effekte beschäftigen.

Die letzen Tage waren geprägt von Hackathon und BoF Sessions. Ich selber habe keine der BoFs besucht. Wollte zu Usability gehen, aber Essen hatte länger gedauert als erwartet und als ich ankam war der Raum bereits überfüllt. Daher habe ich ein bißchen programmiert. Present Windows Effekt (aka Expose) ist nun ein Window Switcher (Alt+Tab). Ist sehr praktisch, da er sehr gut skaliert für eine große Anzahl von Fenstern. Ob ich ihn selber in 4.2 nutzen werde, weiß ich noch nicht, da ich meistens nur so viele Fenster offen habe, dass Coverswitch noch gut skaliert. Eine weitere Neuerung (noch nicht committed) konnte ich in den Einstellungen einbauen. Nun gibt es ein Dropdown um den Window switcher und eins für den Desktop switcher auszuwählen. Das sollte es dem User bedeutend erleichtern, den für sich perfekten Effekt zu finden ohne die Einstellungen verschiedener Effekte durchzuprobieren um herauszufinden, dass der Effekt auch als Window Switcher verwendet werden kann. Ja das zeigt: wir brauchen ein Handbuch.

Btw: ich werde wohl eine englische Kategorie einführen und meine Blogposts zu KDE in Zukunft in Englisch verfassen, da ich mehrmals gebeten wurde auch auf planetkde zu posten. Ich denke, dass ich weiterhin kurze deutsche und nicht so technische Posts schreiben werde.l

14. August 2008

Im vorletzten Beitrag liess sich heraushören dass es Leute gibt die mit dem Style des ‘neuen Ubuntu’ und insbesondere von Linux allgemein nicht zufrieden sind. Berechtigt oder übertrieben?

Schwarz - Weiss - Blau - Pastell, jeder hat eine eigene Vorstellung wie Linux aussehen sollte. Das ist auch gut so, denn jeder soll seine freie Meinung haben. Unterschiede machen eine Gesellschaft vollkommen. Doch leider gehen manchmal auch Unterschiede etwas zu weit. Grosse Leute lassen Stimmen fallen wie ‘Linux sieht aus wie Windows 2000′, andere wiederum denken dass neue Styles wie das des Steinbockes zu dunkel sind, und sich die Mode richtung Schwarz bewegt. Positiv oder negativ?
Aber was macht einen perfekten Desktop aus? Das Aussehen? Die Effizienz? Oder ganz andere Gründe? Ein perfekter Desktop muss meiner Meinung nach effizient an erster Stelle sein, dann ist es auch wichtig dass das Desing nicht vergessen wird. Zudem müssen die Farben neutral sein, und nicht ein anderes Betriebssystem kopieren. Also umdenken ist angesagt. Ich besitze leider nicht die Kentnisse ein Theme selber zu schreiben, aber ich kann basteln. Und das ist mein Schlüssel zur Freiheit, den ich nur von Linux kenne.

Wie würde euer perfekter Linux Desktop aussehen? Bin gespannt!

Seit ein paar Wochen darf ich mich stolzer Besitzer eines Sony Ericcson W660i Handys nennen. Naja, nicht ich, sondern meine Freundin, aber man ist ja immer an netten Gadgets interessiert. Das Mobiltelefon ist nicht das neuste Modell, aber warum immer als early adopter Geld zum Fenster rauswerfen… Das Handy gehört in die Klasse der so genannten “Walkman-Handys”. Von dem Standpunkt aus tut das Handy auch wirklich einen tollen Job.

Die von Sony mitgelieferten Kopfhörer sind extraklasse, die Walkmanfunktion ist wirklich gut, man vermisst einen Ipod oder extra MP3-Player nicht wirklich. Aber liebe Sony-Mitarbeiter, was für einen Schwachsinn habt ihr euch überlegt, als ihr über den Datenaustausch mit einem Computer nachgedacht habt?

Die Übertragungsrate vom Rechner auf das Handy liegt bei sage und schreibe 0,45MB/s. USB 2.0 könnte in der Theorie 60MB/s transferieren. Das Handy kommt also gerade mal auf 0,75 Prozent der theoretischen Übertragungsrate. Kompliment Sony, für diese Nicht-Performance hättet ihr eigentlich eine olympische Holz-Medaille mit rostigen Nägeln kassieren sollen, die euch in den “where the sun never shines” geschoben werden sollte!

Technisch kann man diese Glanzleistung recht schön nachvollziehen. Stöpselt man das Handy per original Datenkabel von Sony an einen aktuellen Rechner an - das Handy wird dann als Wechselmedium erkannt - so sieht man in der /var/log/messages folgende Meldungen

$ tail -f /var/log/messages
...
Jul 23 00:57:35 isleofskye kernel: [ 3104.835115]  sdg: p1 exceeds device capacity
Jul 23 00:57:35 isleofskye kernel: [ 3104.872860] attempt to access beyond end of device
Jul 23 00:57:35 isleofskye kernel: [ 3104.872870] sdg: rw=0, want=959338, limit=958999
Jul 23 00:57:35 isleofskye kernel: [ 3104.872881] attempt to access beyond end of device
Jul 23 00:57:35 isleofskye kernel: [ 3104.872883] sdg: rw=0, want=959339, limit=958999
...

Kopiert man dann eine 100MB große Testdatei auf das Handy, so demonstriert das Handy seine ganze Stärke.

$ time cp 100mb.test "/media/PHONE CARD/"

real	3m42.545s
user	0m0.000s
sys	0m0.552s

Das Problem betrifft übrigens nicht nur Linux oder meinen Rechner oder die genutzte Speicherkarte. Auch auf einem anderen Rechner, mit einer anderen Karte und unter Windows bleibt die Übertragungsrate unterirdisch.

Ich habe dann spaßeshalber mal beim Support von Sony Ericcson angerufen und gefragt ob diese atemberaubende Performance wirklich nicht zu steigern ist. Die Dame am anderen Ende der Strippe beantworte die Frage mit “Theoretisch können die Daten mit bis zu 480mbit/s übertragen werden” - ja gut, ist klar, die maximale Geschwindigkeit von USB 2.0, die Praxis sieht jedoch anders aus - “Aber warum ist denn das so langsam? Ich kann hier mit [irgendein aktuelles Modell von SE] in 15 Minuten ein Album auf mein Handy übertragen, das hat mich noch nie gestört”… Einen Kommentar verkneife ich mir hier lieber.

Willkommen Sony in der Welt von Speicherkarten mit bis zu 8GB. In nicht einmal 5 Stunden kann man diese über ein Handy von Sony befüllen. Ich kann ja verstehen, dass eure Schnittstellen wohl noch aus einer Zeit stammen, also nur Kontakte, Termine etc. mit dem Handy ab geglichen wurden, doch wenn selbst aktuelle Modelle von Sony so lahm sind, dann solltet ihr mal über eure Technik etwas nachdenken!

Bleibt also nur der Umweg über einen Kartenleser. So labrig wie der Deckel für den Kartenslot gebaut ist, wird dieser jedoch recht schnell abfallen. Also lieber Sony Ericcson. Mich habt ihr als Kunde verloren. Schade eigentlich, sonst gefallen mir eure Modelle ganz gut…

Downtime and server problems

QUOTE:
This article was posted on: Thu, 14 Aug 2008 10:47:00 0000 Our server was hacked and many of our pages were modified so that requests were made on our behalf to pinoc.org. This potentially resulted in the visitor downloading a trojan from pinoc.org. We've cleaned-up the main part of the site but the forums, software portal, start page, blog and other areas are still not ready. We're working hard on addressing the problem and we'd like to apologize for the downtime and the inconvenience.

Was ist denn pinoc.org? hhm bestimmt nix gutes


Main Page - Linux Mint

Offener Brief an die Redaktion der Financial Times Deutschland:

Sehr geehrter Jörn Petring,

aktuell findet sich unter ftd.de ein Artikel von Ihnen, der den Eindruck erweckt, die Verwendung von Opensource-Software in eigenen Softwareprodukten stelle ein unkalkulierbares Risiko dar. Dieser Eindruck ist falsch: Das Risiko ist nicht größer als bei der Verwendung kommerzieller Komponenten, oft lassen sich Entwicklungskosten minimieren und die “doppelte Erfindung des Rades” vermeiden. Damit die positiven Kosteneffekte zum Tragen kommen, ist aber wie bei jeder Entwicklung — sei es nun Software, Hardware, ein Auto, ein Computerchip oder ein Toaster — eine Planung des Entwicklungsprozesses notwendig. Ich möchte daher auf einige Punkte Ihres Artikels eingehen, die einer Präzisierung bedürfen oder sich aus meiner Sicht einfach als falsch darstellen.

Sie schreiben: Wer kostenlose Software für kommerzielle Zwecke verwendet, bekommmt es mit Harald Welte zu tun: Der freie Programmierer verklagt alle Unternehmen, die den Open-Source-Kodex verletzen. Das Prozessrisiko reißt eine große Lücke in die Bilanzen der Unternehmen.

Bereits in der Einleitung haben sich eine Reihe von Fehlern eingeschlichen. Harald Welte verfolgt lediglich Verletzungen seiner Urheberrechte am Linux-Kernel, der unter der relativ restriktiven Lizenz GPL steht. Bei dieser handelt sich keineswegs um einen Kodex (im Sinne einer freiwilligen Selbstverpflichtung), sondern um einen knallharten Vertrag über die Wiedervervendung von Softwarequellcodes. Die Gattung Open Source Software umfasst jedoch noch andere, weniger restriktive Lizenzen, auf die ich später noch genauer eingehen möchte. Die GPL garantiert, dass Modifikationen an einem Programm wieder im Quellcode vertrieben werden. Viele Unternehmen wählen die GPL im Falle einer “strategischen” Freigabe von Software, weil sie in diesem Fall von den Weiterentwicklungen der Konkurrenz etwas zurückbekommen.

Der Punkt des Prozessrisikos in zumindest in Deutschland relativ gut kalkulierbar: Gerichte bemessen dort Schadenersatzforderungen und Streitwerte nach den Kosten, die eine Eigenentwicklung oder ein Zukauf gekostet hätte.

Sie schreiben: “Viele Unternehmen haben Nachholbedarf. Oft wissen Manager nicht einmal, welche Bestandteile von ihren Programmierern in die eigene Software integriert wurden”, sagt Schäfer. Eine Nachlässigkeit mit fatalen Folgen. Ist der Open-Source-Anteil in der neuen Software zu groß, Experten sprechen dann von einem “abgeleiteten Werk”, greift die GPL-Lizenz für die gesamte neue Software, was bedeutet, dass der komplette Quelltext frei zugänglich gemacht werden muss. “Damit wäre die Software nicht mehr kommerziell zu vertreiben”, sagt Schäfer. Für die Entwickler ein großes Unglück

An dieser Stelle wird für den Leser den Eindruck erweckt, ein großes, komplexes Softwareprodukt müsse komplett im Quellcode offengelegt werden. Diese Aussage muss differenziert werden: Die auf Open-Source-Programmen basierende Betriebssoftware vieler Geräte wie DSL-Router (auf die sich Welte besonders konzentriert) oder Linux-basierter DVD-Player besteht aus einer Vielzahl von Komponenten, die oft aus unterschiedlichsten Quellen stammen und unterschiedlichsten Lizenzen unterliegen. Vermischt man diese nicht, beispielsweise indem offene und geschlossene Komponenten in einer einzigen Binärdatei zusammengefasst werden, sind die freizugebenden Komponenten schnell identifiziert. Im erwähnten Beispiel von DSL-Routern handelt es sich meist um den Linux-Kernel und ein Universal-Systemwerkzeug namens BusyBox, die in der Regel nur marginal abgeändert werden. Die Freigabe dieser Komponenten steht einem kommerziellen Vertrieb eines gesamten Produktes meist nicht im Weg. Denn mit einem nackten Kernel und einigen Kommandozeilenwerkzeugen kann die Konkurrenz oft wenig anfangen (siehe bspw. Motorola).

Sie schreiben: Weltes Warnschuss hat schon gewirkt: Erste Unternehmen zittern vor der Vernichtung ihrer Bilanzwerte, andere wittern ein großes Geschäft. Die Firma Black Duck hat sich darauf spezialisiert, Software im Auftrag von Unternehmen zu scannen. “Unsere Kunden wollen sichergehen, dass ihre Software in Ordnung ist. Regelmäßig finden wir dann Sachen, die die Leute richtig blass werden lassen”, sagt Stefan Just von Black Duck. Konzerne wie SAP und Siemens schienen ebenfalls verunsichert und haben sich laut Just bereits von Black Duck beraten lassen.

Die Erwähnung von Black Duck bringt uns zum eigentlichen Punkt meiner Kritik, denn Sie erwähnen nicht, dass Black Duck auf Wunsch nach jeder Art von unrechtmäßig oder zweifelhaft in die eigenen Quellcodes gerutschten Code-Fragmenten scannt. Black Duck beschränkt sich keinesfalls auf die Verletzungen freier Lizenzen.

Ihr Artikel sollte eigentlich vor den generellen Risiken einer schludrigen Verwaltung und Versionierung von Quellcodes warnen, schließlich kommt es auch häufig vor, dass Entwickler eigene Code-Bibliotheken pflegen und oft gar nicht wissen, dass die Rechte daran ihr vorheriger Arbeitgeber hält. Ebenfalls häufig kommt es vor, dass einst lizenzierte Bibliotheken weiterverwendet werden, obwohl die Lizenzverträge ausgelaufen sind. Black Duck kann — in wessen Auftrag auch immer — nach derartigem Code suchen. Verletzungen freier Lizenzen sind daneben leichter während der Entwicklungsphase festzustellen, einen echten Super-GAU bedeutet es dagegen, wenn ein Konkurrent Wind von einer Verletzung seiner Rechte bekommt und bis zur Veröffentlichung des Produktes des “Verletzters” wartet, bis er ihn mit Klagen überzieht.

Wird dagegen eine Verletzung von Lizenzen wie der GPL oder der LGPL festgestellt, ist eine Heilung in vielen Fällen mit vertretbarem Aufwand möglich. Bei Verletzungen der LGPL ist es meist so einfach, darauf zu achten, dass die betreffende Komponente erst zur Laufzeit geladen wird, bei Verletzungen der GPL kann in vielen Fällen der betreffende Code in eine eigene Binärdatei ausgelagert werden, die dann einfach über das System aufgerufen wird. Das ist der Fall in der von mir festgestellten mutmaßlichen Verletzung der GPL durch die Integration einer Funktionen der BusyBox in die Firmware des LaCie-Medienplayers, wo die Funktion zum Einbinden der Festplatte wohl einfach kopiert wurde. Offenbar wollte sich ein Programmierer ein paar Tage Arbeit sparen, die hierfür verwendete Funktion als separate Binärdatei auszulagern1.

Nun ist es nicht Aufgabe derjenigen, deren Rechte verletzt wurden, für eine Heilung des Rechtsbruchs zu sorgen. Es ist also legitim, wenn Welte das naheliegende unternimmt und das Unternehmen vor die Wahl stellt, die GPL zu respektieren oder den Vertrieb eines Produktes zu unterlassen. Für Consulting, wie ein der GPL konfirmer Aufbau eines Produktes aussehen könnte, ist es zu diesem Zeitpunkt zu spät.

Der von vielen Lesern sicher aus Ihrem Artikel herausgelesene Ratschlag, freie Software zu meiden ist daher weltftremd. Freie Software ist Fakt und viele Programmierer üben während des Studiums mit freien Bibliotheken oder durch die Mitarbeit an großen Open-Source-Projekten. Einerseits Zeitdruck auf Entwickler auszuüben und andererseits die Verwendung von freien Komponenten zu verbieten (oder das Vorhandensein freier Software zu leugnen), schließt sich gegenseitig aus. Stattdessen ist es von grundlegender Bedeutung, den Überblick über die eigene Softwareetwicklung zu behalten und Versionskontrollsysteme auch dazu zu verwenden, genutzte Komponenten (freie wie unfreie) zu inventarisieren. Nach Möglichkeit ist bereits zu Beginn einer Entwicklung herauszufinden, welche freien Komponenten Entwickler gerne integrieren würden2. Im nächsten Schritt ist dann zu identifizieren, welche Komponenten als Geschäftsgeheimnis betrachtet werden und daher keine GPL-Software enthalten dürfen und bei welchen Programmen einer Freigabe nichts im Weg steht3.

Grundsätzlich gilt, dass bei vielen Entwicklern wenig Kenntnisse über die Unterschiede der Lizenzen und die Integration in große kommerzielle Projekte herrscht, andererseits kennen viele auf Lizenzfragen spezialisierte Anwälte nicht die technischen Unterschiede zwischen der dynamischen Einbindung einer Bibliothek und der Kommunikation einer Anwendung mit einer anderen über einen Socket. Es ist daher noch viel Aufklärungsarbeit notwendig, bis die — oft nur vordergründig gegensätzlichen — Interessen von Open-Source-Community und kommerziellen Entwicklern unter einen Hut zu bekommen sind. Dass Open-Source längst Realität ist, haben Sie vollkommen richtig festgestellt, diese ist allerdings in den seltensten Fällen umkehrbar. Unternehmen sollten daher dazu animiert werden, Open Source richtig einzusetzen und Chancen und Risiken möglichst früh zu betrachten, anstatt Angst vor klagenden Programmierern zu entwickeln.

Mit freundlichen Grüßen,
Mattias Schlenker

Nachtrag, 15. August 2008:

Nachtrag, 21. August 2008:

1Für die technisch versierten Leser des Blogs: Es handelt sich um das mount-Applet der BusyBox, das separat kompiliert werden kann und sich dann weitgehend wie das mount von GNU/Linux verhält. Der Grund für die GPL-Verletzung ist also in Faulheit, Unwissenheit, Zeitdruck oder einer Kombination aus allen dreien zu suchen.

2Das Testen, ob eine Open-Source-Komponente für den eigenen Einsatzbereich taugt, erfordert übrigens keine aufwendige Freigabe: Erst wenn Binärdateien das Haus verlassen, ist der Quellcode beizulegen.

3Neben der GPL existieren weitere Lizenzen, die oft andere Handhabung des Quellcodes erfordern, LGPL-Code darf beispielsweise nur dynamisch dazugelinkt werden, erfordert aber nur die Freigabe der (modifizierten LGPL-Komponente), die BSD- oder MIT-Lizenzen erfordern dagegen keine Freigabe des Codes, aber die Nennung der Urheber in “Hilfe-Fenstern” oder im Handbuch.

Verfolgt man die Pressemeldungen der letzten Woche, so bekommt man schnell den Eindruck, dass die neue Version 3.0 von OpenGL, dem plattform- und programmiersprachenunabhängigen API (Application Programming Interface) zur Entwicklung von 3D-Computergrafik, nicht wirklich die Erwartungen der Programmierer und Benutzer getroffen hat.

Nun verstehe ich persönlich viel zu wenig von der ganzen Materie, als dass ich die Software ansehen und bewerten. Vielmehr bin ich auf Meinungen anderer Leute angewiesen, die sich in ihrem Leben näher mit dem Thema befassen. Was aus den Kommentaren der Menschen hervorgeht ist allerdings nicht schwierig zu interpretieren. OpenGL 3.0 hätte einen viel größeren Evolutionssprung machen müssen um in Zukunft dem konkurrierenden Microsoft DirectX gefährlich werden zu können. Viele Benutzer sahen in Version 3.0 die letzte Chance für einen Angriff. Diese wurde nun offenbar nicht genutzt.

Wer kann jetzt noch helfen? Wer bringt OpenGL nach vorne? Wer hat das nötige Geld und Interesse einen mächtigen Konkurrenten zu DirectX aufzubauen? Vielleicht Apple?

Unter MacOS X bleibt OpenGL mangels Alternativen, ebenso wie unter Linux, das einzige Gerät für 3D-Programmierung. Ein mögliches Szenario wäre nun, dass Apple OpenGL forkt, ähnlich wie es bei KHTML war. Apple nahm KHTML damals als Grundlage und entwickelte es zu Webkit weiter, welches nun in allen möglichen Gebieten zum Einsatz kommt und aufgrund der Lizenzierung immer noch freie Software ist.

Könnte das selbe nicht auch mit OpenGL passieren? Apple wäre gezwungen das 3D-API als OpenSource weiterzuentwickeln, falls die Milliarden-Firma OpenGL wirklich forken würde. Möglicherweise könnten durch die Finanzkraft von Apple also auch Linuxbenutzer profitieren.


13. August 2008

Nokia und Mozilla arbeiten derzeit an einer gemeinsamen Portierung der Firefox Engine zu QT. Damit würde sich Firefox vollkommen in die KDE Umgebung integrieren und müsste nicht mehr auf GTK Funktionen zurrückgreifen. Ziel der Portierung ist für Mozilla ist es den Marktanteil auf mobilen Endgeräten zu steigern. Nokia will das Rad nicht neu erfinden und mit der hauseigenen Entwicklung, basierend auf der WebKit Engine, einen neunen Browser erstellen sondern möchte auf bewehrte und bestehende Technik aufbauen.

Erste Screenshots gibt es auch schon zu sehen, auch wenn diese etwas klein ausfallen.

Quelle:

Ich bin auf das Ergebnis gespannt. Was denkt ihr ?

Nach der Installation von Linpus Linux Lite geht es nun darum, es einzurichten. Leider sträubt sich Linpus vehement dagegen, eine funktionierende Paketverwaltung zu installieren, mit der man dann das System bequem auf einen aktuellen Stand bringen könnte. Mittlerweile habe ich den Verdacht, dass Linpus gar nicht möchte, dass ihr Linux geupdatet wird. Besonders nicht die Version auf dem Aspire One, wie man an den Kommentaren weiter unten sieht. Hier besteht die Gefahr, dass man sich dabei das System zerschießt. (Anmerkung: Wobei ich im Linux-Forum gelesen habe, dass man auf dem Aspire One mit der Tastenkombination Alt + F2 “Befehle ausführen…” kann, um dann durch Eingabe von pirut einen Paketmanager zu starten, mit dem man dann weitere Software nachinstallieren können soll.) APT ist zwar vorhanden, aber die Dateien mit den Repositories, man kann sie an der Endung .list erkennen, liegen direkt im Ordner /etc/apt anstatt unter /etc/apt/sources.list.d.

Die Repositories liegen an der falschen Stelle.

Die Repositories liegen an der falschen Stelle.

Anfangs war es noch müßig, die Dateien nach /etc/apt/sources.list.d zu kopieren, weil die Repositories, die sie enthalten, nicht existierten. Mittlerweile, d.h. seit dem 29. August, gibt es sie zwar, sind aber leer. Also lohnt es sich schonmal, die Datein mit den Repos an die richtige Stelle zu kopieren, in der Hoffnung, dass Linpus den Zustand bald ändert:

[linpus@LINPUS apt]$ cp *.list sources.list.d/

Beim Aufruf von apt-get update als Root bekommt man nun keine Fehlermeldung mehr, stattdessen werden die Repos ordentlich abgefragt.

Da Linpus bekanntlich ein angepasstes Fedora 8 ist, könnte man anstatt den Linpus-Repos welche von Fedora nehmen und die Datei /etc/apt/sources.list anlegen:

rpm http://ayo.freshrpms.net/ fedora/linux/8/i386 core updates freshrpms
rpm http://ayo.freshrpms.net/ fedora/linux/8/i386 tupdates

Bei einem Upgrade liefert das aber viele unerfüllte Abhängigkeiten und man riskiert ein instabiles System. Besonders wenn man versucht ein Programm zu installieren, das als Abhängigkeiten neue Pakete benötigt, die mit den bereits installierten älteren Version von Linpus im Konflikt stehen, können sehr schnell Probleme auftauchen. Die Fedora-Quellen sind also nicht die beste Wahl.

Unter /etc gibt es auch Repositoties für das Paketmanagement-System YUM. Wenn man es schafft, YUM zusammen mit den abhängigen Paketen von der Fedora-Seite herunterzuladen und per RPM zu installieren, stellt man fest, dass die auch nicht richtig funktionieren. Außerdem sind es auch Fedora-Quellen und keine von Linpus.

Update: Hier standen einmal Links zu den Paketen auf dem FTP-Server von Linpus. Das funktioniert leider nicht mehr. Der FTP-Server ist nun mit einem Passwort geschützt. Bleiben also nur die Pakete von Fedora 8. Die muss man dann einzeln herunterladen und mit RPM installieren. Wenn man zum Beispiel wget haben möchte, installiert man es am besten gleich übers Netz:

rpm -Uvh http://ayo.freshrpms.net/fedora/linux/8/i386/core/RPMS/wget-1.10.2-16.fc8.i386.rpm

Die einzigen frei zugänglichen Pakete von Linpus selbst, die es noch gibt, sind die SRPMS für Linpus auf dem Aspire One. Damit man diese Quellcode-Pakete kompilieren und installieren kann, bräuchte man aber noch das Programm rpm-build von Fedora, da Linpus es nicht mitliefert:

rpm -Uvh http://ayo.freshrpms.net/fedora/linux/8/i386/RPMS.core/rpm-build-4.4.2.2-3.fc8.i386.rpm

Beim Versuch, rpm-build zu installieren, landet man aber in einer Paketabhängigkeitshölle, aus der man nur schwer wieder heraus kommt. Also ist das auch eher eine Sackgasse.

12. August 2008

Neulich mal, da hatte ich meinen kleinen Mephisto auf dem Schreibtisch (Mephisto ist mein Notebook). Und da hab ich doch glatt versucht, mit meiner Maus auf den anderen Bildschirm zu hüpfen. Der Versuch war natürlich dämlich. Kein VNC (was in dem Fall auch blöd gewesen wäre) oder ähnliches, X over SSH war und ist zwar nett, aber auch nicht das, was ich suchte. Ich wollte einfach nur meinen Desktop auf mein Notebook erweitern.

Und wer jetzt denkt, ich spinne, der sollte sich mal Synergy angucken. Bei ubuntuusers.de gibts im Wiki sogar ne Anleitung und ein Tool, um sich die Config-Datei zu ersparen. Klappt hervorragend, solange die WLAN-Verbindung nicht abreisst und man sich auch genau durchliest, wie man das benutzt. Die Sache mit den Rechnernamen ist nämlich richtig, bei den eingetragenen Desktops, denn der Client identifiziert sich bei der Anmeldung am Server nicht mit der IP, sondern seinem Namen.

Im übrigen funktioniert das Tool mit Unix, Linux und quasi allen *x-Systemen, Win9x und WinNT-Systeme und Mac OS X. Getestet bei mit 2 Ubuntu-Rechnern.

Wer unter Windows® Civilization® gegamet hat, der muss nicht umbedingt auf das Kult Game verzichten, nein es gibt noch eine (oder zwei) andere Varianten. Als erste bietet sich Cedega an, kostet aber, und ist deshalb nicht gerade Linux gesinnt. Als bessere Alternative zeigt sich freeCiv.

Das rundenbasierte Game befindet sich in den Ubuntu Quellen (Version 2.1.3), und muss nur noch per Hinzufügen/Entfernen installiert werden, oder kann ab der Autoren Seite geladen werden. Danach lässt es sich unter Anwendungen > Spiele finden. Das Strategiegame ist eine gute Abwechslung zum langweiligen Herbst/Winter Alltag, und bietet fast alle Funktionen die ich unter Civ3 bevorzugt hatte. Leider gibt es auch hier Mankos, wie zB. das kein Zeitgefühl (Epochenwechsel usw.) entsteht, und es keine grafischen Berater, sondern nur kahle Dialoge gibt. Die Grafik ist auch nicht gerade die beste, auch viele andere Dialoge, beim Start beispielweise fehlen. Es kommt Konsolenstimmung auf. Fürs Netzwerkgaming ist freeCiv jedoch bestens gerüstet, ist mit einem extra Chat Fenster ausgestattet und lässt den User mit mehreren Spielern gleichzeitig gamen. Die vielen Nationalitäten die unter den Civ-Reihen fehlen sind hier zusammengefasst. Mein Tipp: Findet selbst heraus ob das Game zu euch passt.

Freeciv - Eine völlig neue Welt mit ganz anderen Perspektiven wartet darauf von den ‘freien Usern’ neu entdeckt zu werden. Viel Spass.

FireGPG

Aufgrund dieser Diskussion auf ubunutuusers.de und dem Beitrag von xTOMx bin ich auf das Add-on FireGPG für den Firefox gestossen. Bisher habe ich noch nie davon gehört.

GnuPG nutze ich schon einige Zeit, verwende es sehr gerne zusammen mit Sylpheed. Und so habe ich mir das Teil namens FirePGP geholt - neuerdings braucht man offenbar bei Mozilla ein Login, um ein Add-on herunterladen zu können.

FirePGP richtet sich an die Menschen, die gerne per Browser ihre Mails lesen und schreiben und dabei trotzdem nicht auf eine digitale Unterschrift und / oder Verschlüsselung verzichten wollen. Ich persönlich nutze aber doch lieber die Verschlüsselung in einem “echten Mailclient”.

Das Add-on erkennt nach der Installation die digitalen Schlüssel, soweit sie am Standard-Ort liegen. Verwenden lässt sich die Erweiterung sehr einfach und schnell.

Unter den Optionen finden sich diverse, zum Teil sinnreiche Einstellungen. Auch für GMail und andere Webmailer gibt es vordefinierte Werte.

Unter RoundCube (von dem es übrigens eine Alpha-Version der 0.2 gibt und das ein eidgenössisches Produkt ist) lässt sich das Teil sehr einfach nutzen. Man kann in den Optionen festhalten, wie die Verschlüsselung angewendet werden soll. Hier auf dem Bild wurde bloss der Text im Body verschlüsselt.

Auch die verschlüsselt versendeten Mails werden natürlich verschlüsselt im Ordner der versandten Nachrichten angezeigt. Funktioniert bestens! Wer also gerne per Browser seine Mails bearbeitet und PGP nutzen will, könnte damit nicht schlecht bedient sein. Es gibt ja Webmailer (zum Beispiel Horde), welche die PGP-Unterstützung schon mitbringen, aber die meisten tun es eben nicht. Und dann ist eine solche Erweiterung wohl willkommen.

Wer meinen öffentlichen GnuPG-Schlüssel nutzen will, bitte.

11. August 2008

Auch wenn mich jetzt einige verteufeln, auch ich gestehe: Ich habe mir ein iPhone 3G zugelegt. Abgesehen von der Geschlossenheit des iPhone-Ökosystems, das sehr strikt von Apple kontrolliert wird, bin ich damit bis jetzt sehr zufrieden. Das iPhone erfüllt seine Aufgabe auf eine zugegebenermaßen sehr stylische Art und Weise. Somit sind es sicherlich nicht nur technisch-rationale Überlegungen, die zum Kauf des Gadgets geführt haben.

Interessant auch die Fülle an Anwendungen, die allein der von Apple kontrollierte AppStore innerhalb dieser kurzen Zeit bereits aufweist. Zählt man nun noch die Anwendungen dazu, die nach einem Jailbreak zur Verfügung stehen würden, dann weiß man schon gar nicht mehr, welche Anwendung man zuerst unbedingt mal testen muss. Klar ist auch viel Crap dabei, aber es gibt auch wirklich nützliche Anwendungen, die das iPhone um sinnvolle Funktionen erweitern.

Der Ubuntu-Entwickler Scott James Remnant hat seine eigene Theorie aufgestellt, warum das geschlossene AppStore-Ökosystem so erfolgreich ist und sich dermaßen schnell mit Anwendungen füllt: Die Aufteilung des Systems in seine Einzelkomponenten ist so gut strukturiert, dass es den Entwicklern sehr leicht fällt, diese für ihre Anwendungen zu nutzen. Es gibt Komponentenbündel, die es den Entwicklern einfacher machen, diese als Basis für ihre Anwendungen zu nutzen, ohne einzelne Komponenten im Detail kennen oder sich selbst zusammenstöpseln zu müssen. Als Beispiel nennt er das Audiosystem, das in Linux extrem fragmentiert ist, bei Apple jedoch in der CoreAudio-Komponente eine zentrale Anlaufstelle besitzt.

Ich kenne die Situation im Detail nicht genau genug, um sie qualifiziert beurteilen zu können. Ich kann mir aber gut vorstellen, dass Teile von GNU/Linux, das jahrelang als elitäres Fricklersystem galt, »unter der Haube« immer noch einiges an Struktur und Dokumentation vermissen lassen. Aus eigener leidvoller Erfahrung kann ich jedoch sagen, dass diese beiden Dinge unglaublich wichtig ist, damit sich neue Entwickler in einem Projekt zurechtfinden und (auch altgediente Entwickler) effektiver arbeiten können. Und wenn dabei auch noch eine Möglichkeit rausspringt, das iPhone mit Ubuntu zu synchronisieren, kann ich das nur gutheißen.

Adobe hat den Flashplayer für Linux in Version 10 jetzt als Release Candidate Version veröffentlicht.

Den Download gibt es hier, eine Liste behobener Fehler hier und eine weitere Meldung zum Thema hier.

Quelle: Thread im Arch-Forum

Zum Austesten musste in Arch Linux noch ein Symlink namens /usr/lib/libcurl.so.3 auf das existierende /usr/lib/libcurl.so.4 angelegt werden da der Flashplayer scheinbar nach der .so.3-Version sucht, findet er diese nicht wird das Plugin nicht geladen.

Unter Ubuntu Hardy existiert dieser Symlink schon und muss nicht extra angelegt werden.

Nachdem Gnash und swfDec hier mit grau/weissen Fenstern (Gnash) oder extrem hohen CPU-Last (swfDec) statt Bild (Youtube-Test) leider den Dienst verweigern bin ich gespannt ob der neue proprietäre Player seinen Dienst einigermassen stabil verrichtet – die Betas taten das bisher recht zuverlässig.