ubuntuusers.de

30. Januar 2013

Nach einer sehr langen Beta Phase, erschien heute ca. 9 Monaten nach v11(Eden), XBMC in Version 12. Benannt ist die Version nach einem ursprünglichem Entwickler namens Frodo.

XBMC ist die momentan wohl populärste OpenSource MediaCenter Software. Ursprünglich für die XBox entwickelt läuft XBMC mittlerweile auf allen gängigen Desktop und Mobilplatformen. Unterstützt wird u.A. Windows, Linux, Mac, Android, iOS, AppleTV. Seit letztem Jahr läuft XBMC auch auf der 35$ teuren Raspberry Pi.




XBMC - Frodo enthält u.A. folgende Verbesserungen:


  • eingebaute LiveTV (PVR) Funktionalität. Allerdings nur im Client Betrieb
  • HD Audio Support (DTS-HD, Dolby TrueHD)
  • h264 10 Bit Rendering (oft bei Anime). Allerdings Encoding nur in Software
  • Support für Raspberry Pi, Android
  • 64Bit Builds für MacOSX
  • Verbesserungen in der Performance
  • Verbesserungen am UserInterface (Confluence Skin)
Den Download für die verschiedenen Platformen gibt es auf der offiziellen Seite.

OpenElec Builds mit der finalen Version sollten in den nächsten Tagen folgen. Raspbmc und XBian werde sicher auch bald nachziehen.

29. Januar 2013

Das Jahr hat kaum begonnen und schon laufen die Vorbereitungen für die nächste Ubucon an (Was ist die Ubucon?). Am Sonntag, den 26.01.2013, trafen sich zahlreiche interessierte Menschen im IRC #ubucon-de, um die ersten Organisationspunkte zu besprechen.

Veranstaltungsort

Der wichtigste Punkt war wohl: Wo soll die Ubucon stattfinden? Über Ikhaya, das Newsportal von ubuntuusers.de, wurde im November 2012 zu Bewerbungen einzelner Städte/Regionen aufgerufen. Beworben haben sich im Endeffekt zwei Städte: Berlin, wo die Ubucon 2012 stattfand, und Heidelberg.

Nach einiger Diskussion über die Pro- und Kontra-Punkte beider Städte wurde in einer Abstimmung im IRC mehrheitlich beschlossen, wo die Ubucon 2013 stattfinden soll. Und den Zuschlag erhielt … Heidelberg.

Als Datum für die Veranstaltungen ist wieder irgendwann Mitte Oktober 2013 angedacht, Details hierzu folgen noch.

Organisationsteam

Daneben wurde ebenfalls in Ikhaya nach Organisatoren Ausschau gehalten.

Einzelne Rollen konnten im IRC vergeben werden, wobei aber nicht alle Posten besetzt sind. Für folgende Bereiche werden noch ein oder zwei Verantwortliche gesucht:

  • Hauptorganisator
  • Werbung und Sponsoring

Vor allem für die erste Position muss dringend jemand gefunden werden, der zwischen den Teams vermittelt und die Fäden in der Hand hält.

Wer in irgendeinem der Bereiche helfen will, kann sich unter helfer@ubucon.de melden.

Zukunft

In den nächsten Monaten sollen auf der Webseite nach und nach mehr Inhalte entstehen. So wird es natürlich noch detaillierte Informationen geben, wo und wann die Ubucon 2013 genau stattfinden wird. Ebenso soll gleich danach zum Call for Papers aufgerufen werden, sodass die Referenten genügend Zeit zur Vorbereitung haben.

Wir freuen uns aber bereits jetzt, dass die Ubucon 2013 auf einem guten Weg ist und hoffen wieder, eine gute und interessante Veranstaltung für alle Ubuntu-Nutzer im deutschsprachigen Raum anbieten zu können.

Euer Ubucon-Organisationsteam

Heftiges Problem, welches ich gerade bei Heise lese. Bootet man Ubuntu 12.04 oder 12.10 mittels UEFI, hängt sich das Gerät kurz nach dem Start des Kernels auf und lässt sich anschließend nicht mehr zum Starten bewegen. Es ist notwendig die komplette Firmware neu aufzuspielen, welches allerdings nur durch den Support von Samsung vorgenommen werden kann.

Betroffen sind wohl die neueren Modellreihen, wie 300E5C, NP700Z5C, NP700Z7C und NP900X4C. Es wird dringend bei diesen Modellen geraten dringend im Bios das CSM (Compatibility Support Module) zu aktivieren und einen aktuellen Daily Build zu verwenden. Dann wird das Kernelmodul gar nicht erst geladen, verhindert aber auch einen sauberen Dualboot mit Windows 8.

Samsung und die Ubuntu-Entwickler sind bereits fieberhaft am Entwickeln eines Firmware-Updates, bisher ist aber nicht klar, ob alle Probleme damit beseitigt sind.

Wie ich soeben gesehen hab, ist XBMC Frodo Version 12.0 heute veröffentlicht worden. Nach elf Monaten Entwicklungszeit bringt die neue Version als Highlights die lang erwartete Unterstützung für Live-TV und Aufnahmen (PVR) sowie den Support zweier neuer Plattformen: Raspberry Pi und Android. Weiter Features sind unter anderem:

  • HD Audio Unterstützung: DTS-MA, Dolby True-HD mittels der neuen XBMC AudioEngine
  • Verbesserter 64bit Support für MacOSX
  • Verbesserte AirPlay Unterstützung, unter anderem im Zusammenhang mit Audio-Wiedergabe unter Windows
  • Bessere Filterung der Videobibliothek
  • Verbessertes UPnP-Sharing
  • Neue Bildformate für die Verwendung mit komplexen Skins
  • Neues Videoformat: h.264 10bit (alias Hi10P)
  • Video-Tags
  • Verbesserte BluRay Wiedergabe: Direktes Abspielen von BluRay ISO-Dateien, teilweise Menü-Funktionalität
  • Transifex als neues Übersetzungstool
  • Unterstützung für BSD
  • weitere kleine Detailverbesserungen
Ich hab das neue Frodo bereits eine Zeit lang auf dem Raspberry am Laufen und kann eigentlich nichts negatives berichten. Auch auf meinem Galaxy Nexus verrichtet XBMC anstandslos seinen Dienst, wenn ich dafür auch noch kein echtes Nutzungsszenario finden konnte (ich muss dringen einen MHL-Adapter anschaffen und die Performance bei HDMI-Out ausprobieren). Bei all den unterschiedlichen Plattformen fehlt nur noch eine verbesserte Unterstützung für synchronisierte Medienbibliotheken (etwa Unterstützung für wechselnde Pfade,…)

Informationen zum Download und zur Installation findet man auf der XBMC-Projektseite. Übrigens, wer Arch Linux nutzt ist klar im Vorteil, ein entsprechendes Paket befindet sich bereits in den Repositories und mein tägliches Systemupdate hat mich erst auf die News aufmerksam gemacht!

Da in den Kommentaren zu meinen Raspberry Pi Posts noch eine Menge Fragen im Zusammenhang mit DTS aufgetreten sind, habe Ich mich entschlossen einen separaten Post zu dieser Problematik zu schreiben.

Wann macht DTS keine Probleme?

Wenn ihr die Audiospur als sogenannten Bitstream ausgebt. Bitstream bedeutet das das Signal unverfälscht weitergegeben wird ohne das es von der Pi angefasst wird.

Wenn ihr also einen DTS-Fähigen AV-Receiver habt und dieser direkt über HDMI an der PI angeschlossen ist, habt ihr keine Probleme.

Alternativ gibt es auch TV-Geräte die DTS enkodieren können. 

Um DTS und AC3 direkt weiterzuleiten stellt ihr das in den XBMC Einstellungen unter System ein.


Wenn ihr die Option aktiviert habt, XBMC aber weiterhin kein DTS an euer TV liefert, ist euer TV mit sehr hoher Wahrscheinlichkeit nicht fähig dazu DTS zu enkodieren.

Wieso macht DTS Probleme mit der Pi?

Im Gegensatz zur Videospur, wird die Audiospur von der RaspberryPi in Software dekodiert. Etwas in Software machen dauert naturgemäß immer länger, als wenn man es direkt in Hardware implementieret.



Ein gutes Beispiel sind die Hardware Chips die H264 decodieren können. Diese brauchen nichtmal 1W an Leistung und schaffen 40Mb/s Streams in FullHD. Während man in Software für diesen Videostream locker einen DualCore mit 2Ghz braucht (der dabei vermutlich 30-50Watt schluckt).

Da die Pi relativ wenig Leistung ist Sie natürlich beim Decodieren von DTS schon am oberen Limit. Die Folge davon -> Ruckler



Wieso decodiert die PI die DTS Spur nicht in Hardware?

Die PI ist tatsächlich fähig die DTS Spur in Hardware zu enkodieren. Auch der Code dazu existiert bereits. Das einzige Problem ist, man braucht eine Erlaubniss von DTS um diese Lizenz dann zu verkaufen. (Ähnlich wie die MPEG2 und VC-1 Lizenzen)

Leider hat sich die DTS Foundation bis heute noch nicht bei den Entwicklern gemeldet obwohl da schon zig Anfragen eingegangen sind.

Mit etwas Glück also, kann man evtl. in einigen Wochen eine DTS Lizenz für ein paar Euro kaufen und dann alle DTS Probleme beiseite legen.

Welche Möglichkeit gibt es ohne DTS-Fähiges Gerät Ruckeln zu vermeiden?

Prinzipiell gibt es zwei Möglichkeiten:

1. Übertakten

Um 20-30% kann man die PI in den meisten Fällen ohne Probleme (und ohne Garantieverlust) übertakten. Das reicht auch um DTS ohne Ruckler wiederzugeben.

Wie man übertaktet?

Per SSH auf die Pi connecten und dort die config.txt bearbeiten. Wie genau das geht, hängt immer von der verwendeten Distribution ab.

Ein guten detaillierten Guide auf Englisch findet ihr hier: Overclock Raspberry Pi

Einen guten Guide auf Deutsch hab ich jetzt nicht gefunden. Falls Intresse besteht, poste ich einen.

2. DTS vorher umwandeln

Es ist möglich die DTS Spur am PC vorher in z.B. eine AC3 Spur zu konvertieren. Das dauert nur ein paar Minuten und beseitigt das Problem. Wie man das am einfachsten macht, erkläre ich in einem zukünftigen Post.

Fazit:

DTS mit der PI ist kein No-Go. Es gibt viele Möglichkeiten am Ende ein ruckelfreies Erlebnis zu bekommen.

Ich hoffe ich konnte hier klar machen, wo die Probleme liegen und wie man diese beseitigt :)


Hier nochmal die Links zu meiner 3-teiligen Post Reihe zur Pi.

Gerade erst hat Mozilla anlässlich des Europäischen Tages des Datenschutzes angekündigt, zu dem Internet-Unternehmen im Jahr 2012 ernannt worden zu sein, welchem die Verbraucher in Bezug auf die Privatphäre nach einer Studie des Ponemon-Instituts in den USA am meisten vertrauen, schon verbessert man Firefox in dieser Hinsicht weiter und überarbeitet die Einstellung zum Do-not-Track-Header.

Bei Do-not-Track (DNT) handelt es sich um ein HTTP-Headerfeld, welches Webseiten signalisieren soll, ob der Benutzer zu Werbe- oder Analyse-Zwecken getrackt werden möchte oder nicht. Auch wenn es sich bei DNT nur um einen Wunsch und damit um eine nicht verbindliche Empfehlung für Webseitenbetreiber handelt, gibt dies dem Benutzer doch zumindest für manche Webseiten ein wenig Kontrolle über die eigene Privatsphäre.

Eigentlich kennt DNT dabei drei Status: Der Benutzer möchte getrackt werden, Der Benutzer möchte nicht getrackt werden oder Der Benutzer hat keine Entscheidung darüber getroffen. Firefox unterstützt DNT bereits seit Version 4.0, bietet hier dem Benutzer via Checkbox in den Einstellungen allerdings nur zwei Möglichkeiten, nämlich Der Benutzer möchte nicht getrackt werden oder Der Benutzer hat keine Entscheidung darüber getroffen.

Im aktuellen Nightly-Build von Firefox 21 ist nun eine Änderung bezüglich des Einstellungs-Dialogs gelandet. Hier hat der Benutzer ab sofort eine klare Möglichkeit, jederzeit zwischen allen drei Status zu wechseln. Denn es ist auch durchaus möglich, dass der Benutzer die Webseite ausdrücklich darum bitten möchte, getrackt zu werden, um beispielsweise personalisierte Werbung zu erhalten. Die Standard-Einstellung ist übrigens, dass weder eine Zustimmung noch eine Ablehnung mitgeteilt wird, denn Mozilla glaubt nicht zu wissen, was der Benutzer möchte. Desweiteren findet sich an entsprechender Stelle im Einstellungsdialog nun ein Link mit weiterführenden Informationen, welcher im Detail erklärt, was DNT eigentlich ist und welche Möglichkeiten der Anwender hat. Diese Seite steht bislang leider erst in englischer Sprache zur Verfügung, auch wenn es die Seite selber schon eine ganze Weile gibt.

In Bezug auf die Privatsphäre ist Mozilla das Internet-Unternehmen im Jahr 2012, welchem die Verbraucher am meisten vertrauen. Dies ist zumindest das Ergebnis einer Studie des Ponemon-Instituts in den USA, in dessen Zusammenhang mehr als 100.000 Menschen befragt worden sind.

Der 28. Januar war der Europäische Tag des Datenschutzes. Anlässlich dieses Tages gab es nicht nur Tipps von Mozilla, um die Privatsphäre im Internet zu schützen, auch gab man bekannt, zum vertrauenswürdigsten Unternehmen für Privatsphäre im Jahr 2012 in der Internet & Social Media-Branche ernannt worden zu sein. Die befragten Personen wurden darum gebeten, bis zu fünf Unternehmen aus 25 Branchen zu nennen, welche sie am vertrauenswürdigsten halten, die Privatsphäre der persönlichen Informationen zu schützen. In die Wertung aller Unternehmen schaffte es Mozilla neben Namen wie Amercian Express, Amazon und IBM in die Top 20. Von den Browserherstellern haben es Mozilla und Microsoft zum ersten mal in die Top 20 geschafft, Google und Apple sind hier im Gegensatz zum vergangenen Jahr nicht mehr vertreten.

Wie Mozilla im offiziellen Blog schreibt, sei dies das Ergebnis einer Benutzer-zentrierten Philosophie, welche über das vergangene Jahrzehnt durch Beitragende am Mozilla-Projekt umgesetzt wurde. Ingenieure, UX-Designer, Leute aus den Bereichen Sicherheit, Engagement, IT sowie Privatsphäre hätten tausende kleiner Entscheidungen über die Jahre getroffen, welche gemeinsam das Nutzer-Vertrauen geschaffen haben, welches diese Studie widerspiegelt. Weiter äußert man sich, dass man als Branche noch eine Menge mehr zu tun habe. Es sei beklagenswert, dass Benutzer dem Ökosystem von Online-Dienstleistungen und Anwendungs-Anbietern größtenteils misstrauen. Was man wirklich wolle, sei ein Umfeld, in welchem diejenigen, welche Internet- und Social Media-Dienste entwickeln, das Vertrauen auf eine Art vertiefen, welche Benutzer ermächtigt und schützt sowie Vertrauen erzeugt. Man habe daher sowohl die großen als auch die kleinen Bemühungen fortzuführen, die eine vertrauenswürdigere Umgebung für Online-Produkte erzeuge, welche nahtlos die Anwenderfreundlichkeit, Transparenz und die Nutzerauswahl einbezieht.

Passend hierzu verbessert Mozilla mit Firefox 21 im Übrigen den Einstellungs-Dialog zu Do-not-Track (DNT), um dem Benutzer mehr Kontrolle über seine Privatsphäre zu geben.

28. Januar 2013

Viele Kommentare gab es im Thread zum Amazon Cloud Player wie man nun aus dem Cloud Player seine Musik wieder heraus bekommt. Explizit wenn ich hier Dutzende oder Hunderte von Songs bereits registriert habe.

Amazon macht das unter Linux nicht ganz einfach. Was wir dazu brauchen ist wieder diese .amz Datei mit der wir dann unsere gekauften MP3s herunterladen können. Wie das herunterladen funktioniert steht im Wiki von Ubuntuusers.de oder eben von mir erklärt mit clamz/qlamz.

Wenn man sich nun mit Linux am Amazon Cloud Player anmeldet bekommt beim Download von mehreren MP3s eine höffliche aber nervige Information das der Download von mehreren MP3s unter Linux nicht unterstützt wird:

amazon_cloud_player_linux

Na super.Mit folgendem Workarround bekommt ihr es aber dann doch hin:

  • Bei FF besorgt ihr euch den “User Agent Switcher” -> Link zur FF Erweiterung
  • Über den “User Agent Switcher” stellt ihr euren User Agent auf “Internet Explorer 8″. Anschließend meldet ihr euch beim Amazon Cloud Player an.
  • Auswahl der Songs die ihr herunterladen wollt und klickt auf Download. Dann erscheint folgendes Fenster:amazon_cloud_player
  • Ihr wählt den Button “Amazon MP3-Downloader installieren” und brecht den Download der aufgeht gleich ab.
  • Dann seht ihr ein neues Fenster:amazon_cloud_player_2
  • Ihr wählt den Button “Zum Musik Downlad” und bekommt jetzt diese Anzeige:amazon_cloud_player_3
  • Das ist euer Ziel! Mit einem Klick auf “Musik herunterladen” steht euch die .amz Datei zur Verfügung:amazon_cloud_player_4

Da fragt man sich ehrlich gesagt nur: Warum macht Amazon es einem so schwer an seine rechtmäßig gekauften Titel zu kommen? Gehts vielleicht auch noch ein bißchen umständlicher (Vorsicht, hier “könnte” Ironie im Spiel sein)?

Vielen Dank an CerebrosuS der mich auf den Trichter gebracht hat :)

Nach der Installation von Windows 8 und Ubuntu als Dualboot habe ich beim Versuch, die Windows-Partition unter Ubuntu zu mounten einen Fehler bekommen, der besagt, dass ein Hibernation-File (Ruhezustands-Datei, in der der Arbeitsspeicher auf der Festplatte gespeichert wird) gefunden wurde und daher das Dateisystem nur lesbar gemountet wurde. Das hat mich erstmal überrascht, da ich der Meinung war, Windows 8 korrekt heruntergefahren (und nicht in den Ruhezustand versetzt) zu haben. Nach etwas Recherche fand ich dann etwas zu der neuen Schnellstart-(Fastboot-)Funktion in Windows 8, die ähnlich wie der bisherige Ruhezustand funktioniert und einige Daten über Dateien bzw die Dateistruktur in besagtem Hibernation-File speichert und die Laufwerke nicht korrekt aushängt.

Nutzt man Windows 8 als einziges Betriebssystem, erhält man dadurch einen kleinen Geschwindigkeitsvorteil, möchte man aber auch andere Betriebssysteme (Dualboot oder Live-CD) nutzen, kann es zu gravierenden Fehlern im Dateisystem kommen, da Windows die veränderten Dateien nicht erkennt oder sich der NTFS-Treiber unter Linux weigert, auf die NTFS-Partition zu schreiben, wie auch heise berichtet: Linux und Windows 8 – Schnellstart gefährdet Daten

Schnellstart in Windows 8 deaktivieren

Um die Funktion zu deaktivieren, wählt man in der Systemsteuerung unter Energieoptionen den Eintrag “Netzschalterverhalten ändern”. Dort schaltet man mit “Einige Einstellungen sind momentan nicht verfügbar” die entsprechenden Felder frei und kann das Häkchen bei “Schnellstart aktivieren” abwählen.
Schnellstart EnergieoptionenJetzt startet Windows 8 etwas langsamer (meiner Meinung nach kaum spürbar), dafür kann man jetzt aber problemlos Dateien unter Linux auf der Windows-Partition bearbeiten und riskiert keine Dateisystem-Fehler.

Nachdem Oracle Sun aufgekauft hat sind bereits viele Projekte in Oracles Händen zerflossen. OpenOffice.org wurde in LibreOffice geforkt und der Großteil der Community-Entwickler schlossen sich dem Fork an. OOo fristet seither ein eher bescheidenes Dasein unter dem Dach der Apache Foundation. OpenSolaris, die Community-Version von Solaris wurde von Oracle abgewürgt, die wichtigsten Entwickler gründeten den Fork OpenIndiana. Das ODF-Plugin für MS Office, unter Sun kostenfrei erhältlich, war von Oracle für etwa $ 70,- zu beziehen. Inzwischen laufen alle Links von Oracles Website zum Plug-In ins Leere.

Bei MySQL versucht Oracle Anwender offensichtlich zum Umstieg auf Oracles Datenbank oder zumindest auf die Enterprise Version zu bewegen. Eine nicht-öffentliche Fehlerdatenbank und ein Ausgrenzen der Community machen MySQL, trotz GPL, zu einem proprietären Projekt. Auch scheinen in der Community-Version seit dem Verkauf wichtige Funktionen zu fehlen. So erhalte ich beim Einsatz von MySQL (5.5) aus den Ubuntu-Quellen nur Fehler, wenn ich versuche TRIGGEREXCEPTROLE oder CHECK zu verwenden.

Mehrere Distributoren haben inzwischen angekündigt die Standard-Datenbank von MySQL auf MariaDB umzustellen, OpenSuse hat es sogar schon gemacht. MariaDB ist ein Fork von MySQL, geleitet von Michael Widenius, dem Schöpfer von MySQL. Es verspricht Feature-Gleichheit oder sogar -Vorsprung zu MySQL Enterprise und wird als OpenSource-Projekt geführt. Leider gibt es dazu noch keine Aussagen von Ubuntu.

[UPDATE]

Heeeere commmmes annnnnnnotherone …..

[/UPDATE]

Liebe Ubuntu-Entwickler, bitte folgt dem Beispiel eurer Kollegen und ersetzt MySQL durch eine bessere Alternative.

P.S.: Eine Anleitung um MariaDB auf Ubuntu/Debian zu installieren.

[UPDATE 2]

Auch Slackware und Arch setzen nun auf MariaDB. Bei Ubuntu gibt es weder auf der offiziellen Homepage, noch bei Mark Shuttleworth irgendwelche Kommentare dazu. Immerhin auf Ubuntuusers gibt es einen Artikel zu MariaDB, welcher allerdings erst im Aufbau ist. Man kann wohl nicht davon ausgehen, dass MariaDB bereits in Ubuntu 13.04 enthalten sein wird. Vielleicht haben wir ja Glück und es kommt mit 13.10. Inzwischen liebäugle ich mit einem Umstieg …

[/UPDATE 2]

[UPDATE 3]

Auch Red Hat will mit RHEL 7 auf MariaDB umsteigen. Dieser Artikel ist schon fast ein halbes Jahr alt und Canonical hat noch nicht Stellung bezogen. Hoffen wir einmal, das hier nicht auch ein Fork in Arbeit ist.

[/UPDATE 3]

[UPDATE 4]

Nach über einem Jahr hat Canonical mit Ubuntu 14.04 endlich MariaDB in die Quellen gesteckt. Standard ist immer noch MySQL 5.5.

[/UPDATE 4]

=-=-=-=-=
Powered by Blogilo

27. Januar 2013

Ich habe gerade das Produkt-Video zum Sony Xperia Z gesehen und gedacht: Alter Schwede, das will ich haben! Sony ist neben Apple (und auch manchmal noch Nokia) die einzige Handy-Firma, die es versteht eine eigene überzeugende Design-Sprache umzusetzen - Samsungs und HTCs sehen alle irgendwie gleich aus und immer ein wenig billig - zumindest in meiner Wahrnehmung. 

Wenn man dem ersten Test aus der Connect glauben schenken darf, scheint Sony auch nicht zu viel zu versprechen.

Zum absoluten Glück müsste jetzt nur noch Ubuntu Phone vorinstalliert sein.  Die Idee, dass man das Handy an einen großen Monitor anschließen kann, greift Sony im Video ja auf. Hoffentlich baut bald einer Ubuntu Phone Image für das Xperia Z.

Am Freitag war ich mal wieder in der Situation etwas an einer Datenbank ändern zu müssen. Und das ohne Netz und doppelten Boden. Sprich die Datensicherung war schon ein paar Stunden alt und für eine Testdatenbank war keine Zeit. Da die Änderungen nicht ganz ohne waren, habe ich mir trotzdem einen Sicherheitsgurt eingebaut. Ich habe mir einfach eine temporärer Tabelle angelegt. Das ganze ist recht simpel.

CREATE TEMPORARY TABLE test (SELECT * from nutzer)

Bei diesem Beispiel wird also die temporäre Tabelle test in der Datenbank erstellt. Und zwar mit allem, was in der Tabelle nutzer vorhanden ist. Auf diese temporärer Tabelle habe ich dann mein Script losgelassen, das diverse Änderungen durchgeführt hat. Nachdem das einwandfrei geklappt hat, habe ich es dann auf die richtige Tabelle losgelassen. Einen DROP kann man sich übrigens schenken, da die temporären Tabellen nur so lange halten, wie man mit der Datenbank verbunden ist. Naja im Grunde nichts besonderes, aber vielleicht kann es ja jemand mal gebrauchen.

Möchte man die lokale Revision eines Git Repositories ermitteln so reicht es in der Konsole:

git log -n 1

einzugeben. Das ganze sieht auf dem Terminal dann so aus:

commit 1c40074d28676ec996ec91f1719cff43077f15f6
Author: Example 
Date:   Tue Jan 3 09:52:23 2013 +0800

    Bugfixes in example function.

Soll nur der Hash ausgeben werden so muss die Kommandozeile wie folgt aussehen:

git log -n 1 --pretty=format:"%H"

Damit bekommt man dann nur den entsprechenden Hashwert ausgegeben.

26. Januar 2013

Cover von Full Circle Magazine #69

Die 69. Ausgabe vom Full Circle Magazine, dem „unabhängigen Magazin der Ubuntu-Linux-Community“, ist erschienen.

Themen der aktuellen Ausgabe sind:

  • Ubuntu News
  • Command & Conquer: Google Music
  • LibreOffice, Teil 22 - Abfragen und Berichte
  • Inkscape, Teil 9
  • Review Sony NSZ-GS7 Google TV Box

Das englischsprachige Full Circle Magazine ist in den folgenden Formaten verfügbar:

Der User Agent Switcher gehört mit mehr als einer halben Million aktiven Benutzern zu den beliebtesten Firefox-Erweiterungen für Entwickler. Seit Firefox 17 funktioniert dieser allerdings nicht mehr richtig. Abhilfe schafft die in diesem Artikel vorgestellte Lösung.

Mit Hilfe der Erweiterung User Agent Switcher ist es möglich, den User-Agent, welchen der Browser sendet, auf bequeme Weise zu verändern. Dies kann vor allem dann praktisch sein, wenn man sich als anderer Browser ausgeben möchte. Seit Firefox 17 funktioniert diese Erweiterung allerdings nicht mehr wie gewünscht, beim Auslesen über JavaScript (navigator.userAgent) wird anstelle des veränderten User-Agents der originale User-Agent erkannt. Von diesem Problem sind auch andere Erweiterungen wie UAControl oder ua-site-switch betroffen.

Abhilfe schafft die Erweiterung User-Agent JS Fixer. Diese Erweiterung macht für sich alleine betrachtet nichts, stellt aber die Funktionalität der genannten Erweiterungen wieder her. Nach Installation der Erweiterung funktionieren der User Agent Switcher wie auch die anderen Erweiterungen, welche den User-Agent verändern, wieder wie gewünscht.

Artikel als Audio anhören

Die fünfte Entwicklerversion kommt (erstmal) ohne Freigabe-Mail und immer noch mit mehr Änderungen als Torvalds lieb ist.

Einige dieser Änderungen jedoch betreffen die MAINTAINERS-Datei wo sich der langjährige Entwickler Alan Cox austragen ließ. Sein Part an den Seriell-Treibern wird nun von Greg Kroah-Hartmann übernommen. Cox wird sich einige Zeit aus familiären Gründen zurückziehen, Pro-Linux hat einen Artikel dazu.

Es gibt nur weniges Commits, die nicht das Wort „Fix“ in Beschreibung oder Infotext tragen. So unterstützt das Flash-Dateisystem f2fs nun Swap-Files an den Debugging-Funkionen für den Radeon-Treiber wurden Verbesserungen vorgenommen.

Kommende Woche findet die linux.conf.au statt, da sich dort einige Entwickler einfinden, die damit beim Entwickeln schon mal fehlen, dürfte der -rc6 etwas kleiner ausfallen. Hoffe ich zumindest Torvalds Nerven zuliebe. ;-)

Die kleine Statistik:

Commits geänderte Dateien eingefügte Zeilen gelöschte Zeilen Datum Tage *
3.8-rc1 11 737 10 482 554 790 340 624 21.12.2012 11
3.8-rc2 131 195 1935 1290 02.01.2013 12
3.8-rc3 379 1405 7995 7845 10.01.2013 8
3.8-rc4 357 355 9997 2258 17.01.2013 7
3.8-rc5 310 249 2102 1268 25.01.2013 7

* Tage seit dem letzten rc/Release

Quelle: Linux-Stream bei Google+

News gibts ja genug rund um den neuen nativen Steam-Client für Linux und auch um die Pläne eine Steam-Spielekonsole basierend auf Linux herauszubringen. Persönlich finde ich diese Idee ungeheuer spannend, zumal mit Valve im Hintergrund tatsächlich eine reale Chance besteht, dass einige Games auf Linux portiert werden. Gerade vor kurzem “belauschte” ich das Gespräch einiger 14-jähriger Schüler auf ihrem Heimweg die sich ausführlich über Ubuntu unterhielten (!!!) und als einen der großen Nachteile die fehlenden coolen Spiele angaben. Zwar meinte einer von ihnen, “zocken tut man ja sowieso auf einer Konsole”, dennoch glaube ich, dass wenn es das Lieblingsspiel auch unter Linux gibt, der Umstieg für viele noch einfacher werden dürfte.

Bei so vielen tollen News gibt es natürlich auch den einen oder anderen Wehrmutstropfen. Dass durch das Portieren des Steam-Clients natürlich nicht gleich hunderte Spiele bereit stehen, sollte den meisten klar sein, doch die Anzahl wächst und falls Valve eine Chance auf dem hart umkämpften Konsolen-Markt haben möchte, sollten sie sich auch dringen darum bemühen diesen Trend zu fördern. Mit Klassikern wie Half-Life 1 und das originale Counter-Strike kann man vielleicht ein paar Veteranen glücklich machen, aber der große Wuuumbs ist dadurch natürlich nicht zu erwarten.

Das zweite Problem ist, dass die Verteilung von Software unter Linux gänzlich anders funktioniert wie im Windows und Mac-Universum. Anstatt dass Software-Erzeuger selbst Pakete erstellen, ist dies unter Linux die Aufgabe der Distributoren, die dazu allerdings am besten den Quelltext der Software zur Verfügung haben. Das ist aber weder beim Client selbst noch bei den Spielen der Fall und so ist der Support auf anderen Distributionen, als den vom Hersteller vorgesehenen, nur eingeschränkt möglich. Valve hat für Steam Ubuntu in der 32-bit Variante gewählt, wohl mit dem Hintergedanken, dass dieses (und alle direkten Ableger) den größten Marktanteil unter den Desktop-Linuxen hat. Momentan befindet sich der Client noch in der Beta-Phase insofern ist nicht sicher, ob es bei 32-bit und Ubuntu bleibt, fürs erste ist das aber anzunehmen. Ich verwende selbst aber bereits jahrelang Arch Linux als meine Hauptdistribution und bin damit auch sehr glücklich. In diesem Artikel möchte ich daher einen kurzen Statusbericht liefern, wie gut Steam mit einem 64-bit Arch Linux umzugehen weiß.

Installation

Die Installation an sich geht sehr einfach vonstatten, da sich der Steam Client bereits als Paket im Arch Linux User Repository (AUR) befindet. Wer wie ich (und wahrscheinlich mittlerweile ein Großteil der Arch Linux User) die x86_64-Variante verwendet, muss zusätzlich vorher noch das multilib-Repository in der Datei pacman.conf aktivieren um 32-bit Bibliotheken nachinstallieren zu können. Die Installation an sich geht recht flott von statten, der Steam-Client muss nicht mehr kompiliert werden, sondern wird aus dem Ubuntu-Paket extrahiert und für Arch Linux neu verpackt. Zusätzlich werden gleich einige Abhängigkeiten nachinstalliert.  Ebenfalls nur für die 64-bit Version wird der Grafikkartentreiber noch einmal explizit als lib32-Paket benötigt. Unbedingt installieren muss man auch noch die Microsoft Schrift “Arial” (im AUR ttf-microsoft-arial oder gleich das ganze Paket ttf-ms-fonts), ansonsten sehen fast alle Texte schrecklich aus.

Erster Eindruck

Nach der Installation klinkt sich ein Icon in das Desktopmenü der jeweiligen Desktopumgebung (in meinem Fall Cinnamon) und beim ersten Start wird der Client upgedated. Danach wird man vom bekannten Steam Login-Screen begrüßt und fast alles sieht so aus wie im Windows-Pedant. Begrüßt wird man wie auch unter Windows mit Werbung, allerdings nicht angepasst auf Linux. Einen entsprechenden Reiter Linux gibt es aber, in dem sich unter den “Top-Linux-Spielen” allerdings nur eines befand, dass ich kannte (Team Fortress 2). Insgesamt gibt es momentan 63 für Linux tauglich gekennzeichnete Spiele. Zugegebenermaßen eine nicht sehr große Auswahl (Für Mac sind ganze 533 gelistet), aber wie gesagt, man kann hoffen, dass die Auswahl wachsen wird!

Die Sprache wurde bei mir nicht automatisch erkannt, aber gut, dass ist jetzt wirklich eine Kleinigkeit. Der erste Fehler trat beim Umstellen auf Deutsch auf. Steam forderte mich auf, den Client neu zu starten, die Meldung dazu war aber unleserlich (siehe Bildergalerie). Neustarten musste ich dann explizit über das Menü Steam -> Exit, da das “X” oben im Fensterrahmen den Client nur minimiert und nicht ganz beendet (so wie auch unter Windows). Einziger Unterschied (den ich glaub ich dem Cinnamon-Panel zuschieben kann) ist, dass sich das Steam-Programmicon auch nicht aus der Taskleiste wegblendet (und nur noch in der Application-Tray angezeigt wird), sondern auch dort verweilt. Nun gut, auch dass ist verkraftbar.

Als nächstes Verschlug es mich in die Spiele-Bibliothek und tatsächlich, obwohl ich nicht sehr viele Spiele für Steam besitze, fanden sich immerhin sechs Einträge die laut Steam auch unter Linux funktionieren sollten unter anderem X3: Reunion, eines meiner All-Time-Favorites. Interessant ist aber, dass der Vorgänger X2: The Threat, den ich ebenfalls für Steam besitze nicht in der List aufscheint, obwohl es dafür ebenfalls einen Linux-Port gibt. Auch das Addon X3: Terran Conflict scheint nicht für Linux verfügbar zu sein.

Anders als unter Windows lässt sich bei der Installation von Spielen eine Speicherort auswählen. Standardmäßige werden Games im home-Verzeichnis des aktuellen Benutzers installiert, es lässt sich aber auch ein anderer Ort auswählen (für den der Nutzer allerdings Schreibrechte benötigt, da Steam keine Root-Rechte nutzt).

Der neue Big-Picture Mode der wahrscheinlich das Interface für die kommende Steam Box werden wird, funktionierte bei mir ohne Probleme. Die Auflösung musste ich selbst noch Umstellen, und nach dem Beenden von World of Goo hatte sich Steam auch gleich selbst mitbeendet.

Spielen

Zugegebenermaßen, mit etwas mehr Anstrengungen hätte ich wahrscheinlich alle Spiele zum Laufen gebracht, aber darum ging es mir auch nicht unbedingt. Der Linux Port von X3: Reunion scheint sich noch in der Beta-Phase zu befinden, eine Meldung beim Starten weißt darauf hin, und in meinem Fall auch darauf, dass meine Grafikkarte nicht geeignet sein würde und es wahrscheinlich zu einem Absturz kommen wird. Vermutlich hätte sich dieses Problem mit dem proprietären Grafikkartentreiber von AMD (fglrx) lösen lassen, eine Installation ist mir aber momentan zu aufwendig.  Multiwania ließ sich mit dem Hinweis von fehlenden Programmdateien gar nicht starten und bei Uplink sowie DEFCON funktionierte die niedrige Standard-Auflösung mit meinem Monitor nicht. Einfache Kommandozeilen Switches um etwa den Fenstermodus zu erzwingen funktionierten leider ebenfalls nicht. Einzig  Darwinia und World Of Goo funktionerten anstandslos und auch mit entsprechend hoher Performance. Team Fortress 2 wollte ich ebenfalls ausprobieren, dass ließ sich allerdings nur ins Home-Verzeichnis installieren, wo ich nicht genügend Platz zur Verfügung habe. Eine Möglichkeit den Standard-Speicherplatz zu verändern konnte ich nicht finden, der einzige Dialog zu diesem Thema funktionierte nicht richtig, da ich weder die Aufschrift der Buttons, noch den Dialog, der nach dem Klick eines Buttons kam lesen konnte.

Update:
Falls noch jemand Probleme mit X3 und der fehlenden Texture Compression hat, der User jug hat mich auf das Paket libtxc_dxtn bzw lib32-libtxc_dxtn hingewiesen (dass sich in den Arch Repositories findet). Danach startet X3 auch mit den quelloffenen Treibern ohne Probleme. Danke für den Tipp!

Fazit

Nach dem Test ist vor dem Test: Ob Steam unter Linux ein Erfolg wird bin ich mir noch immer nicht sicher. Positiv muss man das Engagement von Valve hervorheben (obwohl dahinter natürlich zum Großteil finanzielle Hintergedanken stecken werden) und den Fakt, dass es sich um Beta-Software handelt und somit zur finalen Version sicher noch ein paar Probleme aus der Welt geschafft werden. Grundsätzlich hinderte mich Arch Linux nicht daran Steam auszuprobieren was gut ist, da es darauf hoffen lässt, dass Steam auch gut mit anderen Distributionen zusammenarbeiten wird. Die meisten Spiele liefern scheinbar alle nötigen Bibliotheken selbst mit, somit sollten auch hier nicht all zu viele Probleme auftreten. Momentan muss man aber eindeutig sagen, bringt Steam auf Linux noch keine nennenswerten Vorteile. Viele der Linux Spiele die momentan verfügbar sind, kann man auch ohne Steam kaufen und spielen, wodurch man kaum nutzen hat. Bleibt zu hoffen, dass die Auswahl stetig steigt und spätestens mit dem Erscheinen der Steam Box genügend Material zum zocken vorhanden sein wird.

Die Frühjahrstagung 2013 des DANTE e.V. findet dieses Jahr am Interdisziplinäres Forschungszentrum der Universität Gießen statt. Vom 6. bis 8. März 2013 gibt es Vorträge und Tutorien, ein Teil des Programms steht schon. Die Tutorien sind kostenlos, für die Vorträge und das Tagungsessen bezahlt man 35 Euro. Eine Anmeldung ist noch möglich.

Ich selbst nehme dieses Jahr auch wieder Teil und halte ein kleines Tutorium zum Thema „Bilder setzen bei mehrspaltigem Layout“. Bei freiesMagazin habe ich damit jeden Monat zu tun und mir geht das inzwischen locker von der Hand. Andere haben damit aber häufig mehr Schwierigkeiten. Ich zeige keine Folien, sondern setze einfach live einen Artikel des Magazins, stelle die Makros dahinter vor etc.

Ich bin gespannt, wie es wird, und berichte natürlich Mitte März dann hier im Blog über die Tage in Gießen.

25. Januar 2013

Bei einem Kundenprojekt sollte die Volume Gruppe des SWAP vergrößert werden. Zuerst wurde auf Storage Seite die LUN vergrößert, kein Problem. Anschließend sollte das PV (Physical Volumen) vergrößert werden und der Kunde gab die “PE” Größe mit an, lief alles ohne Probleme durch.

Ergebnis nach Absetzen des Befehls seht ihr hier:

pvresize

Wer findet den “Fehler”? :D

Da ich meine HD-Aufnahmen eigentlich immer direkt in einen MKV-Container stecke, hab ich letztens auch nach einer praktischen Möglichkeit gesucht diese dabei zu schneiden (Vorne und Hinten was rausschneiden, ab und zu auch Werbung mittendrin).

Das ist relativ problemlos mit MKVMerge möglich (einem Teil von MKVToolnix). Das Tool gibt es für Linux, Mac und Windows. Zu MKVMerge selbst hatte ich ja schon vor knapp 2 Jahren eine Anleitung geschrieben.

Wie geht man vor?


Im ersten Schritt merkt ihr euch die Stellen, an denen Ihr schneiden müsst. Dazu nehm ich den VLC und spring im Video herum bis ich die Positionen habe. Wenn ihr nur vorne und hinten was abschneiden wollt, merkt ihr euch die Stelle an der euer Video beginnt (z.B. 00:00:22 also ab Sekunde 22) und Endet (z.B. 01:01:34, also nach einer Stunde einer Minute und 34 Sekunden). Falls ihr zwischendrin Werbung habt, müsst ihr euch noch merken wann die Werbung beginnt und wieder endet.

Am besten schreibt ihr die Positionen schnell in einem Texteditor oder Tabellenkalkulationsprogramm auf.

Danach startet ihr MKVMerge (GUI). Im Input Tab klickt ihr Rechts auf "Add" und fügt euer Video das ihr schneiden wollt hinzu. Hier könnt ihr dann auch gleich gewünschte Ton oder Untertitelspuren abwählen.



Als nächstes wechseln wir zum "Global" Tab. Unter SplitMode wählt ihr "Split after Timecodes".
Wenn ihr nun vorne und hinten was abschneiden wollte, tragt ihr hier 2 Werte mit Komma getrennt ein.

Falls noch Werbung zwischendrin ist, tragt ihr ebenfalls alle notierten Werte mit getrennten Kommas ein.



Nun wählt ihr unter Output noch ein Ausgabeverzeichnis mit Dateinamen aus und klickt anschließend auf "Start Muxing".

Film ohne Werbung zwischendrin:


Falls ihr nur vorne und hinten Abschneidet kriegt ihr 3 Dateien rauß. Die mittlere davon ist euer Hauptfilm. Die anderen beiden könnt ihr löschen.

Film mit Werbung zwischendrin:


In eurem Outputverzeichniss findet ihr nun eine Menge Dateien. Die einzelnen Dateien beinhalten  entweder ein Filmteil oder einen Werbeblock. Die Dateien mit Werbeblöcken löscht ihr bitte, so dass nur noch Dateien mit Film übrig bleiben.

Nun startet ihr eine frische MKVMerge Instanz und fügt über "Add" den ersten Teil eures Filmes hinzu. Jetzt wählt ihr Append, und wählt die anderen Teile nacheinander aus (in der richtigen Reihenfolge).

Am Ende dann wieder auf "Start Muxing" gehen. Nun kriegt ihr wieder eine zusammenhängende Datei die nun frei von Werbung sein sollte.



Es gibt sicherlich Software die sowas direkt mit Videovorschau ermöglicht (könnt ihr gerne in den Kommentaren nennen) und für "Normale" User vllt. einfacher zu bedienen sind.
Allerdings find ich es einfach schnell und praktisch das in MKVMerge zu machen. Noch dazu ist das Programm komplett kostenlos und OpenSource und sowas nutze Ich persönlich eh lieber als kommerzielle Programme.

In den nächste Wochen gibt es auch wieder aktualisierte Guides zum Rippen Allgemein, da sich mein Prozess doch sehr verändert und vereinfacht hat. (Die Guides hier im Blog sind alle ziemlich komplex und das Gegenteil von simpel)

Das Problem hat bestimmt schon jeder mal gehabt. Man hat einen Haufen Dokumente in verschiedenen Formaten wie .doc, .odt, .ppt, .xls, … und möchte diese, beispielsweise für eine Präsentation oder einfach nur zum Verschicken, in einem Dateiformat (bspw. .pdf) vorliegen haben. Nur wie?

Für Leute die Zeit haben …

Wenn man Zeit hat, dann kann man einfach jede Datei in LibreOffice öffnen und dann als .pdf exportieren.

… für die anderen

Man kann durchaus auch mit LibreOffice auf der CLI arbeiten. Für unser Problem würde der Befehl entsprechend so aussehen:

libreoffice --headless --invisible --nologo --convert-to pdf *.{doc,docx,odp,odt,ppt,pptx,<wbr>xls,xlsx}

Aber Achtung! Man sollte bei LibreOffice vorher einmalig unter “Datei”->”Exportieren als PDF..”, beim Reiter “Allgemein” die Option PDF/A-1a aktivieren. Die so erzeugten PDFs eignen sich besser für die Archivierung und die Darstellung ist besser, da benötigte Schriftarten gleich mit eingebettet werden. Habe leider noch nicht herausgefunden, wie man das Verhalten ohne GUI beeinflussen kann.

24. Januar 2013

Fast auf den Tag genau ist nun unser EQ6 3 Jahre alt. Die Setupgebühr für den EX4 ist seit einigen Monaten gesenkt worden. Der EX4 ist leicht größer als der alte EQ6 und wenn man monatlich 20.- Euro sparen kann, warum sollte man da nicht mal wieder den Server wechseln?

Was auf den alten Server richtig gemacht worden ist, soll auf den EX4 nicht geändert werden.

Also als Basis Debian, (Soft)Raid1, Logical Volume, ISPConfig 3 Oberfläche und mein ockerbackup wird wieder verwendet. Damit kann dann auch das komplette "Kundenweb" übernommen werden und damit entfällt somit schon ein erheblicher Arbeitsaufwand.

Natürlich guckt Wheezy schon aus seiner Testing Deckung hervor und sprüht vor Ungeduld, da liegt es nahe, den neuen (Hobby) Server gleich auf Wheezy aufzusetzen. Die Nachteile eines solchen Schrittes sind mir durchaus bewusst und ich will niemanden zur Nachahmung animieren.

Die neuen Platten sind 3TB groß, damit zu groß für den den normalen auf MBR aufbauenden Bootmanager. In squeeze (6.06) kann der Grub2 aber schon mit GPT Partitionen umgehen, das normale fdisk aber nicht. Deshalb muss man z.B. gdisk nehmen. Glücklicherweise ist Hetzner, was die Minimal Installationen betrifft topaktuell und stellt Debian-60-minimal als 64 Bit Version mit dem Stand 6.06 bereit. In dem Minimal Debian ist gdisk enthalten.

Der Server wurde mit rescue_system bestellt. Wer selber bei Hetzner ist, kennt das normale weitere Vorgehen, man ruft installimage auf und kann im Editor dann seine Einstellungen vornehmen. Eigentlich hatte ich vor, eine 0815 Variante zu wählen, nur um dann die Platte korrekt mit gdisk zu partitionieren, doch aus einer Laune heraus dachte ich, ich probiere es einfach mal, vielleicht ist das Script ja doch schon in der Lage mit >2TB Platten umzugehen....

Tja, was soll ich sagen? Die Installation verlief einwandfrei, ich konnte also mit dem installierten Debian 6.06 64Bit loslegen. Inzwischen habe ich den Server auf Testing (Wheezy) gehoben und warte nun das syncen des RAID ab. Danke Hetzner, danke Debian!

Natürlich wartet noch ein wenig Arbeit auf mich, aber der Anfang ist schon mal gut gelaufen.


Stichwort Arbeit: Knackpunkt ist bei einer Neuinstallation immer wieder Email. Jedenfalls für mich. Gerade vor einer Stunde darauf gekommen, das

apt-get install courier-authlib-mysql
eine gute Idee ist. Denn SMTP ging schon, nur IMAP und POP3 Login wollte einfach nicht klappen. Mit systematischem einschalten diverser DEBUG Schalter (trage ich nach) gings dann ....

 

Zur Vorbereitung benutzte Quellen:

23. Januar 2013

Das man überall versucht den klassischen Desktop mit Webdiensten zu verschmelzen, um eine möglichst nahtlose Integration vorzufinden, ist nichts neues. Denken wir an die Unity Web Apps von Ubuntu oder den Ansatz von Joli OS.

Die Desktopumgebungen haben bereits Online-Accounts eingebaut, über den man seine Logindaten für den Facebook-Account, Google-Konto usw. eingeben kann. Diese sind bisher oft auf ein paar Synchronisierungen von Kalenderdaten/Kontakten gekoppelt, wird jetzt aber  nach und nach ausgebaut. Beim Gnome-Projekt verkündet man nun die nahtlose Integration der Dokumente aus Google Drive in ihre Documents-Applikation.

Gnome Documents Google Drive

In einem Video zeigt man, dass die Suche von Dokumenten sowohl lokal, als auch über die bei Google Drive liegenden Dokumente funktioniert. Über die eingebundene Webkit Rendering-Engine kann das Dokument genauso bearbeitet werden, wie ihr es normalerweise über den Browser gewohnt seid.

Was mir noch fehlt ist Offline-Support, aber der erste Schritt ist jedenfalls gemacht und werde ich dann in Gnome 3.8 voraussichtlich nutzen. Abschließend noch das kurze Video. [via]

Breaking News: Ubuntu will evtl. den 6 monatigen Release-Zyklus aufgeben und stattdesssen eine Rolling-Distro werden.

Aus meiner Sicht sind das super Neuigkeiten, das ständige Updaten, jedes halbe Jahr, ist für End-Nutzer aus meiner Sicht nicht zumutbar - gerade wenn man sich sich sein System so eingerichtet hat, wie man es gut findet, kommt dann eine neue Version raus.

Wenn man bei den LTS-Versionen bleibt, muss man mit veralteter Software leben oder sich jede Menge PPAs installieren - beides auch keine Ideallösungen.

Wie denkt Ihr darüber? Ein gute Idee oder problematisch aus Gründen der Stabilität?