Kategorie: Meinung

  • Ist das die Zukunft? Fedora Silverblue im Alltagstest

    Ist das die Zukunft? Fedora Silverblue im Alltagstest

    Gestern erschien Fedora 35 offiziell. Während die neuen Features überschaubar sind, nutzte ich die Chance, mit der neuen Version ein Experiment einzugehen: Der Wechsel von der klassischen Workstation-Variante auf Fedora Silverblue. Diese Ausgabe soll laut eigener Vorstellung die Zukunft von Fedora darstellen.

    Silverblue und Kinoite

    Parallel zu Silverblue gibt es seit kurzem auch Kinoite mit dem gleichen Konzept, nur die Desktopumgebung ist dann KDE statt GNOME. Das Konzept wurde auf Linuxnews auch bereits ausführlicher erklärt: Sowohl Silverblue als auch Kinoite gehören zu den unveränderbaren (immutable) Betriebssystemen. Das erklärt sich dadurch, dass ihr Root-Dateisystem nur lesbar ist. Alle Änderungen werden außerhalb des Root-Dateisystems auf einer separaten Ebene gespeichert. Updates werden als komplettes Abbild ausgeliefert und lassen sich somit zurückrollen auf einen vorherigen Stand.

    Für Software-Installationen gibt es drei Wege, der »klassische« Weg über den Paketmanager dnf entfällt dabei allerdings. Stattdessen soll die Anwendungsinstallation bevorzugt über Flatpaks stattfinden. Entwicklerwerkzeuge lassen sich über die »Toolbox« installieren, die Container-basiert ist. Über RPM/OSTree lassen sich aber schließlich auch noch klassische RPMs installieren.

    Warum der Aufwand? Auch die neuen Versionen sollen sich anfühlen und verhalten wie eine normale Distribution, aber zugleich das Betriebssystem stabil und unveränderlich machen durch die strikte Trennung zwischen System und Anwendung. Das erinnert an die mobilen Betriebssysteme. Für die kommende Zeit möchte ich diese Zukunft ausprobieren und von meinen Erfahrungen als »klassischer« Anwender berichten.

    Instalation mit Troubleshooting

    Auch für die Installation soll gelten, dass diese wie bei einer normalem Distribution aussieht und sich so verhält. Dafür wird der klassische Installationsmanager von Fedora genutzt. Allerdings unterscheidet sich die Installation bei mir in einem wesentlichen Punkt: Sie bricht bei mir mit Fehlermeldungen ab. Der Fehler ist auf EFI-Systemen bekannt, wenn weitere Betriebssysteme installiert sind. Workarounds werden angeboten, funktionieren bei mir aber nicht wirklich. Anstelle von allzu umfangreichem Troubleshooting entschließe ich mich daher, Silverblue meine ganze Platte zu geben und mein Dualboot damit aufzulösen.

    Einrichten: Viele Flatpaks

    Silverblue wird sehr spartanisch ausgeliefert, es richtet sich schließlich gegenwärtig noch an erfahrene Nutzer. Auch der Software-Store (GNOME Software) ist zu Beginn noch recht überschaubar ausgestattet. Erstaunlich ist, dass man beim Starten zwar gefragt wird, ob man auch Flathub.org als Software-Quelle hinzufügen möchte, dies aber scheinbar nur für ausgewählte Pakete für Flathub gilt. Das ist wenig transparent, letztlich lässt sich aber auf gewohntem Wege Flathub freischalten.


    Dank Flathub steigt die Auswahl an Software auch spürbar an, bislang vermisse ich keine Anwendung. So wirklich gut gelöst ist die Softwareinstallation über GNOME Software allerdings nicht. Im Gegensatz zu Fedora 34 ist das Programm für mich immerhin praktisch nutzbar, wenngleich sich mir manche Ladevorgänge noch immer nicht erschließen. Außerdem wird etwa der Firefox mit zwei separaten Einträgen in GNOME Software gelistet und mir werden insgesamt drei Installationswege angeboten: Vorinstalliert ist ein RPM, außerdem habe ich die Möglichkeit als Flatpak über Flathub oder als Flatpak über Fedora. Die konkrete Quelle herauszufinden gelingt mal auf den ersten Blick, mal nur in den tieferen Informationen beim Durchklicken. Das ist suboptimal gelöst, vor allem die Tatsache, dass Fedora ein eigenes Flatpak-Repository pflegt, statt in Flathub einzupflegen, läuft der Idee von Flatpaks ein Stückchen zu wider.


    Grundsätzlich sind Flatpaks ein Thema für sich, da gibt es unterschiedliche, aber gleichsam legitime Meinungen. Ich persönlich habe kein Problem mit Flatpaks, nur hätte ich sie gerne aus einer zentralen Quelle, die eine gute Qualitätssicherung hat. Beides ist in meinen Augen im Augenblick nicht gegeben: Weder ist es bislang zentral auf Flathub, noch ist dort besonders transparent, ob dort eine Qualitätssicherung stattfindet. Dem kann man natürlich entgegenhalten, dass dies bei klassischen Dritt-Quellen ebenfalls nicht der Fall ist und auch in den Repositorys oft veraltete Software liegt.


    Die Verwendung der Flatpak-Applikationen funktioniert im Alltag bei mir gut. Ich habe keine Latenzen. Lediglich muss einem bewusst sein, dass Flatpaks gelegentlich Restriktionen haben, beispielsweise wenn man auf Dateien abseits des Home-Verzeichnisses zurückgreifen möchte. Diese Restriktionen wurden allerdings bewusst eingefügt und lassen sich auch umkonfigurieren bei Bedarf.

    Manipulation am System möglich, aber nervig

    Allerdings gibt es auch Pakete, die keine Flatpaks sind. So waren es bei mir die Druckertreiber, Multimedia-Codecs und tlp, da bei mir die neuen Energie-Optionen aus GNOME 41 leider nicht als Alternative reichten. Was sonst alles durch die Kommandozeile fix erledigt ist, funktioniert mit Silverblue so nicht mehr. Immerhin, ist das Paket in Paketquellen hinterlegt, so funktioniert die Installation mittels rpm-ostree install. Danach ist nur noch ein Neustart erforderlich. Die Anzahl an notwendigen Neustarts kann man auch noch erhöhen: Für Multimediacodecs müssen unter Fedora Repositorys freigeschaltet werden, die ebenfalls erst nach einem Neustart funktionieren. Anschließend wird nach der Installation noch einmal ein Neustart durchgeführt.


    Nervig wird es auch, wenn man vom Hersteller ein Paket für beispielsweise Treiber bekommt. Denn dann gilt auch hier: Abhängigkeiten installieren, Neustart, Paket installieren, Neustart.
    Sicherlich, es ist ja eben Sinn und Zweck von Silverblue, Manipulationen am System so stark wie möglich zu reduzieren. Dennoch macht es in meinem Falle die Einrichtung meines Systems erst mal deutlich langwieriger, als wenn ich schnell meine eigene Checkliste abarbeite und mit Copy & Paste altbewährte Befehle nutze.

    Die Zukunft?

    Ist das nun die Zukunft? An Fedora schätze ich eigentlich, dass ich bei jedem Release ein weitestgehend rundes Paket bekomme, welches ich schnell installieren und dann nur noch kurz einrichten muss, wenn es um das Nachrüsten von Codecs, tlp und dem Druckertreiber geht. Dieser Prozess hat jetzt erst mal länger gedauert. Und auch die gesamte Installation wurde durch bekannte Bugs gestört.


    Ist man bei den alltäglichen Aufgaben, so fühlt sich Silverblue an wie jedes andere Linux-System mit GNOME. Da bin ich bislang auf keine Probleme getroffen. Die Ansätze für ein anwenderfreundlicheres Betriebssystem sind klar erkennbar: Alte Linux-Hasen nutzen gerne die Kommandozeile und das auch vollkommen zu Recht. Allerdings wird gerne mal vergessen, dass dies wenig technikaffinen Anwendern schnell zum Verhängnis wird, weil sie bei für manch ein Programm nicht umhinkommen, das Terminal zu nutzen oder bei dem Copy & Paste aus Internetanleitungen sich das System zerschießen. Ein funktionierender Software-Store, der auf Flatpaks zurückgreift und OSTree können diese Probleme lösen. Während für diese Anwender Silverblue noch aus Kinderkrankheiten herauswachsen muss, werden bei mir die kommenden Wochen zeigen, wie praktikabel das System im Alltagseinsatz sein wird und ob ich mit der »Toolbox« etwas anzufangen weiß.

  • Librem 5 im Anflug

    Librem 5 Auslieferung

    Es geschehen noch Zeichen und Wunder 🙂

    Auf den Tag genau vier Jahre nach Bestellung erhielt ich die Nachricht, dass mein Librem 5 versendet wird, sobald ich meine Adressdaten bestätigt habe. Ich gehöre nicht zu den Leuten, die Purism unterstellen, das Projekt nicht im Griff zu haben oder gar, dass das ganze ein Betrug sei. Ich habe die Entwicklung von Anfang an intensiv verfolgt und verstehe, warum es so lange dauert, ein solches Gerät von Null an umzusetzen. Ich verstehe auch, warum es so teuer ist.

    Nachhaltige Plattform unterstützen

    Dass das Gerät nun bald hier ankommen wird, freut mich natürlich sehr. Aber mir war von Anfang an klar, dass ich mit den damals 599 USD eher eine nachhaltige Plattform für Linux-Smartphones generell finanziere als speziell mein Librem 5, von dem ich nie wusste, ob und wann es ankommt. Fairerweise muss ich dazusagen, dass mir das in gewisser Weise leichter fiel, da sich der Preis für mich über Artikel zum Librem 5 schnell amortisieren wird.

    PinePhone Pro angekündigt

    Nun wurde vor einigen Tagen das PinePhone Pro angekündigt, das zumindest in der Entwicklerversion mit 399 USD für weniger als die Hälfte der mittlerweile verlangten 899 USD für das Librem 5 angeboten wird. Dabei spielt es in der gleichen Leistungsklasse und bietet in einigen Punkten sogar bessere Leistung. Trotzdem bin ich der Meinung, dass man die beiden nicht wirklich vergleichen kann, wenn es um die Entwicklungsarbeit geht.

    Unfairer Vergleich

    Ich habe bereits mehrfach darüber geschrieben, weil mich schon die Vergleiche des Librem 5 mit der ersten Generation des PinePhone aufregten, wo die Preisdifferenz noch größer ist. Bei Purism wurde bei Null begonnen und zunächst ein Mainboard entworfen sowie die gesamte Software entwickelt, während man bei Pine64 auf bereits vorhandene Komponenten zurückgreift und die Entwicklung von Software und Treibern der Community überlässt. Ich finde, dass sollte uns als von Linux begeisterte Kunden schon interessieren.

    Hoffentlich das Erste von vielen

    Hinzu kommt, dass sich bisher die Qualität der Produkte von Pine64 als recht minderwertig herausgestellt hat, während ich von qualitätsbedingten Ausfällen beim Librem 5 noch nichts gehört habe. Ich jedenfalls freue mich darauf, meinen Taschencomputer zu erforschen und euch davon zu berichten. Ich hoffe, es ist nur das erste Gerät auf dem Weg zum alltagstauglichen Linux-Phone.

    Hier noch ein schneller Überblick über die Spezifikation der beiden Geräte:

    KomponenteLibrem 5PinePhone Pro
    CPUi.MX 8M Quad Cortex A53 Rockchip RK3399S 64bit SoC 1,5 GHz
    GPUVivante GC7000LiteARM Mali T860 4x core GPU @ 500MHz
    RAM3 GB LPDDR4-32004GB LPDDR4 @ 800MHz
    interner Speicher32 GB eMMC, 2 TB SD-Card128 GB eMMC, 2 TB SD-Card
    Display5.7″ IPS TFT 1440×7206″ 1440 x 720 IPS mit Gorilla Glass 4
    WLANRedpine Signals RS9116: 802.11 abgn AMPAK AP6255 WiFi 802.11 ac
    Bluetooth4.04.1
    GPSTESEO LIV3 GNNSGPS, GPS-A, GLONASS
    ModemBroadmobi BM818Quectel EG25-G
    KamerasSamsung S5K3L6XX,13 Mp, SK Hynix YACG4D0C9SHC, 8MP13MP Sony IMX258 Hauptkamera, 5MP OmniVision OV5640 Kamera
    Akku4500mAh3000mAh
    Maße152 x74 x 15, 262 g160.8 x 76.6 x 11.1mm, 215 g
    Preis899 USD399 USD
  • Apache OpenOffice 4.1.11 freigegeben

    Apache OpenOffice 4.1.10

    Die Apache Software Foundation (ASF) gibt die Veröffentlichung des unter ihrem Schirm entwickelten Apache OpenOffice (AOO) in Version 4.1.11 bekannt. Das 14. Release unter dem Schirm der ASF bietet laut der Ankündigung Dutzende von Verbesserungen, Funktionen und behobene Fehler. Aufgeführt sind:

    • Neue Writer Fontworks-Galerie
    • Aktualisierte Dokumenttypen, bei denen Hyperlinks erlaubt sind
    • Aktualisiertes Windows-Installationsprogramm
    • Schriftgröße in der Hilfe vergrößert

    Zudem wurden in Zusammenarbeit mit »The Document Foundation« 5 Sicherheitslücken geschlossen, die in den Release Notes näher aufgeführt sind. Weiter stellt die Ankündigung heraus: »Apache OpenOffice wird von Millionen von Organisationen, Institutionen und Einzelpersonen auf der ganzen Welt genutzt, wurde mehr als 317 Millionen Mal heruntergeladen und bietet den Nutzern einen Wert von mehr als 25 Millionen Dollar pro Tag.

    Tote Pferde reitet man nicht

    Angesichts der »wichtigen« Verbesserungen und der vermutlich von LibreOffice übernommenen Schließung von fünf Sicherheitslücken dieses Releases und der realitätsfremden Darstellung der ASF fällt es schwer, sachlich zu bleiben. Gemeinhin finde ich die Diversität bei Linux als etwas Positives. Im Fall von AOO sehe ich aber nur Verschwendung von Ressourcen, die besser bei LibreOffice aufgehoben wären, wie die Document Foundation zuletzt vor einem Jahr in einem offenen Brief bereits dargelegt hat.

    LibreOffice wird dynamisch entwickelt, während AOO lediglich ab und an Scheinveröffentlichungen ohne Innovation herausgibt, um den Anschein zu erwecken, das Projekt sei noch am Leben. In Wirklichkeit vegetiert es aber nur. Betrachtet man die Beharrlichkeit, mit der die Entwickler an dem Projekt festhält, könnte man vermuten, da sei Geld im Spiel.

    Es wird höchste Zeit, die Zügel an die Document Foundation zu übergeben, damit auch die Windows-Anwender, die von LibreOffice noch nichts gehört haben, die Zeichen der Zeit erkennen. Bei LibreOffice ist auch nicht alles Gold was glänzt, aber man ist AOO meilenweit voraus, wenn es um aktuelle Entwicklungen geht.

  • Meine Reise mit Linux – ein Rückblick zum 30. Geburtstag

    Photo by Francisco Arnela on Unsplash

    Linux feiert 30. Geburtstag. Wir alle kennen die Geschichte und dass es nichts Großen werden sollte, nur ein Hobby. Heute beherrscht Linux nicht nur das Internet, sondern auch alles von Smartphones bis zu Internationalen Raumstation ISS. Naja, mit Ausnahme des Desktops. Aber das interessiert mich persönlich wenig, denn mein Desktop kennt seit über 20 Jahren nur Linux. Aber das mit dem Desktop kann ja dann in den nächsten 30. Jahren vielleicht klappen.

    Wer mehr über die Geschichte und Entwicklung von Linux erfahren möchte, der kann hier aufhören zu lesen. Das Netz ist voll von Huldigungen. Ich empfehle dafür den Artikel von Thorsten Leemhuis oder das aktuelle Interview mit Greg Kroah-Hartman. Ich erzähle stattdessen lieber ein wenig über meine Reise mit Linux und Linux-basierten Distributionen.

    S.u.S.E. Linux

    Die begann um 1996 mit dem Slackware-basierten S.u.S.E. Linux 4.3 und Kernel 2.0.18, das man damals für 89 DM in einer grünen Box inklusive 386-seitigem Handbuch mit der Post ins Haus geliefert bekam. Angeregt wurde ich durch Artikel im damals noch lesbaren c’t Magazin. Das war, nachdem ich an der Installation von Debian 1.1 »Buzz« gescheitert war. Ich habe keinen Informatikhintergrund und wie wir alle wissen, lernt man bei Windows nicht wirklich viel Essenzielles in dieser Hinsicht. Ich hatte also eine steile Lernkurve. S.u.S.E. Linux war zwar dank des Installers relativ leicht auf die Platte zu bannen, der Systemmanager YaST gefiel mir allerdings nicht wirklich. Also nutzte ich Linux auch eher sporadisch.

    Knoppix und der VDR

    Um die Jahrtausendwende traten zwei Dinge ein: Ich entdeckte – auch wieder dank c’t – den Video Disk Recorder, kurz VDR und Klaus Knopper revolutionierte mit Knoppix als Live-CD die Linux-Szene. Er hat zwar das Prinzip der Live-CDs nicht erfunden – vor Knoppix gab es bereits Yggdrasil Linux und DemoLinux – aber mit Knoppix nahm die Verbreitung dieser Form der Verteilung von Linux-Distributionen enorm zu.

    Da mir das Konzept von Debian besser gefiel als das von S.u.S.E. Linux und ich von VDR begeistert war, nahm ich mit vor, komplett auf Linux umzusteigen und so viel wie möglich darüber zu lernen. Gesagt, getan. Seither brauche ich kein Windows mehr. Das einzige andere Betriebssystem, mit dem ich seither gearbeitet habe, war ein Mac OS X auf einem Macintosh Mac Pro, den ich zeitweise beruflich nutzen musste.

    Kanotix

    Was mich an Knoppix störte war, dass es ausschließlich als Live-System konzipiert war. Es ließ sich zwar installieren, aber das war wacklig und offiziell nicht unterstützt, was immer wieder zu Diskussionen im Knoppix-Forum führte. Bis sich der dort sehr aktive Jörg Schirottke aka Kano der Sache annahm und an Weihnachten 2003 mit Kanotix einen Fork von Knoppix veröffentlichte, der auf Debian Sid basierte, installierbar war und auch heute noch von Kano veröffentlicht wird.

    Von sidux über aptosid zu siduction

    Mir gefiel nicht nur die aktuelle Basis Debian Sid, mich elektrisierte auch die Community von Kanotix im IRC, der ich mich anschloss und wo ich die Grundlagen der Debian-Administration lernte und bald aktiv beim Support einstieg. Einige der damals dort versammelten Leute begleiten mich bis heute auf meinem Linux-Weg. Kano entschied 2006, künftig auf Debian Testing zu setzen, was einige Leute, unter anderem mich, die wir bei Sid bleiben wollten, zum Fork zu sidux inspirierte. Sidux fand viel Anerkennung, scheiterte aber leider, wie der Nachfolger aptosid an Streitereien von Entwicklern und Community. 2011 zog ich mit einigen Kanotix-Veteranen die Konsequenz und wir gründeten siduction.

    Aus meinem Hobby wurde ein Job

    VDR hat mich in dieser Zeit immer begleitet und führte auch dazu, dass ich, der schon immer einen Hang zum Schreiben hatte, 2003 meinen ersten Artikel über den VDR in dem mittlerweile eingestellten Druckerzeugnis LinuxLife veröffentlichte. Ein zweiter Artikel über sidux folgte und ich entschloss mich, neben meiner Tätigkeit als freier Stadtführer in Berlin das Schreiben über Linux zu meiner Hauptbeschäftigung zu machen.

    So hat Linux mich seit Kernel 2.0.18 über 20 Jahre begleitet und schlussendlich zu dem Job geführt, dem ich mit Begeisterung nachgehe. Denn wie heißt es so treffend: Finde eine Beschäftigung, die dir Spaß macht und du brauchst keinen Tag in deinem Leben zu arbeiten.

  • Philosophie und Ethik des GNOME Desktop

    Ethos von GNOME

    Langjährige Linux-Anwender werden sich an den um die Jahrtausendwende geprägten Begriff Desktop Wars noch erinnern. Dabei ging es darum, ob KDE und GNOME die dominante Desktop-Umgebung sein würde. GNOME gewann dabei zunächst die Oberhand, was aber hauptsächlich an den damaligen Lizenzproblemen bei KDE lag. Beide Desktops unterliegen unterschiedlichen Entwicklungs- und Design-Paradigmen und haben sich demzufolge seither zum Teil diametral auseinanderentwickelt.

    Der letzte Entwicklungsschritt bei GNOME trat mit GNOME 40 ein und brachte ein neues Bedienschema, dass die generelle Ausrichtung von vertikal zu horizontal verlagert. Der bei Purism beschäftigte Software-Designer Tobias Bernard hat in einer Serie aus bisher vier Blog-Artikeln erklärt, wie GNOME aus seiner Sicht funktioniert, wie Dinge im Projekt erledigt werden und welches Ethos, dahintersteckt. Um dieses Ethos geht es im vierten Teil der Serie, sowohl in Bezug auf die übergeordneten Werte als auch darauf, was diese in praktischer Hinsicht bedeuten.

    Der traditionelle Desktop ist tot

    Bernard behauptet, der traditionelle Desktop sei tot und komme auch nicht wieder. Anstatt zu versuchen, alte Konzepte wie Menüleisten oder Status-Icons zurückzubringen solle man nach neuen Wegen suchen. Erweiterungen der GNOME Shell seien nur eine Nische, es sei besser, entweder Apps zu kreieren oder gleich die GNOME Shell zu verbessern. Auch systemweites Theming ist laut Bernard ein kaputtes Konzept. Zudem sei Flatpak die Zukunft für die Auslieferung von Apps. Was den Stellenwert der Erweiterungen angeht, so sind viele GNOME-Anwender da anderer Ansicht. Für viele ist GNOME ohne Erweiterungen schlicht unbenutzbar. Wenn Bernard verlangt, doch gleich die Shell zu verbessern, stellt sich mir die Frage, warum die Entwickler jahrelang Funktionalität aus der Shell entfernt haben.

    Einsame Entscheidungen

    Als Beispiel sei die mit GNOME 3.28 vorgenommene Entfernung von Desktop-Icons erwähnt. Der Code zur Darstellung von Icons auf dem Desktop war im Dateimanager Nautilus verankert. Dass er dort eigentlich nichts zu suchen hat, leuchtet ein. Dass man den Code dann aber ersatzlos gestrichen hat, anstatt ihn an der richtigen Stelle zu implementieren, erzürnte viele Anwender. Seither sind sie darauf angewiesen, Icons über die Erweiterung GNOME Tweak Tool zu realisieren. Aber wie war das noch? Erweiterungen werden immer eine Nische bleiben…

    Je weniger Optionen, desto besser!?

    Eine weitere These, die bereits 2002 in einem Essay aus dem GNOME-Umfeld diskutiert wurde. besagt, dass jede Einstellungsoption ihren Preis hat und dass der exponentiell steigt, je mehr Optionen man dem Anwender bietet. Daher vermeide GNOME solche Präferenzen so weit wie möglich und konzentriere sich stattdessen darauf, die zugrunde liegenden Probleme zu beheben. Das Problem mit dieser Aussage ist meiner Meinung nach, dass man die Daseinsberechtigung von Optionen nicht einfach als Problem beheben kann, da man damit alle Anwender über einen Kamm schert. Wobei wir wieder bei dem unterschiedlichen Selbstverständnis von KDE und GNOME sind. Trotzt der aus meiner Sicht vielen Ungereimtheiten ist die Serie von Bernard eine gute Lektüre zum Verständnis, wie GNOME tickt.

  • »Im Fokus stehen darüber hinaus (…) Open-Source-Ansätze«

    Quelle: eigener Screenshot des Papiers

    Aus dem Bundesministerium für Bildung und Forschung stammt ein Impulspapier zur technologischen Souveränität, verfasst im April 2021. Erstellt wurde es mit Adobe InDesign auf einem Macintosh, sagen die Meta-Daten. Aber bekanntlich zählen die inneren Werte. Welche Rolle spielen freie Technologien und insbesondere die freie Software darin?

    Gute Gründe für digitale Souveränität

    Gründe für technologische Souveränität gibt es viele. So werden Arbeitsplätze, Wohlstand und Wettbewerbsfähigkeit als zentrale Zukunftsthemen genannt. Nur wenn Deutschland souverän bleibt, wird »unserer Werte wie Freiheit, Rechtsstaatlichkeit uns Nachhaltigkeit« Sorge getragen. Gefordert wird ein »ganzheitlicher Politikansatz« durch den unter anderem ein Transfer von Technologien möglich wird. Aber auch auf die Bedeutung von Standards wird hingewiesen. Das liest sich geradezu wie ein Plädoyer für freie Technologien, denn wie sonst sollen die Werte bewahrt werden? Die Informationstechnologie wird schließlich auch noch an erster Stelle genannt, wenn es um die Schlüsseltechnologien geht.

    Problem erkannt, Lösung verkannt?

    Im Abschnitt 3.3 geht es darum »Software und Künstliche Intelligenz souverän zu entwickeln«. Als gegenwärtig zentrale Probleme wird beschrieben, dass es an Fachkräften mangelt, fast 90 % der Software-Hersteller weniger als 10 Mitarbeiter hat, die großen Hersteller aber zu häufig monolithisch sind und vielfach Legacy-Software die Modernisierung behindert. Ansätze aus der Forschung finden wenig bis kaum ihren Weg in die Unternehmen.

    Als Lösung wird, ein wenig überraschend, zunächst die geplante KI-Strategie vorgestellt, die mehr Forschung verspricht. Dem Thema »Open Source« werden lediglich die letzten beiden Sätze gewidmet. »Im Fokus stehen darüber hinaus Maßnahmen zur Neugestaltung des Software-Entwicklungsprozesses für autonome, intelligente und eingebettete Systeme, zur gezielten Förderung von Open Source-Ansätzen sowie für Studierende und Forschende der Informatik. Das BMBF wird diese Maßnahmen weiterentwickeln und in einer übergreifenden Programmatik bündeln und verzahnen.« (S. 13).

    Fazit

    Die Formulierung wirkt dann doch etwas beschönigend: Wie stark wiegt der Fokus wirklich, wenn es sich nur um zwei Sätze auf dreißig Seiten handelt? Sind nicht die Ziele und Werte exakt so gesetzt, dass eine Förderung freier Software im Zentrum stehen sollte? Zumal die angeführten Probleme sich durch freie Software wahlweise minimieren oder hinfällig werden? Insgesamt stellt sich beim Lesen des Papiers durchaus die Frage, ob die »Leitinitiativen« tatsächlich gewährleisten, was sich in den Werten erwünscht wird. Man kann nur hoffen, dass das Thema der freien Technologien und insbesondere der freien Software in den konkreten Projekten dann doch eine größere Rolle spielt, als das Impulspapier andeutet.

  • Audacity soll Telemetrie erhalten – Erster Fork ist da

    Audacity
    Audacity Logo | Autor: Vaughan Johnson,2007 | Lizenz: GPL

    Audacity wurde vor einigen Tagen von Muse Group übernommen. In einem zeitlich ungünstigen Zusammenhang steht deshalb ein Pull Request (PR) auf GitHub, der dem beliebten freien Audioeditor Telemetrie hinzufügen soll. Der PR stammt bereits vom April und wurde von Dmitry Vedenko eingestellt, der seit dem 20. März eine Stelle als technischer Leiter bei Audacity innehat.

    Google Analytics?

    Ich bin generell nicht gegen Telemetrie, wenn sie gut begründet ist und der Entwicklung dienlich ist. Und natürlich muss sie opt-in sein, was bei diesem PR auch der Fall ist. Da hört es aber auch schon auf, akzeptabel zu sein, denn die Daten sollen mit Google Analytics und Yandex Metrica erhoben werden. Braucht es noch mehr Gründe, damit dieser PR dorthin wandert, wo er hingehört, nämlich in den Müll? Ich denke nicht, denn wer möchte schon bei jeder Nutzung von Audacity mit Google und/oder Yandex telefonieren?

    Wie bitte kommt ein leitender Mitarbeitet eines Open-Source-Projekts auf die Idee, Daten mit GA sammeln zu wollen? Wobei das Tool in der Standardausführung bereits in Konflikt mit der DSGVO steht. So hat dann der PR sowohl auf GitHub als auch bei Reddit fast ausschließlich negative Kommentare hervorgebracht. Was noch sauer aufstößt ist, dass Vedenko zusammen mit der Telemetrie in unprofessioneller Weise gebündelt auch eine Handvoll neuer Bibliotheken einführen möchte.

    Ein erster Fork

    Und so gibt es bereits einen ersten Fork von Audacity unter dem Titel foss_audacity, der den Status quo bewahrt, bevor dieser PR eventuell in den Code des Master-Zweigs von Audacity übernommen wird. Sollte das passieren, so wird Audacity Massen an Nutzern verlieren, denen Open-Source am Herzen liegt. Eine Übernahme des PR würde zudem bedeuten, dass die neuen Besitzer von Audacity nicht auf die Community hören und somit zu erwarten ist, dass dieser PR nicht der letzte feindliche Akt sein wird.

  • Mozilla macht Mozilla-Sachen

    Das Vertrauen in Mozilla bröckelt… Photo by luigi bisaccia on Unsplash

    Mozilla führt einen VPN-Dienst ein. Keine gute Sache, findet der Autor.

    Die Sehnsucht nach einem Open-Source-Champion ist durchaus vorhanden. Ein Unternehmen oder eine Stiftung, die »Internet für Menschen, nicht für Profit« macht. Allzu oft liegen da die Hoffnungen auf Mozilla, der Organisation hinter Firefox mit eben diesem Slogan. Diese Hoffnungen werden allerdings auch regelmäßig enttäuscht.

    Ein VPN-Dienst wird angeboten

    Eine neue Enttäuschung bahnt sich den Weg. Seit Kurzem ist Mozilla VPN in Deutschland verfügbar. Versprochen wird ein schnelles und sicheres Netzwerk für den Nutzer. Ein Werbespruch ist: »Ein Name, der Vertrauen schafft«. Hier kann ich nahtlos an meine Kritik aus dem vergangenen Jahr anschließen: Die Marke Firefox (»Produkt der Firefox-Familie«) und Mozilla nimmt dadurch Schaden. Denn was steckt hinter dem neuen Produkt?

    VPN steht für »Virtual Private Network«. Eine Technologie, die im Unternehmenskontext häufig genutzt wird. Gerade im vergangenen Jahr werden viele damit konfrontiert worden sein. Viele Anbieter, mittlerweile auch Mozilla, bewerben das nun auch für den Privatnutzer. Argumente sind hierbei vor allem Sicherheit und Datenschutz. Ob da ein Dienst, der den gesamten Datenverkehr versendet und empfängt, die passende Lösung ist, ist umstritten. Insbesondere, wenn eine Technologie wie TOR das durchaus ausfüllt.

    Schlechter als das Original

    Dazu kommt noch, dass Mozilla seinen Dienst keinesfalls selbst betreibt, sondern dafür den Anbieter »Mullvad« nutzt. Der fällt immerhin anders als die meisten anderen VPN-Anbietern nicht offensichtlich durch. Aber letztlich lässt sich hier die Datensicherheit eben doch nicht überprüfen. Zusätzlich kommt hier noch der Aspekt dazu, dass mit Mozilla in diesem Fall auch noch ein zweites Unternehmen mit dabei ist. Das verfolgt nicht unbedingt den Ansatz der Datensparsamkeit. Das gilt auch für die Zahlung: Man hat nur die Wahl zwischen Paypal und Kreditkarte.

    Das ist im Übrigen beim Originalanbieter Mullvad anders. Ebenso wie die Preise. Im Original kostet der Dienst laufzeitunabhängig 5€ monatlich. Diesen Preis erreicht man bei Mozilla VPN nur wenn man sich für ein Jahr bindet, bei einem monatlichen Abo zahlt man das Doppelte.

    Mozilla verspielt Vertrauen

    Mein Fazit ist mehr als resigniert. Mozilla scheint die Nutzer des Browser zunehmend als Kundschaft zu sehen. Hier soll ein Dienst an den Mann gebracht werden, über dessen Nutzen man diskutieren kann. Eine Innovation stellt der Dienst nicht dar. Im Gegenteil: Er ist weniger datensensibel als das Original, dafür allerdings teurer. Schon wenn man sich die Entwicklungen der Vergangenheit anschaut, ist Mozilla eben doch kein Name mehr, der Vertrauen schafft. Im Gegenteil kann hier Vertrauen verloren gehen. Das ist wirklich schade.

  • Raspberry Pi OS hat Microsoft in der Quellenliste

    Raspberry Pi Pico

    Seit dem letzten Update von Raspberry Pi OS am 11. Januar ist ein Eintrag von Microsoft in der Quellenliste samt zugehörigem Schlüssel. Im Forum beschwerten sich Anwender in mehreren Threads über das Vorhandensein dieses Quelleneintrags und fragen sich, was es damit auf sich hat.

    Microsoft VS Code-Repository

    Letzteres ist schnell beantwortet: Die Raspberry Pi Foundation hat beschlossen, das Microsoft VS Code-Repository einzubinden, da dies die empfohlene IDE für den Raspberry Pi Pico sei. Der Eintrag findet sich aber nicht nur in Systemen mit grafischer Oberfläche, sondern völlig sinnfrei auch bei Raspberry Pi OS Lite, das ohne X-Server ausgeliefert wird.

    So weit, so gut. Nicht gut ist die Art, wie dies allen Anwendern des Standard-Betriebssystems des RasPi untergeschoben wird. Der Eintrag /etc/apt/sources.list.d/vscode.list wird nicht wie üblich aus dem DEB-Paket heraus angelegt, sondern wird durch ein Post-Install-Script beim Update hinzugefügt.

    Richtiger Zweig?

    Der Eintrag ist im Zweig main angelegt, den Debian für Freie Software unter entsprechenden Lizenzen reserviert. Ich bin kein Lizenz-Experte, aber für mich ist es fraglich, ob VS Code den Regeln der DFSG entspricht, da die verwendete MIT-Lizenz einen Zusatz zu Third-Party-Software enthält:

    Komponenten von Dritten.. Diese Software kann Komponenten Dritter beinhalten, die gesonderten rechtlichen Anmerkungen oder anderen Verträgen unterliegen, wie in der Software beiliegenden ThirdPartyNotices-Datei ggf. beschrieben ist.

    VS Code Lizenz

    Von daher würde ich dieses Repository, wenn überhaupt, dann eher im Zweig contrib sehen. lasse mich aber gerne belehren. Wohlgemerkt, das Vorhandensein des Repositories ändert nichts am Paketbestand, solange der Anwender nicht VS Code bewusst installiert. Das ist aber nicht der Punkt, denn: Der Anwender wird gar nicht gefragt, ob er diesen Eintrag einer Dritt-Quelle in der Quellenliste haben möchte und das ist nicht die feine Linux-Art.

    Manuell entfernen

    Sogar Google schafft es, bei der Installation von Google Earth, den Anwender zu fragen, ob ein Repo eingetragen werden soll. Bei Raspberry Pi OS bleibt ihm nur das Opt-out über ein Entfernen des Eintrags und des zugehörigen Schlüssels /etc/apt/trusted.gpg.d/microsoft.gpg. Dazu muss er aber zunächst vom Vorhandensein dieses Eintrags wissen.

    Besonders in einem der Threads macht ein RasPi-Entwickler deutlich, dass er entweder nicht viel über die Gepflogenheiten bei Freier Software weiß oder es ihm egal ist, wenn er schreibt: »Wie wir bereits erwähnt haben, wird durch das Hinzufügen eines Repos zu Ihrer Distribution nichts in diese heruntergeladen. Es ist nur ein Verweis auf ein Repository. Sie müssen es also nicht entfernen«. Wer also damit einverstanden ist, dass bei jedem apt update ein Ping an Microsoft geht, der kann das Repo ruhig belassen.

    Es wäre technisch überhaupt kein Problem, dieses Repository so anzubieten, dass der User gefragt wird, ob er es möchte. Für sowas gibt es bei Debian das Paket whiptail, das eine Methode bietet, um verschiedene Typen von Dialogboxen aus Shell-Skripten heraus darzustellen. Das wurde hier offensichtlich nicht gewollt.

  • Warum Android das schlechteste Linux ist

    Photo by Rami Al-zayat on Unsplash

    In vielen Bereichen abseits des Desktops ist Linux dominant. So gilt es auch für die Smartphones: Android dominiert in diesem Bereich. Und damit auch im Bereich der Endanwender. Ein wahrer Meilenstein für freie Software, könnte man denken. Leider ist es das allerdings nicht. Denn profitiert haben wohl weder freie Software im Allgemeinen noch Linux im Speziellen. Und letztlich auch die Nutzer nicht.

    Die Freiheit steht im Hintergrund

    Android geht es nicht um die freie Software. Diese wird zwar an vielen Stellen genutzt. Allerdings erfolgt die Verwendung fast durchweg unter ökonomischen Aspekten. Dass zu freier Software auch eine Vielzahl an Werten gehört, wird nahezu ignoriert. Entscheidende Teile von Android für den Endanwender sind unfrei. Das umfasst im Wesentlichen den Bereich der Google Play Dienste. Diese sind für eine »normale« Nutzung elementar, allerdings unfrei und in Googles Hand.

    Von Googles und des Herstellers Gnaden

    Alles Wesentliche hängt an Google und dem Hersteller des Gerätes, auf dem Android vorinstalliert ist. Dieser legt auch fest, welche Software auf dem Gerät entfernt werden darf. Da ist man unter Linux anderes gewohnt. Man ist nicht mehr der eigene Administrator.

    Die Distribution weiterer Software liegt mit den Play-Diensten ebenfalls in Googles Hand. Während bei nahezu allen anderen Linux-Distribution das Betriebssystem selbst immer nur der Anfang in die Welt der freien Software ist, hört diese bei Android hier auf. Der Store hilft nicht dabei, die Verbreitung freier Software zu fördern. Im Gegenteil ignoriert er die Lizenz der Software und fördert Software allein nach kommerziellen Gesichtspunkten. Das führt zu einer engen Auswahl an freier Software für den mobilen Bereich auf Anwenderebene.

    Darüber hinaus ist Android auch Musterbeispiel für den neuen Datenkapitalismus. Google selbst sammelt, ebenso wie diverse App-Anbieter, massiv Daten und wertet diese aus. Allerdings auch hier wieder nicht nach den Idealen freier Software, sondern eigenen ökonomischen Interessen.

    Die Werte fehlen

    Damit gehen auch wichtige Werte freier Software verloren. Ethik, Transparenz, Sicherheit und Nachhaltigkeit spielen letztlich keine Rolle. Dabei waren gerade im mobilen Bereich die Möglichkeiten so groß. Apps als nette kleine Progrämmchen hatten die Chance, offene Standards durchzusetzen, Beteiligungsmöglichkeiten zu schaffen und Zugang zu einer freieren Welt zu bieten. Stattdessen sind die Geräte ziemlich unfrei. Wenige Monate bis Jahre nach der Anschaffung sind die Geräte ohne Updates. Sicherheitsupdates sind Mangelware. Geräte, die aus dem Jahr 2016 oder älter sind, können bald eine Vielzahl an Websites nicht mehr aufrufen. All das ganz anders als man es unter den anderen Linux-Distributionen kennt. Während die Linux-Distributionen auf dem Desktop meist sicherer als die Konkurrenz ist, sieht es bei Android anders aus.

    Alternativen

    Letztlich muss man in meinen Augen Android aus Sicht der freien Software ein mangelhaftes Zeugnis ausstellen. Die Chancen, die Welt der mobilen Endgeräte mit freier Software zu gestalten, wurde vertan. Stattdessen hat sich ein Oligopol zwischen Apple und Google gebildet. Für Nutzer einer Linux-Distribution auf dem Desktop sind beide System frustran.

    Mit einem hohen Maß an Aufwand kann man versuchen, Android von Google zu befreien. Die Lösungen heißen hier LineageOS, Replicant oder GrapheneOS. Wobei allerdings das Verbliebene nicht unbedingt für Freude sorgt und immer noch mit Google funkt.

    Es bleibt spannend, ob sich eine Nische mit »guten« Linux-Distributionen im mobilen Bereich wird durchsetzen können. Eine Reihe an vielversprechenden Projekten wird bei Linuxnews vorgestellt. Der Weg zur Alltagstauglichkeit ist allerdings noch weit.