Ein Artikel auf techcrunch.com der auch auf der Jolla Homepage unter News zu finden ist berichtet davon, dass Jolla im Geschäftsjahr 2020 nach 10 Jahren die Gewinnzone erreicht hat. Ob es noch Forderungen aus der Crowdfunding Kampagne für das Tablet gibt und ob diese nun beglichen werden ist mir nicht bekannt.
Meinung: Ob solche Forderungen juristisch gerechtfertigt sind mag auf einem anderen Blatt stehen, dennoch sollte der eigene Ruf und auch ein moralischer Anspruch jenseits der Forderungen nationaler und internationaler Gesetzgebung Eigentümern und Unternehmensleitung etwas wert sein.
AppSupport for Linux
Derweil hat Jolla ein neues Geschäftsmodell entdeckt: Unter dem Namen AppSupport for Linux möchte Jolla Automobilherstellern, die auf ein eigenes Linux basierendes Auto-Betriebssystem setzen ganz nach der Devise data is the new oil eine Möglichkeit geben die Android Geräte der Kunden optimal anzubinden.
Hierbei dürfte es sich um eine weitere Verwertung der 2011 auf auf dem Mobile World Congress vorgestellten Technik Alien Dalvik handeln, die ursprünglich durch die Schweizer Software-Firma Myriad entwickelt und erstmalig auf dem Nokia N900 angeboten wurde.
Im o.g. Artikel gibt der Gründer und CEO von Jolla, Sami Pienimäki an, dass es positive vibes aufs dem Automotive Umfeld gibt und dass Jolla sich in einer neuen Finanzierungsrunde um 20 Millionen Euro Kapital bewirbt.
Apple und Alphabet vorne
Wir erleben hier einen Kampf der Giganten um die Daten der Fahrzeuge bzw. der Nutzer. Apple und Alphabet (Google) sind in dieser Auseinandersetzung mit den Größen der Automobilindustrie gut gerüstet, denn sie sitzen an den Schaltstellen zu den Services welche die Nutzer auch aus den Fahrzeugen nutzen möchten und sind mit der Fahrzeugintegration gut voran gekommen. Den Weg in die Fahrzeuge der Hersteller, welche diese Auseinandersetzung scheuen hat Alphabet zum Teil schon geschafft. Dabei macht es sicher einen Unterschied, ob die Headunit mit einem eigenen Betriebssystem funktioniert oder Android direkt darauf läuft. Der Linux Kernel ist jedenfalls so gut wie immer dabei.
Nachdem ich beim Schrieben eines Kommentars so einiges Revue passieren ließ, fiel mir das eine oder andere wieder ein was dann doch besser in einen Artikel passt. Wie schon erwähnt, fing ich einst mit SuSE 9.3 an, was als Medium der c’t Zeitschrift beilag. Von den damaligen Redakteuren gepackt in eine Edition, war SuSE 9.3 + KDE mit einiger Software bestückt,was das installieren und verwenden um einiges erleichterte.
Ich habe bis dahin nie was mit Computern, geschweige denn Betriebssystemen zu tun gehabt. Ergo war ich auch nicht mit bzw durch Windows „versaut“ und konnte an das Ganze unvoreingenommen heran gehen. Zu dieser Zeit, denke so 2001 herum, war noch viel Bastelei nötig. Vor allem was TV Karten, Wlan, Drucker, Scanner etc. betrifft. Dies führte jemanden wie mich durch etliche Foren, Wiki wo man von erfahreneren Linuxern Nachhilfe bekam. Hilfe war einst, Hilfe zur Selbsthilfe. Ja, war nicht immer leicht. Aber, man lernte dadurch sein System lieben (oder hassen), kennen und konnte sich dann irgend wann auch selbst helfen.
Unter anderen landete ich dann im Laufe der Jahre bei SuSE bzw. später openSUSE und wirkte dabei sogar mit, ein deutschsprachiges Wiki auf die Beine zu stellen. Ein eigenes Blog zum Thema hatte ich auch. Zu der Zeit lernte ich das „Innenleben“ eines Open-Source Projektes aus Sicht eines reinen Anwenders kennen. Man bekam direkt die Entwicklungsarbeit der verschiedensten Teams (SUSE, KDE) mit und konnte mal hinter den Vorhang schauen. War eine sehr interessante Zeit.
Die Jahre plätscherten so dahin, die Entwicklung an und um Linux schritt weiter voran. Irgendwann war die Versorgung der Treiber für die verschiedensten Anwendergeräte immer besser geworden. Es war bei Nutzerfreundlichkeit enorme Fortschritte zu erkennen. Schaut man heute, ist das zu damals ein himmelweiter Unterschied.
Ich wechselte mit Erscheinen der Ubuntu 12.04 LTS auf selbige und nutzte dann die Vorteile der Langzeitunterstützung. Der typische Anwender mit durchschnittlicher Hardware zu Hause hat bei weiten leichteres Spiel. Es kam die Zeit der Tablets, Smartphones und Entwickler wanderten mit. Es gab durchaus Zeiten, wo man meinte, das wäre der Tod des Computers (Desktop) und das Ende der Welt.
Hab immer mal wieder andere Distributionen getestet, so quasi quer durch den Linux Distributionsgarten. Bin dann bei Manjaro/GNOME gelandet und dabei geblieben. Bis heute nutze ich nichts anderes als Linux Distributionen. Und im Gegensatz zu früher gibt es heute reichliche Wahl bei Computern ohne „Windows-Steuer“, ja sogar mit Vorinstallierten Linux Betriebssysteme, was zu beginn meiner Computerzeit undenkbar gewesen. Es erstaunt mich bis heute, das ein Projekt wie Linux trotz aller Höhen und Tiefen über einen so langen Zeitraum doch funktioniert. Bleibt zu hoffen, das es so bleibt. Alles Gute zum 30igsten, mögen noch viele Geburtstage folgen …
Die Firma Nitrokey aus der Nähe von Berlin hat in den letzten Jahren ihr Tätigkeitsfeld stark erweitert. Auf die namensgebenden Nitrokeys folgten NitroPad X230 und NitroPad T430, NitroPC, die NextBox und der Dienst NitroShred. Ab heute erweitert das Unternehmen sein Portfolio um das NitroPhone.
Laut der Produktbeschreibung kombiniert das NitroPhone Sicherheit, Privatsphäre und einfache Bedienung mit moderner Hardware. Die Komponenten dazu sind Googles Smartphone Pixel 4a und das gehärtete mobile Betriebssystem GrapheneOS, das auf dem Android Open Source Project (AOSP) basiert.
Google-Phone entgoogelt
GrapheneOS, das unter anderem von Edward Snowden empfohlen wird, zeichnet sich unter anderem durch gehärtete Kernel, Toolchain und Laufzeitumgebung und eine stark abgesicherte App-Sandbox aus sowie durch die Tatsache, dass Google-Dienste nicht durch die Neuimplementierung von Drittanbietern wie microG in das Betriebssystem eingebunden werden, sondern schlicht standardmäßig nicht vorhanden sind.
Verifizierter Boot
Das Google Pixel 4a wird zudem über den Sicherheitschip Titan M vor fortgeschrittenen physischen Angriffen geschützt. Eine starke Verschlüsselung sowie ein verifizierter Bootvorgang stellen sicher, dass das Betriebssystem unverändert ist. Zudem bietet das NitroPhone Schutz gegen »over-the-air« Exploits, indem der Baseband-Funkprozessor mittels IOMMU isoliert wird und ein optionaler Nur-LTE-Modus geboten wird, um die Angriffsfläche des Mobilfunks zu reduzieren. Darüber hinaus können, wie es Snowden empfiehlt, alle Mikrofone entfernt und zur Sprachkommunikation ein Headset angeschlossen werden.
Google Dienste eingesperrt
Die originalen Google-Dienste können bei Bedarf in eine Sandbox ohne besondere Privilegien installiert werden. Dazu gibt es jedoch den Hinweis, dass die Entwicklung hier noch nicht abgeschlossen ist und einige Anwendungen möglicherweise noch nicht funktionieren. Um Tracking zu verhindern können Apps nicht auf IMEI- und Seriennummern des Gerätes, Seriennummern der SIM-Karte, Teilnehmer-ID, MAC-Adresse usw. zugreifen. die Mac-Adresse ist zudem pro Verbindung randomisiert. Das ganze Gerät ist Ende-zu-Ende verschlüsselt, ermöglicht automatische Sicherungen auf ein USB-Laufwerk oder zu einem beliebigen Cloud-Speicher wie etwa Nextcloud.
Der Quellcode ist frei zugänglich, mit der bei GrapheneOS vorinstallierten Auditor-App kann eine Hardware-basierte Überprüfung der Authentizität und Integrität der Telefonsoftware durch ein zweites Gerät mit installierter Auditor-App durchgeführt werden.
Die Hardware umfasst:
Google Pixel 4a, schwarz, 128 GB Speicher
Arbeitsspeicher (RAM): 6 GB
5.81″ (147,6 mm), 1080 x 2340 Pixel, Frontkamera
Rückkamera: Dual-Pixel-Technologie mit 12,2 MP
CPU: Qualcomm Snapdragon 730G, Octa-core
Titan M Sicherheits-Chip
Anschlüsse: USB-C, 3,5 mm Audiobuchse
WLAN 802.11 a/b/g/n/ac, Bluetooth, NFC
Fingerabdruck-Sensor
Abmessungen: 144 x 69,4 x 8,2 mm
Gewicht: 143 g
Die Entscheidung für ein GooglePhone, das dann ironischerweise ohne Google-Dienste ausgeliefert wird, fiel aus mehreren Gründen. Der bereits erwähnte Titan M Chip ermöglicht einen verifizierbaren Bootvorgang. Zudem werden Sicherheitsaktualisierungen schnell verteilt. Die Entscheidung für GrapheneOS fiel unter anderem, da Linux für Smartphones noch nicht ausgereift genug für den täglichen Einsatz ist. Das NitroPhone kann im Shop von Nitrokey für 630 Euro bestellt werden.
Den ersten Kontakt hatte ich 2010, in einem Praktikum, mit OpenSUSE (weiß nicht mehr, welche Version es damals war). Als ahnungsloser Anfänger, der bisher nur Windows XP, Vista und 7 kannte, war es erst einmal ein Kulturschock. Da es mir recht frickelig erschien, blieb es privat erst einmal bei dem Fenster-System aus Redmond. Ledig die Installationsreihenfolge für den Dual-Boot und die Tatsache, dass man mit einem Live-System einfach in ein unverschlüsseltes MS-Dateisystem schauen kann, blieb bei mir nachhaltig hängen.
Der nächste Berührungspunkt kam erst 2015 beim Versuch eines Informatik-Studiums. Erst als ich 2015 den Versuch eines Informatik-Studiums unternahm, kam ich wieder ein wenig mehr mit Linux in Kontakt. In einem Einführungskurs lernte ich erstmals, mich in der Kommandozeile zu bewegen. Ich wurde neugierig, was das kostenlose Betriebssystem sonst noch konnte und beschloss es auf meinem Notebook als Zweitsystem zu installieren. Bei der Suche im Internet geschah das, was bei den meisten Anfängern unweigerlich auftreten sollte.
Die riesige Auswahl an Distributionen und Varianten, genannt Desktop-Environments war echt verwirrend. Irgendwo hatte ich mal Linux Mint als Empfehlung aufgeschnappt und bin durch Google auf einen Artikel über die Debian-Variante gestoßen. Dummerweise habe ich ihn aber nicht gelesen und somit nicht mitbekommen, dass es auf dem Testing-Zweig von Debian beruhte. Was Debian überhaupt sein sollte, war mir gar nicht erst klar. Es kam, wie es kommen musste. Durch Rumprobieren schaffte ich es dann irgendwie, die Festplatte zu zerschießen, sodass kein OS mehr starten ließ. Verzweifelt gab ich auf und nutzte einfach das neu installierte Windows 7 weiter.
Wieder ein paar Jahre später war ich immer noch Student. Des Scheiterns durchaus bewusst, ging ich fast nur noch arbeiten. Mittlerweile lebte ich in einer kleinen Wohnung, mit miserabler Internetanbindung. Windows 8 war von Beginn an nicht nutzbar und Windows 10 kam mir bei meinem ersten Test ebenfalls nicht richtig vor. Ich sehnte mich nach etwas anderem. MacOS? Nein, das war für meine damaligen finanziellen Verhältnisse nicht möglich. In meinem Schlafzimmer stand noch ein alter Büro-Rechner. Wegen der Bambusleitung kaufte ich mir eine Zeitschrift, der eine Multiboot- DVD beilag. Ich testete das beliebte Ubuntu und Linux Mint, wobei mir der Zusammenhang beider Systeme endlich klar wurde.
Dazu muss auch noch gesagt werden, dass ich damals unter schweren Depressionen litt, welche meinen Alltag stark beeinflussten. Doch ich lernte damit umzugehen, überwand mich, Medikamente einzunehmen und lernte meine Freundin kennen, mit der ich heute, fünf Jahre später, zusammen lebe. Ich entschloss mich zu einem Neuanfang suchte mir einen Ausbildungsplatz, als Fachinformatiker für Systemintegration und beschäftigte mich immer mehr mit Technik allgemein.
Wie es Andere bereits häufig geschrieben haben, lernte ich endlich, was es mit Distributionen und den grafischen Benutzeroberflächen zu tun hat. Getestet wurde nicht nur jedes Linux-System, was mir zwischen die Finger kam. Auch wichtige Software-Werkzeuge wurden für bestimmte Anforderungen gesucht. Dadurch begriff ich nicht nur, wie z.B. Computer selbst und das World Wide Web funktionierten, sondern auch was die Philosophie freier Software bedeutet. Bevor es in meinem Kopf Klick gemacht hatte, bedeutete dies für mich in erster Linie, dass die Programme kostenlos waren.
Aus dem neu erlangten Wissen und den Erfahrungen des Distrohoppings heraus, entschied ich mich schließlich gegen auf Ubuntu basierende System und Installationen von Snap-Paketen. Zu meinem Lieblingssystem wurde MX-Linux auserkoren. Es läuft schnell und zuverlässig, vor allem auf alten Geräten, von denen ich mir, für mein Hobby, mittlerweile einige zugelegt habe und wird auf community-basierte Weise entwickelt. Die Installation selbst empfinde ich als schnell und unkompliziert. Die Oberfläche lässt sich für meine Bedürfnisse einfach anpassen und es lässt sich jede Software installieren, die ich benötige. Sei es durch apt, Flatpaks, dem Download von Appimages oder deb-Dateien.
Dies führt mich zu den MX-Tools, die für mich ein wahrer Segen sind. Nützlich finde ich vor allem „MX-Schnappschuss“, was ich öfters mal verwende, um schnell ein Abbild meines Hauptlaptops auf einem anderen Rechner zu installieren. Zudem bereinigt noch MX-Cleanup das System und Flatpaks installiere ich ganz einfach mit dem MX-Paketmanger. Als einzigen Nachteil sehe ich die ganzen unnötig vorinstallierten Programme, was durch die vereinfachte Vervielfältigung jedoch wieder ausgeglichen wird. Dass MX-Linux nicht Systemd als Init-System nutzt, ist für mich in der normalen Desktop-Nutzung nur selten zu merken.
Ansonsten nutze ich derzeit noch EndeavourOS(Arch Linux), Debian Buster als Basis für NextcloudPi, gelegentlich openSUSE und auf meinem alten Gaming-Laptop ausgerechnet Linux Mint. Letzteres stellt ein Kompromiss dar, da der NVIDIA-Installer in MX in diesem Fall nicht funktioniert. Aus Zeitmangel war so die Installation des NVIDIA-Optimus Treiber um ein vielfaches einfacher. Außerdem hat das Gerät einen Fallschaden, seitdem es im Betrieb sehr warm wird. Seit dem Wechsel, von Windows 10 zu Linux Mint, und der Verwendung eines Laptop-Kühlers, sind die Temperaturen spür- und messbar („sensors“) gesunken, wodurch mir der Computer hoffentlich noch lange erhalten bleibt.
Ich bleibe gespannt, was weitere Entwicklungen mit sich bringen. In diesem Sinne wünsche ich allen beste Gesundheit. Man lernt immer neu dazu.
Folge 14 des am 18. August 2021 aufgenommenen GnuLinuxNews-Podcasts (GLN ) ist da. Diese Folge bestreiten Ralf Hersel und Lioh Müller zu zweit, da mir im wahrsten Wortsinn die Stimme wegblieb. Die beiden sprechen über mögliche Auswirkungen von GitHubs Copilot für Entwickler und diskutieren darüber, wie sich ein Raspberry Pi im Desktop-Einsatz schlägt. Das Interview dieser Folge führte Ralf Hersel mit Phillip Müller von Manjaro.
Der Podcast kann auf GNU/Linux.ch angehört, heruntergeladen oder über das Mikrofonsymbol oben rechts in der Leiste abonniert werden. Die Shownotes sind wie immer in Nextcloud zu finden. Und nun viel Spaß beim Hören.
Ich habe bereits mehrfach über den Framework Laptop berichtet, der dann auch recht kontrovers diskutiert wurde. Was dessen Linux-Kompatibilität angeht, gibt es nun neue Nachrichten. Der modulare Laptop wird mit Windows 10 oder ohne Betriebssystem angeboten. Das Interesse an letzterer Konfiguration ist laut Aussage von CEO Nirav Patel groß und übertrifft bei Weitem den Absatz von vorkonfigurierten Systemen mit Windows 10.
Hardware zu neu für einige Distributionen
Entwickler der Distributionen Fedora, elementary OS, NixOS und Arch Linux hatten vorab Geräte zum Testen mit den jeweiligen Distributionen erhalten, um eine bestmögliche Unterstützung zu gewährleisten. Dabei stellte sich heraus, dass Teile der Hardware zu neu für viele Distributionen sind. Das betrifft vor allem Intels CPUs der 11. Generation, den WLAN-Chip Intel AX210 WiFi sowie den Fingerabdrucksensor. Es wird die Verwendung von mindestens Kernel 5.12 zusammen mit libfprint ab Version 1.92.0 für den Fingerabdrucksensor empfohlen.
Aktives Linux-Forum
Mittlerweile hat sich auch ein aktives Linux-Forum etabliert, das Instruktionen für verschiedene Distributionen bereitstellt. Bei Ubuntu geht die Empfehlung zu Version 21.04, da die derzeitige LTS-Version 20.04 nicht ausreichend aktuell ist. Fedora 34 muss zunächst auf den neuesten Stand gebracht oder gleich ein aktueller Respin genutzt werden. Bei Arch Linux scheint ab Kernel 5.13.7 alles zu funktionieren, während bei elementary OS aufgrund der Ubuntu-LTS-Basis noch einiges an Handarbeit zu tun bleibt. Selbst das bei der Hardware sehr kritische Qubes OS läuft auf dem Framework Laptop.
Es ist schön zu sehen wie schnell auch hier die Linux-Community eine starke Basis aufgestellt hat und das Projekt unterstützt. Auch dem Unternehmen selbst scheint es gutzugehen, derzeit sind 13 zu besetzende Stellen ausgeschrieben. Bei aller angebrachten Kritik denke ich, man sollte dem noch jungen Projekt eine Chance geben, aus den ersten Erfahrungen zu lernen und die richtigen Schlüsse zu ziehen.
30 Jahre Linux, 20 Jahre mit mir… kann man mal drüber nachdenken, und zurückblicken.
Wie so viele Menschen, die beruflich an einem Bildschirmarbeitsplatz ihr Geld verdienen, bin ich über den Zwang, Windows benutzen zu müssen, zu Linux gekommen. Angefangen habe ich noch mit Windows 3.11 auf einem 14″ Röhrenbildschirm, um den an guten Tagen sich dann 3 Kolleg*innen versammelt hattenund jeder „Ich will auch mal!“ maulte, sich aber nicht wirklich traute, weil ja die anderen immer noch herumstanden und guckten oder glotzten.
Für die allgemeine Erheiterung/Kurzweil im Großraumbüro einer Stadtverwaltung war das enorm hilfreich. Nach 3.11 kam dann Windows NT, derselbe Zwang und die gleichen Einschränkungen durch die Masse an ständig wechselnden Administratoren wie früher auch (hat sich bis jetzt bei Windows 10 mit Office365 und bei der Arbeit im Homeoffice nicht geändert. Alle Versionen von Windows mit gemacht: 3.11, NT2000, XP, Vista, 98, Win7, Win 8.1 bis zum jetzigen Win 10 (Win 11 wird es wohl nicht geben, da die Hardware nicht kompatibel ist, einige wenige natürlich schon, aber das sind dann Administrator*innen und Amtsleitungen.
Das Fußvolk wird bei Win 10 bleiben, und die IT-ler weiter damit beschäftigen, dass sie die für die Politiker*innen angeschafften iPads kompatibel und aktuell hält, wenn denn gleichzeitig Windows die Netzwerkgrundlage bildet. Zu Linux bin ich gekommen, weil sich niemand im Abteilungsnetzwerk mit der Technik und den Grundlagen der Vernetzung, mit Berechtigungen und möglicher Zusammenarbeit beschäftigen wollte (oder konnte), also habe ich mich darum gekümmert, mir 20 Jahre lang regelmäßige Abfuhren bezüglich des Einsatzes von Linux abgeholt und gleichzeitig privat nur Linux eingesetzt.
Hintergrund: Es reduziert die Zahl von Anfragen aus dem Kolleg*innenkreis und die Bitten um Erledigung oder mal eben noch zu Hause fertigmachen ganz ungemein, wenn man zur Antwort geben kann: „Ach das geht nicht, ich benutze ja nur Linux, da gibt es kein Office!“ Dauert zwar ein bisschen, aber irgendwann hatten es dann alle kapiert. Zur Verteidigung der Kolleg*innen muss ich sagen, dass man sich doch im Lauf der 20 Jahre damit beschäftigt, was man denn da so macht und, mit einigen Ausnahmen, nicht mutwillig bei XP stehen geblieben ist („Bis dahin und keinen Schritt weiter!“).
In der Zwischenzeit hatte ich viel Zeit mich während der Arbeit auch „weiter zu bilden“, sprich: Computerzeitschriften zu lesen, aus dem Abteilungsbudget bezahlt, und mit mehr Nutzen als Schaden für mich, denn ich kann mich noch an meine erste funktionierende Linux-Installation auf dem verwaisten „Übungs-Laptop“ erinnern: Linux Mint, Elyssa, auf Kubuntu 08.04 basierend. Und in der Folge dann an viele weitere Installationen, Mandriva, Ubuntu, Kubuntu, Debian, Fedora, Mageia, openSUSE, Manjaro immer wieder Linux Mint. Bis ich dann für lange Zeit bei #! Crunchbang Linux gelandet war und blieb, bis zum bitteren Ende. Kurz einen Ausflug zu Bunsenlabs gemacht, und jetzt völlig zufrieden mit KDENeon (schlicht, auf das Wesentliche reduziert und immer aktuell).
Die schöne Schlichtheit, reduziert auf das Wesentliche, und davon gab und gibt es für mich, der seinen Computer und die diversen Laptop eigentlich nicht zu viel mehr als einem privaten Bürogebrauch einsetzt (Web, Videos, Schreiben früher auch ein bisschen Bildbearbeitung, Archivierung) eigentlich neben dem Broterwerb am Bildschirm, nur bei Linux. Durch den aufgeblähten Wust an Schnick-Schnack und Überflüssigem in Windows (Citrix, Geodaten, SAP) muss ich mich im Büro kämpfen, das brauche ich privat nicht. Die Nutzung und Auseinandersetzung mit Linux hat mich in der Rückschau erst wirklich dazu gebracht, wesentliches vom bloßen Dekor zu unterscheiden und auf die Dinge zu verzichten, die ich nicht wirklich brauche. Das hat mein Leben einfacher gemacht. Spiele? Eigentlich nicht, es sei denn, mein Sohn möchte mit mir Mario Kart 8 auf der Nintendo Switch spielen, aber das ist eigentlich nicht meine Welt.
Meine Reise mit Linux begann 2009, als ich ein 6 monatiges Praktikum bei meinem aktuellen Arbeitgeber anfing. Die Netzwerker nutzten damals SUSE Linux Enterprise Desktop (SLED) 10 auf ihren PCs. Ich war überrascht wie schnell und einfach sie ihre Arbeit verrichten konnten, ohne die gewohnten „Denkpausen“ von Windows.
Da ich zur Haupturlaubszeit anfing, waren viele Kollegen*innen eben im Urlaub und ich sollte mir erst einmal eine Stillbeschäftigung suchen. Da ich nicht so einfach an SLED herankam und ich schon mehrfach von Ubuntu gehört hatte – damals dachte ich: „so anders kann das ja nicht sein“ – lud ich es mir herunter, brannte das Ganze auf CD und installierte es auf einem ausrangierten PC. So war mein erster Kontakt mit Linux – Ubuntu 9.04.
Soweit ich mich erinnern kann, lief der ausrangierte PC (Fujitsu Siemens Esprimo P5925) out-of-the-box mit Ubuntu. Leider konnte ich damit noch nicht alle dienstlichen Aufgaben erledigen, so blieb ich weiterhin bei Windows XP.
Privat spielte ich dann mit Ubuntu auf einem Asus Eee PC 1001P (Netbook) und dem Acer Aspire Revo R3610 (ebenfalls Intel Atom-CPU) herum. Leider war das alle nicht so erfolgreich. Bei dem einen gab es Probleme mit dem Grafiktreiber, der andere hatte Probleme mit der WLAN-Karte. So legte ich das ganz erst einmal ad acta.
2011 kaufte ich mir einen Dell-Tower mit einem Intel i5 2. Generation, 4 GB RAM und einer Nvidia GeForce GT 520. Da mir Windows Vista/7 zu „schwer“ waren im Vergleich zu Windows XP, entschied ich mich noch einmal Ubuntu zu testen. Diesmal allerdings Xubuntu in der Version 11.10. Das lief dann ohne Probleme bis Version 14.04. Als Dualboot blieb aber immer noch Windows.
Natürlich probierte ich immer die neuste Windows Version aus, schon aus beruflichen Gründen. Als mir Windows 8.1 eines schönen Abends die komplette Windows-Partition gekillt hatte, löschte ich den Windows-Eintrag im GRUB und blieb bei Xubuntu.
Als dann Windows 10 erschien 2015, wechselte ich immer wieder zwischen Xubuntu, Windows 10, Linux Mint, Windows 10, Linux Lite usw. Genervt durch die ständigen Feature-Updates von Windows 10, probierte ich dann den Urvater – Debian aus, in Version 9 und mit GNOME 3. Das nutze ich seitdem privat auf meinen Geräten, aktuell in Version 10 (ganz ohne Dualboot).
Mit Debian 10 und Secure Boot hat das Ganze auch den Weg auf meinen Dienst-Laptop gefunden (auch hier ohne Dualboot). Einmal seine Tools zusammengesucht und eingerichtet, kann ich so einfach und schnell meine dienstlichen und privaten Aufgaben bewältigen, ohne Denkpausen und ewige Update-Orgien.
Debian ist für mich die beste Distribution. Sehr stabil, respektiert die Privatsphäre, langer Support und die Desktopumgebungen kommen fast unverändert daher 🙂
Da soll es hingehen. Aber welche Rolle spielt freie Software? Photo by Fionn Große on Unsplash
Die Briefwahl für die Bundestagswahl hat begonnen. Ein nicht ganz unwichtiges Thema stellt dieses Jahr die Digitalisierung dar. Nach unserem ersten Interview freuen wir uns mit Dennis Pucher von der FDP einen zweiten Kandidaten, der frisch und mit Ideen zu dem Thema Digitalisierung in den Bundestag möchte, für ein Interview zu gewinnen.
Dennis Pucher, stelle Dich gerne einmal kurz vor.
Mein Name ist Dennis Pucher, bin 41 Jahre alt, verheiratet und wohnhaft im wunderschönen Lich im Herzen von Mittelhessen, wo ich als FDP-Spitzenkandidat zur bevorstehenden Bundestagswahl antrete. Von Beruf bin ich seit mittlerweile über 10 Jahren unternehmerisch in den Bereichen Digitalisierung und Fördermittel tätig. Im Rahmen meiner Arbeit begleite ich tagtäglich Unternehmen, aber auch Kommunen, Landkreise und Ministerien rund um das Thema Digitalisierung, mit einem Schwerpunkt auf digitalen Infrastrukturen.
Eines Deiner zentralen politischen und auch beruflichen Themen ist die Digitalisierung, was heißt das für Dich?
Eine ganze Menge: Arbeits- und Lebensweisen werden neu gedacht, Prozesse verändern sich, Strukturen werden angepasst und die Wege, wie wir kommunizieren, uns kennenlernen oder auch informieren werden revolutioniert. Es gibt praktisch keinen Bereich, der nicht durch die Digitalisierung berührt wird. Kurzum: Alles, was digitalisiert werden kann, wird auch über kurz oder lang digitalisiert. Das alles erfolgt in atemberaubender Geschwindigkeit und wir müssen aufpassen, nicht den Anschluss, aber auch nicht die Kontrolle zu verlieren. Entscheidend ist dabei, dass wir ein breites Verständnis für die digitale Revolution als eine der größten Chancen und Herausforderungen unserer Zeit wecken. Und da muss die Politik ran! Wir brauchen mehr Verständnis, mehr Koordination, mehr Expertise, mehr Impulse und mehr Tempo.
Dabei müssen wir uns aber auch immer wieder in Erinnerung rufen, dass die Technik dem Menschen dient und nicht umgekehrt. Wir brauchen Kontrollinstanzen, die auf die Wahrung der unverhandelbaren und grundlegenden Bürgerrechte achten. Ebenso bin ich sicher, dass wir in naher Zukunft auch eine breite gesellschaftliche Debatte über die ethisch-moralischen Grenzen der Digitalisierung, beispielsweise in der Pflege, führen werden.
Was haben die Freien Demokraten zu den Themen freie Software und digitale Souveränität im Programm?
Digitale Souveränität ist ein sehr komplexer Begriff und berührt eine Vielzahl an Themen aus dem digitalen Spektrum, die sowohl für Einzelpersonen, aber auch den Staat als Ganzes von Relevanz sind – gerade in puncto der Gewährleistung von Sicherheit im Netz. Die Handlungsfelder sind dabei recht eindeutig: Neben der generellen Awareness und dem Kompetenzgewinn brauchen wir Technik- und Datensouveränität, ergänzt durch geeignete staatliche Rahmenbedingungen. Hier ist die Politik in der Pflicht.
Fakt ist, dass Deutsche und Europäer in ihrer täglichen Digitalroutine in der Mehrzahl Produkte asiatischer oder nordamerikanischer Anbieter nutzen. Dort werden unsere Standards an Persönlichkeitsrechten, Selbstbestimmung und Datensicherheit häufig wenig bis gar nicht geachtet. Wir haben es noch nicht geschafft, eine überzeugende europäische Antwort zu liefern. Wenn wir Freiheit, Demokratie und Bürgerrechte in einer zunehmend digitalisierten Welt verteidigen wollen, müssen wir uns eben bewusst machen, dass nicht alle Länder unsere Werte teilen. Im Gegenteil: Manche Technologie wurde sogar bewusst mit dem Ziel entwickelt, die eigene Bevölkerung zu überwachen. Wir müssen uns die Frage stellen, ob wir dieser Technologie vertrauen können und dadurch diese Systeme unterstützen wollen oder ob wir nicht besser in eigene Konzepte und Lösungen investieren. Beispielsweise hätte Gaia-X durchaus das Potential, eine universelle europäische Dienste-Plattform werden zu können. Unter anderem deshalb fordern wir in unserem Programm auch eine konsistente Cybersicherheitsstrategie, die das Recht auf Verschlüsselung beinhaltet und die Einführung des „Deutschlandportals“ als einheitlich geregelte Plattform, die den Menschen Einblick in alle sie betreffenden, personenbezogenen Daten gewährt. Über einen externen Kontroll-Server werden alle Zugriffe auf die Daten geloggt und jeder Zugriff einer Behörde löst eine Benachrichtigung aus. Die Bürgerinnen und Bürger haben auf Nachfrage ein Recht, den Grund für den Datenzugriff zu erfahren.
Hier kommt auch Open Source Software in Spiel. Häufig scheiden sich an ihr die Geister. Die Befürworter sehen ein Mehr an Sicherheit durch Schwarmintelligenz, die Gegner ein weniger an Sicherheit durch Transparenz. Vorweg sei gesagt: Sowohl Open Source als auch Closed Source Software haben ihre Berechtigung. Es ist immer eine Frage, welche Lösung für welchen Zweck gesucht wird und ob ausreichend Vertrauen in die Software vorhanden ist. Dazu müssen beispielsweise die Schwachstellen identifiziert werden, die Datenströme analysiert, die Komponenten bekannt und auf dem neuesten Stand sein.
Gerade in der öffentlichen Verwaltung arbeiten jedoch enorm viele Nutzerinnen und Nutzer mit einer Vielzahl unterschiedlicher Software. Häufig werden sogar individuell entwickelte Programme eingesetzt, um die einzelnen Prozesse möglichst passgenau abzubilden. Es kommt dabei nicht selten vor, dass Steuergeld mehrfach für die Lösung einer identischen Aufgabe eingesetzt wird. Schlicht aus Unkenntnis einer bereits bestehenden Solution an anderer Stelle. Auf Länderebene fordern wir daher schon länger, dass Software, die in öffentlichem Auftrag entwickelt wird, auch als Open Source bereitgestellt sowie unter entsprechenden Lizenzen veröffentlicht werden. Wir wollen schrittweise den Einsatz von Open Source Software zum Regelfall machen und deren Einsatz in jedem entsprechenden Vergabeverfahren geprüft wissen.
Bist Du der Meinung, dass digitale Souveränität auch mit proprietärer Software möglich ist?
Digitale Souveränität ist ja ein strategisches Ziel, während die Art der eingesetzten Software eher ein – wenn auch wesentliches – Modul der Umsetzung darstellt. Beispielsweise zeigt der Blick auf die in öffentlichen Verwaltungen eingesetzten Arten von proprietärer Software, dass dort eine Abhängigkeit von einzelnen Anbietern bereits heute deutlich erkennbar ist. Das ist nicht nur auch aus Sicherheitsaspekten heraus problematisch. Der Einsatz von Open Source kann hier deutliche Abhilfe schaffen. Völlig verbannen wird sich Closed Source allerdings nicht lassen.
Entscheidend für eine umfassende digitale Souveränität ist aus meiner Sicht eher, dass das Bewusstsein für die eingesetzte Lösung vorhanden ist. Ich kann mich auch ganz gezielt in eine Abhängigkeit begeben, wenn ich mir denn dessen bewusst bin und in der Risikoabwägung positiv beschieden habe. Grundsätzlich werden wir jedoch ein Mehr an freier Software und Community brauchen, um einen Schritt zu mehr Souveränität zu gehen.
Wie planen Sie nach der Bundestagswahl diese Punkte umzusetzen?
Machen wir uns nichts vor: Das sind dicke Bretter und ein riesiges Betätigungsfeld. Daher fordern wir als Kernelement unserer Umsetzungsstrategie ein Ministerium für digitale Transformation. Um Synergieeffekte zu nutzen und eine schlankere und effizientere Regierung zu gestalten, wollen wir Kompetenzen in einem Ministerium bündeln und es eng mit den anderen Regierungsressorts verknüpfen. Hier spielt auch der IT-Planungsrat eine wichtige Rolle. Nur ein Beispiel: Für den verstärkten Einsatz von Open Source müssen Vergabevorschriften angepasst und Expertise aufgebaut werden. Wir brauchen kompetente Ansprechpartner für die Verwaltungen, die die Chancen und Risiken einer Software-Lösung auch tatsächlich beurteilen können. In den Leistungsbeschreibungen zur Vergabe eines Auftrags wollen wir weg vom reinen Preiswettbewerb und ein stärkeres Gewicht auf Kriterien wie Effizienz und Qualität legen.
Du bist schon länger kommunalpolitisch aktiv. Stand da freie Software schon mal auf der Tagesordnung?
Ehrlicherweise so gut wie gar nicht. Ich lebe in Hessen und bin seit 2012 Kreistagsabgeordneter und seit sechs Jahren Stadtverordneter. Einzelne Beschaffungsvorgänge sind in der Regel keine Angelegenheit des Parlaments, sondern werden entweder unmittelbar durch die Verwaltung oder durch die leitenden Verwaltungsorgane: Kreisausschuss, Magistrat oder Gemeindevorstand bearbeitet. Das Parlament gibt üblicherweise finanzielle Ressourcen frei, auf deren Grundlage die Verwaltungsleitung mit der Umsetzung effizienter und digitaler Maßnahmen beauftragt wird. Die Gemeinde- bzw. Landkreisordnung ist da in den verschiedenen Bundesländern durchaus mit deutlichen Unterschieden ausgestaltet. Hinzu kommt, dass die hessischen Kommunen häufig auf das Angebot des kommunalen IT-Dienstleistungsunternehmens ekom21 zurückgreifen, vielfach sogar mit durchaus brauchbaren Open Source Anwendungen und -Ansätzen.
Wir bedanken uns bei Dennis Pucher für das Interview.
Ende 2020 betrat das Berliner Unternehmen Xayn den Suchmaschinenmarkt zunächst mit Apps für Android und iOS. Jetzt ist die Suchmaschine in den Kernfunktionen als Beta auch für die Suche im Web verfügbar. Nach Angaben des Unternehmens ist die Suchmaschine werbefrei und datenschutzfreundlich, obwohl sie personalisierte inhaltliche Vorschläge bietet. Diese sollen mit »ethischer und transparenter KI« erarbeitet werden. Die KI kann man abschalten, indem man oben rechts auf das Gehirn klickt. Welch ein sinniges Icon 🙂
Flutter Framework als Grundlage
Sowohl die Apps als auch die Web-Version sind mit dem Flutter-Framework erstellt. Das Zauberwort, um Schutz der Privatsphäre und auf den Anwender zugeschnittene Content-Vorschläge unter einen Hut zu bekommen, lautet Masked Federated Learning. Dabei sollen alle persönlichen Daten dezentral im jeweiligen Browser des Anwenders bleiben und die KI-Modelle lokal trainiert werden. Das Unternehmen betont, dass keine Daten gesammelt oder verkauft werden.
Suchalgorithmen veröffentlicht
Der Open-Source-Anspruch wird durch die Veröffentlichung der Suchalgorithmen auf GitHub unterstrichen. Zunächst konzentriert sich das Unternehmen auf die Browser Chrome und Firefox. Die Suchmaschine funktioniert aber zumindest rudimentär nach kurzem Test auch in anderen Browsern wie Opera und Brave. Im Startbildschirm der Suchmaschine wird die Adresszeile für eine URL oder Suche sowie der sogenannte Discovery Feed angezeigt. Dabei handelt es sich um aktuelle Nachrichten, welche durch die KI im Laufe der Zeit anhand der Suchen individualisiert werden sollen. Der Feed kann in den Einstellungen abgeschaltet werden.
Womit will Xayn Geld verdienen?
Da fragt man sich, wie sich das Unternehmen finanzieren will und was sich die Geldgeber, die mittlerweile fast 20 MIO. Euro investiert haben, von dem Engagement erwarten. Diese Frage habe ich der Pressesprecherin des Unternehmens gestellt. Die Antwort lautet: »Xayn ist in der komfortablen Position, dass es sich derzeit ganz auf das Wachstum der User-Zahlen konzentrieren kann, weshalb wir unseren Fokus auch darauf legen. Ich kann Dich aber gerne auf dem Laufenden halten, wenn es im Bereich Geschäftsmodell Entwicklungen gibt, die extern kommuniziert werden können.« Dann schaun wir mal, was da noch so kommt.