Login
Newsletter
0
Von Nur ein Leser am Fr, 19. Januar 2018 um 11:44

OK, danke für die Ergänzung bzw. Klarstellung.

Mit "Nutzer" meinte ich implizit den Empfänger des Kompilats, daher super, dass Du es noch differenzierter beschreibst.

0
Von Scytale am Fr, 19. Januar 2018 um 11:42

Ich verstehe deinen Kommentar nicht, Ubuntu basiert doch schon auf Debian Testing. Nur eben mit zyklischen Packet-Freezes

0
Von Kommentator am Fr, 19. Januar 2018 um 11:41

da musst du aber hart im nehmen sein

0
Von dahofa am Fr, 19. Januar 2018 um 11:27

Die GPL (und andere Copyleft-Lizenzen) erlauben jedem Nutzer einer Software, die Software (im Quelltext) zu untersuchen, zu modifizieren und für jegliche Zwecke einzusetzen.
Hier ist noch eine genauere Unterscheidung relevant. Bei der GPL muss gerade nicht dem Nutzer der Software der Quellcode zur Verfügung gestellt werden, sondern der Person, die auch das Kompilat erhält (also z.B. die .deb-Pakete). Google kann also durchaus GPL-Software auf allen Arbeitsplätzen ausrollen, und die Mitarbeiter hätten kein Anrecht auf den Quellcode. Aus genau diesem Grund gibt es die AGPL, die eben dies einfordert. Bei der AGPL muss dem Nutzer (also z.B. auch über SSH, Webinterface etc.) der Quellcode zur Verfügung gestellt werden. Diese Lizenz wird z.B. von Nextcloud verwendet.

0
Von Microsoft will nicht... am Fr, 19. Januar 2018 um 11:21

Microsoft könnte ein Microcode-Update machen, aber sie wollen nicht und schieben es auf die Mainboardhersteller ab. Die interessieren ihre alten Produkte einen feuchten Kehricht. Am Ende ist der Kunde (mit Windows) der Dumme, weil Intel zwar vielleicht ein Microcode-Update bereitstellt, aber weder Mainboardhersteller noch Microsoft ihn installieren.

Das letzte Microcode-Update für Windows ist von 2015, seitdem gibt es keines mehr.

2
Von Nur ein Leser am Fr, 19. Januar 2018 um 10:57

werden die nicht durch die GPL genötigt, das irgendwie zu veröffentlichen ?!??
Nein.

Das scheint ein weitverbreitetes Missverständnis zu sein, deshalb versuche ich mal, das zu erläutern.
Wie der Poster über mir schon schrieb, müsste Google den Quellcode nur veröffentlichen, wenn Sie die Software (gLinux) veröffentlichen.

Wie kommt das zustande?

Die GPL (und andere Copyleft-Lizenzen) erlauben jedem Nutzer einer Software, die Software (im Quelltext) zu untersuchen, zu modifizieren und für jegliche Zwecke einzusetzen.

Das bedeutet hier: Google nutzt Debian, darf es für jegliche Zwecke einsetzen, untersuchen und modifizieren. Das machen sie.

Die GPL (und andere Copyleft-Lizenzen) fordern, das eine modifizierte Software, die in kompilierter Form veröffentlicht wird, unter den gleichen Bedingungen weitergegeben wird.
Die Software muss also wieder unter der GPL lizensiert werden und die oben beschriebenen Rechte müssen für die modifizierte Software gewährt werden.

Das bedeutet hier: Google nutzt die modifizierte Software (gLinux) nur intern, veröffentlicht sie also NICHT.
Somit muss Google auch den Quelltext nicht veröffentlichen.

Würde Google gLinux öffentlich zum Download anbieten oder als Produkt verkaufen, müssten sie auch den Quelltext den Kunden/Nutzern (!) zur Verfügung stellen.
Eine Veröffentlichung für Jedermann im Internet/öffentlichen Repository ist zwar praktisch, aber auch das wird von der GPL NICHT gefordert - es reicht, den Nutzern/Kunden AUF ANFRAGE die Quellen zukommen zu lassen.
Was diese wiederum damit machen, z.B. auch veröffentlichen, ist deren Sache (wobei manche Anbieter versuchen, eine Weitergabe des Quellcodes per AGB zu unterbinden, was aber höchstwahrscheinlich nicht haltbar ist, da es fundamental gegen die Bedingungen der GPL verstößt).

Alle Klarheit beseitigt? ;)

EDIT: Rechtschreibfehler und Klarstellung, das die modifizierte Software unter GPL lizensiert werden muss (nicht "veröffentlicht")

wow #
0
Von Mike11 am Fr, 19. Januar 2018 um 10:52

Google schafft das seit Jahren, was München nicht gebackem kam.
Davon abgesehen, war das Projekt in München schon vorher gescheitert.
Gleichzeitige Umstellung von Office, der Basis und Fachanwendungen kann nicht gut gehen.

0
Von Maroux am Fr, 19. Januar 2018 um 10:33

Nur wenn die Distribution auch öffentlich verfügbar ist.

0
Von Maronok am Fr, 19. Januar 2018 um 10:31

Weil es vermutlich kein LTS hat.
Die Supportzeit für Fedora ist einfach zu kurz um diese für Firmen interessant zu sein.

0
Von Oiler der Borg am Fr, 19. Januar 2018 um 10:24

den verschrotteten Nautilus komplett zu entsorgen und endlich wieder einen brauchbaren Dateimanager beizuschaffen!

0
Von Oiler der Borg am Fr, 19. Januar 2018 um 10:20

rolling und näher am Puls....

Wer sich nun nach gLinux umschaut, wird enttäuscht werden, denn genau wie bisher Goobuntu wird auch gLinux nicht offiziell verfügbar sein, sondern dient lediglich der internen Verwendung.
werden die nicht durch die GPL genötigt, das irgendwie zu veröffentlichen ?!??

0
Von nico am Fr, 19. Januar 2018 um 10:14

wohl weil die Grundlegende Infrastruktur und die Tools nahezu identisch sind. Zusätzlich bekäme man mit RedHat eine neue Abhängigkeit.

0
Von Peterle am Fr, 19. Januar 2018 um 10:03

Warum nicht Fedora? Das hat eine viel bessere Systemsicherheit. Debian bekommt es ja noch immer nicht hin, Halle Pakete mit den hardening-Flags zu bauen und auch die Unterstützung von Apparmor oder gar SELinux ist unter Debian nicht wirklich gegeben (will heißen, es werden kaum Policies mitgeliefert, die out of the box laufen) usw.

Peterle

0
Von Schall und Rauch am Fr, 19. Januar 2018 um 09:37

Am kostensparendsten für Canonicals neues Geschäftsmodell wäre es, in Zukunft einfach ebenfalls Debian zu nehmen. Sie können es ja trotzdem zu Ubuntu umlabeln.

0
Von Falk am Fr, 19. Januar 2018 um 09:29

Mag alles sein. Nur wenn die ihr eigenes Produkt verwalten, dann hatte sicherlich nicht die Marketing-Abteilung das letzte Wort. Sofern ich den Artikel verstanden habe, hat MS einerseits an einigen Stellen Git beschleunigt, andererseits zusätzlich ein virtuelles Dateisystem geschaffen, was eine technische Lösung für deren Problem war. Benutzt du es nicht, kannst du wahrscheinlich immer noch ganz genauso klonen.

Git musste für GVFS modifiziert werden. Die haben ihr GVFS aber unter eine sehr wenig kontrollierende Lizenz gestellt. Soweit ich weiß, sollte die kompatibel zur GPL sein, solange MIT mit MS und GVFS noch irgendwo erwähnt wird.

Und wo ist das Problem, wenn die es intern so einsetzten? Wie geschrieben - ich gehe stark von aus, dass du immer noch auch normal klonen kannst. Und selbst wenn nicht - dann ist es ein neues Produkt, das halt inkompatibel zu git wäre. Ist ja nicht so, dass SVN und CVS das anders machen würden. Nur dass die nicht mit so großen Repos funktionieren würden. Offensichtlich haben die nichts davon geheim gehalten.

Allerdings klar: Sollte es inkompatibel zu git sein, würde man sich - sofern man es benutzt - wieder in die Fänge von MS begeben, wenn sich dazu keine Community bildet, was bei einem MS-Produkt dann doch sehr unwahrscheinlich ist.

Es ist also die Frage, ob die kompatibel bleibt, ob es sich als weitere Lösung durchsetzt, ob das VFS auf andere Systeme portiert wird und wie kompatibel es in Zukunft sein wird. Aber zumindest die Beschleunigungen haben git auch selbst geholfen (und helfen auch MS Geld zu sparen, wenn die ihr Produkt auch in Zukunft von git ableiten sollten).

0
Von Mein Name tut nichts zur Sache am Fr, 19. Januar 2018 um 08:00

Auch wieder daneben!

Nun hab ich schon seit mindestens 2 Tagen keine Alkohol mehr getrunken, Gott ist mein Zeuge, und dann so was!
Aber bestimmt lags jetzt daran, von wegen Entzug oder so...

0
Von Mein Name tut nichts zur Sache am Fr, 19. Januar 2018 um 07:57

Au weia,
das spricht ja dann ganz stark gegen die systemd User aber umso mehr für mich, da ich das ja gar nicht nutze.
Insofern ging der doch ziemlich nach hinten los - ha, ha!

0
Von M$ alles Idioten? keinesfalls! am Fr, 19. Januar 2018 um 07:48

Bei M$ sind Marktstrategen am Werk, die an nichts anderem interessiert sind, als den Markt zu beherrschen. Das ist an den Produkten deutlich zu sehen. Es ist keine wirkliche Interoperabilität gewünscht. Und wenn dann wird nur in Einbahnrichtung, also hin zu Windows, entwickelt und niemals umgekehrt. Die Kompatibilität läßt zu wünschen übrig und allgemein anerkannte Standards werden ignoriert oder so verändert, daß eben nur alles in einem M$ Universum perfekt funktioniert. Das ist Teil der Strategie. Und ganz viele IT Manager fallen voll drauf rein und schränken sich und ihr Unternehmen ein. Zudem sind sie noch bereit dafür viel, viel Geld auszugeben. Das sind die wirklichen Idioten! M$ läßt sie schön für sich arbeiten.

Das M$ Universum ist nicht mit der verteilten, weltweiten Community zu vergleichen. Und wieder haben wir den Fall, daß M$ anerkannte Standards, in diesem Falle Git, so modifiziert, daß M$ profitiert aber die Community nicht. Natürlich wird durch GitVFS die Basis von git kompromotiert. Scheißegal, M$ nützt es, die restlichen git User sind uninteressant.

Es ist einfach zu beobachten, daß M$ bei der Open Source hauptsächlich als Schmarotzer auftritt und nur für den eigenen Profit arbeitet. Geben und nehmen, die Basis der Commuinity, reduziert sich bei M$ auf nehmen.

0
Von Falk am Fr, 19. Januar 2018 um 01:56

Doch - dem ist sogar sehr viel hinzuzufügen. So ist das Thema auf keinem Fall klug erörtert.

Du kannst weiterhin auschecken, bauen. Nun kannst du lokal branchen, ändern, nochmal bauen, modifizieren, commiten. Alles was du brauchst hast du nun auf der lokalen Platte und kannst ganz normal lokal arbeiten. Ohne dass du vorher planen musstest, was alles nötig ist. Und wenn du noch etwas mehr benötigst, dann kannst du es mit geringer Bandbreite nachholen. Viel weniger, als wenn du mit SVN alles ausgecheckt hättest. Wie du siehst, hat der hybride Ansatz doch Vorteile.

Mag ja sein, dass man Projekte kleiner schneiden kann, vor allem die von der grünen Wiese. OK, ich verstehe es auch nicht, warum man sich so ein Riesen-Repo antut. Aber vernünftig klein werden die Repos wahrscheinlich auch bei Aufteilung nicht.

Wenn man euch so liest, dann bekommt man das Gefühl, als ob bei MS nur Idioten wären.

Auch wenn, Linux z.B. seit seinem Bestehen eigentlich immer sicherer war, als Windows, auch wenn MS gerne immer mal wieder das Gegenteil behauptet hatte und sich dann wieder schön blamiert hatte. Aber wer ist Marktführer? Wer überstand sogar solche Debakel wie Windows ME, Windows Vista oder gar Windows 8? Warum spielt nahezu kein "ernsthafter" Gamer auf Linux, wo doch die Architektur so überlegen sein soll? Warum läuft MS Office praktisch überall?

Irgendwie ist der Abstand in den letzten Jahren eher größer als kleiner geworden. Auch wenn man mit Open Source gut im Web programmieren kann und auch gut Geld verdienen kann.

0
Von Bernie86 am Do, 18. Januar 2018 um 22:52

Das erinnert mich stark an elementary OS - in Version 0.3 brauchte man ebenfalls das TweakTool, um Icons auf dem Desktop zu ermöglichen, in Version 0.4 ist das Feature komplett weg (Workaround ist die Installation eines anderen Dateimanagers, der dann den Desktop verwaltet...).

Dazu haben auch sie die Gefahr hinter autonomen Nutzern erkannt und Möglichkeit PPAs einzubinden abgeschafft (noch nachzureichen, indem man ein Paket installiert, aber das ändern sie sicher auch bei Zeiten)...

Wenn ich sehe, was Freunde und Familie alles auf ihrem Win-Desktop ablegen, bekomme eich zwar den digitalen Putzfimmel, aber ohne Schnellzugriff auf aktuelle Projekte macht das auch keinen Spaß...


 
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten