Login
Newsletter

Thema: Welche Distribution setzen Sie bevorzugt auf dem Server ein?

5 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
0
Von openWeb am So, 10. Mai 2020 um 00:28 #

1. erkläre mir für dich den Sinn des binäridentischen systems? Ein System für x86_64 kompiliert mit wenigen schaltern startet als image und dann zurückgespielt auf jedem x86_64...
2. Und das wäre dann so unterschiedlich zu debian oder ubuntu, wo man ein dist-upgrade machen muss, um eine aktuelle MySQL zu haben? Dauert vielleicht etwas länger, aber wenn eine Software durchkompiliert, dann sind alle Abhängigkeiten da, nicht das was irgendein Maintainer eines Paketes als Abhängigkeiten angibt. Ich hab durchaus mehr Bugs in einem schlecht ubgedateten Ubuntu System erlebt als unter gentoo... Was meinst du mit funktionstests? Also du gehst davon aus, dass du ein debian Update startest und danach in Urlaub fährst? Eine vernünftige Überwachung sollte immer stattfinden, egal welches System. Und ich glaube nicht, dass die gentoo-Maintainer so viel bescheidener arbeiten als ein Ubuntu-Paketbetreuer.
3. Ähm ne... Also LSB ist eingehalten, config files sind da wo man sie erwartet und die Logs ebenso. Ich sehe keine übermäßige Individualisierung. BSDs legen ihre File auch immer woanders ab, Ubuntu ist nicht debian ist nicht Redhat, ist nicht...
4. Ich sehe Risiken in nicht benötigten aber vorhandenen Modulen. Shutdowns gab es nur bei Kernelupgrades, die man aber durchaus verschieben kann. Was genau denkst du wie so ein Update abläuft? Ich sitze doch nicht vorm monitorund schaue mir die Ausgabe von gcc an!? Eher seltener als bei xBuntu, wo jedes Update eines Dienstes auch dessen Neustart mit sich bringt. Solange mit der Ram nicht ausgeht, läuft der aktuelle Dienst weiter bis ich ihn in der aktuellen Version neu starte. Das passiert nachts, wie jedes vernünftige Update. Mit einem Kerner und genügend Ram läuft ein normales Update in max. einer halben stunde durch.

[
| Versenden | Drucken ]
  • 0
    Von Andre_001 am So, 10. Mai 2020 um 03:26 #

    >> 1. erkläre mir für dich den Sinn des binäridentischen systems?
    Fehlersuche bei Problemen, oder 24/7/365 Betrieb mit Systemänderungen auf einem Vergleichbaren Test-System?

    >> 2. Und das wäre dann so unterschiedlich zu debian oder ubuntu,
    ich hatte in meiner gentoo-spielfase um 2005-2008 immer wieder einzelpakete die sich aus unerfindlichen gründen mit gesetzten flags nicht sauber compilieren lassen. oder ein php das nach einem recompilieren einer library sich nicht mehr starten lies, und genauso recompiliert werden musste.
    ein gesamtes distibutions upgrade zu einem neuen Majorrelease führ ich bestimmt nicht auf einem produktiven system durch, sondern setze ein neues System auf, und importiere die datenbank neu. Das ist bei richtiger Distributionswahl aber max. alle 10Jahre notwendig.

    >> Was meinst du mit funktionstests?
    Kannst Du Dir 100% sicher sein das wenn du ein major-wechsel einer library durchführen musst, das der eingesetzte dynamische webservice noch einwandrei funktioniert? Hier verlasse ich mich lieber auf reines Bugfixing ohne Änderung der Funktionalitäten.

    >> Ubuntu-Paketbetreuer.
    Debian/Redhat-Enterprise/CentOS/Oracle-Linux sind langzeitstabil.

    >> Ich sehe keine übermäßige Individualisierung.
    bereits unterschiedliche compilerflags können zu problemen führen. ein "vergessenes" cifs-flag kann 3jahre später wenn man es benötigt dazu führen das der dienst in neuer version recompiliert werden muss. das kann/wird in den meisten fällen gutgehen, muss aber ebend nicht. ein "apt-get install foobar" ist da erheblich unkritischer.

    >> Mit einem Kerner und genügend Ram läuft ein normales Update in max. einer halben stunde durch.
    Bei Debian/Redhat-Enterprises in Sekunden.

    Und wozu nun das ganze? Welchen nennenswerte Vorteile bietet nun Gentoo wenn die Debian/Redhat-Enterprises ihre Jobs ordentlich erledigen, und mir einen Großteil der Arbeit abnehmen? Ich hätte gedacht das wär die Kernaufgabe einer guten Distribution :-)

    Dieser Beitrag wurde 2 mal editiert. Zuletzt am 10. Mai 2020 um 03:37.
    [
    | Versenden | Drucken ]
    0
    Von Verfluchtnochmal_5987108 am So, 10. Mai 2020 um 10:43 #

    Wenn du den Sinn eines binäridentischen Testsystems nicht verstehst solltest du die Finger von profesionellen Servern lassen! Und ja subtile Unterschiede wo man denkt es ist eh alles identisch sind genau jene dir zur Katastrophe führen und eben nicht lückenlos testbar sind

    [
    | Versenden | Drucken ]
    0
    Von Verfluchtnochmal_5987108 am So, 10. Mai 2020 um 10:48 #

    "solange mit der Ram nicht ausgeht, läuft der aktuelle Dienst weiter bis ich ihn in der aktuellen Version neu starte. Das passiert nachts, wie jedes vernünftige Update" ist ziemlich dümmlich! Mach das mal bei einem Dovecot-Mailservr und der wird dir irgendwann einfach silent den Betrieb einstellen und das gilt auch für andere Dienste die Prozesse forken welche ggf. Libraries nachladen (nämlich tatsächlich weil neues Filehandle) und irgendwann hast du eine Mischung aus alt/neu die hoch toxisch ist

    Und nur weil du es nicht bemerkst oder immer Glück hattest macht es dein Vorgehen nicht weniger Schwachsinning

    Bei einer Binäristribution baue ich die Pakete auf einem eigenen Buildsystem und wenn ich gendenke den Produktivserver zu aktualisieren gedneke ich auch betroffene Dienste zeitgleich neu zu starten

    [
    | Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten