Login
Newsletter

Thema: Vertrauen Sie Ihre Daten der »Cloud« an?

32 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
0
Von m_power3 am Fr, 16. Juli 2010 um 15:31 #

Jein, wenn die Daten verschlüsselt übertragen und gespeichert werden.

Unsensible Daten (wie z.B. Musik) würde ich auch auf unverschlüsseltem Wege übertragen und Datenspeicher ablegen.
Sensiblere Daten (wie z.B. Bookmarks oder Arbeiten) würde ich nicht unbedingt auf externen Servern speichern. Es käme mir auch auf die Vertrauenswürdigkeit der Verschlüsselungsverfahren und des Anbieters an.
Sensible Daten (wie z.B. Lebenslauf) würde ich nur bei Unerlässlichkeit bzw. enormen essentiellen Vorteil mit eigener zusätzlicher Datei-Verschlüsselung bei einem bewährten, vertrauenswürdigen Dienstleister mit ausreichend guter Verschlüsselung der Übertragung und des Datenspeichers hinterlegen.

[
| Versenden | Drucken ]
0
Von Neinsager am Fr, 16. Juli 2010 um 16:19 #

Nein!

[
| Versenden | Drucken ]
1
Von Neuer am Fr, 16. Juli 2010 um 18:08 #


Ich habe neuerdings einen ARM Server mit Debian Squeeze als 5-12W Server für 24x7 via dyndns.org und Flatrates von überall erreichbar.

Darauf habe ich ein NFSv4 mit Kerberos und Apache/WebDAV. So kann ich mit NFSv4 oder davfs überall mounten und/oder per Webinterface mit dem Browser auf alles zugreifen.

So kann ich dann mein Daten veröffentlichen, wie ich will. Natürlich kann ich da nicht mit viel Bandbreite rechnen (DSL hat meist ja nicht viel Upload), aber ich finde es gut.

Gruss,
Kay

[
| Versenden | Drucken ]
  • 0
    Von Namenloser am Sa, 17. Juli 2010 um 23:30 #

    > Ich habe neuerdings einen ARM Server mit Debian Squeeze als 5-12W Server

    selberzusammengeklöppelt, oder wo kann man sowas kaufen?

    [
    | Versenden | Drucken ]
    • 0
      Von Neuer am So, 18. Juli 2010 um 00:54 #

      Kann man kaufen, QNAP TS-119, hat ca. 230 gekostet.

      Ist letztlich ein NAS mit nur einer eingebauten 3,5" SATA Disk (sonst wird es zu teuer, Diskanschlüsse bestimmen den NAS-Preis), mit eSATA dazu und 3x USB und 1xLAN.

      Der Hersteller hat damals Debian Lenny Support selbst announced, und kümmert sich bei den neuen Geräten um Squeeze. Die ARM-Plattform von Marvell (Orion oder so), wird aktiv im Mainline-Kernel gepflegt, so dass die Hardware mit dem normalen Kernel komplett glücklich ist. Sprich, ich habe nur "main" als Repository auf der Kiste, und den normalen Squeeze-Kernel.

      Ich weiss, Atom ist bei vielen beliebt, aber braucht halt insgesamt noch viel mehr Watt und ist vom Geek-Faktor her nicht so cool.

      Das QNAP hat keinen Lüfter, braucht kaum Strom, hat ein wie ich finde nettes Design, und genug Rechenkraft mit seinen 1.2 Ghz, und auch 512 MB sind genug. Mehr hat wohl kein NAS an Bord.

      BTW: Von einem Kollegen habe ich den Tipp "apt-get install fail2ban", das ist gegen die Leute, die Passwörter wahllos oder systematisch ausprobieren wollen, sehr effektiv.

      Gruss,
      Kay

      [
      | Versenden | Drucken ]
      • 0
        Von Lord_Pinhead am Mo, 19. Juli 2010 um 06:35 #

        Wenn du mit fail2ban statt einen richtig eingerichtetem SSH vorziehst, dann OK. Bei Webdiensten oder den Filesystem Freigaben reicht ein gutes Passwort aus. Und sofern es möglich ist, nutze ich die möglichkeit eines VPN um meine Daten nicht unverschlüsselt übers Internet zu jagen. Bringt mehr als ein fail2ban das einmal zum Einbrechen auf Server genutzt wurde :)

        [
        | Versenden | Drucken ]
0
Von argonaut am Fr, 16. Juli 2010 um 18:55 #

[x] Ja, wenn die Daten nicht sensibel sind.

[
| Versenden | Drucken ]
  • 0
    Von Tscheesy am Fr, 16. Juli 2010 um 19:49 #

    +1

    [
    | Versenden | Drucken ]
    0
    Von miki am Fr, 16. Juli 2010 um 20:19 #

    Ich würde Antworten, Cloud ja, aber nicht extern.
    Unsere Firmendaten extern zu lagern hat mehrere Nachteile:
    1. Sicherheit (gut man kann verschlüsseln)
    2. was ist, wenn der Anbieter Datenverlust erleidet? Auch, wenn die dafür sich verantworten können, oder reichend versichert sind, meine Daten sind dann weg.
    3. was ist mit Ausfallsicherheit? Wenn DSL aus ist, wenn der Anbieter Verbindungsprobleme hat, wenn Anbieter pleite ist? Dann sitzen die Mitarbeiter dumm da.

    Sicher sind noch weitere Punkte aufzuführen und ich denke, vielen Betrieben geht es so, daß sie sich das nicht leisten können auf externe IT-Haushalte zu verlassen.

    Darum bin ich sehr interessiert an das KDE Cloud Projekt, daß intern einzusetzen ist.
    http://owncloud.org/

    [
    | Versenden | Drucken ]
    • 0
      Von EU-Kommissariat am Fr, 16. Juli 2010 um 23:41 #

      bei dem quellcode, nein danke...

      [
      | Versenden | Drucken ]
      0
      Von EU-Kommissariat am Fr, 16. Juli 2010 um 23:41 #

      bei dem quellcode, nein danke...

      [
      | Versenden | Drucken ]
      0
      Von Neuer am So, 18. Juli 2010 um 00:58 #

      Hab ich mir auch angesehen, das owncloud, aber was genau würde es schon bringen?

      Mit Apache, WebDAV und davfs habe ich genauso eine Cloud selbst gemacht. Was genau das Projekt da überhaupt sinnvolles bieten will, ausser Desktop-Notifications, falls der Diskspace knapp wird, oder einer mal ne Datei angesehen hat, ist mir nicht klar.

      Bei Heise gibt es ne nette Seite, wo erklärt wird, wie Apache zu konfigurieren ist, damit das tut. Auf owncloud brauchst Du nicht zu warten.

      Gruss,
      Kay

      [
      | Versenden | Drucken ]
      • 0
        Von Lord_Pinhead am Mo, 19. Juli 2010 um 06:41 #

        Würde mich mal der Link interessieren. Ich würde das im endeffekt mit einem Round-Robin A Record im DNS für den Webserver lösen und ein Cluster Filesystem wie DRBD.

        Der Sinn einer Cloud ist allerdings auch nicht nur zum Speichern und austauschen von Dateien. Was heute eine Cloud ist, war früher ein normaler Cluster und Cloud ist für mich nur ein Cluster 2.0 oder einfach ein Marketin Buzzword.
        Applikationen hab ich früher schon auf Cluster verteilt und bei den Clients gestartet, wo ist die neuerung?
        Dateien redundant in der Cloud halten, das war früher einfach eine fette SAN mit ein paar Scripten.

        Just my 2 Cents

        [
        | Versenden | Drucken ]
      0
      Von Eigene Cloudinfrastruktur lohn am Di, 20. Juli 2010 um 01:07 #

      1. ok ;)
      2. Naja Backups sollte man so oder so machen. Egal ob die Daten einen Raum weiter im Server liegen oder 5000km weiter in Kalifornien.
      3. Das ist richtig, aber um bei einer handgestrickten Lösung eine so hohe Ausfallsicherheit, wie in der GoogleCloud zu haben, gehört schon einiges dazu. (Die GoogleCloud ist direkt über Glasfaserleitungen an wichtigen Stellen des Internets angeschlossen.) Also ich halte es für wahrscheinlicher, dass ein nationaler DSL-Provider pleitegeht, als dass Google pleitegeht...

      >Sicher sind noch weitere Punkte aufzuführen und ich denke, vielen Betrieben geht es so, daß sie sich
      >das nicht leisten können auf externe IT-Haushalte zu verlassen.
      Ich sehe das genau umgekehrt. Viele Betriebe, erst recht kleine, können es sich nicht leisten einen eigenen Server 24/7 bereitzustellen. Erst recht wenn es sich um einen Webauftritt handelt, da da nochmal immenser Wartungsaufwand hinzukommt.

      Eine CPU-Stunde bei Google kostet 10 cent... Wieviel kostet eine CPU-Stunde auf der hauseigenen Infrastruktur, wenn diese über den Monat verteilt nur zu 5% ausgelastet ist?

      [
      | Versenden | Drucken ]
    0
    Von Neinsager am Sa, 17. Juli 2010 um 08:11 #

    Alle Daten sind mehr oder weniger sensibel! Die Cloud würde ein grandioser Flop werden wenn es nicht User gäbe die so denken wie du!
    Die Cloud wird die User auf lange Sicht weiter in seinen Möglichkeiten einschränken und die Möglichkeiten von übergeordneten Stellen (Staat, Behörden, Verwaltungen, Industrien, Anbietern, Datensammlern usw.) allen Beteuerungen zum Trotz über die Wahrung des Datenschutzes, erweitern. Ich hoffe auf ein Scheitern der Cloud oder wenigstens auf ein Dahindümpeln auf sehr niedrigem Level.

    (-- hier ein Doppelminus für deine Meinung)

    [
    | Versenden | Drucken ]
    • 0
      Von argonaut am Sa, 17. Juli 2010 um 08:29 #

      Alle Daten sind mehr oder weniger sensibel!

      Nein, sind sie nicht.

      [
      | Versenden | Drucken ]
      • 0
        Von Neinsager am Sa, 17. Juli 2010 um 14:11 #

        Ich habe da eine andere Meinung. Wenn die Infrastruktur der Cloud steht, wird man nach weiteren Möglichkeiten suchen um den Nutzern das Geld aus der Tasche zu ziehen.
        Im Endeffekt bedeutet das, dass du in ferner Zukunft keine Rechner mehr kaufen kannst auf denen du Daten ablegen kannst. Auch das nicht, was du unter "sensible Daten" verstehst. Programme und Betriebssysteme, werden ein Ablegen der Daten auf einem lokalen Laufwerk dann nicht mehr unterstützen, weshalb du diese Betriebssysteme auch nicht mehr kaufen musst, sondern gezwungen bist, durch einen monatlichen Betrag, der dem durchschnittlichen Leistungsindex angepasst wird, zu mieten. Viele Programme werden dann nur noch als Module erstellt, bei dem dir die Möglichkeit angeboten wird wichtige Zusatzfunktion als Modul zusätzlich zu mieten. Der unverhältnismäßig höhere Betrag für diese Module wird durch auffüllen mit etlichen Funktionen gerechtfertigt, die zwar niemand braucht, aber dennoch dabei sind. Ähnlich wie bei einer Musik-CD auf der dir nur ein Stück gefällt, bei der die anderen, die dir nicht gefallen, trotzdem mitgekauft und bezahlt werden müssen.
        Wenn dir so eine Welt gefällt, dann lege das was du als "weniger sensibel" oder als "nicht sensibel" bezeichnest in eine Cloud ab und unterstütze damit ein Projekt welches deine Freiheiten noch mehr einschränkt und zudem auch noch mehr Kosten verursacht.

        [
        | Versenden | Drucken ]
        • 0
          Von Jasager am Di, 20. Juli 2010 um 01:20 #

          >Ich habe da eine andere Meinung. Wenn die Infrastruktur der Cloud steht, wird man nach weiteren
          >Möglichkeiten suchen um den Nutzern das Geld aus der Tasche zu ziehen.
          >Im Endeffekt bedeutet das, dass du in ferner Zukunft keine Rechner mehr kaufen kannst auf denen
          >du Daten ablegen kannst.
          Das wird es immer, egal ob du deine eigene Server-Hardware bei Hardwarehändler XY kaufst und dein Internet über DSL-Provider XZ beziehst. (Und Wartung kostet auch Zeit/Knowhow bzw. Geld.)

          Also wir haben in der Firma einen Server stehen, der mehr oder weniger ein aufbebohrter Desktoprechner ist. Auch wird in Rechenzentren meist stinknormale x86-Hardware mit IDE-Controllern verwendet, auch wenn der Spaß meist in wenige Zentimeter-dicke Blades verpackt ist.

          >Programme und Betriebssysteme, werden ein Ablegen der Daten auf einem lokalen Laufwerk
          >dann nicht mehr unterstützen, weshalb du diese Betriebssysteme auch nicht mehr kaufen musst,
          >sondern gezwungen bist, durch einen monatlichen Betrag, der dem durchschnittlichen
          >Leistungsindex angepasst wird, zu mieten.
          Bleiben wir mal bei heute. Es gibt so viele verschiedene Rechner für Endbenutzer zu kaufen, die man als Desktops und als Server verwenden kann, angefangen von Standard Wintel-Systemen, über Macs, Sparcs bis hin zu Playstations. Das ist wirklich sehr hypothetisch. Zwar laufen die Cloudsysteme oft auf speziell dafür abgerichteten Betriebsystemen, in der Schicht darüber wird trotzdem noch Linux oder Windows verwendet, und darüber oft das gute alte Java. Von mangelnder Portabilität kann also keine Rede sein. Übrigens rechnen meines Wissens alle Cloudprovider nach CPU-Zeit, IO-Volumen, etc. ab.

          >Der unverhältnismäßig höhere Betrag für diese Module wird durch auffüllen mit etlichen
          >Funktionen gerechtfertigt, die zwar niemand braucht, aber dennoch dabei sind. Ähnlich wie bei
          >einer Musik-CD auf der dir nur ein Stück gefällt, bei der die anderen, die dir nicht gefallen, trotzdem
          >mitgekauft und bezahlt werden müssen.
          >Wenn dir so eine Welt gefällt, dann lege das was du als "weniger sensibel" oder als "nicht
          >sensibel" bezeichnest in eine Cloud ab und unterstütze damit ein Projekt welches deine Freiheiten
          >noch mehr einschränkt und zudem auch noch mehr Kosten verursacht.
          Ich sehe nicht, wie das von dir beschriebene Szenario eintreten soll. Im Moment ist es doch eher so, dass Linux den Markt immer weiter durchdringt, gleiches gilt für die Java-Plattform. Die Hypervisor-Systeme sind nicht mehr als eine Zwischenschicht und ich wüsste nicht, dass irgendein Cloud-Provider pläne hegt ein eigenes Betriebssystem zu schreiben, auf dem man nur mit einer eigenen, proprietären Programmiersprache Software schreiben kann. Im Gegenteil, heutzutage kann es sich kaum ein Unternehmen mehr leisten ein eigenes Betriebssystem zu schreiben. Selbst Google pumpt den Markt von Mobil bis Server mit Linux voll.

          [
          | Versenden | Drucken ]
    0
    Von petsie am Mi, 21. Juli 2010 um 09:25 #

    so isses

    [
    | Versenden | Drucken ]
0
Von haha am Sa, 17. Juli 2010 um 11:02 #

Die Banken könnten doch ihre Kreditkarten-Daten auslagern.
Da diese in der Vergangenheit auch aus dem eigenem Sicherheitsbereich geklaut worden waren ( http://www.at-mix.de/news/922.html )
, sind sie bei Fremdfirmen den gleichen Roulette ausgeliefert ...

- have a lot of fun -

[
| Versenden | Drucken ]
0
Von kommt drauf an am Sa, 17. Juli 2010 um 11:32 #

naja, also meine e-mails liegen alle bei google, genauso wie meine feeds und einige Dokumente...Außerdem benutze ich Dropbox zum Backup und benutze gerne Deezer und andere online-Dienste (Jamendo, Bandcamp, etc.) zum online-musikhören. Die gespielten Titel werden dann zu last.fm gescrobbelt (genau wie die, die ich lokal mit Amarok höre)...Ja ich denke ich vertraue viel der Cloud an, habe davon aber auch einige Vorteile

[
| Versenden | Drucken ]
0
Von Spamroboter am Sa, 17. Juli 2010 um 19:03 #

[X] Nur wenn "Jean Cloud Van Damme" der Admin der Cloud ist, würde ich meine Daten der Cloud
anvertrauen.

[
| Versenden | Drucken ]
0
Von Spamroboter am Sa, 17. Juli 2010 um 19:05 #

andernfalls werden die Daten gecloud

[
| Versenden | Drucken ]
0
Von Henry am Mo, 19. Juli 2010 um 10:12 #

Die Frage ist zu unscharf formuliert, genau wie der Begriff "Cloud Computing" (wie auch "Web 2.0") ein Modewort ist, das nicht genau definiert ist.

In der weitestgehenden Definition vertraut jeder hier Daten der "Cloud" an, indem er das Internet nutzt - allein durch die Teilnahme an dieser Umfrage. Und ich denke, die wenigsten hier betreiben ihren eigenen MX zu Hause, somit wird zumindest der Mailverkehr der "Cloud" anvertraut.

Die Frage ist nur, wie weit das Vertrauen geht. Welche Dienste intern und welche extern betrieben werden sollten ist eine komplexe Entscheidung, die in jedem Einzelfall neu bewertet werden muss. Tendenziell würde ich aber auch sagen, dass man es im Zweifelsfall selbst machen sollte.

[
| Versenden | Drucken ]
  • 0
    Von Spamroboter am Mo, 19. Juli 2010 um 14:49 #

    Die Wolke (eng. Cloud) ist die Gesamtheit der Server oder Rechenzentren des jeweiligen Anbieters, wie zum Beispiel Google.

    [
    | Versenden | Drucken ]
    0
    Von Juppp am Di, 20. Juli 2010 um 01:37 #

    Es ist eigentlich ziemlich scharf definiert. Letztendlich handelt es sich um einen Cluster, auf dem User Software ausführen können. Im Gegensatz zur klassischen Lösung, auf der User Batch-Jobs ausführen, können sie alles on demand machen. Und ich rate mal, dass Pro-Linux bei einem Standardhostanbieter läuft, wo ein paar dedizierte Server gemietet wurde. Virtuelle Server wären wahrscheinlich zu langsam. Beim Cloudcomputer mietest du keine Server, nicht einmal virtuelle, sondern einfach nur Nutzungskapazität.

    Letztendlich unterscheidet sich die Programmierung von Cloud-Software auch in der von "normaler" Serversoftware, zumindest wenn man so abstrahierte Lösungen wie die von Google benutzt. Statt einem hochkomplexen RDBMS-Monster wie Postgres wird dort eine leichtgewichtige NoSQL-DB verwendet, die performant verteilt benutzt werden kann und mehr oder weniger unendlich-skalierbar ist. Statt langandauernder Operationen muss alles schnell gehen, damit die Cloud schön dynamisch bleibt -- bei Appengine führten anfangs sogar alle Prozesse, die länger als 10 Sekunden liefen zum Server Error. (Jetzt ist das Limit bei 30 sek.)

    Der Witz ist einfach eine nie dagewesene Skalierbarkeit. Hinsichtlich Userzahl aber auch hinsichtlich Kosten. Niemand muss mehr Hingehen und sich rohe Hardware mieten und diese warten, das machen andere, die sich ohnehin besser damit auskennen.

    >Und ich denke, die wenigsten hier betreiben ihren eigenen MX zu Hause, somit wird zumindest
    >der Mailverkehr der "Cloud" anvertraut.
    Die großen Mailserver laufen alle auf dedizierten Geräten, wo das gesamte System von Festplattcontroller über Betriebssystem bis MTA komplett custom-configuriert ist. Bei einer Cloudlösung würde nur der MTA vom Maildienst in eine Cloud gesetzt.

    Ansonsten stimme ich dir zu, das ganze Zeug läuft nunmal extern...

    [
    | Versenden | Drucken ]
    0
    Von Juppp am Di, 20. Juli 2010 um 13:19 #

    BTW... Web 2.0 ist auch scharf definiert... Geajaxte User-Interfaces mit großflächiger CSS-Nutzung, mit Webseiten, die in Usuability eher Desktop-Apps, als Web-1.0-Seiten ähneln.

    [
    | Versenden | Drucken ]
0
Von Spamroboter am Mo, 19. Juli 2010 um 14:41 #

Zusätzlich zum Energielieferanten wird für die tägliche Arbeit beim "Cloud Computing" , neben dem Bereitsteller des jeweiligen Dienstes ein Internetanbieter benötigt.

Inwieweit sich die Sache für Firmen lohnt, kann ich nicht beurteilen, aber für die einzelne Privatperson zu Hause, ist Cloud Computing überhaupt nicht zu empfehlen.

Welcher vernünftig denkende Erwachsene begibt sich freiwillig in Abhängigkeit ?

Ein Beispiel:
Für die Textverarbeitung mit OpenOffice oder KOffice, benötige ich neben dem funktionierenden PC nur elektrischen Strom.

Würde ich Googles "Text und Tabellen" verwenden, kommt der Internetanbieter und Google hinzu.
Die Zukunft für rechenintensive Anwendungen liegt eher im "Grid Computing".

www.rechenkraft.net

[
| Versenden | Drucken ]
  • 0
    Von Juppp am Di, 20. Juli 2010 um 01:43 #

    >Inwieweit sich die Sache für Firmen lohnt, kann ich nicht beurteilen, aber für die einzelne Privatperson
    >zu Hause, ist Cloud Computing überhaupt nicht zu empfehlen.

    >Welcher vernünftig denkende Erwachsene begibt sich freiwillig in Abhängigkeit ?
    Jede Software bedeutet Abhängigkeit.

    >Für die Textverarbeitung mit OpenOffice oder KOffice, benötige ich neben dem funktionierenden PC
    >nur elektrischen Strom.
    Außerdem brauchst du ein Betriebsystem, GTK oder KDE4...

    >Würde ich Googles "Text und Tabellen" verwenden, kommt der Internetanbieter und Google hinzu.
    Und der eigene Rechner fällt weg, es reicht ein Internetcafe mit Javascript- und CSS-fähigem Browser.

    >Die Zukunft für rechenintensive Anwendungen liegt eher im "Grid Computing".
    Klar, dafür ist Grid Computing da. Für nicht-rechenintensive Anwendungen liegt die Zukunft in der Cloud. :D

    [
    | Versenden | Drucken ]
    0
    Von Juppp am Di, 20. Juli 2010 um 01:45 #

    Hab ich erwähnt, dass Googles "Text und Tabellen" Export in die gängigen Office-Formate sowie nach PDF unterstützt? ;-)

    [
    | Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten