Login
Newsletter
Werbung

Thema: Desktop-Suche für Linux

57 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
0
Von screne am Fr, 17. Dezember 2004 um 13:17 #
Das Teil ist ja genial und dazu ein echtes Schnaeppchen... (Ironie OFF) Da will wohl einer auf den Wir-bieten-auch-eine-Desktop-Suche-Zug aufspringen. Komisch, dass ich noch nie mehr als die Suchfunktion vom Krusader gebraucht habe. Organisation ist eben das halbe Leben und wer dazu nicht faehig ist muss wohl nen Hunni+ (tm) ausgeben :)
[
| Versenden | Drucken ]
  • 0
    Von smalltobi am Fr, 17. Dezember 2004 um 13:26 #
    full ack... man ist selbst schuld, wenn man es nicht schafft, ordnung auf der platte zu halten. Und wenn ich doch mal was suche, dann reichen mir in der Regel aussagekräftige Datei- und Ordnernamen, die sich dann auch mit find ausfindig machen lassen...
    [
    | Versenden | Drucken ]
    • 0
      Von TBO am Fr, 17. Dezember 2004 um 18:25 #
      Haha, speicher mal ein paar hunderte oder gar tausende Artikel als HTML, PS, PDF was auch immer ab, und dann finde mal den gesuchten Artikel zwei Jahre später wieder mit deinen "aussagekräftigen" Dateinamen.
      Die hierarchische Verzeichnisstruktur bietet sich nicht wirklich an, weil man Artikel oft mehreren Kategorien zuordnen kann (nein, ich werde sie nicht manuell mit Symlinks verlinken, beim nächsten Umsortieren wäre das Chaos perfekt).
      Und wenn Du dann 2 Jahre später nicht mehr weißt, ob Du eine Information nun in einer Mail, einem RSS-Feed oder eine Webseite archiviert hast ist das Chaos perfekt.

      Eine gute Desktop-Suchmaschine ist schon eine feine Sache. Leider habe ich noch nichts passendes gefunden (Beagle sieht vom Screenshot her ganz gut aus, ist aber leider Gnome). Quaneko ist nicht schlecht, integriert sich aber nicht sonderlich gut in den Desktop. Ich werde wohl warten müssen, bis die KDE 4-Entwicklung losgeht...

      [
      | Versenden | Drucken ]
      • 0
        Von popel am Fr, 17. Dezember 2004 um 20:47 #
        Allerdings muss man sagen, dass wer tausende artikel als html ps oder pdf speicher ja eh ein typischer kandidat für windows ist.

        wenn man information speicher benutzt man doch dafuer ein datenbank und kein filesystem.

        just my 2 cent

        [
        | Versenden | Drucken ]
        • 0
          Von TBO am Fr, 17. Dezember 2004 um 21:14 #
          Nein, ich habe durchaus einige hundert (ca. 600 sagt ls -1 * | wc) aufhebenswerte Dateien mit Webseiten, Artikeln, Anleitungen, Bildern etc. pp. gespeichert, die ich auch noch zur Verfügung haben will, wenn sie nicht mehr verfügbar oder kostenpflichtig (z.B. SpOn) geworden sind.
          Auf einem Desktop-Rechner installiere ich kein mySQL o.ä., den Server habe ich nicht immer laufen (und auch nicht immer verfügbar). Was ich brauche, ist eine einfache und schnelle Möglichkeit, die Daten abzulegen. Da die Daten eh als Datei daherkommen, bietet es sich an, sie in ein passendes Verzeichnis zu schieben.

          Unter Konqueror kann man Webseiten bequem als ".war" (ein tar.gz das alle benötigten .html, .css, Bilder etc. enthält) speichern und später per einfachen Klick wieder öffnen. Sehr komfortabel und schnell erledigt. Wenn sich in Home zuviele davon angesammelt haben wird aufgeräumt und alles in passende Verzeichnisse verschoben.
          Was noch fehlt, ist eine Suchmaschine, mit der man die Artikel ebenso komfortabel durchsuchen kann.

          [
          | Versenden | Drucken ]
          0
          Von philip am Sa, 18. Dezember 2004 um 15:32 #
          Also ich habe auch tausende Artikel (und was weiß ich noch alles...) auf meiner Platte gespeichert. Zwar versuch ich auch viele einfach als Bookmarks zu speichern aber viele Websites bleiben nicht ewig gespeichert...
          >wer tausende artikel als html ps oder pdf speicher ja eh ein
          >typischer kandidat für windows ist.
          Eher im Gegenteil... Unter Windows ist die Organisation davon noch viel schwieriger, da symbolische Links nicht unterstützt werden und Hardlinks nur mit NTFS.
          >wenn man information speicher benutzt man doch dafuer ein
          >datenbank und kein filesystem.
          Dann sag mir mal ne Datenbanklösung (zumindest kostenlos) für den Desktop, in die ich einfach aus dem Browser Seiten direkt reinspeichern kann und die sich auch problemlos in alle wichtigen Standartapplikationen integriert (->Acrobat, OOffice, GIMP...). Leider ist halt alles auf "normale" Dateisysteme hin optimiert und solche Strukturen haben halt einfach ihre Grenzen...
          [
          | Versenden | Drucken ]
    0
    Von Benson am Fr, 17. Dezember 2004 um 13:30 #
    locate blaaa
    mehr brauch ich nicht ;-)

    rgds
    Benson

    [
    | Versenden | Drucken ]
    • 0
      Von nocontend am Fr, 17. Dezember 2004 um 15:04 #
      find, grep, locate richtig angewandt machen Desktopsuchtools entbehrlich.
      [
      | Versenden | Drucken ]
      • 0
        Von Jörg am Fr, 17. Dezember 2004 um 17:49 #
        Na ja, ich habe mir mit kdialog ein kleines Script gebaut, so dass ich unter KDE mit einem Klick sowohl nach Name (via locate) als auch Inhalt (grep in den locate-Ergebnisse) suchen kann.
        Zehn Minuten Arbeit, dafür ~€100, das macht @600/h. Das möchte ich auch mal verdienen... ;)
        [
        | Versenden | Drucken ]
        • 0
          Von TBO am Fr, 17. Dezember 2004 um 18:28 #
          Dann durchsuche mal mit deiner Methode ein paar tausend Dokumente, Mails, RSS-Feeds, Usenet-Artikel :-)
          Ab einer gewissen Größe wird ein Index unentbehrlich, will man nicht während der Suche Kaffee-Pause machen.
          Und es braucht eine übersichtliche Ergebnisausgabe, die grep _nicht_ bietet.
          [
          | Versenden | Drucken ]
          • 0
            Von Jörg am Sa, 18. Dezember 2004 um 02:25 #
            > Dann durchsuche mal mit deiner Methode ein paar tausend Dokumente, Mails, RSS-Feeds, Usenet-Artikel

            Das habe ich schon hinter mir :( Knapp zwei TB nach "(355 [251], 241 [441])" durchsucht.

            > Ab einer gewissen Größe wird ein Index unentbehrlich

            Für die Suche nach Text ack, aber wenn man nach regulären Ausdrücken sucht, um sowas wie oben zu erwischen, sieht es schlecht aus. Dann kommt die Größe des Index nämlich selbst in die Nähe der eigentlichen Daten.

            > will man nicht während der Suche Kaffee-Pause machen.

            Ich setze die Suche per ssh ab, lokal merkt man also nichts davon.

            [
            | Versenden | Drucken ]
            • 0
              Von TBO am Sa, 18. Dezember 2004 um 09:59 #
              > Für die Suche nach Text ack, aber wenn man nach regulären Ausdrücken sucht, um sowas wie oben zu erwischen, sieht es schlecht aus. Dann kommt die Größe des Index nämlich selbst in die Nähe der eigentlichen Daten.

              Ok, reguläre Ausdrücke sind zwar mächtig, aber wenn man Textdokumente durchsucht, braucht man doch eher etwas mit dem Funktionsumfang von Google und Konsorten. Was helfen mir reguläre Ausdrücke, wenn ich Sonderzeichen manuell mit (ss|ß) oder so berücksichtigen muss und die Suche bei Nicht-us-ascii-Encodings aussteigt.
              Für den von Dir genannten Ausdruck sind RegExps natürlich optimal, es ist aber ein anderer Anwendungsfall.

              > Ich setze die Suche per ssh ab, lokal merkt man also nichts davon.

              Aber die Suche dauert trotzdem lange und es setzt voraus, dass man einen Rechner/Server laufen hat, der das übernimmt. Und den haben die meisten Leute nicht laufen.

              [
              | Versenden | Drucken ]
              0
              Von Benni am Sa, 18. Dezember 2004 um 14:57 #
              > Das habe ich schon hinter mir Knapp zwei TB nach "(355 [251], 241 [441])" durchsucht.

              Sag mal, arbeitest du bei der ESA oder so? Das sieht mir schwer nach Umlaufkoordinaten oder so aus...

              [
              | Versenden | Drucken ]
      0
      Von rohrbold am Fr, 17. Dezember 2004 um 16:24 #
      > locate blaaa
      > mehr brauch ich nicht;-)

      locate sucht allerdings nicht nach dem Inhalt(!) einer Datei,
      sondern nur nach dem Vorkommnis eines Musters innerhalb eines
      Dateinamens.
      Im übrigen ist der ReHash (updatedb) recht aufwendig, wenn man
      dies nicht automatisiert jede Nacht machen lassen kann.

      Martin

      [
      | Versenden | Drucken ]
      • 0
        Von fs111 am Fr, 17. Dezember 2004 um 17:26 #
        man doodle
        [
        | Versenden | Drucken ]
        0
        Von nufap am Fr, 17. Dezember 2004 um 23:38 #
        man anacron
        [
        | Versenden | Drucken ]
        • 0
          Von rohrbold am Sa, 18. Dezember 2004 um 10:39 #
          > man anacron

          Diese Kommentare finde ich ja immer irgendwie unpassend. Willst
          Du mir nicht vielleicht einfach mitteilen, dass anacron etwas kann,
          das meine Probleme in diesem Bereich lösen könnte? Dann schreib das
          doch einfach. Dieses "man" Getue könnte man sich gerne mal abgewöhnen.

          Im übrigen ist dieser dieses ReHashing immer noch ein Problem, auch
          mit anacron, denn während das passiert ist der Rechner faktisch kaum
          benutzbar. Und ich habe keine Zeitpunkte, zu denen ich fix weiß, dass
          ich während dieser den Rechner garantiert gestartet habe, ihn aber auch
          nicht nutze. Insofern bringen mir Dinge wie cron oder anacron auch
          leider nichts.

          [
          | Versenden | Drucken ]
    0
    Von Mario am Fr, 17. Dezember 2004 um 13:36 #
    Die Suche in Archiven und Office-Dateien ist in der Tat nicht schlecht. Vor allem wenn man viele Dokumente hat kann es eine enorme Hilfe sein. Da sie aber nicht OOo, bz2 und Linux-Email-Clients unterstützen, ist das Produkt für Linux nicht sonderlich brauchbar. Der Preis ist zudem viel zu hoch. Naja, vielleicht ist das Tool für Firmen interessant. Für Heim-Benutzen definitiv zu teuer.
    [
    | Versenden | Drucken ]
    0
    Von muh am Fr, 17. Dezember 2004 um 14:26 #
    kann mir jemand erklären, wie man einen Begriff aus einem PDF- oder Word-Dokument finden kann?
    [
    | Versenden | Drucken ]
    • 0
      Von troll am Fr, 17. Dezember 2004 um 14:38 #
      dateien entsprechend ihrem dateiformat parsen?
      [
      | Versenden | Drucken ]
      0
      Von mark am Fr, 17. Dezember 2004 um 17:30 #
      Open Office Dateien bestehen aus einer Anzahl von Textdateien die als Ziparchiv gepackt sind. Prinzipiell sind es also Zip-Archive.
      Diese kann man ganz normal mit einem Zip-Programm entpacken.
      Eine der Textdateien ist der Text des Dokumentes.
      Das sieht so aus als ob du von OO einen Text in einen Texteditor kopierst.
      In dieser Datei kannst Du dann mit den üblichen Linux (Unix) Werkzeugen nach Zeichfolgen (Wörtern)suchen.
      Für jemanden der schon einmal ein wenig Script-Programmierung gemacht hat, ist es überhaupt kein Problem dies zu automatisieren und die Ergebnisse in einem Archiv abzulegen.
      In diesem Archiv kann man dann sehr schnell nach Stichwörtern suchen.
      In Worddokumenten versteckt sich der Text zwischen Formatierungsanweisungen. Obwohl es wohl ein Binärformat ist kann man den Text direkt mit den Linux Werkzeugen absuchen. Neuere Word Dateien sind glaube ich in einem OO Ähnlichen Format gespeichert. Damit kenne ich mich aber nicht aus.

      PDF Dokumente sind soweit ich weiß Binärdateien und deshalb mit Hausmitteln nicht auszulesen.
      Allerdings kann XPDF Texte in pdf-Dokumenten finden. Es sollte also auch möglich sein ein Suchprogramm zu schreiben.

      Gruß

      Mark

      [
      | Versenden | Drucken ]
      0
      Von ketjow am Fr, 17. Dezember 2004 um 17:42 #
      pdftotext datei.pdf | grep was_du_suchst
      [
      | Versenden | Drucken ]
      • 0
        Von TBO am Fr, 17. Dezember 2004 um 18:51 #
        Was machst Du bei Problemen mit dem Encoding? Ganz abgesehen davon sucht man ja oft nicht in einer konkreten Datei, sondern durchsucht ein ganzes Archiv. Und da hat man es mit zig verschiedenen Dateiformaten zu tun.
        [
        | Versenden | Drucken ]
        • 0
          Von Stefan Becker am Sa, 18. Dezember 2004 um 17:06 #
          Professionelle Suche arbeitet mit einer Volltextdatenbank. Ein Dokument wird einmalig ausgelesen, jedes Wort geht in eine Datenbank und kann über einen Suchindex gefunden werden.

          Gibst du jetzt "meierkurt ist doof" ein, suchst du nicht in allen Dokumenten, sondern in der Datenbank nach einbem Dokument, dass mit diesen Worten verlinkt ist.

          [
          | Versenden | Drucken ]
    0
    Von raph am Fr, 17. Dezember 2004 um 14:45 #
    Schön, dass du so ordentlich bist und soetwas nicht brauchst. Danke, dass du uns davon Mitteilung gemacht hast.

    Im ernst, ich kann dieses Gelaber wenn es um Desktopsuchsysteme geht einfach nicht mehr hören. Wenn es jemand nicht braucht, wunderbar, dann braucht er es halt nicht. Das Problem scheint mir aber vielmehr zu sein, dass den meisten Leuten nicht klar ist, wozu das ganze gut sein kann, was sie aber natürlich nicht davon abhält schlaue Kommentare zu machen.

    Nur um mal ein Beispiel zu nennen, wann so eine Funktion nützlich sein kann. Man kann, es mag den einen oder anderen überraschen, im Internet nicht nur tolle Bildchen herunterladen, sondern zu vielen Themen auch ganz wunderbar recherchieren. So finden sich eine ganze Reihe wissenschaftlicher Publikationen online. Jetzt verrate mir der Herr Orginalautor doch mal, was daran schlecht ist, mir diesen Wust an Literatur durch gezielte Stichwortsuche zu erschließen? Da helfen einem nämlich weder Ordnung, noch locate weiter.

    Um nochmal auf das eigentliche Thema zu kommen. Es ist zwar begrüssenswert, wenn eine Software auch für Linux angeboten wird, allerdings erschließt sich mir anhand des Artikels nicht ganz, was den Preis im Vergleich zu freien Alternativen rechtfertigt. Zum Beispiel habe ich letztens x-friend entdeckt, das zwar leider auch nicht open source, aber zumindest kostenlos ist und soweit ich das beurteilen kann über den gleichen Funktionsumfang verfügt wie die hier vorgestellte Software. (Leider auch einschließlich der Probleme mit OpenOffice Formaten.)

    Von wirklich freien Alternativen, wie zum Beispiel beagle, das zwar noch im beta Stadium steckt, aber in nicht all zu ferner Zukunft voll einsatzfähig sein dürfte, gar nicht zu reden.

    [
    | Versenden | Drucken ]
    • 0
      Von Ralph Miguel am Fr, 17. Dezember 2004 um 14:52 #
      Ich halte so ein Ding auch für nützlich, da ich mich in 100000+ Dateien unterschiedlicher Art zurechtfinden muß. Unter Windows habe ich zuletzt eine Beta von myIntelliger getestet; das war schon Klasse, wenn man vom Zeitbedarf für den Indexaufbau und den beta-üblichen Krankheiten mal absieht.
      [
      | Versenden | Drucken ]
      0
      Von screne am Fr, 17. Dezember 2004 um 15:36 #
      Dafuer wird es in Zukunft Dateisysteme geben, die das Suchen in Metadaten erlauben und ohne Buzzwords wie "Desktop-Suche" auskommen. Wenn Du mit proprietaerer Pseudo-Sensationssoftware gluecklich wirst wuensche ich Dir viel Glueck.
      [
      | Versenden | Drucken ]
      • 0
        Von lesen? am Fr, 17. Dezember 2004 um 16:01 #
        beagle?
        [
        | Versenden | Drucken ]
        0
        Von styyxx am Fr, 17. Dezember 2004 um 17:12 #
        Tach,

        nicht immer kann man sich das Dateisystem aussuchen und selbst wenn dann ändert man nicht man mal so auf zig Maschinen das Dateisystem.
        Ordnung halten ist ja ganz schön doch leider hat jeder ne andere Art von Ordnung und Sortierung. Spätestens wenn mehrere Leute Dokus und Howtos in Verzeichnisse legen ist es mit der Ordnung die man kennt vorbei.
        find ist sehr gut zum finden von Dateien, etwas langsam und bei manchen Anforderungen in der Suche muß man sich syntaktisch einen abbrechen aber tatsächlich sehr gut.
        grep stößt schnell an seine Grenzen. Binärdateien sowie solche die grep dafür hält und EBCDIC oder Dateien ohne 0x0a sind nicht wirklich gut mit grep zu durchsuchen.
        Insofern sehe ich durchaus den Bedarf für ein Suchtool das diese Beschränkungen nicht hat.

        Grüße
        styyxx

        [
        | Versenden | Drucken ]
        0
        Von Ralph Miguel am Fr, 17. Dezember 2004 um 17:25 #
        Es wird in Zukunft Dateisysteme geben.... alle Menschen werden Brüder... hört sich an wie die regelmäßigen Verkündigungen aus Redmond. Wenn es soweit ist, werde ich die Vorzüge eines solchen Dateisystems sicherlich genießen. Und bis dahin helfe ich mir anders.
        [
        | Versenden | Drucken ]
        0
        Von Chaoswind am Fr, 17. Dezember 2004 um 18:58 #
        > Dafuer wird es in Zukunft Dateisysteme geben, die das Suchen in Metadaten erlauben

        Die Zukunft ist irgendwann, die Probleme der Gegenwart sind jetzt.

        [
        | Versenden | Drucken ]
        0
        Von philip am Sa, 18. Dezember 2004 um 15:36 #
        Leider leben wir in der Gegenwart... ;->
        [
        | Versenden | Drucken ]
0
Von pippi am Fr, 17. Dezember 2004 um 13:59 #
Hallo!

Schreibt man "Systemvoraussetzungen" wirklich mit "ä"? Ich bin verunsichert, sieht aber echt schlimm aus ...

/Pippi

[
| Versenden | Drucken ]
  • 0
    Von Andi am Fr, 17. Dezember 2004 um 18:50 #
    Nein, das kann man nicht mal auf die neue Rechtschreibung schieben ;) Kreativ ist es allemal - Google liefert zu "Systemvoraussätzungen" nur einen Treffer und der ist von superiorsearch.com :))
    [
    | Versenden | Drucken ]
0
Von Rainer am Fr, 17. Dezember 2004 um 14:14 #
Das Programm ist wenigstens nativ unter Linux. Wenn auch mit dem realativ alten qt2.3 gemacht. Damit aber immer noch besser als das Wine Zeugs. Die unter Linux geläufigen Dateiformate müssen aber noch hinzu kommen. Und über den Preis sollte man noch mal nachdenken.
[
| Versenden | Drucken ]
0
Von patrick am Fr, 17. Dezember 2004 um 14:45 #
Superior Search für Open-Office [...] allen gängigen Texten und Office- Dokumenten (z.B. MS-Word, RTF, HTML, usw.) ... nur halt nicht im native OO Format .. und verdammt. ich verwende für meine Mails IMAP :)
[
| Versenden | Drucken ]
  • 0
    Von patrick am Fr, 17. Dezember 2004 um 14:55 #
    so grad ausprobiert. suppi, mit kfind find ich glaub ich das selbe. Außerdem gibts keine Indizierung der Daten. Bei der jeder suche wird alles neu durchforstet - fad. Weiters kann ich dann die gfundenen Dateien nicht öffnen (zb. mit den mimetypensystem von KDE/Gnome) -- noch fader.

    Wer braucht das wirklich? da hat ja noch das x-friend oder wie das hieß mehr her gemacht.

    [
    | Versenden | Drucken ]
0
Von garbeam am Fr, 17. Dezember 2004 um 15:26 #
Das geht viel eleganter und einfacher:

grep -r '<pattern>' /

Und kostet keinen Cent.

[
| Versenden | Drucken ]
  • 0
    Von Hans am Fr, 17. Dezember 2004 um 15:41 #
    "grep -r '' /"
    zum Suchen nach Text in Dateien ist sehr langsam. Besser, man beschränkt sich auf ein Verzeichnis, das möglichst keine großen Binärdateien enthält.

    Zum Suchen nach Dateinamen kann man
    "find ./ -name ''"
    verwenden, dies ist aber auch verhältnismäßig langsam. "locate" tut das gleiche in einem Bruchteil der Zeit. Leider gibt es aber einige empfindliche Zeitgenossen, die sich über die nächtlichen Aktualisierungen des locate-Indexes gewundert haben, so dass "locate" bei manchen neueren Distributionen standardmäßig nicht mehr mitinstalliert wird. GGf. muss also "locate" erst noch installiert werden. Anschließend kann man sich über Suchzeiten im Sekundenbereich freuen.

    [
    | Versenden | Drucken ]
    0
    Von Andi am Fr, 17. Dezember 2004 um 16:41 #
    Vorausgesetzt, es handelt sich dabi nicht um binäre Dateien wie PDF, OOo oder andere... Grep ist gut, aber in vielen Fällen nicht ausreichend.
    [
    | Versenden | Drucken ]
    0
    Von Anonymous Coward am Fr, 17. Dezember 2004 um 17:01 #
    glimpse 'pattern' ist wirklich gut, damit kann man 1GB Text in einer Sekunde nach einem Stichwort durchforsten. Man müßte aber noch einen Indizierservice in Linux realisieren, damit der Index nicht nur einmal pro Tag per Cronjob auf den aktuellen Stand gebracht wird.

    Die kostenlose Trialversion reicht für den Hausgebrauch gut aus.

    [
    | Versenden | Drucken ]
    • 0
      Von snorg am Fr, 17. Dezember 2004 um 18:41 #
      Oder swish-e. :-) Damit indiziere und durchsuche ich unter anderem OO-Writer, OO-Calc, MS-Word, MS-Excel, .ps, .pdf und .jpg-Dateien.
      [
      | Versenden | Drucken ]
    0
    Von TBO am Fr, 17. Dezember 2004 um 18:48 #

    - Keine Unterstützung für z.B. OOo-Dateien, PDF oder Archive.
    - langsam, da kein Index. "grep -r pattern /" dauert Ewigkeiten, das Suchergebnis sollte in spätestens wenigen Sekunden verfügbar sein.
    - Keine Internationalisierung: "Lässig" matcht nicht auf "Laessig". Außerdem gibts Encoding-Probleme, bei anderen Sprachen noch viel mehr als beim Deutschen.
    - unübersichtliche Ergebnisdarstellung bei vielen Treffern.

    und und und...

    [
    | Versenden | Drucken ]
0
Von Al am Fr, 17. Dezember 2004 um 16:02 #
Ist das Ding nun etwas neues, mit eigenem Suchalgoritmus oder nur ein Frontend für U*x Tools à la locate, grep, find...

Legt es eine eigene Datenbank mit den Suchergebnissen an, so daß die nächste Suche schneller vonstatten geht oder.....


Viele Fragen


Al

[
| Versenden | Drucken ]
  • 0
    Von Chaoswind am Fr, 17. Dezember 2004 um 19:02 #
    Es gehoert eigentlich zum Standard einer Desktop-Suche
    einen Index zu nutzen. Und ich schaetze nachdem im Artikel
    von sofortigem Anzeigen der Suchresultate die rede ist
    wird das hier nicht anders sein.
    [
    | Versenden | Drucken ]
0
Von mark am Fr, 17. Dezember 2004 um 17:51 #
Wie man aus den Beiträgen erkennt können die wichtigsten Dateiformate problemlos mit einem miniscript ausgelesen werden.

Möglich ist das mit:
Word
Exel
allen OO Dateien
pdf
Alle Programme die XML Dateien ausgeben

Fehlt noch etwas?
Was hindert uns daran ein Suchprogramm selber zu schreiben.
Wenn es schon als Script einfach geht, sollten das begabte Programmierer auch mit einer richtigen Programmiersprache schnell schaffen.
Aufgrund der XML-Struktur von OO Dokumenten ist es für mich unverständlich warum kommerzielle Programme diese Dateitypen nicht unterstützen.

Also Programmierer: Heute Abend schnell ein Suchprogramm geschrieben! ;-)

Viele Grüße

Mark

[
| Versenden | Drucken ]
  • 0
    Von TBO am Fr, 17. Dezember 2004 um 18:38 #
    Es braucht einen intelligenten Indexer, der schnell ist und nicht allzu viel Platz verbraucht. Die Formate in Klartext zu verwandeln ist eine Sache, sie zu indexieren und wieder zu durchsuchen eine andere. Außerdem sollte die Suchmaschine schon mit allen Sprachen funktionieren und im Deutschen z.B. Umlaute berücksichtigen. "Gausskurve" und "Gauß-Kurve" sollten dieselben Ergebnisse liefern.

    Ich denke am einfachsten ist es, eine bestehende Suchmaschine bzw. entsprechende Library zu nehmen und komfortable CLI- bzw. GUI-Tools drumrumzubasteln. Ich habe mal überlegt sowas für KDE anzufangen, aber da das eh für KDE 4 geplant ist, habe ich mich dann auf andere Dinge konzentriert... Für meine Zwecke ist Quaneko ganz ok, auch wenn es einige der obengenannten Dinge nicht bietet.

    [
    | Versenden | Drucken ]
    0
    Von TBO am Fr, 17. Dezember 2004 um 18:55 #
    Nachtrag, es gibt schon einige Tools die sowas können, meine Recherchen ergaben u.a. Doodle, Quaneko und Beagle.
    [
    | Versenden | Drucken ]
    • 0
      Von Waldgeist am Sa, 18. Dezember 2004 um 12:43 #
      Beagle find ich wirklich schick ( sogar optisch.. wen wunderts tigert entwickelt mit :o)
      http://www.gnome.org/projects/beagle/

      Ist das problem das einige hier KDE User sind die kein Gnometool verwenden wollen... damit fällt Beagle flach.

      Gruß
      Waldgeist

      [
      | Versenden | Drucken ]
0
Von broesel am Fr, 17. Dezember 2004 um 18:27 #
... viele meinen das ist entweder nur ein grep oder find. Diese Systeme sind viel
intelligenter. Ich habe hier einen Windows XP Rechner (von der Firma) und hier hab
ich copernicus desktop search drauf und möcht solch ein Tool nicht mehr missen.
Ich ca 6-7 Verzeichnisse die werden regelmässig indiziert was vor allem gut bei
Dokumentationen , Mp3, E-Mails (ok Thunderbird wird noch nicht unterstützt) etc.

Wenn ich ein Grep oder find mache wird doch immer über das Verzeichnis oder gesamte
Platte gescannt .. bei Desktop Suche wird über den Index abgefragt und innerhalb
einer Sekunde hat man die Infos.

Ich finde es auch ignorant wenn Leute sagen solche Programme braucht man nicht,
ohne es zu kennen bzw. mal zu überlegen für was die gut sind.

[
| Versenden | Drucken ]
0
Von psil am Fr, 17. Dezember 2004 um 18:55 #
Das Bonner Unternehmen NeuroPower Technologies GmbH stellt ab sofort ihre »Superior Search 2004« für Linux zur Verfügung.

Nicht nur bei Windows füllt sich die Festplatte, und die Suche nach einer bestimmten Datei wird zu einem immer größeren Problem. Mit wachsenden Datenmengen stoßen die gängigen Methoden zur Wiederfindung allerdings immer öfter an ihre Grenzen. Während manch ein Projekt das Dilemma durch ein geeignetes Dateisystem zu lösen versucht, bedienen sich andere Hersteller der erweiterten Suche und bieten spezielle Tools an.

So hat die NeuroPower Technologies seine Search-Software-Produktfamilie für Linux vorgestellt und bietet ab sofort eine Beta-Version allen Interessenten zum Download an. Mit Hilfe der, laut Aussagen des Herstellers, auf den Open-Office-Bereich gerichteten Suche, können Unternehmen und private Anwender die Suche in E-Mails/Attachments, Archiven und in den gängigsten Datei-Typen aufnehmen. »Ein besonderes Kennzeichen der Superior Search 2004 Produkt-Familie ist die gelungene Symbiose aus Leistungsspektrum und Einfachheit der Bedienung«, preist NeuroPower Technologiessein Produkt. So soll die Applikation »im Handumdrehen« in der Lage sein, Stichwörter, Textpassagen, Zahlen, Formeln und sonstige Informationen in Dateien und Dateiarchiven zu finden – und das dateiformatübergreifend. »Superior Search 2004 macht weder vor seltenen Dateiformaten und komprimierten Dateiarchiven noch vor E-Mail-Archiven samt (auch komprimierten) Anhängen halt«, so der Produzent.

Während Superior Search 2004 viele der Windows-Formate problemlos zu durchsuchen vermag, sieht die Unterstützung von Linux in der aktuellen Beta-Version allerdings immer noch nicht optimal aus. Bei unserem Test konnte die Applikation zwar Informationen aus Word-Dokumenten tadellos finden, versagte allerdings bei Open- und StarOffice-Dateien. Ferner ist es Superior Search 2004 nicht möglich bz2-Dateien zu lesen, und die Suche in E-Mails beschränkt sich darüber hinaus nur auf Outlook und Outlook Express.
Die aktuelle Beta-Version von Superior Search 2004 kann ab sofort vom Server des Unternehmens heruntergeladen werden und ist bis zum 1. Februar 2005 lauffähig. Vorschläge zur Erweiterung des Funktionsumfangs sowie Fehlermeldungen können darüber hinaus an info@neuropower.com gesendet werden. Der Preis für eine Einzellizenz unter Windows beträgt 139,00 Euro oder als Download 109,00 Euro Brutto. Ein erster Eindruck von Superior Search 2004 kann anhand ausgewählter Screenshots gewonnen werden.

[
| Versenden | Drucken ]
0
Von Eike am Sa, 18. Dezember 2004 um 12:20 #
Hallo zusammen!

Der FFII hat gestern abend zu einem Netzstreik aufgerufen.
Es wäre schön, wenn sich alle daran beteiligen könnten.

Vorlage: http://www.heise.de/newsticker/foren/go.shtml?read=1&msg_id=7064538&forum_id=70828

Eike

[
| Versenden | Drucken ]
0
Von Re-Mark am Sa, 18. Dezember 2004 um 13:10 #
Ich wäre ja schon froh, wenn ich wüßte mit welchen Mitteln ich am besten meine Daten ausmiste, also z.B. aus etwa 6 Mailfoldern (drei Computer: Notebook, Desktop zuhause, Desktop in der Uni, auf jedem Win und Linux) einen mache, doppelte Dateien rausschmeisse (auch wenn sie verschiedene Namen tragen oder Unix vs. DOS Linefeed aufweisen).

Also: Wenn ich alle Daten von verschiedenen Rechnern und Betriebssystemen auf eine Platte kopiere bzw. einige der betreffenden Festplatten übers Netzwerk mounte, mit welchen Hilfsmitteln bekomme ich am besten alles doppelte raus, Mails in einem System versammelt (und die ganzen doppelten, weil von verschiedenen Systemen mehrfach abgerufen, weg), und verschiedene Versionen eines Dokuments zum Löschen der überflüssigen vorgelegt?

Schon klar, daß es mehrere Hilfsmittel sein werden.

[
| Versenden | Drucken ]
  • 0
    Von dukky am Sa, 18. Dezember 2004 um 20:35 #
    Also für die emails ist IMAP dein Freund :-)

    Ein zentraler Server auf dem die emails liegen (und im Gegensatz zu POP3 auch liegen bleiben) und von beliebig vielen Clients abgerufen werden können, egal von wo und unter welchem OS.

    [
    | Versenden | Drucken ]
0
Von betso am So, 19. Dezember 2004 um 19:00 #
what about the tools (s)locate?
i don't search longer than 5'' for a file.. :)
[
| Versenden | Drucken ]
0
Von Micha am Mo, 20. Dezember 2004 um 11:02 #
Meine Empfehlung: swish-e
Legt Index-Dateien an und unterstützt einige gängige Dateiformate (natürlich in erster Linie plain text).
Kann nur empfehlen, reine Information als plain text oder HTML abzulegen. Damit kann man unter quasi jedem OS etwas anfangen (sogar unter Win mit Wordpad, welches einige Textcodierungen verkraftet), notfalls mit unix2dos in den DOS-Zeilenende-Standard wandeln. Und Formatierung kann man auch durch Nummerierung, Anstriche und Unterstreichungen mit verschiedenen einfachen (ASCII-)Zeichen ersetzen

Es gibt irgendwo im Web einen Beitrag, wo M. Schilli (Linux Magazin-Autor) ein kleines nützliches Tool zur Recherche in der Perl-Doku schrieb (natürlich mit Perl). Das läßt sich einfach abwandeln und als CGI mit lokalem Webserver ohne Probleme als GUI benutzen.
Native Programmierung sollte man meiden, wo es geht, wenn man sich Probleme mit unterschiedlichen Plattformen und Bibliotheksständen vom Hals halten will.

MfG

[
| Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten
Werbung