Login
Newsletter

Thema: PDF-Tools für die Konsole

90 Kommentar(e) || Alle anzeigen ||  RSS
Kommentare von Lesern spiegeln nicht unbedingt die Meinung der Redaktion wider.
0
Von asdfg am Di, 6. Dezember 2011 um 16:02 #

"pdftk documentation_de.pdf cat 2-7 output inhalt.pdf"

kenn den befehl ned aber eine zeile drunter steht "cut", also geh ich mal von einem schreibfehler aus (cat vs cut), falls möglich meinen beitrag nach korrektur löschen...

[
| Versenden | Drucken ]
  • 0
    Von Urs Pfister am Di, 6. Dezember 2011 um 17:53 #

    Richtig ist schon 'cat', nur verwechsle ich das zuweilen mit 'cut'. Sorry für das Missgeschick.

    [
    | Versenden | Drucken ]
    • 0
      Von damada am Di, 6. Dezember 2011 um 19:31 #

      cat ist kurz für concatenate = aneinanderhängen :)

      Auch von mir Danke für die nette Übersicht!

      [
      | Versenden | Drucken ]
      • 0
        Von asdfg am Di, 6. Dezember 2011 um 22:06 #

        aneinanderhängen, aber es ging ja ums ausschneiden Oo

        [
        | Versenden | Drucken ]
        • 0
          Von Urs Pfister am Di, 6. Dezember 2011 um 22:17 #

          Auszug man pdftk

          cat []
          Catenates pages from input PDFs to create a new PDF

          Ja, eben deshalb verwechsle ich das immer mal wieder, die meinen eben mehrere Seiten aus einer bestehenden PDF-Datei aneinanderreihen -- und nicht ausschneiden.

          [
          | Versenden | Drucken ]
0
Von abcde am Di, 6. Dezember 2011 um 16:09 #

Danke, ein hervorragender Tipp, kurz und bündig.

[
| Versenden | Drucken ]
0
Von jefaridas am Di, 6. Dezember 2011 um 16:21 #

Die PostScript Wandlung führt ja wie auch angemerkt zu erheblich größeren Dateien. Es gibt auch Tools die das direkt erledigen. Mein persönlicher Favorit ist ja pdfjam, das braucht aber glaub ich TeX und ist somit recht groß, kann dafür aber auch fast alles.

[
| Versenden | Drucken ]
  • 0
    Von Urs Pfister am Di, 6. Dezember 2011 um 18:29 #

    Ich konnte pdfjam unter Debian installieren, finde das Programm anschliessend allerdings nicht. Was muss auser LaTeX noch installiert sein?

    [
    | Versenden | Drucken ]
    • 0
      Von Christoph Lange am Mi, 7. Dezember 2011 um 22:07 #

      Ich habe gerade unter Gentoo mal geguckt, da hat pdfjam wirklich nur latex-base als Abhängigkeit, und es wird ganz normal installiert, mit ausführbaren Dateien (= Shell-Skripten) in /usr/bin.

      @Alle: pdfjam enthält übrigens auch pdfnup; damit entfällt die Notwendigkeit, wegen psnup nach PostScript zu konvertieren (was nach meiner Erfahrung gerade Dateien mit großen Grafiken gern zerschießt bzw. extrem groß hinterlässt).

      Mein persönlicher Vergleich von pdftk und pdfjam fällt so aus: Bei ungewöhnlichen Seitenformaten macht pdfjam gern A4 draus, und ich habe noch nicht raus, wie man das abstellt bzw. ob das geht. pdftk lässt die Seiten so wie sie waren. Andererseits basiert pdftk AFAIK auf einer alten, nicht mehr gepflegten PDF-Bibliothek und kann deshalb manche sehr moderne PDFs nicht öffnen.

      [
      | Versenden | Drucken ]
      • 0
        Von Urs Pfister am Mi, 7. Dezember 2011 um 22:31 #

        Ich finde es schlicht toll, wie zahlreich hier Varianten mit konkreten Lösungen mitgeteilt werden. PDFJAM kannte ich (analog zu sam2p) nicht; ich denke aber, dass beide Tools eine echte Bereicherung sind.

        Die Tools werden von mir gerne intensiver getestet; ich danke allen für die echt wertvollen Tipps.

        [
        | Versenden | Drucken ]
3
Von verweundert am Di, 6. Dezember 2011 um 16:30 #

Warum macht man es nicht gleich richtig wie im Adobe Reader? Dort wo man es praktsich erwarten würde.

Einfach im Betrachter Menüpunkt -> Datei -> Eigenschaften und schon hat man einen guten Überblick.

Statdessen muss man wieder X beschissene Kommandos und Parameter auswendig lernen das irgendwann obsolet wird.

Damit distanziert man sich noch ein Stück weiter von benutzerfreundlichem Arbeiten. Kein Wunder das keiner mehr mit Linux arbeiten möchte.

[
| Versenden | Drucken ]
  • 0
    Von Is doch klar am Di, 6. Dezember 2011 um 16:31 #

    Weil man unbedingt deine wichtigen und qualifizierten Kommentare hören möchte.

    [
    | Versenden | Drucken ]
    0
    Von zeitungsente am Di, 6. Dezember 2011 um 16:43 #

    Statdessen muss man wieder X beschissene Kommandos und Parameter auswendig lernen das irgendwann obsolet wird.
    Wie du selbst schreibst, muss man nicht, aber man kann.

    Ansonsten fände ich es toll, wenn du deine unter-Linux-muss-alles-auf-der-Kommandozeile-gemacht-werden-Beiträge unterlässt. Sie nerven und sind praktisch immer falsch.

    [
    | Versenden | Drucken ]
    • 0
      Von rainer1 am Di, 6. Dezember 2011 um 23:06 #

      Ich nutze Linux als GUI Anwendung und sehe es genau so dass die Parameterscheisse so langsam aufhören sollte.

      [
      | Versenden | Drucken ]
      • 0
        Von CLI Freak am Mi, 7. Dezember 2011 um 09:11 #

        Warum sollte man mit CLI Tools und deren Parametern aufhören? Nur weil du das als rückständig betrachtest?

        Rückständig ist eine GUI.

        [
        | Versenden | Drucken ]
        • 0
          Von wm am Do, 8. Dezember 2011 um 12:51 #

          Kommandozeilenparameter sind rückständig. Da hat er recht.

          Eine GUI die richtig aufgebaut ist erklärt sich von selber und man muss nichts nachlesen und nichts auswendig lernen.

          Leider wird heute immer noch vieles einfach so quick und dirty programmiert so dass man selbst mit der GUI nicht besser dran ist als mit den Parametern.

          [
          | Versenden | Drucken ]
        0
        Von ewigkeit am Mi, 7. Dezember 2011 um 09:36 #

        Klicki-Bunti-Jünger - geht doch einfach weg von Linux

        [
        | Versenden | Drucken ]
        • 1
          Von Lomaxx am Mi, 7. Dezember 2011 um 10:59 #

          Beide Welten (gui-tools und cli-tools) können wunderbar nebeneinander existieren und haben beide ihre Daseinsberechtigung. Da muss und sollte sich keiner Verabschieden. Wer mit einer der beiden Seiten nichts anfangen kann: In diesem Zusammenhang ist Ignorieren schon gleich Tolerieren.

          [
          | Versenden | Drucken ]
          • 0
            Von ewigkeit am Mi, 7. Dezember 2011 um 14:33 #

            Das tu ich zu 99% - aber machmal platzt einem bei der ewigen Rumnörgelei mal der Kragen. Das Schöne an Linux ist doch gerade, dass man im Hintergrund mitbekommt, was passiert - vor allem, wenn was schiefläuft. Es ist keine Windows-Umsonst-Alternative. Unter anderen Betriebssystem darf man bei Fehlern das Schwitzen und Stochern im Nebel beginnen…

            [
            | Versenden | Drucken ]
    0
    Von tim_c. am Di, 6. Dezember 2011 um 16:50 #

    Was Du beschreibst, sollte eigentlich schon im mitgelieferten Dateimanager möglich sein. Unter KDE3-Konqueror funktioniert das jedenfalls.

    [
    | Versenden | Drucken ]
    0
    Von the void am Di, 6. Dezember 2011 um 17:08 #

    ... lots of memory.

    [
    | Versenden | Drucken ]
    • 0
      Von rainer1 am Di, 6. Dezember 2011 um 23:02 #

      Gibt ja nicht nur den von Adobe. Außerdem kostet 8GB RAM 30€ und vor kurzem habe ich mir 1TB für 60€ gekauft...

      [
      | Versenden | Drucken ]
      • 0
        Von kjhklhklhkl am Mi, 7. Dezember 2011 um 00:08 #

        Alter SD- und DDR-RAM ist weder in dieser Form noch zu diesem Preis erhältlich.
        Sind diese 8GB "neuer" DDRx-RAM für 30 Euro auch qualitätsmäßig so gut, dass sie mindestens 5 Jahre Dauerbetrieb überstehen?
        Verstehe mich bitte nicht falsch, wenn Du mit den 8GB RAM unter Linux etwas anfangen kannst (z.B. für mehrere VMs), dann bin ich der Letzte, der gegen einen solchen Kauf etwas sagen würde.

        Das Hauptmanko ist und bleibt aber der unfreie Code. Das ist bei einem Programm, dass auf etwa (95+x)% aller Rechner eingesetzt wird, für meinen persönlichen Geschmack hoch bedenklich.
        Der ganze "Bloat" dient schließlich nur zum Anzeigen von pdfs. So weit, so klar.
        Das sieht man ja auch an Evince, Okular, Epdfview, Xpdf, Kpdf, alles nackter "Bloat". :-)
        Z.B. Evince wäre IMHO dann in etwa mit Adobe Reader "vergleichbar", wenn er so groß wäre und soviel RAM- und CPU-Power bräuchte wie OpenOffice, nur zum Anzeigen von pdfs, versteht sich.

        Gegenüber einer solchen RAM- und CPU-Verschwendung für recht wenig Leistung habe ich allerdings massive Vorbehalte, ich habe aber nichts gegen viel RAM und CPU-Power per se. Manche Programme haben es jedoch schlichtweg nicht "verdient", für das, was sie leisten, einen beträchtlichen Teil meiner Systemressourcen auffressen zu dürfen.

        [
        | Versenden | Drucken ]
        • 0
          Von rainer1 am Mi, 7. Dezember 2011 um 14:24 #

          > Alter SD- und DDR-RAM ist weder in dieser Form noch zu diesem Preis erhältlich.

          Darauf gibt es schon lange keine Garantie mehr. Wäre mir zu gefährlich...

          >Sind diese 8GB "neuer" DDRx-RAM für 30 Euro auch qualitätsmäßig so gut, dass sie mindestens 5 Jahre Dauerbetrieb überstehen?

          Japs. Kann ich bestätigen. Hab den schon über 2 Jahre drin. Werde ihn bald rausschmeissen und gegen 8GB Module ersetzen.

          > Verstehe mich bitte nicht falsch, wenn Du mit den 8GB RAM unter Linux etwas anfangen kannst (z.B. für mehrere VMs), dann bin ich der Letzte, der gegen einen solchen Kauf etwas sagen würde.

          Für 30€ muss man da nicht überlegen. So muss ich mir in der nächsten Zeit keine Sorgen machen ob ich genug Speicher habe.

          > alles nackter "Bloat".

          Ja aber es sollte nicht jucken. Wozu denn auch? obs 10 oder 100 Mb ist.. tut einfach nichts zur Sache. Man spürt noch nicht einmal die Response Time.

          > Z.B. Evince wäre IMHO dann in etwa mit Adobe Reader "vergleichbar", wenn er so groß wäre und soviel RAM- und CPU-Power bräuchte wie OpenOffice, nur zum Anzeigen von pdfs, versteht sich.

          Du bist nicht up to date. Adobe Reader 10 ist schön schlank und schnell und beherrscht alles was der Standard zu bieten hat inkl. der Adobe Gimmicks.

          > Manche Programme haben es jedoch schlichtweg nicht "verdient", für das, was sie leisten, einen beträchtlichen Teil meiner Systemressourcen auffressen zu dürfen.

          Das ist der letzte Punkt um den ich mir Sorgen mache. Heute ist die Hardware derart günstig so dass man schon im mittleren Budget einen Overkill hat. AMD oder Intel

          [
          | Versenden | Drucken ]
          • 0
            Von nmnmnn am Mi, 7. Dezember 2011 um 16:34 #

            Das Wichtigste wurde hier vergessen:

            Adobe Reader ist zu gewissen Zeiten ein nicht akzeptables Sicherheitsrisiko, so wie gerade jetzt:

            http://www.heise.de/security/meldung/Adobe-warnt-vor-Zero-Day-Luecke-in-Reader-und-Acrobat-1391348.html

            Adobe hat selbst davor gewarnt, und das ohne überhaupt schon Patches für die Sicherheitslöcher anzubieten. Die Sicherheitslücken werden halt bereits ausgenutzt.

            Das ist IMHO der Hauptgrund, keinen Adobe Reader einzusetzen:
            Er wird nicht rechtzeitig gepatcht.

            [
            | Versenden | Drucken ]
            0
            Von mnmnmnn am Mi, 7. Dezember 2011 um 16:53 #

            Noch eine Anmerkung zum RAM:

            Ich staune immer wieder, wie Microsoft bei seinen Designplanungen und -begrenzungen auf der Höhe der Zeit ist.

            So beträgt das RAM-Limit für Windows 7 Home Premium willkürliche 16GB RAM:

            http://msdn.microsoft.com/de-de/library/aa366778%28v=vs.85%29.aspx#physical_memory_limits_windows_7

            Das Limit für Windows 7 Home Basic liegt gar bei nur 8GB RAM, Windows 7 Starter bei ganzen 2GB RAM.

            [
            | Versenden | Drucken ]
            • 0
              Von wm am Do, 8. Dezember 2011 um 12:52 #

              Damit die Leute nicht die Schampel-Versionen benutzen.

              Diese liegen meistens bei den Aldi und MM Krücken bei.

              Irgendwie muss man ja solche Geiz ist Geil Leute ja bestrafen.

              [
              | Versenden | Drucken ]
              • 0
                Von mnmnnmn am Do, 8. Dezember 2011 um 17:47 #

                Das ist zwar offtopic, aber es muss sein:
                Windows XP 64bit erlaubt mit Ausnahme der Starteredition die Benutzung von bis zu 128GB RAM, Windows Vista Home Premium und Windows7 Home Premium (jeweils die 64bit-Versionen) nur bis zu 16GB RAM.
                Was sagt uns das?

                Ganz einfach. Microsoft wusste schon immer, wie sie ihrer Kundschaft das Geld aus der Tasche ziehen.
                Wer mehr als 16GB RAM vwerwenden will, kann auch ein "neues" Windows kaufen. Hauptsache, der RAM ist billig. :-)

                [
                | Versenden | Drucken ]
                • 0
                  Von asdfasdf am Do, 8. Dezember 2011 um 20:58 #

                  Wie aus der Tasche ziehen?
                  Welcher MM Käufer braucht eine Workstation?
                  Welche Workstation kommt vom Band und hat eine Home Version?

                  Ich verstehe nicht wie man sich so wegen Nichtigkeiten einkacken kann?

                  [
                  | Versenden | Drucken ]
    0
    Von Du Schlaumeier am Di, 6. Dezember 2011 um 17:15 #

    Dummerle. Du schreibst jetzt 100 mal "Ich kann mit dem Acrobat Reader keine Dateistapel bearbeiten und selbst wenn, es würde mir nichts für Scripte nutzen." Danach entschuldigst du dich, dass du hier allen auf die Nerven gehst. Dann hör ich auch auf, dir das Ohr lang zu ziehen.

    [
    | Versenden | Drucken ]
    1
    Von Urs Pfister am Di, 6. Dezember 2011 um 18:25 #

    Wenn von Kommandozeilen-Programmen die Rede ist, dann dürfte klar sein, dass dies nicht für alle ist.

    Aber wenn Du einige Tausend (ich hab gerade ein Projekt mit über 1 Mio PDF-Seiten) konvertieren musst, dann wirst Du die Konsolen-Tools doch sehr zu schätzen wissen.

    Was bei Linux in der Tat abschrecken kann, ist die Vielfalt von Tools. Und daher dachte ich, eine solche Zusammenstellung bringt etwas Übersicht für jene, die Lust auf die Konsole haben, aber irgendwie von der Fülle "erschlagen" werden.

    Als ich ca. 2000 von Windows weg zu Linux wechselte, da kannte ich ein paar Batch-Befehle unter DOS. Für jeden "Sch..." musste ich ein Programm schreiben, wenn ich etwas automatisieren wollte. Linux war für mich damals wie ein neuer Horizont. Ich kenne die Windows-Power-Shell nicht, aber irgendeinen Grund wird es schon gehabt haben, dass Microsoft später eine mächtiger Kommando-Zeile für die Admins bereitstellte.

    Bei den Tools geht es ja um weit mehr, als nur Informationen über PDF-Dateien zu erhalten. Irgendwie bleibst Du beim Einstieg hängen.

    Schön wäre es, wenn Du elegantere Batch-Konvertierungen mit einem GUI in Linux aufzeigen würdest, dann hätten wir alle etwas davon. Was ich z.B. auf die Schnelle nicht gefunden habe, ist ein OS-Programm, mit dem man (über ein GUI) einfach und bequem PDF-Dateien nachbearbeiten kann.

    [
    | Versenden | Drucken ]
    • 0
      Von damada am Di, 6. Dezember 2011 um 19:44 #

      Es gibt für pdftk ein GUI auf Qt-Basis: pdftk-qgui heißt das Paket unter openSUSE.

      Ich überlege aber dauernd schon, ob ich mir vielleicht einfach mal eine simple GUI auf Basis von easygui/Python selber baue. Wäre die Stunde Arbeit vielleicht wert :)

      [
      | Versenden | Drucken ]
      0
      Von keinName am Mi, 7. Dezember 2011 um 08:53 #

      Hat das schon jemand geschrieben?

      --> pdfedit (Free editor for PDF documents)

      Kann bei den meisten Distros glaub ich aus den Paketquellen installiert werden...

      [
      | Versenden | Drucken ]
      0
      Von Crass Spektakel am Mi, 7. Dezember 2011 um 21:52 #

      > Ich kenne die Windows-Power-Shell nicht, aber irgendeinen
      > Grund wird es schon gehabt haben, dass Microsoft später eine
      > mächtiger Kommando-Zeile für die Admins bereitstellte.

      Ich entführe die Diskussion an dieser Stelle mal, die Windows-Power-Shell ist GENIAL.

      Eine komplett objektorientierte Scriptsprache erschlägt so viele Probleme daß ich mir den Fuß abnahgen würde um so etwas ähnliches mit guter Unterstützung unter Linux zu bekommen.

      Beispiel?

      Konvertiere sämtliche Dateien in einem Verzeichnisbaum aus ihrem bisherigem, unbekannten Dateiformat nach Excel.

      Unter Bash/Gnu-Tools muß man sich schon mit Absonderheiten wie Leerzeichen im Dateinamen gesondert herumschlagen, unter Powershell werden die Dateinamen als Objekt übergeben, ergo sind Spielchen wie "Kodierung" oder "Sonderzeichen" absolut irrelevant. Auch die Konvertierung von "alles nach Excel" ist nicht viel mehr als "type (xml.excel)STDOUT und fertig.

      Woran es dann allerdings in der Praxis scheitert: Viel mehr geht derzeit leider nicht weil die Powershell weitgehenst unbekannt und gemieden wird. Tools wie netpbm oder pdf-tools gibts halt noch nicht mit OO-Schnittstelle.

      Unter uns, mit Perl kommt man unter Linux auch halbwegs in diese Region. Nur ist Perl halt doch ein wenig anders wie eine minimale Scriptsprache.

      [
      | Versenden | Drucken ]
    0
    Von Idiotenpfleger am Di, 6. Dezember 2011 um 18:56 #

    einfache Rechnung:

    wenn ich 300 einzelne pdf's in ein einziges pdf zusammenfassen will, dauert es ca. 2 bis 5 Minuten bis ich mir den Terminalbefehl zusammengebastelt habe. Dann dauert es noch ca. 1 bis 3 Minuten (je nach Rechenleistung des Computers) bis die 300 pdf's in einer Datei versammelt sind.

    Macht max. 8 Minuten Arbeit.

    und in der Zeit klickst Du in deinem beschissenen pdf-Windows-gui-Tool immer noch wie ein begaster die einzelnen Dateien zusammen.

    Ergo: man lässt mal kurz seinen Geist arbeiten, um dann den Computer die eigentliche Arbeit verrichten zu lassen. Dann ist man schnell und effizient. Oder man lässt sich hängen und zulullen und braucht ewig für etwas was auch schnell gehen kann

    [
    | Versenden | Drucken ]
    • 0
      Von JK am Di, 6. Dezember 2011 um 19:26 #

      Völliger Quatsch. Ich markiere einfach alle mit einem Klick (Alle Markieren) und ziehe sie in mein PDF-Merger-Feld. Ich liebe das Klick&Drop unter Windows einfach. :P

      [
      | Versenden | Drucken ]
      • 0
        Von damada am Di, 6. Dezember 2011 um 19:38 #

        dann lassen wir JK mal im Glauben, dass "Klick&Drop" von Microsoft erfunden wurde und sowieso nur da funktionert. Und fragen uns, warum die Pfostenquote heute so hoch ist. Ist der .Net-Stammtisch ausgefallen, oder was?

        [
        | Versenden | Drucken ]
        • 0
          Von JK am Di, 6. Dezember 2011 um 19:46 #

          Ich hab nicht gesagt, dass Klick&Drop vom Weltmarktführer "erfunden" wurde. Aber warum funktioniert denn Klick&Drop im Frickel-OS immer noch so bescheiden, dass man sich die Finger wund tippen muss? :lol:

          [
          | Versenden | Drucken ]
          • 0
            Von Crass Spektakel am Mi, 7. Dezember 2011 um 21:58 #

            Wieso "immer"?

            Wenn ich über Openoffice simple PDF-Operationen machen will klick ich auch nur auf "select all files" und "process", fertig.

            Die Frage ist eher: Wie machst Du folgendes unter Windows: "selektiere alle Dateien mit einem Meier oder Meyer oder Mayr im Namen die vor dem 12.August 2005 erstellt wurden, entferne überall die Fußnoten und Anschrift und hänge sie monatsweise zusammen".

            Das mach mir mal im Adobe Creator vor.

            In der Shell: Ein Zweizeiler.

            [
            | Versenden | Drucken ]
          0
          Von nbmbmnbnmb am Di, 6. Dezember 2011 um 19:46 #

          Linux ist in die Massen eingebrochen, das ist der Grund, und Prolinux bekommt das an vorderster Front mit.
          Die 1%-"Verkaufsstatistik"-Propaganda verstellt dabei den Blick auf das Wesentliche, nämlich auf den Erfolg eines marktirrelevanten Betriebssystems im Heimnutzerbereich, wobei es meist auf einem Windowsrechnersystem als zweites Betriebssystem mitgenutzt wird. Und ob man nun Chrome oder Firefox unter Windows oder Linux benutzt, ist dabei ziemlich irrelevant.

          [
          | Versenden | Drucken ]
      0
      Von Urs Pfister am Di, 6. Dezember 2011 um 19:42 #

      pdftk *.pdf output all.pdf

      [
      | Versenden | Drucken ]
      • 0
        Von Idiotenpfleger am Di, 6. Dezember 2011 um 21:42 #

        da fehlt noch ein "cat" --> pdftk *.pdf cat output all.pdf ist aber egal.

        "Völliger Quatsch. Ich markiere einfach alle mit einem Klick (Alle Markieren) und ziehe sie in mein PDF-Merger-Feld."

        und? alles legal? Keine Raubkopie? ;) Natürlich! ;)

        "Ich liebe das Klick&Drop unter Windows einfach. :P"

        an was sich manche Leute so aufgeilen... interessant... oder auch nicht. Ist ja jetzt auch so was von mega-neu, dieses Klick&drop... ja, Wahnsinn.

        "Linux ist in die Massen eingebrochen, das ist der Grund, und Prolinux bekommt das an vorderster Front mit."

        denke ich auch. Nun ist man irgendwie geneigt zu denken: "früher, ohne Einbruch in die Massen, wars besser, weil weniger Pfosten"...
        Wie jede Medaille hat diese eben auch zwei Seiten.

        [
        | Versenden | Drucken ]
        • 0
          Von Urs Pfister am Di, 6. Dezember 2011 um 21:50 #

          Ne, da fehlt kein cat, aber wir machen jetzt mal einen Punkt.

          #ls *.pdf
          eins.pdf zwei.pdf
          #pdftk *.pdf output all.pdf
          #ls *.pdf
          all.pdf eins.pdf zwei.pdf

          Dieser Beitrag wurde 1 mal editiert. Zuletzt am 06. Dez 2011 um 21:54.
          [
          | Versenden | Drucken ]
          0
          Von Crass Spektakel am Mi, 7. Dezember 2011 um 22:01 #

          > "früher, ohne Einbruch in die Massen, wars besser, weil
          > weniger Pfosten"...

          Dazu hab ich mal folgenden Spruch im Heiseforum aufgesammelt (zugegebenermassen mindestens 10 Jahre her):

          "Was sind die Vorteile von FreeBSD? FreeBSD-User labern nicht so viel dummes Zeugs rum wie Linux-User. Die Rangliste ist in etwa: Windows->Linux->FreeBSD->OpenBSD->Solaris->?

          Ich bin mir nur noch nicht ganz klar wie's weitergeht. Vermutlich mit solchen Sachen wie AS/390 und sowas. Ganz oben stehen dann Systeme wie Multics - ich habe ueberhaupt noch nie einen Beitrag eines Multics-Users gesehen, also muss
          es das beste OS ueberhaupt sein..."

          [
          | Versenden | Drucken ]
      0
      Von rainer1 am Di, 6. Dezember 2011 um 23:09 #

      Das kann mittlerweile jedes kostenlose PDF Tool. Einfach alles markieren -> Rechte Maustaste -> Drucken als PDF und fertig ist.

      Ohne auch nur ein wenig darüber nachzudenken wie es geht.

      5 Sekunden Arbeit.

      Auch Stapelverarbeitung wird in vielen PDF Programmen (nicht nur von Crap-Adobe) angeboten.

      [
      | Versenden | Drucken ]
      • 0
        Von Idiotenpfleger am Mi, 7. Dezember 2011 um 01:03 #

        aha, also ich markiere alle pdf's, die ich in einem Ordner habe und drucke die dann nochmal als pdf, um ein einziges pdf in der richtigen Reihenfolge zu erhalten? Was für ein Blödsinn.

        "Auch Stapelverarbeitung wird in vielen PDF Programmen (nicht nur von Crap-Adobe) angeboten."

        jepp, pdftk kann das richtig gut.

        übrigens gibt es für pdftk auch eine grafische Oberfläche, die aber so unwichtig ist, dass ich ihren Namen vergessen habe.

        [
        | Versenden | Drucken ]
        • 0
          Von asdfasdasd am Mi, 7. Dezember 2011 um 14:27 #

          > aha, also ich markiere alle pdf's, die ich in einem Ordner habe und drucke die dann nochmal als pdf, um ein einziges pdf in der richtigen Reihenfolge zu erhalten? Was für ein Blödsinn.

          Wieso soll das Blödsinn sein? Es ist übliche Vorgehensweise (unter den kostenlosen Tools) das sie einen Druckertreiber anlegen. Jedes Dokument dass an diesen Druckertreiber gesendet wird kommt als PDF raus.

          Blödsinnig ist es irgendwelche Parameter dafür kennen zu müssen.

          [
          | Versenden | Drucken ]
          • 0
            Von Idiotenpfleger am Do, 8. Dezember 2011 um 01:52 #

            aha, du hast also einen Ordner voller pdfs und markierst die alle und druckst sie nochmal als pdf aus und dann sind alle einzelnen pdfs in EINEM EINZIGEN pdf versammelt, und zwar in der RICHTIGEN Reihenfolge.

            Das zeige mir mal, wie das gehen soll. So lange, bis zum Gegenbeweis, ist das was du schreibst, absoluter Blödsinn.

            [
            | Versenden | Drucken ]
            • 0
              Von wm am Do, 8. Dezember 2011 um 12:55 #

              Das ist eine grundlegende Aufgabe die sehr oft anfällt. Mittlerweile gibt es dafür in fast jedem Programm eine Lösung.

              Die Unterscheiden sich meistens nur in der Menüführung.

              Mal heisst es anhängen oder davorsetzen.

              Adobe hat bei uns auf der Arbeit dafür ein extra Kontextmenü.

              [
              | Versenden | Drucken ]
    0
    Von Crass Spektakel am Mi, 7. Dezember 2011 um 21:41 #

    > Statdessen muss man wieder X beschissene Kommandos und
    > Parameter auswendig lernen das irgendwann obsolet wird.

    Weil das Tools für Administratoren und Entwickler sind Du N00b. Genau so wie netpbm keine Alternative zu Photoshop ist. Für die Windowspowershell gibts übrigens ähnliche Tools und zwar direkt von Adobe.

    Wenn ich unbedingt grafisch PDFs erstellen will mach ich das mit OpenOffice. Wenn ich allerdings db-generierten Content an User im PDF-Format verteilen und aufbereitet will dann ist die pdf-tools einfach nur genial und übertreffen sogar die offiziellen Adobe-Tools bei weitem.

    [
    | Versenden | Drucken ]
    • 0
      Von wm am Do, 8. Dezember 2011 um 13:02 #

      Also ich bin Entwickler, sogar unter Linux und unter anderem auch für Linux.

      Parameterübergaben sind wirklich rückständig.. da gibt es nichts daran auszusetzen. Der Umstand dass es manche Nutzen macht es nicht besser sondern ein Zeichen dass man mit dem Fortschritt nicht mithalten kann. Solche Leute gibt es überall. Vor 10 Jahren haben auch viele besagt dass sie sich nie Internet zulegen werden. Genau so wie heutzutage viele im Smartphone einen Dämon sehen.

      Seitdem immer mehr GUIs herauskommen muss man sich keine exotischen Skriptsprachen oder Parameter auswendig lernen. Ich würde heute sogar kein Makefile per Hand schreiben geschweige den Kompilieren oder sonst was...

      Versuche mal heute ein Konsolenprogramm zu verkaufen dann wirst du es merken.

      Man muss sich ja die GUI nicht selber ausdenken, dazu haben wir ein paar Designer im Haus.

      [
      | Versenden | Drucken ]
      • 0
        Von Urs Pfister am Do, 8. Dezember 2011 um 14:09 #

        Ich gehe einig damit, dass in der Entwicklung bei Applikationen direkte APIs fast immer sinnvoller sein werden. Aber, in der Administration von Systemen, bei kleinen Jobs, bei kleinsten Programmen eben, bei Konvertierungsjobs, kann es sich alleweil lohnen, über die Konsole auf Tools zurückzugreifen, ohne das API zu verwenden bzw. nach einem solchen suchen zu müssen.

        Konkretes Beispiel: Ghostscript und Perl. Über Professionalität mag ich jetzt nicht streiten. Fakt ist, ich hab gerade ein Konvertierungsprojekt hinter mir, wo es darum ging ca. 500'000 PDFs in Bildateien (ca. 750'000 Bilder) zu konvertieren. Das Programm umfasst ca. 100 Zeilen:

        ===================================================
        #!/usr/bin/perl

        use strict;
        use lib qw(/home/cvs/archivista/jobs);
        use Archivista::Config; # is needed for the passwords and other settings
        my $config = Archivista::Config->new;
        my $pw = $config->get("MYSQL_PWD");
        use AVJobs;

        my $db = shift;
        $db = "archivista" if $db eq "";
        my $file = shift;
        $file = "all.lst" if $file eq "";
        my $job = shift;
        $job = 0 if $job eq "";
        my $maxjobs = shift;
        $maxjobs = 1 if $maxjobs eq "";
        my $stopafter = shift;
        system("echo 'start $job'>>all.log;date>>all.log");
        if (my $dbh=MySQLOpen("localhost",$db,"root",$pw)) {
        if (HostIsSlave($dbh)==0) {
        my $date1 = DocumentAddDatForm( TimeStamp() );
        my $files = "";
        readFile2($file,\$files);
        my @files = split(/\n/,$files);
        my $c = 0;
        foreach my $pdffile (@files) {
        if ($c % $maxjobs == $job) {
        my $cmd = "pdfinfo $pdffile | grep Pages | awk '{print \$2}'";
        my $pages = `$cmd`;
        chomp $pages;
        addDocument($dbh,$pdffile,$pages,$date1,$job) if $pages>0;
        }
        $c++;
        last if $stopafter>0 && $c>$stopafter;
        }
        }
        }
        system("echo 'end $job'>>all.log;date>>all.log");

        sub addDocument {
        my ($dbh,$file,$pages,$date,$job) = @_;
        my @parts = split(/\//,$file);
        my $fname = pop @parts;
        my $fzip = "$job-$fname";
        $fzip =~ s/(\.pdf)/.zip/;
        my $doc = addDocumentInsert($dbh,$file,$fname,$pages,$date);
        my $cmd1 = "pdftotext -raw $file -";
        my $res1 = `$cmd1`;
        my @txt = split(/\x0c/,$res1);
        if ($doc>0) {
        for (my $page=1;$pagequote($img);
        if ($page==1) {
        my $source = "";
        $cmd = "zip -j $fzip $file 2>/dev/null";
        system($cmd);
        readFile2($fzip,\$source);
        system("rm $fzip");
        $sql .= ",BildA=".$dbh->quote($source) if $source ne "";
        }
        $dbh->do($sql);
        $sql = "insert into archivseiten set Seite=$nr,".
        "Text=".$dbh->quote($txt[$page]).",Erfasst=1";
        $dbh->do($sql);
        }
        }
        }

        sub addDocumentInsert {
        my ($dbh,$file,$fname,$pages,$date) = @_;
        my $sql = "insert into archiv set Seiten=$pages,Ordner=1,".
        "UserNeuName='pdfjob',Datum=$date,ErfasstDatum=$date,".
        "ArchivArt=1,BildInput=1,BildIntern=1,BildInputExt='TIF',".
        "Erfasst=1,QuelleExt='PDF',EDVName='office;$fname',".
        "Titel=".$dbh->quote($file);
        $dbh->do($sql);
        $sql = "select LAST_INSERT_ID()";
        my @row = $dbh->selectrow_array($sql);
        my $akte = $row[0];
        if ($akte>0) {
        $sql = "update archiv set Akte=$akte where Laufnummer=$akte";
        $dbh->do($sql);
        }
        return $akte;
        }
        =================================================

        Das Programm lässt sich mehrfach aufrunfen, um alle CPUs anzusprechen:

        =================================================
        #!/usr/bin/perl
        use strict;
        my $jobs = 6;
        my $max = 0;
        for (my $c=0;$c<$jobs;$c++) {
        system("perl pages.pl archivtest all.lst $c $jobs $max &");
        }
        =================================================

        Mein Programm (es könnte sicher weit eleganter programmiert werden) schafft dabei in 24 Stunden auf einer 6-Core-Maschine 2.3 Mio Seiten; kurzum der Job lief in weniger als 7 Stunden durch. Dabei werden nicht nur 750000 Seiten gerastert; diese werden in die Datenbank gesichert, die PDF-Dateien werden gezippt und ebenfalls in die Datenbank geschrieben, und der Text der PDF-Dateien wird ebenfalls extrahiert und in die Datenbank geschrieben. Ginge es nur um das Rastern der PDF-Dateien, so wäre der Speed nochmals fast doppelt so hoch (bei ca. 4 Mio Seiten pro Tag).

        Bring mir jetzt mal ein enfaches API, dass a) Open Source ist und b) über Perl angesprochen werden kann und mit dem Du c) in 20 Stunden den Job erledigst, denn solange dauerte der Job; den der Kunde sehr wohl finanzieren wird. Beim Aufwand ist zu sagen, dass 12 Stunden investiert wurden, um die schnellste Lösung zu suchen; die Implementierung dauert ca. 4 Stunden und das Testen/Verifizieren der Daten dauert nochmals ca. 4 Stunden.

        Wie gesagt, ich würde in vielen Fällen ein API vorziehen, aber für einen Job wie diesen finde ich diese Konsolentools doch sehr sehr elegant; ohne diese hätte ich den Job nicht in dieser Zeit abschliessen können.

        Ich nehme dafür in Kauf, mir Rückständigkeit "vorwerfen" lassen zu müssen, möchte aber doch bitten, in der weiteren Diskussion einen besseren (effizienteren) Weg aufzuzeigen. Aussagen wie "mehere Designer im Haus" oder "versuche mal ein Konsolenprogramm zu verkaufen" sind doch sehr allgemein bzw. sehr pauschal. Die Welt ist vielfältiger, weder ein GUI ist das absolute Mass, genauso wie es die Konsolenprogramme auch nicht sind (ansonsten gs nicht den lästigen Bug mit stdout bei tiffg4 hätte).

        [
        | Versenden | Drucken ]
        • 0
          Von wm am Do, 8. Dezember 2011 um 14:35 #

          200€ -> Omnipage Pro.
          Null Aufwand wegen Pflege und die Programmbugs kann man auch umwälzen :)

          Das einzige wo ich mir nicht sicher bin (nie gebraucht habe) ist die Datenbank Anbindung. Hört sich für mich aber auch nach einer üblichen Aufgabe an.

          Ich weiß dass gleich wieder Leute heulen werden dass es was kostet. Wenn man aber genau überlegt so sind es die Kosten die man für 2-3 Stunden Arbeitszeit berechnen muss. Jedoch ist dann lange nicht gesagt dass das eigene Programm immer die gewünschten Ergebnisse liefert. Wenn es um kritische Dokumente geht muss eine Software erst einmal reifen bevor alles an Bugs draußen sind.

          Heute muss man nur in wenigen Fällen selber aktiv an Nebenbaustellen programmieren. Das meiste kauft man sich als shared library und konzentriert sich auf die wesentlichen Dinge.

          [
          | Versenden | Drucken ]
          • 0
            Von Urs Pfister am Do, 8. Dezember 2011 um 16:21 #

            Ich gehe davon aus, da Du von OmniPage Pro sprichst, dass Texterkennung gemeint ist. Aber selbst wenn der PDF-Converter gemeint sein sollte, beide Programme dürften sich für den obenerwähnten Job nicht eignen.

            Damit wir uns richtig verstehen, es ging bei dem Job nicht um Texterkennung. Die PDF-Dateien stammen ab einer (veralteten) ERP-Lösung (der Text war bereits in den PDF-Dateien enthalten). Es ging vielmehr darum, zu den PDF-Dateien gerasterte Bilder zu erstellen -- und alles in einer Datebank abzulegen.

            Ich würde weiter sagen wollen, dass sehr sehr viele Applikationen heute in irgendeiner Weise eine Datenbankanbindung haben bzw. benötigen. Sagen wir es mal so: Ein paar Millionen Dateien lassen sich in einer Datenbank einfacher ablegen, als dies in einem Verzeichnis der Fall sein dürfte.

            Und auch das ausgiebige Testen von Technologien bleibt niemandem erspart, ganz egal, ob GUIs verwendet werden oder nicht. Dabei ist noch nicht mal entscheidend, ob es Open Source ist oder nicht. Bugs gibt es leider immer, weil nie alle nur erdenklichen Optionen einer Applikation in allen Fällen sauber über alle Zeithorizonte ablaufen werden.

            Meine Erfahrung hat mich einfach gelehrt, dass gerade nicht pauschal gesagt werden kann, ob etwas selber zu programmieren günstiger kommt als der Einkauf von Technologie (sprich Bibliotheken). Persönlich ist es mir aber angenehmer zu wissen, über die Sourcen zu verfügen (die Lösung dahinter kann/darf kommerziell sein).

            Open Source heisst ja nicht, dass es dazu keinen Support gibt. Aber, wenn niemand Support erbringen mag, dann kann ich wenigstens selber die Sourcen begutachten; dies geht bei nicht offengelegtem Quellcode nun mal nicht.

            Wie gesagt, mit 20 Stunden Einsatz hätte ich vorliegend keinen Weg gesehen, den Job mit einer API-Anbindung (Closed Source wie Open Source) abzuschliessen; und genau dies war für mich wesentlich.

            Vielleicht hiflt ja noch die Vorgeschichte zu diesem Job: Ich bin hier kurzfristig eingesprungen, weil eine andere Firma beim Schreiben eines Programmes über x-Wochen nicht die gewünschten Resultate erzielte. Dabei wurden unter Windows Programme evaluiert, welche aus den PDF-Dateien Tiff-Dateien erstellen hätten sollen. Diese wären dann an unsere Lösung (über die Schnittstelle) angeliefert worden.

            Irgendwie kam das Projekt nicht vom Fleck. Beim Nachfragen meinerseits hat sich dann ergeben, dass eine Unmenge an PDF-Dateien vorhanden war. Bereits das Zählen der Dateien unter Windows ging Minuten. Der Endkunde verwendete ein Tool, mit dem Windows-Explorer wäre es nochmals viel viel länger gegangen.

            Darauf habe ich empfohlen, die Dateien direkt unter Linux zu verarbeiten. Ein 'find -name '*.pdf | wc' gibt mir dabei in wenigen Sekunden die Anzahl der Dateien (467392) zurück.

            Ich dachte zunächst, ich stell die Dokumente einfach in unsere Schnittstelle, um danach zu erkennen, dass das API zwar schön arbeitet, auch viele Log-Informationen erstellt, aber wohl Tage benötigen würde. Weil bei einem Konvertierungsjob in dieser Grössenordnung machnmal einige Durchläufe gefahren werden müssen (die Daten lassen sich erst nach dem Job überhaupt testen), war mir dies zu lang.

            Danach organisierten wir (erste vier Stunden) die schnellste Maschine mit SSD-Platten (4 Stück gebündelt). Das Programm lief zwar schneller, aber noch immer nicht wirklich schnell. Danach testete ich die verfügbaren Konsolenprogramme, um nach ca. 8 Stunden zu erkennen, dass in Punkto Geschwindigkeit Ghostscript allen anderen Lösungen weit überlegen war. Diese Tipps hier sind nebenher (an einem Sonntagabend) entstanden. Ein Posting hat dabei sam2p empfohlen. Beim Testen dieses Tools ist mir aufgefallen, dass es a) schnell läuft und b) Ghostsript verwendet. Ich selber hätte geglaubt, pdftoppm müsste deutlich schneller sein.

            Was ich damit sagen will? Weil bei Open Source viele Erfahrungen mit verbreiteten Tools machen, können diese Erfahrungen auch offen ausgetauscht werden. Daraus entstehen oft sehr schlanke Lösungen. Bei Closed Source verbieten mir zuweilen schon die Lizenz-Verträge, über den Speed bzw. die Funktionen mich mit anderen auszutauschen. Wenn der Erfahrungsaustausch erlaubt ist, wer setzt z.B. schon TeadTools ein und kann mir dazu sagen, wie ich die beste Performance raushole?

            Das wär jetzt ein kleiner Werbespot für Open Source gewesen. Ich sage aber nicht, dass es mit kommerziellen Lösungen schlecht(er) gehen müsste/würde. Ich wollte einfach den Job abschliessen, und ich hätte keine Möglichkeit gesehen, wie ich es mit kommerziellen Bibliotheken hätte erledigen können. Ich bin aber jederzeit offen für Vorschläge, sofern diese konkreter Art sind. Pauschale Aussagen wie X ist sowieso veraltet oder Y kauft eh niemand, das bringt nichts. Und auch die wesentlichen Dinge sind sehr unbestimmt.

            Dieser Beitrag wurde 2 mal editiert. Zuletzt am 09. Dez 2011 um 10:13.
            [
            | Versenden | Drucken ]
            • 0
              Von Crass Spektakel am Fr, 9. Dezember 2011 um 01:25 #

              Danke für den sehr anschaulichen Bericht, das Script habe ich mit grossem Interesse überflogen, meine zehn Cent:

              Ich hätte versucht die eigentliche Konvertierungsaufgabe über xargs -P und ssh/rsh auf mehrere vorhandene Rechner zu verteilen ohne teure Hardware dazuzukaufen. Stattdessen hätte ich eine Sitzung nachts im RZ eines Kunden eingelegt und die Daten auf den fünf Achkern-Servern und den 100 Vierkernrenderclients in einer Viertelstunde durchgeballert. Das wäre vermutlich schneller und preiswerter gewesen. Aber natürlich wäre es auch abhängiger von der Infrastruktur gewesen.

              [
              | Versenden | Drucken ]
              • 0
                Von Urs Pfister am Fr, 9. Dezember 2011 um 01:51 #

                Meine Infrastruktur (und vorallem die des Kunden) ist da schon etwas bescheidener. Und ich finde dann und wann schon, arbeiten wir mal an der Software, Server kann ja jeder kaufen...

                Eine Lösung mit Deiner (bzw. der des Kunden) Hardware würde plus/minus wohl ca. 440 zu 6 mal schneller arbeiten, d.h. 73.33 mal schneller fertig sein. Bei 420 Minuten müsste der Job in 5,72 Minuten durch sein. Bei der Tagesleistung lägen wir dann bei 168 Mio Seiten. Wir würden damit doch die Grenzen unseres Systems touchieren. Wenn Du mir über Weihnachten/Neujahr die Rechner "leihen" willst, dann bräuchten wir nur noch die Anzahl PDFs, um den Test durchzuspielen. Im Ernst, ich mach dann lieber mal Ferien...

                Dieser Beitrag wurde 1 mal editiert. Zuletzt am 09. Dez 2011 um 01:53.
                [
                | Versenden | Drucken ]
        0
        Von Crass Spektakel am Fr, 9. Dezember 2011 um 00:52 #

        > Seitdem immer mehr GUIs herauskommen muss man sich
        > keine exotischen Skriptsprachen oder Parameter auswendig
        > lernen.

        Du brauchst eine GUI um eine DATENBANKANBINDUNG aus einem Webformular heraus zu erstellen? Wohlgemerkt, nicht nutzen sondern erstellen?

        Was war nochmal genau dein Job? Sackoträger? Bedenkenträger? Kaffeeträger? Kaffeetrinker? Einschleimer beim Chef? Ernsthaft, deine Aussage würde ich schnell löschen lassen weil das schon extrem peinlich ist.

        Die Aussage mit Omnipage ist auch recht merkwürdig. Wenn Du die Aufgabenstellung auch nur grob überflogen hast wird Dir wohl auffallen daß Omnipage weder eine direkte Datenbankanbindung bietet noch ein Pre- und Postprocessing in der Art "PDF-Inhalte filtern" oder "Ausgabe in Format, Grösse und Darstellung anpassen und anschliessen komprimieren".

        Davon abgesehen daß Omnipage nichtmal ein PDF-Konverter sondern eine OCR-Software ist und damit eine totale Themenverfehlung :-)

        Problemstellungen wie die von Urs sind in der EDV absoluter Alltag und JEDER Versuch sowas mit fertigen Mitteln ohne Programmierkenntnisse zu lösen ist im Vorfeld dazu verurteilt teuer und langwierig zu scheitern und/oder suboptimale Ergebnisse zu liefern. Dazu kommt die langfristige Wartbarkeit, wenn das Problem so nocheinmal ähnlich in ein paar Jahren auftritt kann man auf weiter gepflegte Module zurückgreifen (s2pdf, perl, ghostscript) die mit minimalstem Aufwand auf das System wandern während man bei "dicken" Lösungen jede Menge Randeffekte beachten muß.

        Ich hatte hier auch einmal ein ähnliches Problem: 400GB Videomaterial mit inkonsistenter Benennung mußten in einen schnittfertigen Film konvertiert werden. Die Creative Suite mag 5000 Euro kosten aber sie weis trotzdem nicht daß "Meier2-Bergvermessung-1.tif" bis "Meier2-Bergvermessung-500.tif" inhaltlich vor "Grafische Darstellung 0000.jpg" bis "Grafische Darstellung 4711.jpg" kommt. Mit einem Shell Hunderzeiler hat man aber ein ausreichendes Regelwerk erstellt welches hunderte von Einzelschnippseln zusammensetzt und dann direkt in gstreamer füttert um huffyuv-Schnittmaterial zu erzeugen. Als Bonus wurden die Audiospuren gleich dazugekittet. Hätte man das mit grafischen Mitteln machen müssen hätte man mehrere 10.000 Bilder und Videoschnippsel in der richtigen Reihenfolge händisch anordnen müssen.

        Dieser Beitrag wurde 1 mal editiert. Zuletzt am 09. Dez 2011 um 01:15.
        [
        | Versenden | Drucken ]
0
Von Räuber Hotzenplotz am Di, 6. Dezember 2011 um 16:35 #

"sam2p is a program that converts many raster (bitmap) image formats into Adobe PostScript or PDF files and several other formats. The images are not vectorized. sam2p gives full control to the user to specify standards-compliance, compression, and bit depths."

Macht ziemlich kleine Dateien.

[
| Versenden | Drucken ]
0
Von Räuber Hotzenplotz am Di, 6. Dezember 2011 um 17:09 #

pdftops aus den poppler-utils macht deutlich kleinere ps-Dateien als pdf2ps

[
| Versenden | Drucken ]
0
Von Thomas-jhfd am Di, 6. Dezember 2011 um 20:13 #

http://www.pro-linux.de/kurztipps/2/1387/postscript-und-pdf-verarbeitung.html

[
| Versenden | Drucken ]
  • 0
    Von Urs Pfister am Di, 6. Dezember 2011 um 20:34 #

    Drei Punkte fallen mir dazu ein:

    a) Schön das die Tools so konstant laufen.

    b) Alle 7 Jahre dürfen solche Tipps schon publiziert werden.

    c) In Zukunft werd ich forschen, ehe ich schreibe...

    Dieser Beitrag wurde 1 mal editiert. Zuletzt am 06. Dez 2011 um 21:06.
    [
    | Versenden | Drucken ]
    • 0
      Von bschluff am Di, 6. Dezember 2011 um 22:56 #

      Urs, meinen Hut...den nehme ich ab!
      Danke, für Deine Art mit Unwegsamkeiten umzugehen..
      Deine Geduld beeindruckt mich.
      Ich persönlich freue mich über so qualifizierte und durchdachte Beiträge, weil sie meinen Horizont erweitern. Linux eben!

      [
      | Versenden | Drucken ]
      • 0
        Von finger am Di, 6. Dezember 2011 um 23:27 #

        Ja. Danke für den Tipp Urs (pdfinfo kannte ich nicht).

        [
        | Versenden | Drucken ]
        • 0
          Von Danker am Mi, 7. Dezember 2011 um 12:31 #

          Vielen Dank. So etwas ist immer interessant zu lesen. Da ich solches nicht sehr haeufig brauche, ist so eine Zusammenfassung gerade richtig um nicht jedesmal wieder erneut herauszufinden, womit und wie man sowas jetz schon wieder macht.

          [
          | Versenden | Drucken ]
        0
        Von Urs Pfister am Do, 8. Dezember 2011 um 11:51 #

        Danke für die Lorbeeren; auch wenn ich denke, dass die guten Kommentare (die Trolle lassen wir mal) wohl weit mehr den Hut verdient haben. Ich habe ja einzig ca. 2 Stunden für die Zusammenfassung benötigt. Dank der vielen wertvollen Tipps hab ich wohl deutlich mehr Zeit bei der Recherche für noch bessere Tools gespart. In diesem Sinne, danke an all die guten Postings!

        [
        | Versenden | Drucken ]
0
Von ThomasDe am Di, 6. Dezember 2011 um 22:29 #

Wie kann man eingebettete Skripte entfernen?

[
| Versenden | Drucken ]
0
Von Rolf Niepraschk am Mi, 7. Dezember 2011 um 09:26 #

Statt

pdf2ps archivistavm-linuxday2011.pdf

sollte man besser

pdftops archivistavm-linuxday2011.pdf archivistavm-linuxday2011.ps

verwenden. Das Ergebnis ist kompakter und es geht schneller.

...Rolf

[
| Versenden | Drucken ]
  • 0
    Von Urs Pfister am Mi, 7. Dezember 2011 um 10:32 #

    Ja, das stimmt selbstverständlich, und wurde auch schon bei einem früheren Kommentar angemerkt. Bei Tipps sollte ich aber nicht erst den Kommentaren entnehmen müssen, dass es deutlich schlanker geht, und darum hab ich es entsprechend korrigiert. Ich hoffe, es ist nun besser formuliert -- und sorry für die Umstände.

    [
    | Versenden | Drucken ]
0
Von Steffen7 am Mi, 7. Dezember 2011 um 10:54 #

http://www.pdfsam.org/ (java-basierend)

[
| Versenden | Drucken ]
  • 0
    Von Tim Benke am Mi, 7. Dezember 2011 um 12:38 #

    mit imagemagick kann man auch einfach Bilddateien in pdfs verwandeln:
    convert image.jpg image.pdf

    [
    | Versenden | Drucken ]
    1
    Von m_power3 am Mi, 7. Dezember 2011 um 13:19 #

    Habe ebenfalls ein Frontend für PDFTK geschrieben, bzw. bin noch dabei (Es ist ursprünglich aus meinem "Hello World GUI" Entstanden :-)). Wer will kann es sich hier herunterladen: PDF Chain.
    Das Bedienkonzept orientiert sich an PDFTK 4 all, das ich gerne unter MS Windows verwende, kann jedoch mittlerweile mehr als dieses. PDF Chain bietet (fast) alle Features die auch PDFTK bietet. Darunter auch jene, die es bei PDF Sam nur in der selbst compilierten, bzw. kommerziellen Version gibt. PDF Sam bietet allerdings diverse Dinge, die PDFTK nicht, und damit PDF Chain ebenfalls nicht, umsetzt.
    Die Entwicklung des GUI ist noch nicht abgeschlossen. Ich habe damit begonnen eine zweite Concatinate- (Zusammenfügen-) Sektion zu implementieren, in der unbegrenzt viele Dateien miteinander verbunden, allerdings nicht dabei gedreht oder entschlüsselt, werden können (PDFTK ermöglicht es leider nur maximal 26 Dateien zu indizieren ('A'-'Z') die für die Optionen Drehen oder Passwort nötig sind). Drag&Drop fehlt auch noch, genauso wie Internationalisierung oder dass der Statusbalken wackelt, wenn PDFTK im Hintergrund rödelt. Kommt noch - finde leider nur wenig Zeit dafür. Die aktuelle Version (0.3.3) ist, soweit mir bekannt, stabil.
    Ich verstehe PDF Chain als ein Werkzeug, das nicht alles auf einmal macht, aber für einzelne Anwendungsschritte vieles bietet - genauso wie PDFTK selbst. Startet man PDF Chain aus einem Terminal, wird dort nach dem Speichern der abgesetzte PDFTK-Befehl angezeigt. Dies soll Leuten helfen, die nur mal schnell sehen wollen, wie sie den PDFTK-Befehl, zB. für ein Skript, zusammenbauen müssen. Ansonsten ist es einfach ein GUI, für Leute, die PDFTK einsetzen möchten aber nicht die Man-Page wälzen können/wollen.

    PDF Chain ist nur ein Werkzeug und erfüllt nicht alle Wünsche. Für Linux gibt es aber viele weitere GUIs, die für andere Ansprüche oder Anwendungszwecke besser geeignet sind.

    Es gibt noch einige mehr...

    Freundliche Grüße.

    [
    | Versenden | Drucken ]
0
Von taranaki am Mi, 7. Dezember 2011 um 13:55 #

PDFs mit Vektorinhalt in DXF für CAD-Bearbeitung konvertieren:

pstoedit -f "dxf: -ctl -mm -polyaslines" zeichnung.pdf zeichnung%d.dxf

[
| Versenden | Drucken ]
0
Von rtzz am Mi, 7. Dezember 2011 um 19:27 #

Evtl. fehlen noch Cropping-Tools (weis jetz grad nicht wie das heißt, is aber bei LaTeX dabei), sind im Zeitalter der eBook Reader sehr nützlich. (ich persönlich benutze aber lieber das GUI-Tool briss)

[
| Versenden | Drucken ]
0
Von anonymous am Mi, 7. Dezember 2011 um 22:19 #

Merci für die Tipps!

Dann kann ich das in meine AppleScript- und Bash-Scripts mit einbauen. Bastel da eh grad etwas zum automatisierten verarbeiten/verwalten von PDFs!

Dank der schon eingebauten Funktion in OS X, je nach Verzeichnisordner einen bestimmten Vorgang auszulösen (z.B. Script ausführen), passt das prima!

[
| Versenden | Drucken ]
0
Von Aldi am Do, 8. Dezember 2011 um 10:11 #

Ich muss relativ oft PDF verkleinern und da gibt es leider nicht wirklich ein graphisches Tool für Linux. Ich bin aber dennoch glücklich mit folgendem Befehl:

gs -sDEVICE=pdfwrite -dCompatibilityLevel=1.4 -dPDFSETTINGS=/screen -dNOPAUSE -dQUIET -dBATCH -sOutputFile=output.pdf input.pdf

wenn die Dateigröße etwas größer sein darf, aber die Bilder noch brauchbar/lesbar sein sollen, dann einfach "screen" durch "ebook" ersetzen.

Darüber hinaus gibt es nun auch Qoppa PDF Studio im Ubuntu Software Center. Kostet was, kann aber auch mehr als jedes andere PDF-Werkzeug unter Linux.

[
| Versenden | Drucken ]
Pro-Linux
Pro-Linux @Facebook
Neue Nachrichten