Die Entwickler solcher Lösungen scheinen es einfach nicht zu verstehen: Man will als Nutzer kein heterogenes Computing, weil man dann ja immer für mindestens zwei unterschiedliche Architekturen entwickeln muss. Den Aufwand tun sich die meisten dann eben erst gar nicht an, weswegen es ja bis heute kaum Anwendungen gibt, welche auf OpenCL, CUDA, OpenACC etc. setzen. Parallella ist im Kern nichts anderes als IBMs Cell, aber halt mit 64 statt acht Compute Units.
Was der Nutzer will, ist eine Plattform wie Intels MIC/Xeon Phi. Das selbe Binary für alle Kerne, eine einzige Entwicklungsumgebung, ein einziger Debugger.
Hi, Adapteva hat jetzt seine Dokumentationen allgemein zugänglich gemacht: http://www.adapteva.com/support/docs/e3-reference-manual/ http://www.adapteva.com/support/docs/esdk3-manual/
Da der Trend in Zukunft sehr wahrscheinlich in Richtung erhöhter Parallelität geht. Die IBM BlueGene/Q Maschine Sequoia hat bereits über einer Millionen Kerne, und auch die Leistungssteigerung in regulären x86 CPUs erfolgt nur noch über erhöhte Parallelität, mehr Kerne oder SIMD Instruktionen wie Intels AVX. Die Herangehensweise von Adapteva oder Tilera nimmt unser Programmiermodell für hunderttausende von Cores auf Supercomputern und schiebt es auf einen Chip, es kann sehr gut sein, dass das Parallella Projekt eine gut Möglichkeit darstellt, in diese Welt einzusteigen, und die Architekturen der Zukunft mit zu gestalten.
Diese Chips werden unter anderem vom US-Millitär auf deren Platinen verbaut.
Ich Einfaltspinsel dachte immer, US-Militär wäre ausschliesslich im kaputtmachen kompetent
"Leistungsäquivalent von rund 51 GHz" ist ungefähr so wie "Die Fläche ist etwa so groß wie 300 Liter"
300 Liter? neeee... mindestens doppelt so hell
Gemeint war: Das Leistungsäquivalent entspricht einem 51GHz getackteten Zilog Z80
Die Entwickler solcher Lösungen scheinen es einfach nicht zu verstehen: Man will als Nutzer kein heterogenes Computing, weil man dann ja immer für mindestens zwei unterschiedliche Architekturen entwickeln muss. Den Aufwand tun sich die meisten dann eben erst gar nicht an, weswegen es ja bis heute kaum Anwendungen gibt, welche auf OpenCL, CUDA, OpenACC etc. setzen. Parallella ist im Kern nichts anderes als IBMs Cell, aber halt mit 64 statt acht Compute Units.
Was der Nutzer will, ist eine Plattform wie Intels MIC/Xeon Phi. Das selbe Binary für alle Kerne, eine einzige Entwicklungsumgebung, ein einziger Debugger.
Was kostet das? Lohnt sich das zum Bitcoin-Mining?
Hi,
Adapteva hat jetzt seine Dokumentationen allgemein zugänglich gemacht:
http://www.adapteva.com/support/docs/e3-reference-manual/
http://www.adapteva.com/support/docs/esdk3-manual/
Da der Trend in Zukunft sehr wahrscheinlich in Richtung erhöhter Parallelität geht. Die IBM BlueGene/Q Maschine Sequoia hat bereits über einer Millionen Kerne, und auch die Leistungssteigerung in regulären x86 CPUs erfolgt nur noch über erhöhte Parallelität, mehr Kerne oder SIMD Instruktionen wie Intels AVX.
Die Herangehensweise von Adapteva oder Tilera nimmt unser Programmiermodell für hunderttausende von Cores auf Supercomputern und schiebt es auf einen Chip, es kann sehr gut sein, dass das Parallella Projekt eine gut Möglichkeit darstellt, in diese Welt einzusteigen, und die Architekturen der Zukunft mit zu gestalten.