Cluster mit mehreren Motherboards und CPUs, einer Festplatte und ein System

  • Themenstarter Gelöschtes Mitglied 29330
  • Beginndatum
G

Gelöschtes Mitglied 29330

Guest
Kann ich einen PC bauen der mehrere GPUs unterstützt und dies z.B. trotzdem er nur ein Motherboard mit 6 PCI hat also indem man z.B. Mainboards verbindet also sich einen Cluster aufbaut aber was brauche ich dazu ich meine es soll alles untere einem OS laufen ich dachte da an Archer Linux. Das ganze soll wie in einem Rechencenter sei wo alles zusammen von einem Terminal ausgesteuert werden kann ohne das ich jedes Mainboard mit jeweils Beispielsweise 6 GPUs ohne das ich für jedes Mainboard mit je 6 GPUs einen eigenes OS mit Terminal brauch und alles einzeln steuern muss.
Ich hoffe ihr versteht was ich meine ich will mehrere Mainboards mit je 6 GPUs von einem Terminal aus steuern so das ich auf allen dann ein Programm laufen lassen kann wie geht das, was braucht man dafür, wie man merkt bin ich was Clustering angeht ziemlich unbelesen.
 
Cluster

Hallo

Ist es so schwer die Suchmachine deines Vertrauen mit den Begriffen :
Linux und Cluster zu füttern ?

Als Einstieg kannst du ja mal Video::DVDrip installieren.

Damit kannst mit mehreren CPU im LAN ein Video (keine DVD) rippen und dann brennen.

Ansonsten Stichworte sind:
openmosic
Hardbeat



mfg
schwedenmann

P.S.

Es gibt z.B. auch entsprechende SW für povray (ungeteste)
 
Zuletzt bearbeitet von einem Moderator:
Moin Hard_Veur,

nein, so geht es nicht. Das Motherboard braucht die komplette Versorgung mit Bauteilen. Du kannst ein MB nicht "fernsteuern" - also sozusagen als bloße Platinen für deine Graka verwenden.
Du musst die schon als PCs aufbauen. In der Linux Welt gibt's reichlich Dokumentation zum Bau eines Clusters (auch fuer GPU Cluster).

Ob du dein Invest beim Mining wieder herausbekommst ist eine andere Sache ;)

Auch nice:
Raspberry Pi 2: Die Revolution des Bitcoin-Mining?
Central Wash. Home To Nation's Biggest Bitcoin Mine, More Coming | KNKX







 
Moderne Mining-Plattformen laufen heutzutage mit Spark - Apache Spark™ - Lightning-Fast Cluster Computing - und ähnlicher Cluster-Software, so dass die Daten auf mehreren Systemen verteilt verarbeitet werden können. Dazu baust du dir einen Master mit normaler CPU auf und verbindest diesen mit diversen Workern, die die GPU nutzen. Dann kannst du deine Workload dem Master übergeben und der führt mehr oder weniger automatisch die Berechnung auf den Workern durch. Clouds wie AWS (p2-Instanzen) helfen, wenn man die ganze Hardware nicht selbst hosten will. Ich nutze eine ähnliche Architektur für ein Machine-Learning-Projekt zum Auswerten von Börsen-Daten. Interessante (und brauchbare) Projekte dazu: GitHub - IBMSparkGPU/GPUEnabler: Provides GPU awareness to Spark, Contact: @kmadhugit and @kiszk und GitHub - intel-analytics/BigDL: BigDL: Distributed Deep Learning Library for Apache Spark Muss man allerdings etwas anpassen, wenn man die Features von Spark 2 effizient nutzen will. Ein paar Kenntnisse zu Cluster-Computing (und im Fall von GPU-Enabler auch in Scala-Programmierung) sollte man also haben.
 
Zurück
Oben