Mehrere PCs vernetzen und als einen "anzeigen"

  • Hallo Jungs


    Wie kann man das machen, dass ich mehrere PCs miteinander vernetzte und dass all diese als Einer erkannt werden?


    Ich stell mir das im Idealfall so vor: 5PCs vernetzt, ich starte einen, alle gehen an, an einem ist ein Monitor an dem ich arbeite aber die Rechenpower kommt von allen PCs.


    Also quasi ausnutzung der Rechenpower so irgendwie in der Richtung.


    Nicht hauen oder auslachen. :S

    I just want to say LOVE YOU SAN!!! billy gates why do you make this possible? Stop making money and fix your software!!!

  • Also so was wie ein Cluster?
    Wozu brauchst du den denn? Brauchst du sowas wirklich?

    Game-Rig: 3570K | P8Z77-V LE | GTX-970 | 16GB | HyperX 3K 240GB | NEC 24WMGX3 & HP LP2475w | Win 10
    Filer: E3-1220 | SM X9SCL-F | 8GB | FlexRAID | Win 10
    Server: HP ML310e | E3-1220v2 | 10GB | 18TB | Proxmox
    Mobile: Dell XPS 13 9360 | i5-8250U | 8GB | Win 10

  • Jawohl, sowas!


    Konkret brauche ich es für nichts (noch).
    Aber ich möchte sowas mal probieren.


    /edit: Ich geh davon aus, dass man das mit der Server Version von Windows machen kann??

    I just want to say LOVE YOU SAN!!! billy gates why do you make this possible? Stop making money and fix your software!!!

    Einmal editiert, zuletzt von lyzerak ()

  • Ich kenne mich damit überhaupt nicht aus.
    Jedoch gehe ich davon aus, dass das für den privaten Gebrauch zu teuer ist. Das ist doch nur für wissenschaftliche Zwecke wirklich von nöten.


    Würde mich aber auch interessieren, obs dennoch möglich ist, das vielleicht mit OpenSource-SW zu realisieren.


    EDIT: Google spuckt einiges aus mit Windows Server. :gap

    Game-Rig: 3570K | P8Z77-V LE | GTX-970 | 16GB | HyperX 3K 240GB | NEC 24WMGX3 & HP LP2475w | Win 10
    Filer: E3-1220 | SM X9SCL-F | 8GB | FlexRAID | Win 10
    Server: HP ML310e | E3-1220v2 | 10GB | 18TB | Proxmox
    Mobile: Dell XPS 13 9360 | i5-8250U | 8GB | Win 10

    Einmal editiert, zuletzt von Tazzler ()

  • Verdammt Tazzler, ich hab das blöde Wort Cluster gesucht (auch in Google), darum habe ich es so uncool umformulier oben xD^^


    Jawohl, das mit der Server Version habe ich nicht nachgeschaut, Danke für die Info :headbang

    I just want to say LOVE YOU SAN!!! billy gates why do you make this possible? Stop making money and fix your software!!!

  • Kein Ding. Poste doch noch das Resultat, nimmt mich noch Wunder. =)
    Oder noch besser: Wenns ohne grossen Aufwand geht und du es auch machst, poste doch noch deine Erfahrungen. ;)

    Game-Rig: 3570K | P8Z77-V LE | GTX-970 | 16GB | HyperX 3K 240GB | NEC 24WMGX3 & HP LP2475w | Win 10
    Filer: E3-1220 | SM X9SCL-F | 8GB | FlexRAID | Win 10
    Server: HP ML310e | E3-1220v2 | 10GB | 18TB | Proxmox
    Mobile: Dell XPS 13 9360 | i5-8250U | 8GB | Win 10

  • Custer ist der falsche Suchbegriff, da wird nicht die Rechenleistung zusammengefast, sondern eine Hochverfügbarkeit erstellt.


    Was du suchst ist eher distributed computing
    http://de.wikipedia.org/wiki/Verteiltes_Rechnen


    Auf der Grundlage funktioniert ja z.B. Seti@home

    Es ist nicht deine Schuld, dass die Welt ist wie sie ist. Es wär nur deine Schuld, wenn sie so bleibt!

  • Wie gesagt, ich kenne mich damit nicht aus.
    Jedoch fand ich auf Wikipedia folgendes unter Computercluster:

    Zitat


    High Performance Computing Cluster


    High Performance Computing (HPC) Cluster dienen zur Abarbeitung von Rechenaufgaben. Diese Rechenaufgaben werden auf mehrere Knoten aufgeteilt. Entweder werden die Aufgaben in verschiedene Pakete aufgeteilt und parallel auf mehreren Knoten ausgeführt oder die Rechenaufgaben (Jobs genannt) werden auf die einzelnen Knoten verteilt. Die Aufteilung der Jobs übernimmt dabei meistens ein Job Management System. HPC Cluster finden sich oft im wissenschaftlichen Bereich. Auch die sogenannten Renderfarmen fallen in diese Kategorie.


    Ist das nicht was ähnliches?

    Game-Rig: 3570K | P8Z77-V LE | GTX-970 | 16GB | HyperX 3K 240GB | NEC 24WMGX3 & HP LP2475w | Win 10
    Filer: E3-1220 | SM X9SCL-F | 8GB | FlexRAID | Win 10
    Server: HP ML310e | E3-1220v2 | 10GB | 18TB | Proxmox
    Mobile: Dell XPS 13 9360 | i5-8250U | 8GB | Win 10

  • Zitat

    Original von Santa
    Custer ist der falsche Suchbegriff, da wird nicht die Rechenleistung zusammengefast, sondern eine Hochverfügbarkeit erstellt.


    Was du suchst ist eher distributed computing
    http://de.wikipedia.org/wiki/Verteiltes_Rechnen


    Auf der Grundlage funktioniert ja z.B. Seti@home



    Ne da hast du nicht recht.


    Es gibt halt verschiedene Arten von Clustern und HPC ist auch eine Art.


    Das ist schon was "ähnliches" wie Distributed Computing aber eben doch völlig anders :gap


    du hättest auch einfach den Cluster-Eintrag auf Wikipedia anschauen können:


    http://de.wikipedia.org/wiki/Computercluster


    Zitat

    Ziel des „Clustering“ besteht meistens in der Erhöhung der Rechenkapazität oder der Verfügbarkeit gegenüber einem einzelnen Computer.


    Ein Load-Balancer sorgt dabei normalerweise gleich für beides: Höhere Leistung durch Verteilung von Jobs (Anfragen) an mehrere Server UND Redundanz (konkret Verteilung an einen Server der noch läuft...)


    Ein Load-Balancer wird aber wohl nciht in klassischen HPC verwendet.
    Da will man mehr einen Job auf verschiedene Rechner verteilen.


    HPC können auch im x86 Bereich heute noch durchaus Sinn machen - dann nämlich, wenn bei einem einzelner Server (mit 32Cores?) die Speicheranbindung oder der Interconnect zu langsam werden würde...

    Marktplatz Bewertung
    Kiste 1: Sloti 800 TB
    Kiste 2: DLT3C @ 2.6GhZ
    ...
    Kiste 7 & Kiste 8: PhII 720BE, 8GB ram. 1x mit X25-m II 80GB & 4870, 1x mit indilinx MLC 32GB

    [SIZE=7]Dieser Beitrag, inkl. vorhandenen Anhängen, ist ungeschützt und könnte während der Übermittlung oder nachträglich von 3. verändert werden. Der Absender schliesst deshalb jede Haftung oder rechtliche Verbindlichkeit für elektronisch versandte Nachrichten aus. Weiter ist der Inhalt des Postings frei erfunden, eventuelle Annäherungen an die Realität sind höchstens unbeabsichtigt und zufällig entstanden. Zu all meinen PCs haben mehrere Leute Zugang und nutzen diesen auch.[/SIZE]

    4 Mal editiert, zuletzt von BLJ ()

  • hallo zusammen


    da ich mich auf diesem gebiet etwas auskenne, wollte ich kurz eine klarstellung der begriffe und eine hilfestellung für EnHoE007 geben.


    Computer Cluster
    ist primär ein zusammenschluss von mehreren computern, welche zusammen eine aufgabe erfüllen. dabei kann man grob unterscheiden zwischen HPC (high performance computing), HA (high availability/hochverfügbarkeit) und load-balancing.


    ein HPC cluster besteht meistens aus einer menge an normalen x86 oder ppc knoten, welche alle die selbe aufgabe haben: berechnen von physikalischen, mathematischen, chemischen usw. modellen. je nach interconnect (netzwerk) zwischen den einzelnen knoten (Gbit-Ethernet, fibre-channel, infiniband, qsnet, myrinet) eignen sie sich besser fuer direktes parallelrechnen (bei niedriger netzwerk-latenz resp. SMP systemen) z.b. via MPI oder, bei hoher netzwerk latenz, zum pseudo parallelrechnen. beim pseudo parallel rechnen geht es eher darum, die gleichen daten mit verschiedenen algorithmen zu bearbeiten, oder den gleichen algorithmus auf verschiedene daten anzuwenden, ohne dabei direkte abhängigkeiten zu haben.


    bei HA systemen geht es darum, dafür zu sorgen, dass ein service niemals offline geht. ein klassisches beispiel dafuer sind heute virtualisierungs-cluster. sobald eine physikalische maschine offline geht, wird die virtuelle maschine von einer anderen physikalischen maschine uebernommen. der service der virtuellen maschine bleibt also immer online.


    load-balancer wurde ja bereits erklaert. ein gescheites load-balancer system kann aber durchaus auch als HA system angesehen werden.


    meistens besteht ein HPC cluster auch aus HA und load-balancer clustern. HA muss zum beispiel gewährleistet sein für das submitten der jobs, während load-balancing je nach storage technologie ein thema ist.



    nun zu EnHoE007's frage:
    Nein, so einfach wie du dir das vorstellst geht das nicht. die meisten heutigen programme haben ja bereits mühe auf normalen multicore systemen anständig zu skalieren. sobald du nun daten auf mehreren computern verteilt rechnen willst, kommt noch das netzwerk dazu. das ist im vergleich zu CPU-cache, RAM, festplatte extrem extrem langsam. auch wenn es gigabit netzwerk ist. d.h. wenn jetzt eine CPU 1 von PC 1 daten braucht, welche zuvor von CPU 2 auf PC 2 ausgerechnet wurden, dauert das eine ewigkeit. normalerweise wäre CPU 1 schneller gewesen das entsprechende selber auszurechnen.


    was man aber nun machen kann, ist verschiedene unabhängige rechen-aufgaben auf die verschiedenen computer zu verteilen.


    generisch
    zum professionellen einsatz gibt es dazu Microsoft Windows Compute Cluster Server 2003, meistens wird das ganze aber unter linux/unix gemacht.


    Zitat

    Würde mich aber auch interessieren, obs dennoch möglich ist, das vielleicht mit OpenSource-SW zu realisieren.


    definitiv, sehr einfach sogar: dazu installiert man auf jedem rechner einen exec-service und auf einem server ein queuing-service (z.b. Sun Grid Engine oder PBS). will man nun etwas berechnen, schreibt man ein kleines skirpt, welches an die queue geschickt wird und von dort dann auf einen freien exec rechner verteilt wird.


    applikations-spezifisch
    solche mechanismen sind teilweise auch direkt in programme eingebaut. ich bin mir nicht sicher, aber ich glaube Maya hat ein distributed rendering modul, um 3d modelle auf mehreren rechnern parallel zu erzeugen. dann gibt es zum parallelen kompilieren von source code 'distcc'. wahrscheinlich gibt es noch viele beispiele mehr, die ich aber leider nicht grad kenne.



    Fazit @EnHoE007
    vergiss es... solang du nicht eine explizite extrem rechenaufwaendige aufgabe hast, lohnt sich das ganze konfigurieren eines solchen systems nicht.


    gruss ganto


    "Computer games don't affect kids, I mean if Pacman affected us as kids, we'd all run around in a darkened room munching pills and listening to repetitive music."


    Kristian Wilson

    Einmal editiert, zuletzt von Ganto ()

  • Wusste doch, dass hier sicher jemand anständig Bescheid weiss.;)


    Sind jetzt Distributed Computing und High Performance Computing synonym zu verwenden? Oder gibts da dennoch einen Unterschied?

    Game-Rig: 3570K | P8Z77-V LE | GTX-970 | 16GB | HyperX 3K 240GB | NEC 24WMGX3 & HP LP2475w | Win 10
    Filer: E3-1220 | SM X9SCL-F | 8GB | FlexRAID | Win 10
    Server: HP ML310e | E3-1220v2 | 10GB | 18TB | Proxmox
    Mobile: Dell XPS 13 9360 | i5-8250U | 8GB | Win 10

  • Um Rechenaufgaben auf mehreren Computern abzuarbeiten, gibts das MPI http://de.wikipedia.org/wiki/Message_Passing_Interface , dabei muss sich aber natuerlich das Problem gut parallellisieren lassen und du musst deine eigene Software schreiben, denn wie bei Multicore/Prozessoren muss die Software dafuer geschrieben sein.


    So wie ich das bei dir raushoere, willst du quasi ein Desktop und alles das du startest wird dann auf die 5 Rechner verteilt ? Ich glaube das geht nicht out of the Box, selbst wenn, wuerden immer nur einzelne Programme auf einen Rechner zugewiesen, die volle Rechenleistung kannst du dann mit einem Programm nicht erreichen.


    Es gibt allerdings fuer spezifische Anwendungen schon "clustersupport" in der Anwendung. Zb. viele 3D Designprogramme haben einen Networkrender Modus, wo du das prog auf X pc's im Slave Mode laufen lassen kannst und dann wird das Rendering auf die Rechner aufgeteilt.


    gruss
    hitch

    Media: Synology 2x2TB , Popcorn v8, Sonos ZP120, ZP90, 2 Play5, 4 Play1
    Laptop: Thinkpad X220 - I7 , IPS, 16GB DDR3, 256GB SSD + PE4H + GTX580
    Coffee: DC Mini / 2x Vario v2 / Gene CBR-101

  • Zitat

    Original von Tazzler
    Wusste doch, dass hier sicher jemand anständig Bescheid weiss.;)


    Sind jetzt Distributed Computing und High Performance Computing synonym zu verwenden? Oder gibts da dennoch einen Unterschied?


    Hi,


    ja da gibt's schon noch einen unterschied, Ganto schrieb ja:


    Zitat

    ein HPC cluster besteht meistens aus einer menge an normalen x86 oder ppc knoten, welche alle die selbe aufgabe haben: berechnen von physikalischen, mathematischen, chemischen usw. modellen. je nach interconnect (netzwerk) zwischen den einzelnen knoten (Gbit-Ethernet, fibre-channel, infiniband, qsnet, myrinet) eignen sie sich besser fuer direktes parallelrechnen [1] (bei niedriger netzwerk-latenz resp. SMP systemen) z.b. via MPI oder, bei hoher netzwerk latenz, zum pseudo parallelrechnen. beim pseudo parallel rechnen [2] geht es eher darum, die gleichen daten mit verschiedenen algorithmen zu bearbeiten, oder den gleichen algorithmus auf verschiedene daten anzuwenden, ohne dabei direkte abhängigkeiten zu haben.


    Distributed Computing beschränkt sich immer auf auf den 2. Fall.
    Weiters gilt vermutlich, dass ein HPC nur an einer Lokalität sein kann (naja auf jeden Fall der berechnende Teil.. ggf. könnte man die Job-Queue oder einen einzelnen Teil davon vom Standort loslösen), d.h. das ist ein Rechenzentrum / ne Serverfarm. Distributed Computing ist eben nicht nur auf verschiedene Computer "distributed" sondern auch auf verschiedene Lokalitäten "distributed".


    Das heisst dann auch, dass sich Probleme des 1. Falles nicht mit Distributed Computing "lösen" lassen...

    Marktplatz Bewertung
    Kiste 1: Sloti 800 TB
    Kiste 2: DLT3C @ 2.6GhZ
    ...
    Kiste 7 & Kiste 8: PhII 720BE, 8GB ram. 1x mit X25-m II 80GB & 4870, 1x mit indilinx MLC 32GB

    [SIZE=7]Dieser Beitrag, inkl. vorhandenen Anhängen, ist ungeschützt und könnte während der Übermittlung oder nachträglich von 3. verändert werden. Der Absender schliesst deshalb jede Haftung oder rechtliche Verbindlichkeit für elektronisch versandte Nachrichten aus. Weiter ist der Inhalt des Postings frei erfunden, eventuelle Annäherungen an die Realität sind höchstens unbeabsichtigt und zufällig entstanden. Zu all meinen PCs haben mehrere Leute Zugang und nutzen diesen auch.[/SIZE]

    Einmal editiert, zuletzt von BLJ ()

  • Ah, danke! :D

    Game-Rig: 3570K | P8Z77-V LE | GTX-970 | 16GB | HyperX 3K 240GB | NEC 24WMGX3 & HP LP2475w | Win 10
    Filer: E3-1220 | SM X9SCL-F | 8GB | FlexRAID | Win 10
    Server: HP ML310e | E3-1220v2 | 10GB | 18TB | Proxmox
    Mobile: Dell XPS 13 9360 | i5-8250U | 8GB | Win 10

  • Zitat

    Original von Tazzler
    Wusste doch, dass hier sicher jemand anständig Bescheid weiss.;)


    Ich war drei jahre lang admin des zentralen linux HPC clusters der universität bern. zudem hatte ich im studium einige sondervorlesungen zum thema parallel computing. da ist doch einiges hängen geblieben ;-)


    ganto


    "Computer games don't affect kids, I mean if Pacman affected us as kids, we'd all run around in a darkened room munching pills and listening to repetitive music."


    Kristian Wilson

  • Das die rechenleistung zusammengeführt wird ist glaube ich garnicht so einfach, fraglich ob das allgemein für alle Anwendungen realisiert werden kann. Aus dem Video Rendering bereich weiss ich, dass manche Programme die Aufgaben verteilen können, dabei macht aber jeder Rechner nur einen Teil und am Ende wird alles zusammen gebracht...


    Das mit dem einschalten und alle gehen an ist relativ leicht mittels "wake-on Lan" zu realisieren ist eine Option im BIOS die es bei fast allen Herstellern gibt.


    Hoffe du erreichst dein Ziel :)

  • haberpp:
    Ist dir langweilig oder wieso belebst du so alte Threads wieder?


    Lies sie wenigstens vor dem Antworten durch, den hier wurde eigentlich schon alles nötige beantwortet ;)

    Signatur sein ist doof, ich will ein Avatar werden, wenn ich gross bin!