Beiträge von Kaioken

    Die Akkus habe ich alle neu gekauft vor ein paar Wochen. Sorry, hab das vergessen zu schreiben.

    Hmmm, muss beim Ladegerät mal schauen, ob es das kann. Ist eher ein einfaches Gerät, aber ich gucke heute Abend mal.

    Nach einigen Jahren habe ich meinen Slash wieder rausgeholt. Entweder hat er einen Standschaden oder ich mache was falsch.

    Die Kiste schaltet sich mit neuen und frisch aufgeladenen Akkus sporadisch nach einigen Minuten in den Fail-Safe / Low-Voltage Detect Modus wo im Auto am TQI Empfänger die LED schnell rot blinkt. Low Voltage kann es nicht sein, da ich mit Nimh Akkus fahre und das am ESC ausgeschaltet ist.


    Da hier einige Traxxas Fahrer unterwegs sind oder waren, stelle ich daher hier die Frage: Hatte auch schon jemand?

    Via google Suche habe ich keine dauerhafte Lösung gefunden. Den Empfänger habe ich gegen einen Neuen ausgetauscht mit dem gleichen Fehler. Reset von Sender und Empfänger und neu verbinden habe ich auch schon gemacht.

    Akkus habe ich zwei verschiedene probiert, bei beiden das gleiche Verhalten nach 5, bzw. 10 Minuten Fahrt.

    Könnte es sein, dass die beide Akkus eine schlechte Zelle haben und daher kurzfristig zu wenig Strom kommt? Oder doch eher der Regler mit der Zeit durch? Das Auto ist 7 Jahre alt und ist die letzten Jahre im Keller rumgelegen.

    Wenn Du das Mainboard behalten möchtest, ist der 7700K wohl das Schnellste, was passt. 8. und 9. Generation CPUs benötigen ein neues Mainboard, obwohl der Sockel von der Anzahl Pins gleich wäre.

    Ich habe opnsense im Einsatz, welches ja recht ähnlich sein soll wie pfsense.

    Wenn ich mich recht erinnere, musste ich da zuerst Mal eine Regel für die LAN Schnittstelle erstellen, damit überhaupt was raus kann, siehe Anhang

    Wir haben vor 2 Jahren angefangen zu bauen und haben auch einige Rohre pro Zimmer reinziehen lassen.

    Als Smarthome ist bei uns Loxone im Einsatz, was mit seinen Treeprodukten etwas weniger Kabel braucht als herkömmliche Installationen. Auch deren Schalter mit 5 Druckpunkten spart man einige zusätzliche Schalter pro Zimmer/Funktion.

    Ist bei euch etwas in die Richtung geplant?


    Kabel wurden Kat 6 Kabel verwendet. Ich hätte gern Kat 7 gehabt. 10GBit Transfer zum Fileserver klappt aber problemlos. Kat 5 würde ich persönlich aber nicht mehr reinziehen.


    1. Solange die Distanzen eingehalten werden, wirst Du wohl keinen Unterschied merken, zumindest nicht bei Kat 7 vs. Glas (bei Gbit Geschwindigkeit)

    2. Die gehen die Meinungen wohl auseinander. Ich persönlich würde hier Kat 7 verlegen lassen. Ist sperrig ja, aber sicher besser geeignet für schnellere Geschwindigkeiten wie Kat 5

    3. Bei 10cm Einbautiefe wird es schon recht eng. Was reinpassen könnte von Ubiquiti ist nicht lieferbar und das was lieferbar ist, passt nicht rein :shure Eventuell könntest Du aber einen normalen POE Switch von denen an die Wand schrauben, also hochkant. In der Höhe hast Du ja Platz. Der 16 Port Gen 2 POE Switch ist passiv gekühlt

    4. Da kann ich nicht viel dazu sagen

    5. Zu Mesh kann ich nichts sagen. Ich habe 5 APs von Ubiquiti im normalen Einsatz. Alle ein einem einzigen Ubiquiti POE Switch angeschlossen und keinerlei Probleme beim Roaming. Verwaltung läuft über einen Controller der als VM bei mir im Netzwerk läuft. Die Dinger kannst Du anschliessen, im Controller aufnehmen, Config wird automatisch verteilt und danach laufen sie einfach. Auch mit mehreren VLANs keinerlei Probleme


    Bleibst Du dem Fall dabei, dass im 4. OG ein Switch installiert werden soll? Den USW-8-150 hatte ich als Übergangslösung im Betrieb. Der wurde schweineheiss, selbst wenn nur ein einziger AP dranhängt mit POE.

    Rein von der Anzahl APs und Kameras sollte der 24 Port Unifi Switch das handhaben können

    Sorry, die habe ich leider nicht. Der Kühler war Teil eines AM3 Systems, das ich mal gekauft hatte.

    Muss es denn zwingend der Scythe sein? Eine kleine 92mm Wakü oder der Noctua H-L9i mit Fanduct wäre keine Option?

    Ich hab glaub wirklich noch so einen rumliegen, aber nur mit AM3 Halterung.

    Also optisch sieht er so aus wie der hier


    Kann bei mir zu Hause (9536 Schwarzenbach) abgeholt oder gegen Erstatten der Portokosten auch verschickt werden

    Kurzes Update:

    Habe testweise mit 4 Samsung Evo 870 SATA SSDs einen Pool erstellt (sync=always), ohne Slog Device und der sequentielle Durchsatz via SMB/iSCSI bewegt sich am Schnittstellenlimit von 10GBit, also zwischen 0.9 und 1,1GB/s

    Beim Schreiben von vielen kleinen Dateien ist die Performance vom Pool aber vergleichbar mit der vom Pool mit 4xWD Red und Optane SLOG, also etwas über 300MB/s.

    Merci fürs Angebot ruffy, aber ich habe gestern spontan eine 58GB Optane 800P SSD gekauft und heute grad eingebaut.

    Läuft recht gut und bringt nochmals einen Performance Schub.


    Truenas 12 Beta hatte ich ganz am Anfang installiert. Aber eben, es war halt die Beta Version. Solange noch keine finale Version draussen ist, bleibe ich bei freenas 11.3-U5.

    Mich hat das Thema Freenas irgendwie nicht losgelassen und ich habe nochmals paar Sachen getestet.

    Konnte einen günstigen HBA kaufen, welcher sehr von der Freenas Community empfohlen wird (ServeRaid M1015 als LSI 9211-8I IT geflasht). Dieser alleine hat zwar keine spürbare Performance gebracht, aber als ich dann die Samsung PM981 NVME SSD durch eine gewöhnliche Samsung Evo 860 SATA SSD, angeschlossen am HBA direkt, ersetzt habe, hatte ich plötzlich sehr stabile Übertragungsraten von über 230MB/s und zwar konstant.


    Mit der NMVE als SLOG fing die Übertragung immer mit gut 380MB/s an, sackte kurz darauf auf 300 runter, um dann nach ein paar GB am Schluss mit 110-140MB/s rumzugurken.


    Die nächste Investion wird wohl eine NVME SSD sein, die etwas robuster ist (Intel Optane, Samsung / Kingston DC Serie, halt irgendwas mit PLP und robusteren Speicherzellen)


    Falls wer eine Intel Optane PCIe SSD rumliegen hat, bitte melden :gap

    Bei ZFS scheint es so zu sein, wie beim Auto: Hubraum ist durch nichts zu ersetzen wie durch mehr Hubraum.

    Willst Du bessere Performance? Dann bau mehr Platten ein. Klar, sehr schnelle SSDs als Log Device bringen sicher war (NVME mit niedriger Latenz), aber am Schluss muss die Ware auf den mechanischen Platten landen und dort scheint halt der Flaschenhals zu sein?!

    Interessant wäre es noch zu sehen, wie gross der Unterschied wird, wenn ich z.B. die WD Red durch WD Red Pro ersetzen würde - 5400rpm vs. 7200rpm. Vermutlich wäre schon eine Steigerung vorhanden, aber nicht so extrem, dass ich jetzt plötzlich am Limit der Netzwerkkarte bin

    hat man bei freenas nicht 3 optionen?

    1. Standard (intend log wird geschrieben, dann daten auf festplatte und konsistenzcheck)
    2. sync = always (es wird alles direkt auf die Platten geschrieben)
    3. Sync=disabled

    ich hab es bei mir auf standard

    Im xigmanas.com Forum gefunden. XigmaNas verwendet ja auch ZFS als Untersatz:

    standard = ZFS will sync writes when the app asks for it (ESXi always syncs, at least on NFS)

    always = ZFS will sync every write to disk immediately, even if ESXi (or whatever app) doesn't ask for it.

    disabled = ZFS won't sync writes whether asked or not. In case of a crash, you will lose a few seconds of writes.

    =>https://www.xigmanas.com/forums/viewtopic.php?t=5887



    Ich glaub bei SMB Share Zugriff via Windows Client z.B. bewirkt die Einstellung "Standard", dass Daten asynchron geschrieben werden, also guter Durchsatz. Die Standardeinstellung bei einem neuen Share ist ja die Einstellung "Standard".

    Beim Rumprobieren am Anfang habe ich die Einstellung öfters vergessen zu ändern und mich immer gewundert, warum der neue Pool plötzlich einen so guten Durchsatz bringt :gap



    Stell doch mal bei Dir auf Always um. Wäre witzig zu sehen, ob der Durchsatz immer noch so hoch ist :cheers

    Ok, 40MB/s sind echt wenig! :eek Und ich nerv mich noch wegen den 120 - 180MB/s :gruebel

    Im freenas Forum kommt oft der Vorschlag, dass man doch einfach noch ein paar Disks hinzupacken soll, wenn die Performance nicht stimmt.

    Scheinbar fängt der Spass erst ab 8 Disks an, am besten noch mit gesplitteten Mirror und mehreren slog SSDs rumprobieren.


    So weit ich das sehe, bietet das Supermicro Board eigentlich alles, so wie es Freenas auch mag.

    Ich sehe da eher die Zipfel Netzwerkkarte, bzw die Umsetztung von 10 auf 5Gbit. Aber wieso das mit dem virtuellen Synology so viel besser läuft..

    Vielleicht liegt es daran, dass Synology mit dem btrfs keinen sync=always gesetzt hat. Stelle ich das bei freenas aus, habe ich auch viel höhere Übertragungsraten. Aber dann muss ich auch kein freenas/zfs einsetzen. Ich konnte aber noch nicht rausfinden, ob sync=always gesetzt ist, wenn btrfs zum Einsatz kommt. Habe aber auch nicht allzu lange gesucht.

    Ich hatte auch schon probiert, freenas mit einem direkten Kabel mit meinem Client zu verbinden mit dem selben Ergebnis, aber halt auch wieder mit dem 5Gbe Zipfel Adapter und im freenas eine 10Gbe Karte, die auch 5Gbe kann.

    Es könnte aber auch die SSD sein, die ich als slog verwendet habe. Bei einem kurzen Test im virtualisierten synology hatte ich mit dieser SSD auch einen ähnlich schlechten Durchsatz. Mir fehlt im Moment aber die Zeit und Motivation, da weiter zu forschen. Und SSDs habe ich auch nicht unendliche viel rumliegen :gap

    Jepp, das virtuelle synology NAS läuft der gleichen Hardware wie freenas gelaufen ist

    Einzig ein USB Stick für den ESX Host ist hinzugekommen.

    Finde ich auch, dass freenas mit meinem Setup eigentlich recht performant laufen müsste :scheisse


    Achja, nachdem ich noch Jumboframes aktiviert habe auf dem ESX Host und im Synology NAS, ist der Durchsatz nochmals gestiegen. Aktuell übertrage ich am Limit der 5Gbit Netzwerkkarte, was knapp 400MB/s entspricht. Werde noch einen SSD Cache ausprobieren, ob damit die read Perfomance noch gesteigert werden kann.


    Wegen dem freenas Setup:

    Vielleicht ist/war einfach die Konstellation von supermicro Mainboard, freenas, meinem Windows 10 Client und der 5GBit USB Zipfel Netzwerkkarte einfach scheisse?

    Ich glaub, ich bleib beim virtuellen synology NAS :cheers

    Habe die "langsamen" WD Red Platten nun in virtualisiertes Synology NAS (xpenology, Image vom DS3617xs) eingebaut und einen Raid 5 ähnlichen Verbund erstellt.

    Der Performance Unterschied ist wie Tag und Nacht :eeeek


    Ich weiss, hier geht es um Freenas/ZFS, aber ich möchte doch gern festhalten, dass die Platten im "richtigen" System recht performant sein können.
    Und ja, ich weiss, die Sicherheiten, die ZFS bietet, werde ich so nicht haben mit meinem aktuellen Setup ;)

    Testweise hatte ich mal 4 x 250GB Samsung Evo 850 eingebaut und einen RaidZ oder RaidZ2 Pool erstellt, Sync=alway, NVME SSD als SLOG.

    Habe zwar nicht intensiv testen können, aber ich konnte jedesmal mit knapp 400MB/s kopieren.


    Ich werde vermutlich Samsung Evo 860er SSDs holen. DIe scheinen auch beim intensiveren Schreibvorgängen nicht einzubrechen.

    SSDs fürs Datacenter sind mir preislich sind mir leider zu teuer. Von daher werden es wohl Consumer SSDs werden.


    Das mit dem Löschen hat was, aber ich vertraue jetzt einfach mal auf die Tools der Hersteller, dass es dann schon richtig gelöscht ist :gap