Die Akkus habe ich alle neu gekauft vor ein paar Wochen. Sorry, hab das vergessen zu schreiben.
Hmmm, muss beim Ladegerät mal schauen, ob es das kann. Ist eher ein einfaches Gerät, aber ich gucke heute Abend mal.
Die Akkus habe ich alle neu gekauft vor ein paar Wochen. Sorry, hab das vergessen zu schreiben.
Hmmm, muss beim Ladegerät mal schauen, ob es das kann. Ist eher ein einfaches Gerät, aber ich gucke heute Abend mal.
Nach einigen Jahren habe ich meinen Slash wieder rausgeholt. Entweder hat er einen Standschaden oder ich mache was falsch.
Die Kiste schaltet sich mit neuen und frisch aufgeladenen Akkus sporadisch nach einigen Minuten in den Fail-Safe / Low-Voltage Detect Modus wo im Auto am TQI Empfänger die LED schnell rot blinkt. Low Voltage kann es nicht sein, da ich mit Nimh Akkus fahre und das am ESC ausgeschaltet ist.
Da hier einige Traxxas Fahrer unterwegs sind oder waren, stelle ich daher hier die Frage: Hatte auch schon jemand?
Via google Suche habe ich keine dauerhafte Lösung gefunden. Den Empfänger habe ich gegen einen Neuen ausgetauscht mit dem gleichen Fehler. Reset von Sender und Empfänger und neu verbinden habe ich auch schon gemacht.
Akkus habe ich zwei verschiedene probiert, bei beiden das gleiche Verhalten nach 5, bzw. 10 Minuten Fahrt.
Könnte es sein, dass die beide Akkus eine schlechte Zelle haben und daher kurzfristig zu wenig Strom kommt? Oder doch eher der Regler mit der Zeit durch? Das Auto ist 7 Jahre alt und ist die letzten Jahre im Keller rumgelegen.
Wenn Du das Mainboard behalten möchtest, ist der 7700K wohl das Schnellste, was passt. 8. und 9. Generation CPUs benötigen ein neues Mainboard, obwohl der Sockel von der Anzahl Pins gleich wäre.
Wir haben vor 2 Jahren angefangen zu bauen und haben auch einige Rohre pro Zimmer reinziehen lassen.
Als Smarthome ist bei uns Loxone im Einsatz, was mit seinen Treeprodukten etwas weniger Kabel braucht als herkömmliche Installationen. Auch deren Schalter mit 5 Druckpunkten spart man einige zusätzliche Schalter pro Zimmer/Funktion.
Ist bei euch etwas in die Richtung geplant?
Kabel wurden Kat 6 Kabel verwendet. Ich hätte gern Kat 7 gehabt. 10GBit Transfer zum Fileserver klappt aber problemlos. Kat 5 würde ich persönlich aber nicht mehr reinziehen.
1. Solange die Distanzen eingehalten werden, wirst Du wohl keinen Unterschied merken, zumindest nicht bei Kat 7 vs. Glas (bei Gbit Geschwindigkeit)
2. Die gehen die Meinungen wohl auseinander. Ich persönlich würde hier Kat 7 verlegen lassen. Ist sperrig ja, aber sicher besser geeignet für schnellere Geschwindigkeiten wie Kat 5
3. Bei 10cm Einbautiefe wird es schon recht eng. Was reinpassen könnte von Ubiquiti ist nicht lieferbar und das was lieferbar ist, passt nicht rein Eventuell könntest Du aber einen normalen POE Switch von denen an die Wand schrauben, also hochkant. In der Höhe hast Du ja Platz. Der 16 Port Gen 2 POE Switch ist passiv gekühlt
4. Da kann ich nicht viel dazu sagen
5. Zu Mesh kann ich nichts sagen. Ich habe 5 APs von Ubiquiti im normalen Einsatz. Alle ein einem einzigen Ubiquiti POE Switch angeschlossen und keinerlei Probleme beim Roaming. Verwaltung läuft über einen Controller der als VM bei mir im Netzwerk läuft. Die Dinger kannst Du anschliessen, im Controller aufnehmen, Config wird automatisch verteilt und danach laufen sie einfach. Auch mit mehreren VLANs keinerlei Probleme
Bleibst Du dem Fall dabei, dass im 4. OG ein Switch installiert werden soll? Den USW-8-150 hatte ich als Übergangslösung im Betrieb. Der wurde schweineheiss, selbst wenn nur ein einziger AP dranhängt mit POE.
Rein von der Anzahl APs und Kameras sollte der 24 Port Unifi Switch das handhaben können
Farbe spielt keine Rolle
Was möchtest Du für so einen Anschluss? Ich könnte es in Herisau abholen kommen, wenn das OK ist für Dich
https://www.alphacool.com/media/image/ef/a4/c1/62435-1.jpg
Quelle: Alphacool.com
G1/4 Gewinde, gewinkelt, für 11/8mm Schlauch. Hat wer noch so einen Anschluss rumliegen?
Muss nicht zwingend von Alphacool sein, dient mehr als Beispiel.
Wer was hat, bitte mit Preisvorstellung bei mir melden. Merci
Sorry, die habe ich leider nicht. Der Kühler war Teil eines AM3 Systems, das ich mal gekauft hatte.
Muss es denn zwingend der Scythe sein? Eine kleine 92mm Wakü oder der Noctua H-L9i mit Fanduct wäre keine Option?
Ich hab glaub wirklich noch so einen rumliegen, aber nur mit AM3 Halterung.
Also optisch sieht er so aus wie der hier
Kann bei mir zu Hause (9536 Schwarzenbach) abgeholt oder gegen Erstatten der Portokosten auch verschickt werden
Kurzes Update:
Habe testweise mit 4 Samsung Evo 870 SATA SSDs einen Pool erstellt (sync=always), ohne Slog Device und der sequentielle Durchsatz via SMB/iSCSI bewegt sich am Schnittstellenlimit von 10GBit, also zwischen 0.9 und 1,1GB/s
Beim Schreiben von vielen kleinen Dateien ist die Performance vom Pool aber vergleichbar mit der vom Pool mit 4xWD Red und Optane SLOG, also etwas über 300MB/s.
Ich hätte eine Inno3d RTX 2070 zu verkaufen, gekauft April 2020. Würde sie verkaufen, da ich aktuell kaum noch spiele.
Original Lüfter wurden gegen zwei Noctua 92mm Lüfter mit passendem Anschluss ausgetauscht.
Preis mit Noctua Lüfter: CHF 350 inkl. Versand.
Hat hier noch jemand ein kleines Stück selbstklebendes Wärmeleitpad rumliegen?
So 15x15mm würden vollkommen reichen, einfach selbstklebend muss es sein
Merci fürs Angebot ruffy, aber ich habe gestern spontan eine 58GB Optane 800P SSD gekauft und heute grad eingebaut.
Läuft recht gut und bringt nochmals einen Performance Schub.
Truenas 12 Beta hatte ich ganz am Anfang installiert. Aber eben, es war halt die Beta Version. Solange noch keine finale Version draussen ist, bleibe ich bei freenas 11.3-U5.
Mich hat das Thema Freenas irgendwie nicht losgelassen und ich habe nochmals paar Sachen getestet.
Konnte einen günstigen HBA kaufen, welcher sehr von der Freenas Community empfohlen wird (ServeRaid M1015 als LSI 9211-8I IT geflasht). Dieser alleine hat zwar keine spürbare Performance gebracht, aber als ich dann die Samsung PM981 NVME SSD durch eine gewöhnliche Samsung Evo 860 SATA SSD, angeschlossen am HBA direkt, ersetzt habe, hatte ich plötzlich sehr stabile Übertragungsraten von über 230MB/s und zwar konstant.
Mit der NMVE als SLOG fing die Übertragung immer mit gut 380MB/s an, sackte kurz darauf auf 300 runter, um dann nach ein paar GB am Schluss mit 110-140MB/s rumzugurken.
Die nächste Investion wird wohl eine NVME SSD sein, die etwas robuster ist (Intel Optane, Samsung / Kingston DC Serie, halt irgendwas mit PLP und robusteren Speicherzellen)
Falls wer eine Intel Optane PCIe SSD rumliegen hat, bitte melden
Bei ZFS scheint es so zu sein, wie beim Auto: Hubraum ist durch nichts zu ersetzen wie durch mehr Hubraum.
Willst Du bessere Performance? Dann bau mehr Platten ein. Klar, sehr schnelle SSDs als Log Device bringen sicher war (NVME mit niedriger Latenz), aber am Schluss muss die Ware auf den mechanischen Platten landen und dort scheint halt der Flaschenhals zu sein?!
Interessant wäre es noch zu sehen, wie gross der Unterschied wird, wenn ich z.B. die WD Red durch WD Red Pro ersetzen würde - 5400rpm vs. 7200rpm. Vermutlich wäre schon eine Steigerung vorhanden, aber nicht so extrem, dass ich jetzt plötzlich am Limit der Netzwerkkarte bin
hat man bei freenas nicht 3 optionen?
- Standard (intend log wird geschrieben, dann daten auf festplatte und konsistenzcheck)
- sync = always (es wird alles direkt auf die Platten geschrieben)
- Sync=disabled
ich hab es bei mir auf standard
Im xigmanas.com Forum gefunden. XigmaNas verwendet ja auch ZFS als Untersatz:
standard = ZFS will sync writes when the app asks for it (ESXi always syncs, at least on NFS)
always = ZFS will sync every write to disk immediately, even if ESXi (or whatever app) doesn't ask for it.
disabled = ZFS won't sync writes whether asked or not. In case of a crash, you will lose a few seconds of writes.
=>https://www.xigmanas.com/forums/viewtopic.php?t=5887
Ich glaub bei SMB Share Zugriff via Windows Client z.B. bewirkt die Einstellung "Standard", dass Daten asynchron geschrieben werden, also guter Durchsatz. Die Standardeinstellung bei einem neuen Share ist ja die Einstellung "Standard".
Beim Rumprobieren am Anfang habe ich die Einstellung öfters vergessen zu ändern und mich immer gewundert, warum der neue Pool plötzlich einen so guten Durchsatz bringt
Stell doch mal bei Dir auf Always um. Wäre witzig zu sehen, ob der Durchsatz immer noch so hoch ist
Alles anzeigenHi kaioken
Also glaube bist nicht der Einzige der mit solchen Problemen kämpft.
Wollte letzten Donnerstag mit recht grosser Überzeugung, mein W2k16 Server auf Unraid/Proxmox umstellen!
Stellte einfach fest dass ZFS ohne SSD einfach scheisse performt 20mb/s und so...... dann hab ich noch eine SSD rein gepackt für Cache, siehe da 30-40Mb/s -.-
Schlussendlich hab ich mich wieder entschieden alles auf ESXi zu Virtualisieren. Nun funzt es auch wie ich es gerne möchte ^^
Hardware konfig ist einwenig anderst........
AMD 2700x
64GB Ram
4x6TB WD Reds
500GB NVMe Samsung evo
GTX 1060
und nur Gbit leitig -.-
Gruss
Ok, 40MB/s sind echt wenig! Und ich nerv mich noch wegen den 120 - 180MB/s
Im freenas Forum kommt oft der Vorschlag, dass man doch einfach noch ein paar Disks hinzupacken soll, wenn die Performance nicht stimmt.
Scheinbar fängt der Spass erst ab 8 Disks an, am besten noch mit gesplitteten Mirror und mehreren slog SSDs rumprobieren.
So weit ich das sehe, bietet das Supermicro Board eigentlich alles, so wie es Freenas auch mag.
Ich sehe da eher die Zipfel Netzwerkkarte, bzw die Umsetztung von 10 auf 5Gbit. Aber wieso das mit dem virtuellen Synology so viel besser läuft..
Vielleicht liegt es daran, dass Synology mit dem btrfs keinen sync=always gesetzt hat. Stelle ich das bei freenas aus, habe ich auch viel höhere Übertragungsraten. Aber dann muss ich auch kein freenas/zfs einsetzen. Ich konnte aber noch nicht rausfinden, ob sync=always gesetzt ist, wenn btrfs zum Einsatz kommt. Habe aber auch nicht allzu lange gesucht.
Ich hatte auch schon probiert, freenas mit einem direkten Kabel mit meinem Client zu verbinden mit dem selben Ergebnis, aber halt auch wieder mit dem 5Gbe Zipfel Adapter und im freenas eine 10Gbe Karte, die auch 5Gbe kann.
Es könnte aber auch die SSD sein, die ich als slog verwendet habe. Bei einem kurzen Test im virtualisierten synology hatte ich mit dieser SSD auch einen ähnlich schlechten Durchsatz. Mir fehlt im Moment aber die Zeit und Motivation, da weiter zu forschen. Und SSDs habe ich auch nicht unendliche viel rumliegen
Jepp, das virtuelle synology NAS läuft der gleichen Hardware wie freenas gelaufen ist
Einzig ein USB Stick für den ESX Host ist hinzugekommen.
Finde ich auch, dass freenas mit meinem Setup eigentlich recht performant laufen müsste
Achja, nachdem ich noch Jumboframes aktiviert habe auf dem ESX Host und im Synology NAS, ist der Durchsatz nochmals gestiegen. Aktuell übertrage ich am Limit der 5Gbit Netzwerkkarte, was knapp 400MB/s entspricht. Werde noch einen SSD Cache ausprobieren, ob damit die read Perfomance noch gesteigert werden kann.
Wegen dem freenas Setup:
Vielleicht ist/war einfach die Konstellation von supermicro Mainboard, freenas, meinem Windows 10 Client und der 5GBit USB Zipfel Netzwerkkarte einfach scheisse?
Ich glaub, ich bleib beim virtuellen synology NAS
Habe die "langsamen" WD Red Platten nun in virtualisiertes Synology NAS (xpenology, Image vom DS3617xs) eingebaut und einen Raid 5 ähnlichen Verbund erstellt.
Der Performance Unterschied ist wie Tag und Nacht
Ich weiss, hier geht es um Freenas/ZFS, aber ich möchte doch gern festhalten, dass die Platten im "richtigen" System recht performant sein können.
Und ja, ich weiss, die Sicherheiten, die ZFS bietet, werde ich so nicht haben mit meinem aktuellen Setup
Testweise hatte ich mal 4 x 250GB Samsung Evo 850 eingebaut und einen RaidZ oder RaidZ2 Pool erstellt, Sync=alway, NVME SSD als SLOG.
Habe zwar nicht intensiv testen können, aber ich konnte jedesmal mit knapp 400MB/s kopieren.
Ich werde vermutlich Samsung Evo 860er SSDs holen. DIe scheinen auch beim intensiveren Schreibvorgängen nicht einzubrechen.
SSDs fürs Datacenter sind mir preislich sind mir leider zu teuer. Von daher werden es wohl Consumer SSDs werden.
Das mit dem Löschen hat was, aber ich vertraue jetzt einfach mal auf die Tools der Hersteller, dass es dann schon richtig gelöscht ist