Archive

apu2 OPNsense performance tuning

CPU boost (single core bis 1.4GHz)

Setzt BIOS version > v4.9.0.2 voraus

System: Settings: Tunables

hint.p4tcc.0.disabled="1"
hint.acpi_throttle.0.disabled="1"
hint.acpi_perf.0.disabled="1"

multi queue processing

System: Settings: Tunables

legal.intel_igb.license_ack="1"
hw.igb.rx_process_limit="-1"
hw.igb.tx_process_limit="-1"

10GBit Ethernet Kabellängen

Cat-5e, ungeschirmt: 45 – ?m
Cat-5e, geschirmt: min 45m
Cat-6, ungeschirmt: 55 – 100m
Cat-6, geschirmt: 100m
Cat-6A: 100m
Cat-7: 100m

SFP / Glasfaserhilfe

Günstiges Glaszeug: https://www.fs.com/de/

SFP / SFP+ / DAC

SFP(+) bietet in der Praxis KEINEN Geschwindigkeitsvorteil wenn es darum geht Switches miteinander zu verbinden. Es kann Sinn machen wenn Switches über Distanzen grösser 100m miteinander verbunden werden müssen. Bei 1 GBit Switches welche zusätzlich SFP+ Ports haben sind diese Ports natürlich in der Lage bis zu 10 GBit/s zu übertragen, was dann schneller ist.

Grosse Hersteller wie HPE/Aruba, Cisco etc. blockieren „fremde“ Module oft.
Technisch gibt es keinen Grund warum sie nicht funktionieren und weder Modul noch Switch nehmen Schaden.

SFP
  • Anschluss für div. Module bis 1 GBit/s (in Spezialfällen auch 1.25 GBit/s)
  • Manche Hersteller nannten es eine Weile auch Mini-GBIC
  • Keine DAC (Direct Attach Cable) spezifiziert
SFP+
  • Anschluss für div. Module bis 10 GBit/s (10 GBit Ethernet, aber auch 16 GBit/s FC Fibrechannel)
  • Weiterentwicklung von SFP
  • Mechanisch kompatibel zu SFP
  • SFP Module (1 GBit/s) funktionieren in SFP+
DAC
  • DAC = Direct Attach Cable
  • Kabel um Switches mit SFP+ Steckplätzen direkt zu verbinden, ohne SFP+ Module zu verwenden
  • Praxis: Nur verwenden wenn die Switches und das DAC vom selben Hersteller sind
  • Passive DAC 1m bis 7m, aktive DAC bis 15m
  • AOC: Das „Kabel“ ist eigentlich eine Glasfaser mit den entsprechenden Optiken direkt im Adapter
  • Theoretisch besteht auch die Möglichkeit Server mit SFP+ Ports per DAC an Switches mit SFP+ Ports zu hängen. Da hier aber bis zu 3 Hersteller involviert sind (Hersteller der Netzwerkkarte im Server, Hersteller des Kabels, Hersteller des Switches) kann es zu Inkompatibilitäten kommen. Ich rate aus Erfahrung dringend davon ab.

Steckertypen

In der Praxis relevant sind in unserer Umgebung meist LC.


Multimode & Singlemode

Aufbau der Glasfaser. Die 2 Modes sind NICHT kompatibel. Im Normalfall entscheidet man sich für einen der beiden Standards.

Multimode
  • Bis 550m
  • Günstiger als Singlemode
  • 62.5 µm oder 50 µm Kerndurchmesser
Singlemode
  • Für Distanzen über 550m
  • 9 µm Kerndurchmesser

Simplex / Duplex

Simplex

1 Glasfaser, in unserer Umgebung z.B. an den FTTH Anschlüssen von Swisscom / Init7 / SAK

Duplex

2 parallele Glasfaern, das „Normale“ bei Servern / Switches


FTTH

In der Schweiz wird der LC Stecker verwendet. Beim Kabel handelt es sich um simplex (1 Faser), mit speziellem APC Schliff auf der Seite OTO (Dose an der Wand).
Das SFP Modul muss folgende Spezifikation erfüllen:

  • 1 Gbit/s simplex SFP (10 km, TX 1310nm / RX 1490–1550nm)

Das Anschlusskabel:

  • Seite OTO (Dose an der Wand): LC / APC
  • Seite SFP: Je nach verwendetem Modul, meist LC / PC
  • Beispiel Adapter tp-link
    • TP-Link SFP Modul TL-SM321B (Alltron Artikel-Nr.: 203847)
      • Kabel siehe Zubehör vom Modul
    • TP-Link Medienkonverter MC220L V4 (Alltron Artikel-Nr.: 110616)

LX / BX / ZX etc

Beschreibt bei SFP die Wellenlänge und erreichbare Reichweite. Existiert auch bei SFP+ für 10 GBit/s, hier der Einfachheit nicht aufgeführt.

SX

1 Gbit/s, Multimode, LC Stecker, bis 550m -> Für normale Anwendungen kostengünstigste Variante für Glasfaserverbindung

LX

1 – 2.5 GBit/s, Singlemode, LC Stecker, bis 10km

EX / ZX / BX

1 – 2.5 GBit/s, Singlemode, LC Stecker, je nach Standard 40-160km

ZFS Cheatsheet

List Pool
zpool list
Show detailed health status
zpool status rpool
Show all properties for the pool
zpool get all rpool
Show I/O Stats
zpool iostat -v rpool
List datasets

root@pve:~# zfs list
NAME USED AVAIL REFER MOUNTPOINT
rpool 20.7G 1.73T 139K /rpool
rpool/ROOT 6.12G 1.73T 128K /rpool/ROOT
rpool/ROOT/pve-1 6.12G 1.73T 6.12G /
rpool/data 14.6G 1.73T 128K /rpool/data
rpool/data/vm-100-disk-0 10.7G 1.73T 10.7G -
rpool/data/vm-101-disk-0 3.85G 1.73T 3.85G -
Replacing a failed disk

root@pve:~# zpool status -v
  pool: rpool
 state: ONLINE
  scan: resilvered 143G in 15h22m with 0 errors on Fri Oct 14 10:59:46 2016
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       0     0     0
          raidz1-0  ONLINE       0     0     0
            sda2    ONLINE       0     0     0
            sdb2    ONLINE       0     0     0
            sdc2    ONLINE       0     0     0

errors: No known data errors

Assuming the failing disk is /dev/sdb2, first take the disk offline:


root@pve:~# zpool offline rpool /dev/sdb2
root@pve:~# zpool status -v              
  pool: rpool
 state: DEGRADED
status: One or more devices has been taken offline by the administrator.
        Sufficient replicas exist for the pool to continue functioning in a
        degraded state.
action: Online the device using 'zpool online' or replace the device with
        'zpool replace'.
  scan: resilvered 143G in 15h22m with 0 errors on Fri Oct 14 10:59:46 2016
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       DEGRADED     0     0     0
          raidz1-0  DEGRADED     0     0     0
            sda2    ONLINE       0     0     0
            sdb2    OFFLINE      0     0     0
            sdc2    ONLINE       0     0     0

errors: No known data errors

replace the physical disk & clone a working disk’s partition tables, copy the GRUB boot partition, copy the MBR, and rerandomize the GUIDs before letting ZFS at the disk again.


root@pve:~# sgdisk --replicate=/dev/sdb /dev/sda
root@pve:~# sgdisk --randomize-guids /dev/sdb
root@pve:~# grub-install /dev/sdb 

Replace the disk in the ZFS pool

root@pve:~# zpool replace rpool /dev/sdb2

Check Status:


root@pve:~# zpool status -v
  pool: rpool
 state: DEGRADED
status: One or more devices is currently being resilvered.  The pool will
	continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
  scan: resilver in progress since Mon Oct 17 13:02:00 2016
    147M scanned out of 298G at 4.46M/s, 19h1m to go
    47.3M resilvered, 0.05% done
config:

	NAME             STATE     READ WRITE CKSUM
	rpool            DEGRADED     0     0     0
	  raidz1-0       DEGRADED     0     0     0
	    sda2         ONLINE       0     0     0
	    replacing-1  OFFLINE      0     0     0
	      old        OFFLINE      0     0     0
	      sdb2       ONLINE       0     0     0  (resilvering)
	    sdc2         ONLINE       0     0     0

errors: No known data errors
Add Cache to existing pool
zpool add -f rpool cache sdc

LSI RAID failed drive ersetzen unter Linux mit storcli

Anzeigen aller Drives:
./storcli64 /c0 show
Output (als Beispiel):
——————————————————————————
EID:Slt DID State DG Size Intf Med SED PI SeSz Model Sp
——————————————————————————
252:0 8 Onln 0 931.0 GB SATA SSD N N 512B Samsung SSD 850 EVO 1TB U
252:1 9 Onln 0 931.0 GB SATA SSD N N 512B Samsung SSD 850 EVO 1TB U

Drive “offline” setzen:
./storcli64 /c0 /e252 /s1 set offline

Drive als “missing” setzen:
./storcli64 /c0 /e252 /s1 set missing

Drive spindown zum entfernen:
./storcli64 /c0 /e252 /s1 spindown

Danach Disk/SSD ersetzen. Der Rebuidl startet automatisch. Den Status kann man mittels folgendem Befehl kontrollieren:
./storcli64 /c0 /eall /sall show rebuild

Beispiel output:
———————————————————-
Drive-ID Progress% Status Estimated Time Left
———————————————————-
/c0/e252/s0 – Not in progress –
/c0/e252/s1 46 In progress –

Fritzbox als Bridge (DSL)

  • Fritzbox aus- und wieder einstecken
  • Auf http://fritz.box (http://192.168.178.1) zugreifen
  • Auf „Passwort vergessen“ link klicken und Fritzbox zurücksetzen
  • Sprache wählen, Land wählen, Annex A (für IP only und analog) wählen (Fritzbox rebootet)
  • Wieder anmelden an Fritzbox
  • Internet -> Zugangsdaten -> Internetzugang
  • Internetanbieter: anderer Internetanbieter
  • Zugangsdaten: Werden Zugangsdaten benötigt? [X] Nein
  • Verbindungseinstellungen ändern -> [X] Angeschlossene Netzwerkgeräte dürfen zusätzlich ihre eigene Internetverbindung aufbauen (nicht empfohlen)
  • [ ] Internetzugang nach dem „Übernehmen“ prüfen
  • Übernehmen

HP Gen10 Server Power Einstellungen für HyperV

  • iLO: Power & Thermal -> Power Settings -> Power Regulator Settings -> Static High Performance Mode Einstellung
  • iLO Gen10 zusätzlich -> Intelligent System Tuning -> Settings -> Configure with Always On -> Perform Maintenance -> BIOS/Platform Configuration -> Dann auf der ersten Seite mit der ROM Übersicht ganz unten: Workload Profile auf „Virtualization – Max Performance“ einstellen -> Update klicken (URL https://[iLO IP]/provision/). Braucht einen Server Reset.