Notre configuration de TrueNAS sur un HPE Apollo 4200 ===================================================== - Volume RAID1 sur les 2 premiers disques SSD - Installation de TrueNAS via l'image ISO - "droit devant" - configuration du boot order dans iLO pour booter par défaut sur ce device - effectuer la mise à jour - Réseau - au niveau du switch, avoir uniquement 1 interface 10G activée - désactiver DHCP et mettre une IP fixe sur l'interface 10G - utiliser les serveurs AD comme serveurs DNS ; mettre en premier celui de la baie - Certificat et https - dans System/CAs : définition de la CA privée pour ijm.univ-paris-diderot.priv avec le fichier ca.crt - génération depuis la VM shinken d'une clef et d'un certificat pour xxx.ijm.univ-paris-diderot.priv cd /usr/local/ca ./easyrsa gen-req xxx.ijm.univ-paris-diderot.priv nopass ./easyrsa sign-req server xxx.ijm.univ-paris-diderot.priv nopass conservation dans vm1:/usr/local/ssl/ijm.univ-paris-diderot.priv - dans System/Certificates : chargement de ces éléments - dans System/General : utilisation de ce certificat coche de la case Web interface http -> https redirect - Divers éléments de configuration - général : clavier console, timezone - serveur NTP : - supprimer les 3 serveurs par défaut de FreeBSD - ajouter le notre : décocher "burst", cocher "force" - serveur syslog - configuration SMTP - alert services - Comptes - compte root changer le pw association d'un email : pour recevoir les alertes association de la clef publique de root@vm1 - compte ijmadmin : à ajouter e pas oublier de faire su - avec pw du compte root - ATTENTION : seul le compte root a accès à la WebUI by design - Stockage ZFS - création d'un pool "sata" avec 4 VDEV de 6 disques en RAIDZ2 - création des datasets voulus avec un blocksize de 1 Mo - Connexion à Active-Directory - nécessité d'utilisation de ad1 et ad2 comme résolveurs DNS dans TrueNAS - nécessité d'être parfaitement à l'heure - cf rubrique NTP - définition d'un annuaire A-D en indiquant domaine : ad.ijm.univ-paris-diderot.priv compte : Administrator (ne marche plus ?) -> jma - lancement du calcul du cache - Partages SMB - définition de partages correspondant aux datasets - utilisation des 'Filesystem ACL' - choix d'un ACL de type "restricted" - en plus des deux items par défaut pour @user et @group - ajout d'items comparables à ceux en place sur FluidFS pour NAS_all_full : full control NAS_pft_xxxx_W : full control - rem : il faut indiquer les groupes sous la forme AD-IJM\nom-groupe-A-D mais en les tapant tout en minuscules ; la complétion fonctionne alors - Snapshots ZFS - programmation de 2 taches pour prendre un snapshot de /mnt/sata - chaque jour conservé durant 1 semaine - chaque dimanche conservé sur 13 semaines - Administration - dataset dédié en /mnt/sata/admin : finalement pas utile ? - script /root/bin/sauv.sh pour sauvegarder la config TrueNAS (dossier /data) - programmation d'une tâche pour le faire chaque nuit - Services - lancer manuellement et au démarrage SSH, Smart, SMB, SNMP - Supervision - TrueNAS : - configuration du service SNMP - VM Shinken : - récupération du fichier de MIB dans /usr/share/snmp/mibs/FREENAS-MIB.txt - parcours de la MIB par snmpwalk -v 1 -c public xxx . - on y voit des infos sur les zpool - supervision avec la commande ratio-zpool qui appelle le script /usr/local/shinken/ratio-zpool.sh qui fait un calcul du ratio d'occupation du zpool par CAPACITY=` snmpget -v 1 -c public $1 FREENAS-MIB::zpoolSize.2 | sed 's/^.*INTEGER: //' ` USED=` snmpget -v 1 -c public $1 FREENAS-MIB::zpoolUsed.2 | sed 's/^.*INTEGER: //' ` USED100=$(($USED*100)) CURRENT=$(($USED100/$CAPACITY)) - supervision par LibreNMS - Quotas ZFS - mise en place de valeurs pour les attributs refquota (à gauche) quota (à droite) - soit sur chaque dataset - soit sur /mnt/sata pour se prémunir d'atteindre 80% de remplissage - cf la commande zfs get quota,refquota /mnt/sata/* - Disques SSD - sur les 6 SSD dans le serveur, il en reste 4 disponibles, après le RAID 1 de 2 SSD pour l'OS - cache - choix de mettre un cache L2ARC sur les serveurs de production en utilisant 1 SDD dans Storage/Pools - roue crantée - Add Vdevs - observation par arc_summary -s l2arc - cf https://linuxhint.com/configure-zfs-cache-high-speed-io/ - zpool ssd - usage des 3 ou 4 disques restants pour un zpool en raid-z ou raid-z2 - pour soit futurs shares rapides soit hébergement de VM