Choix logiciels et de mise en oeuvre ------------------------------------ - Avec un prestataire compétent, motivé et habile, Florian Picard, en une quinzaine d'heures, nous n'avons pas réussi à connecter une VM avec Samba-4 - soit sur notre Active-Directory - soit sur notre OpenLDAP -> nous avons abandonné cette piste - Quasi immédiatement, une VM avec TrueNAS a pu se connecter à notre Active-Directory ; - Malgré - les indications précises de Julien Lecubin qui a un TrueNAS relié à son OpenLDAP - une maquette en partie réussie avec un OpenLDAP managé par LAM - une instance de test de notre OpenLDAP managé par FusionDirectory où nous avons essayé plein de choses à ce jour, nous n'avons réussi à relier une VM TrueNAS à notre OpenLDAP - Aussi nous partons en production avec la configuration TrueNAS relié à notre Active-Directory - Par conséquent, toutes les informations données par le GT ZFS sur comment repliquer les snapshots n'ont pas été étudiés ou mis en oeuvre. - Au niveau de TrueNAS, la configuration réalisée est décrite dans deux autres mémos - notes-premier-truenas.txt - notes-autre-truenas.txt - Pour la configuration du stockage, nous avons suivi le conseil du GT ZFS, en configurant sur chacun des 4 Apollo 4200 ainsi - 2 SDD en RAID 1 pour l'OS - usage des 4 autres SSD à définir (cf plus bas) - 1 zpool de 4 VDEV de 6 HDD SATA 16To en raidz2 monté en /mnt/sata - des datasets avec compression lz4 avec record size de 1M pour chaque share montés en /mnt/sata/eq_* ou /mnt/sata/pft_* - programmation de snapshots sur tout le zpool /mnt/sata 1 fois par jour avec rétention sur 1 semaine 1 fois par semaine avec rétention sur 13 semaines - réplication de tout cela sur le serveur de réplication à la prise de snapshots - Configuration de chaque share SMB - pas de modification des options par défaut - pas de share ACL - utilisation des filesystem ACL - gabarit "restricted" - conservation des droits pour @owner et @group - ajout de deux accès "Full control" - sur le groupe A-D qui doit administrer toutes les données - sur le groupe A-D de l'équipe de recherche ou de la plateforme scientifique - Alimentation en données - nous avions une très grande partie de données sur un des 4 Apollo 4200 configuré avec Ubuntu/RAID 60 sur les 24 HDD/zfs - des recopies par rsync sur ssh ont été faites vers les 2 Apollo de production sous TrueNAS - sur les données de plateformes scientifiques, cela a pris environ 6 jours à environ 3 Gb/s - sur les données des équipes de recherche, cela a pris environ 10 jours à environ 2 Gb/s - lors de la recopie des snapshots de l'un des ces deux Apollo vers le troisieme, cela a pris environ 2 jours à environ 9 Gb/s - il est observé un taux de compression nettement plus faible (aux alentours de 10%) que sur Dell FluidFS (au total 28%) qui compresse en tache de fond les fichiers non accédés depuis 30 jours