• Technologie
  • Équipement électrique
  • Industrie des matériaux
  • La vie numérique
  • politique de confidentialité
  • Ô nom
Emplacement: Accueil / Technologie / ZFS contre RAID : huit disques Ironwolf, deux systèmes de fichiers, un gagnant

ZFS contre RAID : huit disques Ironwolf, deux systèmes de fichiers, un gagnant

Plateforme de services à guichet unique |
2694

Agrandir

/

Ni le chronomètre ni la veste en jean ne sont strictement nécessaires, si nous sommes honnêtes à ce sujet.

Aurich Lawson / Getty

commentaires des lecteurs

259

avec 108 affiches participantes, y compris l'auteur de l'histoire

Partagez cette histoire

Partager sur Facebook

Partager sur Twitter

Partager sur Reddit

Fondamentaux du stockage

OpenZFS 2.1 est sorti - parlons de ses tout nouveaux vdevs dRAID

Retour à RAID : Les lecteurs Ars « Et si ? » édition

ZFS contre RAID : huit disques Ironwolf, deux systèmes de fichiers, un gagnant

ZFS 101—Comprendre le stockage et les performances ZFS

Comprendre le RAID : comment les performances passent d'un disque à huit

Voir plus d'histoires

Cela a été long à préparer, c'est l'heure des résultats des tests. Pour vraiment comprendre les principes fondamentaux du stockage informatique, il est important de

explorer l'impact de divers RAID conventionnels

(Redundant Array of Inexpensive Disks) sur les performances. Il est également important de

comprendre ce qu'est ZFS et comment il fonctionne

. Mais à un moment donné, les gens (en particulier les passionnés d'informatique sur Internet) veulent des chiffres.

Tout d'abord, une note rapide : ce test, naturellement, s'appuie sur ces principes fondamentaux. Nous allons nous inspirer largement des leçons apprises en explorant les topologies ZFS ici. Si vous n'êtes pas encore tout à fait au courant de la différence entre les pools et les vdevs ou ce que signifient ashift et recordsize, nous

fortement

vous recommandons de revoir ces explicateurs avant de plonger dans les tests et les résultats.

Et bien que tout le monde aime voir les chiffres bruts, nous vous invitons à vous concentrer davantage sur

comment

ces chiffres se rapportent les uns aux autres. Tous nos graphiques associent les performances des topologies de pool ZFS à des tailles allant de deux à huit disques aux performances d'un seul disque. Si vous modifiez le modèle de disque, vos chiffres bruts changeront en conséquence, mais pour la plupart, leur relation avec les performances d'un seul disque ne changera pas.

Équipement tel que testé

Oui, je travaille dans un sous-sol en grande partie inachevé. Au moins, j'ai des fenêtres dans la cour. Ne me @ pas.

Il s'agit du Hot Rod de stockage de l'été 2019, avec les douze baies chargées et chaudes. Les quatre premiers sont mes propres affaires ; les huit derniers sont les appareils testés aujourd'hui. (La machine au-dessus est banshee, mon poste de travail Ryzen 7 3700X, dans un châssis identique à 12 baies.)

Lectures complémentaires

J'ai mis à jour mon vieux serveur Pentium G croustillant - les résultats valent la peine d'être partagés

Nous avons utilisé les huit baies vides de notre

Hot Rod de stockage été 2019

pour cet essai. Il a des tonnes de RAM et plus qu'assez de puissance CPU pour passer à travers ces tests de stockage sans transpirer.

Spécifications en un coup d'œil : Hot Rod de stockage d'été 2019, tel que testé

Système d'exploitation

Ubuntu 18.04.4 LTS

CPU

AMD Ryzen 7 2700X—

250 $ sur Amazon

RAM

Kit UDIMM DDR4 ECC 64 Go—

459 $ sur Amazon

Adaptateur de stockage

Adaptateur de bus hôte 8 ports LSI-9300-8i—

148 $ sur Amazon

Espace de rangement

8x 12 To Seagate Ironwolf—

320 $ chacun sur Amazon

Carte mère

Asrock Rack X470D4U—

260 $ sur Amazon

bloc d'alimentation

Bloc d'alimentation semi-modulaire EVGA 850GQ—

140 $ chez Adorama

Châssis

Rosewill RSV-L4112—

Typiquement 260 $

, actuellement indisponible en raison de CV19

Le Storage Hot Rod est également doté d'un

LSI-9300-8i

Adaptateur de bus hôte (HBA) qui n'est utilisé que pour les disques testés. Les quatre premières baies du châssis contiennent nos propres données de sauvegarde, mais elles étaient inactives pendant tous les tests ici et sont connectées au contrôleur SATA de la carte mère, entièrement isolées de nos baies de test.

Publicité

Comment nous avons testé

Lectures complémentaires

Quelle est la vitesse de vos disques ? Découvrez la manière open source, avec fio

Comme toujours, nous avons utilisé

fio

pour effectuer tous nos tests de stockage. Nous les avons exécutés localement sur le Hot Rod et nous avons utilisé trois types de tests à accès aléatoire de base : lecture, écriture et écriture synchronisée. Chacun des tests a été exécuté avec des blocs de 4K et 1M, et j'ai exécuté les tests à la fois avec un seu

l processus et iodepth=1 ainsi qu'avec huit processus avec iodepth=8.

Pour tous les tests, nous utilisons ZFS sur Linux 0.7.5, comme cela se trouve dans les référentiels principaux pour Ubuntu 18.04 LTS. Il convient de noter que ZFS sur Linux 0.7.5 a maintenant deux ans : il y a des fonctionnalités et des améliorations de performances dans les nouvelles versions d'OpenZFS qui n'étaient pas disponibles dans la 0.7.5.

Nous avons de toute façon testé avec 0.7.5 - au grand dam d'au moins un développeur OpenZFS très expérimenté - car lorsque nous avons effectué les tests, 18.04 était la plus récente Ubuntu LTS et l'une des distributions stables les plus récentes en général. Dans le prochain article de cette série sur le réglage et l'optimisation de ZFS, nous mettrons à jour le tout nouveau Ubuntu 20.04 LTS et un ZFS beaucoup plus récent sur Linux 0.8.3.

Configuration initiale : ZFS vs mdraid/ext4

Lorsque nous avons testé mdadm et ext4, nous n'avons pas vraiment utilisé l'intégralité du disque : nous avons créé une partition de 1 To en tête de chaque disque et utilisé ces partitions de 1 To. Nous avons également dû invoquer des arguments obscurs—

mkfs.ext4 -E lazy_itable_init=0,lazy_journal_init=0

—pour éviter que la préallocation d'ext4 ne contamine nos résultats.

L'utilisation de ces partitions relativement petites au lieu des disques entiers était une nécessité pratique, car ext4 doit ramper sur l'ensemble du système de fichiers créé et disperser les blocs de métadonnées préalloués. Si nous avions utilisé les disques complets, l'espace utilisable sur la topologie RAID6 à huit disques aurait été d'environ 65 To - et le formatage aurait pris plusieurs heures, avec des attentes angoissantes similaires pour

tous

topologie testée.

ZFS, heureusement, n'a pas besoin ou ne veut pas préallouer des blocs de métadonnées - il les crée à la volée au fur et à mesure qu'ils deviennent nécessaires. Nous avons donc alimenté ZFS chaque disque Ironwolf de 12 To dans son intégralité, et nous n'avons pas eu besoin d'attendre de longues procédures de formatage.

Publicité

ZFS vs RAID conventionnel

Lectures complémentaires

Bitrot et COW atomiques : à l'intérieur des systèmes de fichiers de « nouvelle génération »

Lectures complémentaires

ZFS 101—Comprendre le stockage et les performances ZFS

Une matrice RAID conventionnelle est une simple couche d'abstraction qui se situe entre un système de fichiers et un ensemble de disques. Il présente l'ensemble de la baie comme un périphérique de « disque » virtuel qui, du point de vue du système de fichiers, est indiscernable d'un disque individuel réel, même s'il est beaucoup plus volumineux que le plus gros disque.

ZFS est un animal entièrement différent, et il englobe des fonctions qui pourraient normalement occuper trois couches distinctes dans un système traditionnel de type Unix. C'est un gestionnaire de volume logique, un système RAID et un système de fichiers tout en un. La fusion de couches traditionnelles comme celle-ci a poussé de nombreux administrateurs seniors à grincer des dents d'indignation, mais il y a de très bonnes raisons à cela.

il y a un absolu

tonne

des fonctionnalités offertes par ZFS, et les utilisateurs qui ne les connaissent pas sont fortement encouragés à jeter un œil à notre 2014

couverture

des systèmes de fichiers de nouvelle génération pour un aperçu de base ainsi que notre récent ZFS 101

article

pour une explication beaucoup plus complète.

Mégaoctets contre Mebioctets

Comme dans le dernier article, nos unités de mesure de performance ici sont les kibioctets (KiB) et les mebioctets (MiB). Un kibioctet vaut 1 024 octets, un mebioctet vaut 1 024 kibioctets, etc.

Les kibioctets et leurs grands frères et sœurs ont toujours été les unités standard pour le stockage informatique. Avant les années 1990, les informaticiens les appelaient simplement K et M et utilisaient les préfixes métriques inexacts lorsqu'ils les épelaient. Mais chaque fois que votre système d'exploitation fait référence à Go, Mo ou Ko, que ce soit en termes d'espace libre, de vitesse du réseau ou de quantités de RAM, il s'agit en réalité de GiB, MiB et KiB.

Les fournisseurs de stockage, malheureusement, ont finalement saisi la différence entre les métriques comme un moyen de produire à moindre coût des disques « gigaoctets », puis des disques « téraoctets ». les nouveaux tests d'aujourd'hui ne sont vraiment que de 10,9 Tio chacun.