J’ai 2 serveurs.
Le principal fait office de serveur, l’autre fournit des disques durs en tant qu’iSCSI au serveur principal.
L’objectif de cette configuration est le streaming multimédia, avec parfois du transcodage impliqué.
Dans l’application, je ne peux pas utiliser les deux serveurs. Je ne peux en utiliser qu’un seul.
Ma question concerne les E/S depuis les disques durs du 2e serveur vers le serveur principal puis vers le client. Est-ce que cette approche serait mauvaise, avec une latence élevée et des lenteurs ?
Lorsque plus de stockage sera nécessaire, j’ai pensé ajouter un autre serveur pour fonctionner comme le second et fournir des disques durs, puis migrer vers un serveur plus grand et meilleur une fois que c’est rentable, etc.
Les serveurs sont dans un centre de données distant et les deux sont connectés via un contrôleur de domaine, le serveur principal faisant office de serveur DNS et le 2e serveur ayant l’IP du serveur principal comme fournisseur DNS.
Le protocole iSCSI ne limite pas les performances ni la latence sur les disques à plateaux (HDD). Il peut limiter sur les SSD et limitera sur les NVMe.
Les performances dans ce cas dépendent de :
Le stockage physique. Vous pouvez augmenter le nombre de disques en RAID et utiliser le RAID10 pour les meilleures performances. Le streaming vidéo utilise de gros blocs, donc une taille de bande correctement alignée peut également aider.
Le réseau entre les nœuds. Pour éliminer le goulot d’étranglement réseau, utilisez une connexion 1 GbE ou mieux encore 10 GbE. Si vous avez plusieurs liens 1 GbE, configurez le multichemin (MPIO) et n’utilisez pas LACP (agrégation de cartes réseau) pour iSCSI. Voici l’explication : LACP vs MPIO
Dans certains cas, l’ajout de sessions iSCSI supplémentaires par lien peut également augmenter les performances.
La cible iSCSI Windows n’est pas non plus la plus rapide, mais elle ne devrait pas être un goulot d’étranglement pour les disques durs.