Le multiprocesseur symรฉtrique (SMP) est une architecture informatique courante qui permet ร plusieurs processeurs ou Processeur des noyaux qui fonctionnent ensemble sur un pied d'รฉgalitรฉ au sein d'un mรชme systรจme.

Que signifie SMP (Symmetric Multiprocessing) ?
Le multiprocesseur symรฉtrique est une architecture informatique dans laquelle deux ou plusieurs processeurs (ou plusieurs cลurs prรฉsentรฉs comme des pairs) partagent la mรชme mรฉmoire physique principale et I / O sous-systรจme tout en exรฉcutant un seul le systรจme d'exploitation exemple.
ยซ Symรฉtrique ยป signifie que chaque processeur possรจde le mรชme statut et peut exรฉcuter n'importe quel thread ou kernel tรขche ; il nโexiste pas de processeur ยซ maรฎtre ยป dรฉdiรฉ qui en soit propriรฉtaire ordonnancement ou d'E/S par conception. Le systรจme d'exploitation traite tous les processeurs comme un pool partagรฉ, distribuant les threads exรฉcutables entre eux et coordonnant l'accรจs aux ressources partagรฉes grรขce ร des mรฉcanismes de synchronisation tels que les verrous, les opรฉrations atomiques et les rรจgles d'ordonnancement de la mรฉmoire.
Comme tous les processeurs peuvent accรฉder au mรชme espace d'adressage, le SMP facilite le partage de donnรฉes entre les threads, mais il introduit รฉgalement une surcharge de contention et de coordination lorsque de nombreux cลurs se disputent la mรชme bande passante mรฉmoire ou accรจdent frรฉquemment aux mรชmes structures de donnรฉes partagรฉes.
Dans les systรจmes modernes, le SMP se prรฉsente souvent sous la forme de processeurs multicลurs et de systรจmes multiprocesseurs. servers, oรน le systรจme peut encore รชtre logiquement SMP mรชme si l'accรจs ร la mรฉmoire sous-jacente n'est pas parfaitement uniforme (comme dans NUMA), puisque le systรจme d'exploitation rรฉpartit toujours le travail sur plusieurs processeurs รฉquivalents au sein d'une image systรจme cohรฉrente.
Comment fonctionne le multiprocesseur symรฉtrique ?
Le SMP fonctionne en faisant partager ร plusieurs processeurs ou cลurs un mรชme systรจme d'exploitation, un mรชme espace mรฉmoire cohรฉrent et un ensemble commun de matรฉriel Les ressources permettent au systรจme d'exploitation d'exรฉcuter des tรขches en parallรจle tout en assurant la cohรฉrence des donnรฉes partagรฉes. Voici comment cela fonctionne :
- Le systรจme dรฉmarre sur une seule image systรจme. Une instance du systรจme d'exploitation initialise le matรฉriel et met en ligne des processeurs/cลurs supplรฉmentaires, afin qu'ils puissent participer aux tรขches en cours au lieu de rester inactifs.
- Le systรจme d'exploitation construit un modรจle de file d'attente d'exรฉcution partagรฉe pour les threads. Il surveille les processus/threads exรฉcutables et leurs prioritรฉs, afin de pouvoir dรฉcider ce qui doit รชtre exรฉcutรฉ ensuite sur tous les processeurs disponibles.
- Le travail est rรฉparti entre les processeurs. Le planificateur attribue des threads ร diffรฉrents processeurs (et peut les migrer) afin de rรฉpartir la charge, de rรฉduire le temps d'attente et de maintenir la rรฉactivitรฉ du systรจme en cas de concurrence.
- Les processeurs exรฉcutent les threads simultanรฉment dans le mรชme espace d'adressage. Chaque processeur exรฉcute le thread qui lui est assignรฉ, tandis que tous les threads peuvent lire/รฉcrire dans la mรฉmoire partagรฉe, ce qui permet une communication rapide et des structures de donnรฉes partagรฉes sans passage de messages explicite.
- Le systรจme d'exploitation et les applications synchronisent l'accรจs aux ressources partagรฉes. Les verrous, les opรฉrations atomiques et autres primitives de synchronisation empรชchent les conditions de concurrence, de sorte que les mises ร jour de la mรฉmoire partagรฉe restent correctes mรชme lorsque plusieurs processeurs accรจdent aux mรชmes donnรฉes.
- Maintenance du matรฉriel cachette la cohรฉrence. Les protocoles de cohรฉrence garantissent que lorsqu'un processeur met ร jour une adresse mรฉmoire, les copies mises en cache par les autres processeurs sont mises ร jour ou invalidรฉes, de sorte que tous les processeurs aient une vue cohรฉrente de la mรฉmoire.
- Le systรจme s'รฉquilibre et s'adapte ร la charge. Le systรจme d'exploitation surveille l'utilisation du processeur, les conflits d'accรจs ร la mรฉmoire et la pression exercรฉe sur celle-ci, puis ajuste la planification et l'allocation des ressources afin d'amรฉliorer le dรฉbit tout en minimisant les goulots d'รฉtranglement tels que les conflits d'accรจs ร la mรฉmoire. bande passante limites.
Caractรฉristiques clรฉs du multiprocesseur symรฉtrique
Les caractรฉristiques clรฉs du multiprocesseur symรฉtrique expliquent ce qui le distingue des autres architectures multiprocesseurs et les compromis qu'il implique lorsque plusieurs processeurs partagent une mรชme image systรจme. Elles comprennent :
- Processeurs/cลurs homologues (symรฉtriques)Tous les processeurs ont le mรชme rรดle et les mรชmes capacitรฉs, de sorte que n'importe quel processeur peut exรฉcuter des threads utilisateur, des threads noyau et gรฉrer les interruptions (selon la politique du systรจme d'exploitation), รฉvitant ainsi une sรฉparation stricte entre maรฎtre et esclave.
- instance unique de systรจme d'exploitationUn seul systรจme d'exploitation contrรดle l'ensemble de la machine et planifie le travail sur tous les processeurs, ce qui simplifie la gestion et prรฉsente le systรจme comme un seul ordinateur plutรดt que comme plusieurs nลuds coordonnรฉs.
- Espace d'adressage mรฉmoire partagรฉ et cohรฉrentTous les processeurs peuvent accรฉder ร la mรชme mรฉmoire vive (RAM) en utilisant le mรชme modรจle d'adressage, ce qui facilite le partage de donnรฉes entre les threads et permet au systรจme d'exploitation de maintenir une vue unifiรฉe des processus et des ressources.
- Planification centralisรฉe avec l'รฉquilibrage de chargeLe systรจme d'exploitation rรฉpartit les threads exรฉcutables entre les processeurs et peut les migrer pour maintenir une utilisation uniforme, amรฉliorant ainsi le dรฉbit et rรฉduisant les goulots d'รฉtranglement lorsque les charges de travail sont bien parallรฉlisables.
- Cohรฉrence du cache entre les processeursLes protocoles de cohรฉrence matรฉrielle maintiennent la cohรฉrence des caches par cลur, de sorte que les lectures suivent les รฉcritures les plus rรฉcentes (dans les rรจgles du modรจle de mรฉmoire), ce qui est essentiel pour une concurrence correcte de la mรฉmoire partagรฉe.
- Surcharge et contention de la synchronisation. รtant donnรฉ que les processeurs partagent la mรฉmoire et les structures de donnรฉes du noyau, des verrous et des opรฉrations atomiques sont nรฉcessaires ; un partage important peut entraรฎner une contention des verrous, un ยซ ping-pong ยป des lignes de cache et une rรฉduction de la mise ร l'รฉchelle ร un nombre รฉlevรฉ de cลurs.
- Sous-systรจme d'E/S partagรฉ et interruptionsLes pรฉriphรฉriques et les chemins d'E/S sont partagรฉs, et les interruptions peuvent รชtre acheminรฉes entre les processeurs, ce qui amรฉliore flexcette capacitรฉ existe, mais elle peut crรฉer des points chauds si la gestion des E/S se concentre sur un sous-ensemble de cลurs.
- รvolutivitรฉ limitรฉe par les ressources partagรฉes. Les gains de performance dรฉpendent du degrรฉ de parallรฉlisation de la charge de travail et des contraintes partagรฉes telles que la bande passante mรฉmoire, la capacitรฉ du cache de dernier niveau et les coรปts d'interconnexion/d'รฉcoute ; l'ajout de processeurs ne produit donc pas toujours des gains de vitesse linรฉaires.
Exemple de multitraitement symรฉtrique

Un exemple courant de multitraitement symรฉtrique est un prise double x86 server (par exemple, un systรจme avec deux processeurs Intel Xeon ou AMD EPYC) exรฉcutant un seul Linux or Windows server Par exemple, le systรจme d'exploitation reconnaรฎt plusieurs cลurs de processeur รฉquivalents, rรฉpartit les threads sur l'ensemble d'entre eux, et tous les cลurs partagent un espace mรฉmoire systรจme cohรฉrent.
Utilisation du multiprocesseur symรฉtrique
Le SMP est utilisรฉ lorsqu'on souhaite qu'un seul systรจme exรฉcute plusieurs tรขches simultanรฉment, que ce soit pour augmenter le dรฉbit total, maintenir une faible latence en cas de charge ou prendre en charge des applications parallรจles. Ses principales applications sont les suivantes :
- Usage gรฉnรฉral servers. Gรจre de nombreux utilisateurs et services simultanรฉs (web servers, applications servers, filet servers) en rรฉpartissant les requรชtes indรฉpendantes sur plusieurs processeurs/cลurs pour un dรฉbit plus รฉlevรฉ et une meilleure rรฉactivitรฉ.
- Base de donnรฉes les systรจmes. Gรจre l'exรฉcution de requรชtes parallรจles, les transactions simultanรฉes et les tรขches de maintenance en arriรจre-plan en planifiant les processus sur diffรฉrents cลurs tout en partageant un seul tampon/cache en mรฉmoire.
- Virtualisation et privรฉ cloud hรดtes Prend en charge de nombreux VMs ou des conteneurs sur une seule machine ; hyperviseur et les invitรฉs bรฉnรฉficient de plusieurs cลurs pour la planification des vCPU, des threads d'E/S et de la surcharge d'isolation.
- Calcul haute performance et les charges de travail scientifiques. Accรฉlรจre multithread simulations, mรฉthodes numรฉriques et traitement de donnรฉes capables de diviser le travail en blocs parallรจles au sein d'un seul nลud de mรฉmoire partagรฉe.
- Compilation, intรฉgration continue et dรฉveloppement de logiciels les machines. Compile, effectue des tests et exรฉcute des outils d'analyse plus rapidement en parallรฉlisant les รฉtapes de construction indรฉpendantes, les suites de tests et l'analyse statique sur plusieurs cลurs.
- Production et traitement des mรฉdiasAmรฉliore les performances d'encodage/transcodage vidรฉo, de rendu et de traitement d'images lorsque des images, des tuiles ou des effets peuvent รชtre traitรฉs en parallรจle.
- Les analyses statistiques et l'ingรฉnierie des donnรฉesAccรฉlรจre l'ETL, les transformations en mรฉmoire et le traitement par lots tรขches pouvant exรฉcuter plusieurs threads de travail partageant de grands ensembles de donnรฉes dans RAM.
- Applications de l'entreprise et middleware. Prend en charge les JVM/.NET de grande taille temps d'exรฉcution, les systรจmes de messagerie et les maillages de services qui reposent sur de nombreux threads (GC, rรฉseau, gestion des requรชtes) et bรฉnรฉficient d'une exรฉcution parallรจle.
Quels sont les avantages et les dรฉfis du multiprocesseur symรฉtrique ?
Le multiprocesseur symรฉtrique (SMP) amรฉliore considรฉrablement les performances en permettant ร plusieurs processeurs ou cลurs de traiter des tรขches en parallรจle, mais son architecture ร mรฉmoire partagรฉe engendre des limitations en termes de coordination et d'รฉvolutivitรฉ. Les avantages et les inconvรฉnients du SMP dรฉpendent de la capacitรฉ ร parallรฉliser efficacement une charge de travail et de la surcharge induite par la contention des ressources partagรฉes telles que les verrous, les caches et la bande passante mรฉmoire.
Avantages du multiprocesseur symรฉtrique
Le SMP offre une solution simple pour amรฉliorer les performances en exรฉcutant davantage de tรขches simultanรฉment au sein d'une mรชme image systรจme, ce qui peut accroรฎtre le dรฉbit et la rรฉactivitรฉ. Voici les principaux avantages :
- Dรฉbit plus รฉlevรฉ pour les charges de travail simultanรฉesPlusieurs processeurs/cลurs peuvent traiter des requรชtes indรฉpendantes en parallรจle, augmentant ainsi le volume total de travail effectuรฉ par seconde pour des services tels queโฆ applications web, Apiset les bases de donnรฉes.
- Meilleure rรฉactivitรฉ sous charge. Lorsqu'un thread se bloque (E/S, verrous, dรฉfauts de page), les autres processeurs peuvent continuer ร exรฉcuter le travail prรชt, rรฉduisant ainsi les dรฉlais de mise en file d'attente et permettant aux tรขches interactives ou sensibles ร la latence de s'exรฉcuter plus rapidement.
- Communication efficace par mรฉmoire partagรฉe. Les threads partagent un mรชme espace d'adressage, de sorte que le passage de donnรฉes entre les travailleurs peut รชtre aussi simple que l'รฉcriture dans une mรฉmoire partagรฉe, souvent plus rapide que l'รฉchange de messages entre des machines distinctes.
- Modรจle d'application et de systรจme plus simple que les systรจmes distribuรฉsUne instance de systรจme d'exploitation, une systรจme de fichiers L'utilisation d'un espace de noms et d'un modรจle de processus unique simplifie le dรฉploiement et les opรฉrations par rapport ร la coordination de plusieurs nลuds.
- Flexplanification et utilisation des ressourcesLe systรจme d'exploitation peut rรฉpartir les threads entre les processeurs afin d'รฉquilibrer la charge, de prioriser les tรขches critiques et d'รฉviter de laisser des ressources inutilisรฉes lorsque du travail est disponible.
- Mise ร l'รฉchelle rentable au sein d'une seule serverL'ajout de cลurs/sockets peut amรฉliorer les performances sans la complexitรฉ supplรฉmentaire de la coordination rรฉseau, des installations de plusieurs systรจmes d'exploitation ou de la cohรฉrence distribuรฉe.
- Parallรฉlisme amรฉliorรฉ pour les piles logicielles modernes. De nombreuses plateformes (environnements d'exรฉcution JVM/.NET, web) serversLes moteurs d'analyse (par exemple, les processeurs multicลurs) sont conรงus pour exploiter plusieurs cลurs, ce qui permet ร l'architecture SMP de s'aligner parfaitement avec les conceptions multithread courantes.
Dรฉfis du multitraitement symรฉtrique
L'architecture SMP pose รฉgalement des problรจmes de mise ร l'รฉchelle et de fiabilitรฉ, car plusieurs processeurs partagent la mรชme mรฉmoire, les mรชmes caches et les mรชmes ressources du noyau, ce qui peut crรฉer des goulots d'รฉtranglement ร mesure que le nombre de cลurs augmente. Voici les inconvรฉnients :
- Accรฉlรฉration limitรฉe pour les travaux non parallรจlesSi une charge de travail comporte des sections sรฉquentielles, les gains globaux plafonnent car ces parties s'exรฉcutent toujours sur un seul cลur, et l'ajout de processeurs ne peut pas รฉliminer ce goulot d'รฉtranglement.
- Surcharge liรฉe aux conflits de verrouillage et ร la synchronisation. Les structures de donnรฉes partagรฉes nรฉcessitent des verrous ou des opรฉrations atomiques ; une forte contention peut sรฉrialiser lโexรฉcution, augmenter le temps dโattente et rรฉduire lโefficacitรฉ du processeur.
- Pรฉnalitรฉs de cohรฉrence du cache. Lorsque plusieurs cลurs รฉcrivent frรฉquemment sur les mรชmes lignes de cache, le trafic de cohรฉrence peut provoquer un ยซ rebond des lignes de cache ยป, ralentissant les deux cลurs mรชme s'ils effectuent un travail utile.
- Goulots d'รฉtranglement de la bande passante de la mรฉmoire partagรฉe. Les processeurs peuvent dรฉpasser les capacitรฉs du sous-systรจme de mรฉmoire ; ร mesure que davantage de cลurs traitent des donnรฉes, ils se disputent la bande passante de la RAM et le cache de dernier niveau, ce qui limite la mise ร lโรฉchelle.
- Effets NUMA dans les systรจmes multi-socketsLe temps d'accรจs ร la mรฉmoire peut varier selon le socket ; si les threads s'exรฉcutent loin de leurs donnรฉes, la latence augmente et la bande passante diminue, sauf si le systรจme d'exploitation et les applications gรจrent correctement la localitรฉ.
- Dรฉbogage et correction plus complexes. Les problรจmes de concurrence tels que les conditions de concurrence, les interblocages et les bogues subtils d'ordonnancement de la mรฉmoire deviennent plus probables, en particulier dans les applications fortement multithreadรฉes.
- Points chauds du noyau et des E/S. Certains chemins d'accรจs du systรจme d'exploitation et la gestion des pรฉriphรฉriques peuvent devenir des goulots d'รฉtranglement centralisรฉs (gestion des interruptions, pile rรฉseau, verrous du systรจme de fichiers), rรฉduisant ainsi l'avantage des processeurs supplรฉmentaires.
FAQ sur le multiprocesseur symรฉtrique
Voici les rรฉponses aux questions les plus frรฉquemment posรฉes sur le multiprocesseur symรฉtrique.
Quelle est la diffรฉrence entre le multiprocesseur symรฉtrique et le multiprocesseur asymรฉtrique ?
Comparons plus en dรฉtail le multiprocesseur symรฉtrique et asymรฉtrique :
| Aspect | Multitraitement symรฉtrique (SMP) | Multitraitement asymรฉtrique (AMP) |
| Rรดles du processeur | Tous les processeurs/cลurs sont รฉquivalents ; nโimporte quel processeur peut exรฉcuter le systรจme dโexploitation et les applications. | Les processeurs ont des rรดles fixes ou spรฉcialisรฉs (par exemple, un ยซ maรฎtre ยป, dโautres ยซ travailleurs ยป ou des fonctions dรฉdiรฉes). |
| Modรจle de systรจme d'exploitation | En gรฉnรฉral, une seule image systรจme gรจre tous les processeurs comme un pool partagรฉ. | Souvent, un systรจme d'exploitation maรฎtre (ou cลur maรฎtre) contrรดle la planification ; d'autres cลurs peuvent exรฉcuter un code limitรฉ, un firmware ou des instances de systรจme d'exploitation distinctes. |
| Planification | Le planificateur du systรจme d'exploitation peut placer n'importe quel thread exรฉcutable sur n'importe quel processeur. | Le travail est explicitement attribuรฉ ร des processeurs spรฉcifiques par le maรฎtre ou par conception ; moins flexible. |
| Gestion des interruptions et des E/S | Peut รชtre distribuรฉ sur plusieurs processeurs (en fonction de la politique du systรจme d'exploitation). | Gรฉnรฉralement centralisรฉ sur le processeur principal ou acheminรฉ vers des processeurs spรฉcifiques. |
| Modรจle de mรฉmoire | L'espace d'adressage mรฉmoire partagรฉ et cohรฉrent est courant. | Peut รชtre partagรฉ, partitionnรฉ ou basรฉ sur les messages ; souvent moins uniforme et plus spรฉcifique ร l'application. |
| Communication entre les processeurs | La synchronisation de mรฉmoire partagรฉe (verrous/opรฉrations atomiques) est typique. | Utilise souvent une coordination explicite (dispatch maรฎtre, files d'attente, IPC), parfois plus simple mais moins gรฉnรฉrale. |
| Caractรฉristiques d'รฉvolutivitรฉ | Bonne capacitรฉ d'รฉvolution, mais limitรฉe par la contention, la cohรฉrence et la bande passante mรฉmoire. | Peut s'adapter ร des charges de travail spรฉcialisรฉes, mais flexLa capacitรฉ et la mise ร l'รฉchelle ร usage gรฉnรฉral sont gรฉnรฉralement infรฉrieures. |
| Complexitรฉ pour les dรฉveloppeurs | Modรจle de programmation ยซ systรจme unique ยป plus simple, mais les bugs de concurrence sont frรฉquents. | Peut simplifier certaines tรขches en temps rรฉel ou dรฉdiรฉes, mais augmente la complexitรฉ de la conception du systรจme et nรฉcessite un partitionnement explicite. |
| Cas d'utilisation typiques | Usage gรฉnรฉral servers, postes de travail, hรดtes de virtualisation, bases de donnรฉes. | Systรจmes embarquรฉs/temps rรฉel, conceptions hรฉtรฉrogรจnes, multiprocesseurs hรฉritรฉs, systรจmes avec cลurs de contrรดle et de traitement dรฉdiรฉs. |
SMP vs. NUMA
Faisons maintenant de mรชme pour SMP et NUMA :
| Aspect | SMP (Multitraitement symรฉtrique) | NUMA (Accรจs mรฉmoire non uniforme) |
| Ce qu'il dรฉcrit | Un modรจle d'ordonnancement OS/CPU multiprocesseur oรน les CPU/cลurs sont traitรฉs comme des pairs. | Une architecture mรฉmoire oรน la latence/bande passante d'accรจs ร la mรฉmoire dรฉpend du processeur/socket auquel la mรฉmoire est connectรฉe. |
| Idรฉe clรฉ | ยซ N'importe quel processeur peut exรฉcuter n'importe quel thread ยป sous une seule image systรจme d'exploitation. | ยซ La mรฉmoire locale est plus rapide que la mรฉmoire distante ยป entre les sockets/nลuds. |
| Accรจs ร la mรฉmoire | Souvent prรฉsentรฉe comme une mรฉmoire partagรฉe et cohรฉrente avec (idรฉalement) un coรปt d'accรจs similaire. | Non uniforme : chaque processeur possรจde une mรฉmoire locale ; l'accรจs ร la mรฉmoire d'un autre processeur est plus lent. |
| Matรฉriel typique | Processeurs multicลurs et multi-sockets servers. | La plupart des multiprises modernes servers (et certains grands systรจmes) sont NUMA |
| vue du systรจme d'exploitation | Une seule image systรจme ; le planificateur rรฉpartit les threads entre les processeurs. | Il s'agit toujours d'une seule image systรจme, mais le systรจme d'exploitation doit tenir compte de la localitรฉ de la mรฉmoire lors de la planification et de l'allocation de celle-ci. |
| Sensibilitรฉ aux performances | Limitรฉ par la contention (verrous), le trafic de cohรฉrence du cache et la bande passante de la mรฉmoire. | Fortement affectรฉ par l'emplacement des threads/donnรฉes ; un placement ยซ incorrect ยป peut ajouter de la latence et rรฉduire le dรฉbit. |
| Problรจmes de programmation | Exactitude de la concurrence et gestion des conflits. | Gestion de la concurrence et de la localitรฉ (รฉpinglage, allocateurs compatibles NUMA, รฉvitement des accรจs distants). |
| Lien familial | En pratique, le SMP ne nรฉcessite pas une mรฉmoire uniforme. | Les systรจmes NUMA peuvent toujours fonctionner dans un style SMP (souvent appelรฉ ccNUMA : NUMA cohรฉrent avec le cache). |
| Meilleur pour | Parallรฉlisme ร usage gรฉnรฉral sur une seule machine. | Mise ร l'รฉchelle des machines multi-sockets en conservant les tรขches de travail ร proximitรฉ des donnรฉes afin de rรฉduire les pรฉnalitรฉs liรฉes ร la mรฉmoire distante. |
Le SMP a-t-il un impact sur les performances ?
Oui, le SMP influe directement sur les performances car il dรฉtermine la capacitรฉ d'un systรจme ร exรฉcuter des tรขches en parallรจle sur plusieurs processeurs ou cลurs. Pour les charges de travail comportant de nombreuses tรขches indรฉpendantes ou des threads bien parallรฉlisรฉs (services web, bases de donnรฉes, compilations, encodage multimรฉdia), le SMP peut augmenter le dรฉbit et rรฉduire la latence en rรฉpartissant la charge de travail entre les cลurs.
Cependant, le gain n'est pas automatiquement linรฉaire. Les performances peuvent stagner, voire se dรฉgrader, lorsque plusieurs threads se disputent les mรชmes verrous ou donnรฉes partagรฉes, lorsque le trafic de cohรฉrence du cache augmente en raison d'รฉcritures partagรฉes frรฉquentes, ou lorsque le systรจme atteint ses limites partagรฉes, telles que la bande passante mรฉmoire et la capacitรฉ du cache de dernier niveau. Sur les systรจmes multi-sockets serversLes effets NUMA influencent encore davantage les rรฉsultats si les threads s'exรฉcutent loin de la mรฉmoire oรน rรฉsident leurs donnรฉes, ce qui ajoute de la latence et rรฉduit la bande passante effective.