enfrinfo@wsystem.com +33 2 40 78 22 44 - For USA only (800) 875-5907

La normalisation audio expliquée : guide complet pour un son équilibré

Waves system > Actualités > Musique d'ambiance > La normalisation audio expliquée : guide complet pour un son équilibré

À l’ère du streaming, du podcast ou encore de la musique d’ambiance, où nous consommons du contenu audio provenant de sources multiples, la normalisation est devenue cruciale. Elle permet d’assurer une cohérence sonore.

Imaginez-vous en train d’écouter une playlist : un morceau de jazz intimiste suivi d’un titre rock explosif. Sans normalisation, vous devriez constamment ajuster le volume. C’est précisément ce que la normalisation audio permet d’éviter

Contrairement à une idée reçue, il ne s’agit pas simplement de « monter le son », mais plutôt d’optimiser les niveaux audio de manière intelligente.

Alors, qu’est-ce que la normalisation audio et pourquoi faut-il la distinguer de la compression audio?

Qu’est-ce que la normalisation audio ?

Définition

La normalisation audio est un processus qui ajuste le volume d’une piste audio afin d’obtenir des niveaux sonores cohérents. Cela garantit une expérience d’écoute équilibrée sans altérer la dynamique ou les caractéristiques tonales d’origine.

La normalisation audio permet d’ajuster l’amplitude d’un signal audio à un niveau cible, en corrigeant les incohérences de volume au sein d’une même piste ou de plusieurs enregistrements. Contrairement à l’égalisation ou à la compression, elle n’affecte que le volume et préserve la plage dynamique d’origine.

Pour simplifier, imaginons un enregistrement comme une vague sonore. Cette vague a des pics (les moments les plus forts) et des creux (les moments les plus faibles). La normalisation permet d’ajuster l’amplitude globale de cette vague pour qu’elle corresponde à un standard défini.

Principes de base

Les concepts clés sont les suivants :

  1. Plage dynamique : La différence entre les parties les plus fortes et les plus faibles d’un signal audio.
  2. Normalisation des crêtes : Ajustement de l’audio pour que la crête la plus forte (par exemple, 0 dB) devienne le point de référence. Évite l’écrêtage mais peut laisser des sections plus calmes inégales.
  3. Normalisation de l’intensité sonore : Utilisation de l’intensité sonore perçue (mesurée en LUFS) pour équilibrer le volume moyen d’une piste entière. Favorisée par les plateformes de streaming pour une lecture uniforme.

 

Normalisation des crêtes

Normalisation de l’intensité sonore

Mise au point

Niveau de crête maximal

Niveau sonore global perçu

Cas d’utilisation

Prévention de la distorsion

Volume de lecture constant

Mesure de l’intensité sonore

dBFS (Décibels pleine échelle)

LUFS (unités de volume sonore)

 

La normalisation consiste à analyser l’audio pour identifier les crêtes et les creux et à appliquer un ajustement linéaire du gain pour atteindre le niveau cible.

Quelle est la différence entre la normalisation et la compression ?

Bien qu’ils portent tous deux sur le volume, ils ont des objectifs distincts. La normalisation permet de s’assurer que deux titres d’une playlist sont diffusés au même volume, tandis que la compression égalise les fluctuations de volume d’une musique.

Caractéristiques

Normalisation

Compression

Objectif

Ajuste le niveau général du volume

Réduit la plage dynamique

Plage dynamique

Préserve la dynamique originale

Modifie la dynamique (atténue les parties bruyantes)

Impact sur la tonalité

Aucun effet sur l’égalisation ou la tonalité

Affecte le punch, le sustain et la texture

Cas d’utilisation

Cohérence du volume entre les pistes

Contrôle des pics erratiques dans un mixage

Comment les ondes sonores sont-elles ajustées ?

  • Normalisation des crêtes : Amplifie ou atténue l’ensemble de la forme d’onde jusqu’à ce que la crête la plus élevée atteigne la cible (par exemple, 0 dB). Cela « élève » toutes les parties de la forme d’onde de manière uniforme.
  • Normalisation de l’intensité sonore : c’est la perception auditive du volume. Plus moderne et pertinente, elle évalue l’intensité perçue par l’oreille humaine. Elle analyse l’intensité sonore intégrée (moyenne dans le temps) et ajuste le gain pour qu’il corresponde à une norme LUFS (par exemple, -14 LUFS pour Spotify). Les sections les plus calmes sont amplifiées davantage que les pics. C’est la méthode privilégiée par les plateformes de streaming.
  • Normalisation des pics réels : c’est l’ajustement du niveau maximal. Elle tient compte des pics inter-échantillons (écrêtage entre les échantillons numériques) pour éviter la distorsion lors de la conversion analogique. Elle se concentre sur le niveau maximal du signal. Par exemple, si vous normalisez à -1 dB, le pic le plus élevé de votre audio sera ajusté à -1 dB, et le reste du signal sera ajusté proportionnellement.

Après la normalisation, les formes d’onde semblent plus cohérentes en termes d’amplitude, mais contrairement à la compression, la dynamique relative entre les pics et les creux reste intacte.

En résumé, la normalisation assure la cohérence du volume, tandis que la compression façonne la dynamique. Les deux sont essentiels dans la production audio, mais ont des rôles distincts.

Pourquoi normaliser : uniformiser le volume perçu pour éviter les variations brutales

L’objectif principal de la normalisation est d’éviter que l’auditeur ait à ajuster constamment le volume en fonction des morceaux ou des séquences sonores. Sans normalisation, certains fichiers peuvent paraître trop forts tandis que d’autres semblent trop faibles, ce qui nuit à la continuité d’écoute.

L’uniformisation du volume est particulièrement importante dans les espaces publics où les conditions sonores varient (présence de bruit ambiant, réverbération…). Grâce à la normalisation, on assure une diffusion constante et maîtrisée, évitant ainsi les écarts désagréables.

LUFS, dB, RMS : explication des unités et normes

La normalisation audio repose sur plusieurs unités de mesure. Ces différentes unités sont utilisées en complément pour définir et respecter des niveaux adaptés à chaque type de diffusion.

  • LUFS (Loudness Units Full Scale) :

Les LUFS mesurent l’intensité sonore perçue par l’oreille humaine, en tenant compte des courbes de sensibilité auditive (courbes Fletcher-Munson). Cette unité est utilisée pour évaluer la « loudness » moyenne d’un signal audio sur une période donnée, avec une précision accrue par rapport aux autres mesures.

Utilité : Standard dans le mastering et la diffusion, les LUFS permettent d’assurer une expérience d’écoute homogène entre différents contenus audio et plateformes.

  • RMS (Root Mean Square) :

Le RMS mesure la puissance moyenne d’un signal audio sur une fenêtre temporelle (environ 300 ms). Contrairement aux LUFS, il ne tient pas compte de la perception humaine mais fournit une estimation physique de l’intensité sonore.

Utilité : Principalement utilisé dans le mixage et l’enregistrement pour équilibrer les éléments sonores et éviter les distorsions.

  • dB (Décibels) :

Les décibels mesurent le niveau de crête ou les variations instantanées du signal audio. Ils sont essentiels pour éviter le clipping (distorsion due à un dépassement du seuil maximal).

Utilité : Indispensables pour surveiller les pics sonores et garantir que le signal reste dans les limites techniques du système audio.

Les normes et niveaux recommandés pour la normalisation audio

Les normes et niveaux recommandés varient selon les plateformes et les médias. Voici un aperçu des valeurs LUFS spécifiques et des bonnes pratiques pour différents contextes :

Streaming (Spotify, YouTube, Apple Music)

Les principales plateformes de streaming ont adopté des normes LUFS spécifiques :

  • Spotify : -14 LUFS
  • YouTube : -13 à -15 LUFS, avec une normalisation à -14 LUFS
  • Apple Music : -16 LUFS
  • Amazon Music : -9 à -13 LUFS
  • Deezer : -14 à -16 LUFS
  • Wavespark : -23 LUFS (EBU R 128 par défaut) – configurable

Ces valeurs peuvent évoluer et certaines plateformes offrent des options de normalisation sélectionnables par l’utilisateur.

Radio et télévision

Les normes pour la radiodiffusion varient selon les régions :

  • Europe (EBU R 128) : -23 LUFS (±1 LU de tolérance)
  • États-Unis (ATSC A/85) : -24 LUFS (±2 LUFS de tolérance)

Ces normes visent à uniformiser les niveaux sonores entre les différents programmes et publicités.

Musique d’ambiance

Bien qu’il n’y ait pas de norme spécifique pour la musique d’ambiance, il est généralement recommandé de viser des niveaux plus bas que pour le streaming grand public, afin de ne pas fatiguer l’auditeur sur de longues périodes d’écoute.

Pourquoi Wavespark a choisi la norme EBU R 128 ?

La norme EBU R 128 offre plusieurs avantages significatifs pour les consommateurs de contenus audio :

  1. Expérience d’écoute homogène : Elle harmonise les niveaux sonores entre les différents programmes et canaux de diffusions, évitant ainsi les variations de volume brusques et désagréables.
  2. Confort amélioré : Les auditeurs n’ont plus besoin d’ajuster constamment le volume de leur source, ce qui améliore considérablement leur confort d’écoute.
  3. Meilleure qualité sonore perçue : En utilisant le LUFS (Loudness Units relative to Full Scale) qui prend en compte la perception humaine du volume, la norme permet une représentation plus fidèle de la manière dont les auditeurs entendent réellement le son.
  4. Réduction des pics sonores excessifs : La norme limite les niveaux sonores maximaux, évitant ainsi les sons trop forts qui peuvent être désagréables ou surprenants pour les auditeurs.
  5. Préservation de la dynamique sonore : Contrairement aux anciennes pratiques de compression excessive, la norme EBU R 128 encourage une meilleure utilisation de la plage dynamique, ce qui peut améliorer la qualité globale du son pour certains types de contenus.

Ces avantages contribuent collectivement à une expérience audiovisuelle plus agréable et moins stressante pour les consommateurs, en particulier lors du visionnage de la télévision ou de l’écoute de contenus radiodiffusés.

Vous souhaitez normaliser votre musique d'ambiance ?

Wavespark vous fait gagner un temps précieux avec sa normalisation intégrée.

Pourquoi les plateformes utilisent-elles LUFS ?

La norme LUFS a été développée en partie comme une réponse aux problèmes causés par la “loudness war” (la guerre du volume) dans l’industrie musicale.

Ils reflètent mieux la perception humaine du son que les mesures traditionnelles comme le RMS ou les pics en dB. Cela permet aux plateformes de normaliser le volume des contenus pour éviter des variations brusques entre morceaux ou vidéos, améliorant ainsi l’expérience utilisateur. De plus, cette standardisation réduit la fatigue auditive causée par des niveaux sonores incohérents ou trop élevés.

La Loudness War

La « Loudness War » (guerre du volume) est un phénomène qui a profondément marqué l’industrie musicale depuis les années 1960 jusqu’à nos jours. Cette pratique consiste à augmenter progressivement le volume perçu des enregistrements musicaux, souvent au détriment de la qualité sonore et de la dynamique musicale.

Origines et évolution de la Loudness War

La Loudness War a débuté dans les années 1960, lorsque les producteurs ont remarqué que les morceaux enregistrés à un volume plus élevé étaient plus souvent choisis dans les jukebox. Les Beatles, par exemple, ont acquis un compresseur/limiteur Fairchild pour concurrencer les artistes de la Motown dans cette course au volume naissante.

Cette pratique s’est rapidement étendue à la radio et à la télévision, qui cherchaient à maximiser l’impact de la musique et de la publicité. Dans les années 1990, avec l’avènement du CD, la guerre du volume a atteint son apogée. Les producteurs et ingénieurs de mastering ont poussé les limites techniques pour créer des enregistrements toujours plus forts.

Techniques utilisées

La principale technique employée dans la Loudness War est la compression dynamique. Les compresseurs réduisent la dynamique du signal sonore en diminuant le niveau des parties qui dépassent un certain seuil. Cela permet d’augmenter le volume global perçu sans dépasser les limites techniques des supports.

Conséquences sur la qualité sonore

La Loudness War a eu des conséquences importantes sur la qualité sonore de la musique produite. La recherche constante de puissance sonore a conduit à une compression excessive et à une limitation du volume, entraînant une perte de nuances et de subtilités dans la musique. Les enregistrements deviennent souvent « plats » et manquent de dynamique, ce qui peut fatiguer l’auditeur à long terme.

Réaction de l’industrie

Face à ces excès, des initiatives ont émergé pour contrer la Loudness War. Par exemple, le mastering engineer Ian Shepherd a fondé le « Dynamic Range Day » pour sensibiliser à l’importance de la dynamique musicale. Plus récemment, les services de streaming comme Spotify, iTunes, Tidal et YouTube ont introduit une fonctionnalité appelée « Audio Normalization ». Cette technologie normalise le volume des pistes à environ -13 LUFS (Loudness Units Full Scale), réduisant ainsi l’intérêt de produire des masters excessivement compressés.

Impact sur l’expérience d’écoute

Bien que la compression excessive permette d’entendre clairement la musique dans des environnements bruyants comme les discothèques ou les transports en commun, elle présente des inconvénients majeurs. Elle peut entraîner une fatigue auditive plus rapide et une perte de l’expérience musicale originale voulue par les artistes.

La Loudness War reste un sujet de débat dans l’industrie musicale, avec une prise de conscience croissante de l’importance de préserver la dynamique et la qualité sonore des enregistrements. Les nouvelles normes de streaming et une meilleure éducation des auditeurs pourraient contribuer à mettre fin à cette guerre du volume, au profit d’une expérience d’écoute plus riche et plus fidèle aux intentions artistiques originales.

Pourquoi normaliser un signal audio ?

La normalisation audio est un processus essentiel pour plusieurs raisons.

Assurer une écoute homogène

La normalisation permet d’uniformiser le volume sonore entre différents morceaux, ce qui est particulièrement important pour les playlists et les podcasts. Par exemple, Wavespark utilise la norme EBU R 128. Elle permet de respecter les œuvres et un bon équilibre entre musique d’ambiance et annonces.

Éviter les variations de volume désagréables

Que ce soit en voiture, sur casque ou dans un magasin, la normalisation évite les changements brusques de volume qui peuvent être désagréables pour l’auditeur. Cela permet une écoute plus confortable sans avoir à constamment ajuster le volume.

Se conformer aux standards des plateformes de streaming

Les plateformes de streaming comme Spotify, YouTube et Apple Music imposent des standards de normalisation. NouPar exemple, Spotify ajuste les titres à -14 dB LUFS, avec des options pour les auditeurs Premium de choisir entre différents niveaux de normalisation (-11 dB, -14 dB, ou -19 dB LUFS).

Comparaison avec la compression audio

Contrairement à la compression qui modifie la plage dynamique d’un fichier audio, la normalisation ajuste le niveau de volume global sans affecter la dynamique sonore. La normalisation est donc une méthode de traitement plus transparente et moins intrusive, préservant la qualité sonore naturelle de l’enregistrement.

Effets sur la dynamique sonore

La normalisation de crête change le niveau global mais pas la dynamique sonore, tandis que la normalisation de volume perçu (sonie) peut impliquer une compression qui modifie la dynamique. La normalisation, contrairement à la compression, n’a pas pour objectif de corriger ou d’améliorer les caractéristiques dynamiques d’un fichier audio.

Comment appliquer la normalisation audio ?

Les meilleurs logiciels et outils pour normaliser l’audio

La normalisation audio est un processus crucial pour assurer que les fichiers audio ont un volume cohérent et respectent les normes de diffusion. Cela permet d’éviter les écarts de volume entre différents morceaux ou pistes, garantissant une expérience audio homogène pour l’auditeur. Voici une comparaison des logiciels gratuits et payants les plus populaires pour normaliser l’audio, ainsi que leurs avantages et inconvénients.

Comparatif des logiciels gratuits et payants

Logiciel

Prix

Description

Avantages

Inconvénients

Audacity

Gratuit

Logiciel open-source polyvalent pour l’édition audio.
Offre une fonction de normalisation sonore avec des options personnalisables.

  • Open-source, nombreuses fonctionnalités d’édition audio.
  • Fonction de normalisation personnalisable.
  • Interface datée.
  • Courbe d’apprentissage pour les débutants.

MP3Gain

Gratuit

Outil spécialisé pour normaliser les fichiers MP3.
Utilise l’algorithme ReplayGain pour ajuster le volume sans modifier la qualité du fichier.

  • Spécialisé dans les fichiers MP3.
  • Préserve la qualité originale.
  • Simple d’utilisation.
  • Limité aux fichiers MP3.
  • Interface basique et vieillissante.

Auphonic

Payant (essai gratuit)

Automatisation de la normalisation et des niveaux sonores.
Idéal pour les podcasts et dialogues.

  • Automatisation efficace.
  • Idéal pour les podcasts et dialogues.
  • Nécessite un abonnement pour un usage intensif.
  • Fonctionnalités limitées hors normalisation.

Sound Normalizer

Payant (essai gratuit)

Compatible avec MP3 et WAV.
Permet d’ajuster les niveaux de volume manuellement ou automatiquement.

  • Compatible avec plusieurs formats.
  • Options de normalisation manuelle et automatique.
  • Interface peu moderne.
  • Fonctionnalités limitées aux formats pris en charge.

Sound Forge Pro

Payant (achat unique ou abonnement)

Outils d’édition audio professionnels.
Nombreux effets et modules externes. Flux de travail intuitif.

  • Outils d’édition audio professionnels.
  • Nombreux effets et modules externes.
  • Peut être coûteux à l’achat.
  • Nécessite une certaine expertise pour exploiter pleinement les fonctionnalités.

WaveLab Pro

Payant (achat unique)

Logiciel de mastering de référence.
Outils de mesure et d’analyse avancés. Flux de travail modulaire et flexible.

  • Logiciel de mastering de référence.
  • Outils de mesure et d’analyse avancés.
  • Principalement axé sur le mastering, moins polyvalent pour d’autres tâches.
  • Peut avoir une courbe d’apprentissage abrupte.

Adobe Audition

Payant (abonnement Creative Cloud)

Intégré à l’écosystème Adobe.
Outils de restauration audio puissants.
Interface conviviale pour les utilisateurs Adobe.

  • Intégré à l’écosystème Adobe.
  • Outils de restauration audio puissants.
  • Nécessite un abonnement Creative Cloud.
  • Peut être moins adapté aux workflows de mastering très spécialisés.

Wavespark simplifie la gestion de la musique d'ambiance.

Interface intuitive, normalisation automatique.

Tutoriel : comment normaliser un fichier audio ?

La normalisation audio est un processus essentiel pour équilibrer les niveaux sonores de vos fichiers. Voici un guide détaillé pour normaliser l’audio à l’aide de différents logiciels populaires.

Audacity

  1. Ouvrez Audacity et importez votre fichier audio.
  2. Sélectionnez la piste entière (Ctrl + A).
  3. Allez dans le menu « Effets » et choisissez « Normalisation de l’amplitude ».
  4. Dans la fenêtre qui s’ouvre, sélectionnez « sonie perçue »
  5. Choisissez le niveau de normalisation désiré  dans le paramètre « vers (o) » (généralement -23 LUFS pour la diffusion européenne).
  6. Cliquez sur « Appliquer » pour normaliser la piste.

Reaper

  1. Importez votre fichier audio dans Reaper.
  2. Sélectionnez la piste à normaliser.
  3. Utilisez le raccourci clavier Ctrl + Shift + N pour ouvrir la fenêtre de normalisation.
  4. Choisissez le niveau de normalisation souhaité (généralement -23 LUFS pour la diffusion européenne).
  5. Cliquez sur « Appliquer » pour normaliser la piste.

Adobe Audition

  1. Ouvrez votre fichier audio dans Adobe Audition.
  2. Sélectionnez la totalité de la forme d’onde.
  3. Allez dans « Effets » > « Amplitude et compression » > « Normaliser ».
  4. Choisissez le niveau de normalisation désiré (par exemple, -14 LUFS pour YouTube).
  5. Cliquez sur « Appliquer » pour normaliser l’audio.

Wavespark

  1. Allez dans le menu de profil
  2. Sélectionnez “Paramètres” puis “Paramètres de l’organisation”
  3. Choisissez paramètres de la normalisation audio
  4. Définissez vos paramètres
  5. Allez dans “Titres”
  6. Importez vos fichiers depuis votre ordinateur
  7. La normalisation est automatique

Normalisation avancée et erreurs à éviter

La normalisation audio est un outil puissant, mais son utilisation doit être adaptée au type de contenu et au résultat souhaité. Voici un guide approfondi sur les cas particuliers, les erreurs courantes et les alternatives à la normalisation.

Cas particuliers (podcasts, films, voix off, musique)

  • Podcasts : Pour les podcasts, visez un niveau de -16 LUFS. Cela assure une bonne audibilité sur la plupart des appareils tout en préservant la dynamique de la voix. Ajustez le seuil de crête réel (True Peak) à -1 dB pour éviter toute distorsion lors de la compression en format MP3.
  • Films : Pour l’audio des films, suivez la norme ATSC A85 qui recommande -24 LUFS pour la télévision américaine, ou la norme EBU R128 qui préconise -23 LUFS pour la diffusion européenne. Ces normes garantissent une cohérence sonore entre les différents programmes et publicités.
  • Voix Off : Pour les voix off, un niveau de -18 LUFS est généralement approprié. Cela offre un bon équilibre entre clarté et dynamique, tout en laissant de la place pour la musique de fond ou les effets sonores.
  • Musique : Pour la musique destinée au streaming, visez -14 dB LUFS intégrés. Spotify, par exemple, normalise à ce niveau. Assurez-vous que le seuil de crête réel reste inférieur à -1 dB pour éviter toute distorsion lors du transcodage.

Erreurs courantes et comment les éviter

  • Sur-normalisation : Évitez de pousser systématiquement le niveau au maximum. Cela peut entraîner une perte de dynamique et un son « écrasé ».
  • Perte de naturel : Une normalisation trop agressive peut altérer le caractère naturel du son. Utilisez vos oreilles en plus des mesures techniques.
  • Distorsion : Veillez à laisser une marge de sécurité (headroom) d’au moins 1 dB pour éviter l’écrêtage, surtout lors du transcodage vers des formats compressés.

Alternatives à la normalisation (compression, mixage avancé)

  • Compression multibande : Plutôt que de normaliser, utilisez une compression multibande pour contrôler la dynamique de manière plus précise selon les fréquences.
  • Mixage avancé : Un bon mixage peut rendre la normalisation moins nécessaire. Travaillez sur l’équilibre des niveaux et l’égalisation pour obtenir un son cohérent.
  • Limiteur de crête : Pour contrôler les pics sans affecter la dynamique globale, un limiteur de crête peut être plus approprié qu’une normalisation.
  • Compression parallèle : Cette technique permet d’ajouter de la densité au son tout en préservant les transitoires et la dynamique naturelle.
  • Automatisation du volume : Dans certains cas, une automatisation manuelle du volume peut donner de meilleurs résultats qu’une normalisation automatique, en particulier pour les voix off et les podcasts.

Ces éléments concernent principalement les phases de mixage et de mastering. Le curateur de contenu s’en servira lorsqu’il choisira ses morceaux. Cela lui permettra d’optimiser la post-nomalisation dans le but de diffuser une musique avec un volume uniforme, dans un restaurant par exemple.

Conclusion

La normalisation audio est bien plus qu’un simple ajustement du volume : c’est un élément clé pour garantir une expérience sonore fluide et agréable, quel que soit le support ou l’environnement d’écoute. En appliquant les bonnes pratiques et en respectant les normes de “loudness”, on améliore non seulement le confort des auditeurs, mais aussi la cohérence et l’intelligibilité des messages sonores.

Dans les espaces publics, les commerces et les musées, où l’ambiance sonore joue un rôle crucial, il est indispensable d’adopter une gestion intelligente du son. Grâce à une normalisation optimisée, nos solutions garantissent une restitution sonore maîtrisée et adaptée à chaque environnement.

En intégrant la normalisation audio dans vos projets, vous offrez à votre audience une expérience d’écoute optimale et sans effort. Découvrez comment Wavespark peut vous accompagner dans cette démarche en facilitant la gestion du son dans vos espaces professionnels.

La normalisation audio est essentielle à votre métier ?

Découvrez notre solution, en 30 minutes vous saurez tout.

Questions fréquentes

Quelle est la différence entre normalisation et compression ?

La normalisation ajuste le volume global d’un fichier audio, tandis que la compression réduit la plage dynamique en atténuant les sons forts et en amplifiant les sons faibles.

Faut-il normaliser avant ou après le mixage ?

Il est généralement recommandé de normaliser après le mixage, comme étape finale avant le mastering.

La normalisation détériore-t-elle la qualité audio ?

Une normalisation appropriée ne devrait pas détériorer la qualité audio. Cependant, une normalisation excessive peut entraîner une perte de dynamique.

Peut-on normaliser des fichiers FLAC sans perte ?

Il est possible de normaliser des fichiers FLAC sans perte de qualité audio grâce à des méthodes telles que ReplayGain (ex : foobar2000). ReplayGain est une méthode non destructive qui n’altère pas les données audio. Elle ajoute simplement des métadonnées au fichier FLAC pour indiquer le niveau d’ajustement du volume à appliquer lors de la lecture.