La technique d’extraction du signal et du bruit à la sortie d’une aide auditive proposée par Hagerman&Olofsson est fréquemment utilisée en mastering audio, sous le nom de “NULL TEST“. Elle permet entre autres, de quantifier la perte de qualité liée à un ré-échantillonage ou compression “lossy” du signal d’origine.
Comme nous l’avons vu précédemment, Miller (2013) utilise 4 signaux pour l’extraction et l’estimation du facteur de qualité de cette extraction, permettent une analyse du RSB assez robuste à la sortie d’une aide auditive :
- (+S+N) + (+S-N) extrait le signal (+6dB)
- (+S+N) + (-S+N) extrait le bruit (+6dB)
- et (+S+N) + (-S-N) extrait… rien !, ou plutôt devrait tendre vers -∞ mais en réalité “doit être 20dB plus faible que le plus faible extrait des deux précédents (parole ou bruit)”. C’est un critère de qualité/d’erreur décrit dans la thèse de Taylor (voir post précédent).
La difficulté majeure de ce type de test vient de l’alignement de tous ces signaux : plus elle est rigoureuse et précise, plus le calcul fera “disparaître” les signaux se retrouvant en opposition de phase. Et ça se joue quelques échantillons près (un échantillon avec une fréquence d’échantillonnage de 96kHz dure… 10μs !). Les éléments technologiques présents dans les aides auditives actuelles rendent très difficile cet alignement :
- les anti-larsen notamment ont tendance à inverser la phase du signal pendant le test, et bien sûr, jamais au même moment…
- Les systèmes “d’aide à la décision” analysant également la scène sonore ont tendance à ne jamais faire exactement la même chose au même moment entre deux mesures.
- Enfin, entre autres joyeusetés, les appareils peuvent présenter un phénomène de “Time shifting”, c’est à dire qu’ils allongent (certes de quelques pouillèmes de sec…) le signal, mais jamais non plus aux mêmes endroits des tests…
Bref, une solution s’impose : se méfier des anti-larsen ( = les désactiver) et fixer les appareils dans un mode programme défini. De là à dire qu’il faudrait faire pareil avec les appareils de nos patients… mais ça pourrait des fois se discuter pour des raisons de qualité sonore !
Alignement précis = élimination précise de la parole ou du bruit = besoin d’un enregistrement “HiRes”, c’est à dire en 96kHz/24bits = de bon gros fichiers .wav pour 45′ environ d’enregistrement (RSB testés +10/+5/0/-5/-10dB, pour 4 configurations différentes +S+N, -S-N, +S-N et -S+N).
Bien aligner ensuite tout le monde, pour bien éliminer ce qui doit l’être. Exemple avec l’ISTS et l’IFnoise à RSB -4dB :
Le signal +S+N à l’écoute :
Le signal +S-N à l’écoute (aucune différence à l’oreille) :
Ici deux fichiers +S+N et +S-N se retrouvant strictement synchronisés (configuration Hagerman & Olofsson de 2004), l’addition des deux va donner la parole + 6dB, le bruit en opposition de phase dans +S-N, s’annulant avec +S+N :
Pour ceux qui voudraient écouter le signal extrait (extraction médiocre… non conservée) ci-dessus, non trafiqué, même si ça a un petit côté magique :
Et si vous ne me croyez pas, vous pouvez télécharger ces +S+N et +S-N et les fusionner dans Audacity, vous retrouverez bien la voix extraite ! Et si vous avez tout suivi, et que vous maîtrisez un peu Audacity, avec ces deux extraits, vous pourriez même, connaissant le RSB à l’entrée (-4dB), reconstituer le RSB à la sortie de ce Widex Dream Fashion 440 😉
Allez, je vous aide ! On n’a rien sans rien…
Cet alignement est très long et fastidieux. Si vous avez eu le courage de tenter la manip ci-dessus, vous avez dû comprendre. Et encore, les signaux sont déjà alignés et tous prêts à l’emploi !
Une solution :
mise en place par Franck LECLERE et avant lui, l’institut Fraunhofer (François-Xavier NSABIMANA), a été un traitement par lots (batch processing) des divers fichiers enregistrés à divers RSB avec “alignement automatique”, basé soit sur la structure fine, soit l’enveloppe du signal (au choix, selon les appareils) :
Pourquoi des signaux mesurés à la sortie de certains appareils s’alignent mieux avec l’enveloppe (une majorité) ou d’autres par la structure fine ? cela reste un mystère…
Donc pour faire court, on obtient :
- un “train” de 4 signaux à 5 RSB différents (20 combinaisons),
- enregistrés en 96kHz/24bits,
- qu’il va falloir découper,
- puis aligner entre eux afin d’en extraire la substantifique moelle (y’a pas que l’audio dans la vie… vous lisez trop le blog !) :
C’est un algorithme Matlab qui va découper ce train, aligner les signaux (ici sur l’enveloppe) et extraire signal et bruit. Il ne restera plus qu’à recalculer le RSB à la sortie.
Conditions de test :
- Signal ISTS, bruit IFnoise (même densité spectrale de niveau), téléchargeables sur le site de l’EHIMA
- Appareil réglé selon méthodologie fabricant, dont le niveau de sortie pour l’ISTS à 65dB SPL d’entrée a été fixé dans un coupleur 2cc sur cible DSL 5.0a (EAR + RECD HA2) sur la base d’un audiogramme normalisé KS100 (sans inconfort entré)
- Cabine : TR 0,23s et BDF 27dBA
- HP : 1 à l’avant (émission de l’ISTS) à 0.70m et 2 à l’arrière (émission de l’IFnoise) à 135 et 225°, à 1,5m chacun
- Etalonnage du niveau d’émission de l’ISTS par sonomètre au niveau du micro de l’AA par Leq 30s en dBA; étalonnage identique pour l’IFnoise
- Emission du signal numérisé par lecteur Cowon PLENUE 1 relié en optique au convertisseur D/A d’un ampli NAD C375 BEE
- enregistrement en fond de coupleur HA1 ou HA2 par un microphone DPA 4061 en 96kHz/24bits, en acquisition sur enregistreur Roland R26
- enregistrement en parallèle (micro de référence) par un microphone BEHRINGER ECM8000 afin de vérifier la RSB à l’entrée
- Calibration des deux microphones avant enregistrements par calibrateur B&K 4231
- Découpage, extraction et calcul du RSB à la sortie de l’AA par un code Matlab sur les 30 dernières secondes de chaque mesure (afin de laisser les algos se stabiliser) pour l’enregistrement de l’appareil, et pour l’enregistrement de référence
Le premier testé sera un appareil qui ne prêtera pas à polémique, puisqu’il n’est plus diffusé : un Widex Inteo 19, de 2006 si j’ai bonne mémoire. Il y a eu 3 générations de circuits après cet appareil (puces Mind, Clear puis Dream).
On obtient, par exemple à RSB -10dB, la séparation des signaux :
Voici sa progression :
Pas d’amélioration du RSB, sauf à -10dB (lissage du bruit par la compression WDRC, j’en avais parlé dans l’article précédent) et détérioration (légère) du RSB à +10dB par l’effet inverse (= un lissage des crêtes du signal utile).
On retrouve tout à fait les résultats décrits par Taylor & Johannesson en 2009 (le Widex Inteo avait un temps de retour variable, comme le lièvre, mais plutôt long) :
Par la même occasion, si vous avez eu la patience de lire la thèse de Miller (2013), les résultats étaient quasi identiques avec son successeur, le Widex Mind 440.
Je précise : les autres fabricants ne faisaient pas mieux à l’époque, voire plutôt moins bien.
A suivre…
Xavier,
J’attends avec impatience la suite de ton article avec des appareils actuels, de toute marque, afin de savoir s’ils améliorent le RSB.
Je te fais entière confiance sur le matériel employé et les conclusions que tu en tires.
Il y a des mois pour ne pas dire des années, les fabricants nous donnaient l’amélioration RSB de leur appareil, maintenant ils ne le font plus.
C’est bizarre.
Cela me rappelle qu’il y a des mois pour ne pas dire des années, les fabricants nous donnaient :
– Fréquence d’horloge du microprocesseur : sauf erreur de ma part, plus elle est importante, plus la capacité de traiter le signal en est facilité.
– Fréquence d’échantillonnage : sauf erreur de ma part, plus elle est importante, plus la bande passante est importante (Théorème de SHANNON ou critère de NYQUIST).
– Nombre de bits par échantillon : sauf erreur de ma part, plus il est important, plus la dynamique possible est importante.
– Type de convertisseur A/D : en est-on toujours au SIGMA/DELTA des débuts du numérique ?
Comme si cela n’avait plus d’importance, alors que je pense que cela en a beaucoup.
J’ai été à nouveau sensibilisé à ce manque d’information en comprenant il y a quelques semaines, qu’on pouvait faire diminuer la consommation d’un appareil (au détriment de ses performances ?) de plusieurs dizaines de % en diminuant de 40% sa fréquence d’horloge de microprocesseur.
Quand on sait que gérer nombre de périphériques peut amener à beaucoup consommer, baisser la consommation de 30% par ce moyen devient très intéressant pour le fabricant en terme d’annonce commerciale.
Mais pour l’audioprothésiste : n’est-ce pas au détriment des capacités pures de l’appareil ?
Jean-Yves
Merci Jean-Yves
Le but de ces articles n’est pas de tester la totalité des appareils sur le marché. Je n’ai pas le matériel pro nécessaire (mannequin et chaîne complète B&K), et ces tests sont incomplets (la binauralité n’est pas testée, ce qui ne pourrait qu’améliorer les résultats pour les AA en disposant).
J’essaierai quand même de vous faire part de quelques mesures sur des appareils récents. Il est aussi très intéressant de “voir” le comportement au cours d’une mesure de tous ces fabricants. Certains sont très rapides et agissent fortement, d’autres prennent une décision beaucoup plus lentement, d’autres encore s’améliorent d’une génération à l’autre, etc.
De là à dire que tel ou tel est le meilleur… je serais très prudent sur le sujet, n’ayant pas moi même la réponse, car, finalement, le meilleur appareil est celui que préfère le patient, pas forcément l’audioprothésiste !