mercredi 24 novembre 2010

J'entends les oiseaux!


Journée historique aujourd’hui, au lendemain du 4e ajustement : pour la première fois depuis probablement près de 35 ans, j’ai entendu CLAIREMENT le chant des mésanges !  Rachelle et moi sommes allées nourrir les mésanges au Lac Leamy dans le secteur Hull et WOW! le jackpot!  Non seulement je les entendais, mais à un moment donné, on était tout près de l'autoroute, donc le bruit des voitures et des camions rentrait à plein volume dans mon processeur, et MALGRÉ ÇA, j'ai clairement entendu une petite mésange venir se poser dans ma main et me pousser son chant complet, chikadee-dee-dee!!!!! J'ai aussi entendu une sitelle, un cardinal, et une chicane d'écureuils!  J’en suis encore toute émue!  La vidéo ci-haut a été piquée sur YouTube :-)

Hier, au moment du 4e ajustement (et ça ne fait que 14 jours que l’implant a été activé!), j’ai demandé à Josée, mon audiologiste, de monter les sons graves.  J’avais l’impression d’entendre trop de son aigus et pas assez de notes graves.  Je suis vraiment contente du résultat.  Je suis de plus en plus à l’aise avec les voix.

J’ai aussi commencé à travailler l’appréciation de la musique plus en détail.  Josée m’a préparé un programme qui tire 30 % des sons du microphone intégré au processeur et 70 % d’une source auxiliaire.  Je vais m’en servir avec l’adaptateur Direct Connect qui permet de brancher le processeur directement dans un iPad, un iPod, un ordi, etc.  Je vais faire ça temporairement car j’ai l’intention de m’équiper d’un MyLink de Phonak (connexion sans fil qui fonctionne avec le T-Coil), mais j’y reviendrai plus tard dans ce blogue.

J’ai donc passé une partie de la soirée à écouter toutes sortes de chansons (que je connaissais), et le résultat est assez spécial.  Certains instruments sonnent comme du gumbo, d’autres sont pas mal clairs.  Quand je n’utilise que mon processeur, c’est sûr que ça sonne vraiment bizarre, mais Céline Dion est quand même reconnaissable.  Mais la vraie combinaison gagnante, c’est quand j’utilise un splitter qui prend le son de deux sources : vers mon oreille droite (implantée) le Direct Connect, relié (par le fil noir sur la photo de gauche) au processeur;  vers mon oreille gauche (appareil auditif numérique – 48 % d’audition), mon système FM Smartlink (fil blanc sur la photo de gauche).  J’entends quelque chose qui est pas loin d’être agréable !  C’est beaucoup de filage vous me direz, voilà pourquoi je vais me convertir bientôt au MyLink.  En attendant, je m'entraîne :-)

En tout cas, avec toutes ces émotions, je suis pas mal sur l’adrénaline!

lundi 22 novembre 2010

3e rendez-vous : encore des progrès

Le processeur est déjà assez discret, le fil sera
bientôt caché par mes cheveux.  Ce sont surtout
mes repousses de cheveux gris qui
sont moins drôles LOL
Mon 3e rendez-vous a eu lieu à 13 h le mardi 16 novembre.  Les progrès après le 3e ajustement sont tellement spectaculaires (même si on est encore loin de la perfection), que je finis par oublier que j'étais sourde de l'oreille droite depuis 7 ans ! 

La principale modification aux trois programmes que je dois tester de semaine en semaine est l’ajout de la fonction HiRes® Fidelity 120, qui donne plus de nuances aux sons, particulièrement pour la musique.  C’est assez compliqué à expliquer, mais le site d’Advanced Bionics le fait très bien :



C'est sûr que je n'ai pas encore eu le temps de le tester dans beaucoup de différents contextes, et je ne suis pas allée dans la cour pour essayer d'entendre les oiseaux.  Je ne suis pas encore prête psychologiquement, on dirait que j'ai peur d'être déçue, hi! hi!

Mais dans des conditions idéales, c’est-à-dire à la maison, avec ma conjointe, dont la voix m’est familière, je peux comprendre de longues phrases sans que j'aie besoin de lire sur ses lèvres.  Et je peux avoir de grandes conversations avec un de nos quatre chats, Pekko (dans ce temps-là il miaule à intervalles réguliers avec diverses hautes fréquences). Et en plus, je m’exerce à l’entendre uniquement par mon oreille implantée, donc sans porter mon appareil auditif à gauche.  Et en plus, les nuances de son miaulement sont naturelles, pas du tout un son métallique ou informatisé.

C'est surtout dans le bruit que ça se gâte.  Dans les restaurants, c’est vraiment assourdissant.  Il existe un programme pour le processeur que je porte qui s'appelle « Clear Voice », et qui justement, dans ces situations, baisse le bruit de fond et met en valeur la voix qui est près de toi.  J'ai hâte d'essayer ça !  Mais d'après mon audiologiste Josée, il faut que le bruit de fond soit constant (comme un ventilateur) pour être vraiment efficace... 

Presqu’une semaine après l’ajustement, je peux dire que l’écoute de la musique est beaucoup plus agréable avec le programme HiRes® Fidelity 120. Quand j'écoute de la musique avec le processeur seulement, j'entends surtout les notes aigües et des tintements, sans vraiment pouvoir reconnaître la chanson.  Mais quand j'ajoute l'oreille gauche, avec le système MF Smartlink et des écouteurs réguliers, je peux reconnaître la chanson, c’est pas mal du tout, c'est un bon début  Avant l’implant, je ne pouvais même plus reconnaître les airs des chansons !

Je ne suis vraiment pas certaine que j'arriverai un jour à comprendre 70-80 % du temps sans lire sur les lèvres.  En ce moment, je m'exerce à la télé sans sous-titres pendant le bulletin de nouvelles.  On verra bien.  Chose certaine, la lecture labiale est 100 fois plus facile quand on entend quand même comme j'entends en ce moment!  C'est moins épuisant !

Prochain rendez-vous : mardi 23 novembre, 9 h du matin.

Un dernier constat : je m’entraîne à écouter avec l’oreille implantée seulement (à droite), sans porter mon appareil auditif régulier dans mon oreille gauche.  Le seul hic avec ça, c’est que mes acouphènes à gauche deviennent beaucoup plus évidents.  Oh well, ce n'est que temporaire :-)

lundi 15 novembre 2010

Des progrès remarquables !

J'avais donc un rendez-vous avec Josée, mon audiologiste vendredi dernier (12 novembre).  J'avais pris plein de notes sur les sons qui me semblaient trop forts, ceux que j'entendais clairement, etc.  J'ai commencé à me sentir mieux dès les premiers ajustements de paramètres.  C'est évident que la première calibration était beaucoup trop forte, mais il faut bien commencer quelque part.  On a fait plusieurs essais, selon les fréquences.  Une chose que j'aimerais bien corriger, mais on n'a pas trouvé la solution encore, c'est qu'il y a comme un léger décalage, d’une fraction de secondes, entre le moment où je parle et le moment où je m’entends.  C'est comme un écho.  On verra bien, mais s'il faut que je m'habitue, je le ferai.  Je n'ai pas encore été capable de déterminer en quoi ça me nuit, ah! ah!

On a fait un test de répétition de phrases que j'avais fait avec mes deux appareils avant l'opération, en février dernier.  J'avais reconnu 48 % des mots.  Cette fois-ci : 90 % des mots!!!! Yesss!! MAIS, c'est évident que c'est dans un environnement super calme.

On a donc conçu trois programmes de paramètres que je dois essayer dans diverses situations d'ici mon prochain rendez-vous, le mardi 16 novembre.

En revenant de la clinique, j'ai ouvert la radio dans la voiture, et je pouvais comprendre des phrases complètes ! Pas tous les intervenants, et tous avaient une voix de Donald Duck (ça va passer), mais quand même!

Je suis encore loin d'être capable de comprendre quelqu'un sans lire sur ses lèvres, mais je comprends malgré tout pas mal bien !  Et on parle ici de situations où je m'entraîne (comme on le recommande), à mettre un bouchon dans mon oreille gauche et en utilisant uniquement l'oreille implantée!  Par contre, dès qu'il y a du bruit de fond, c'est pas mal moins évident.

Josée m'a expliqué qu'il y a six sons de base (Les dix sons de Ling, du nom du chercheur qui a déterminé ça) qu'il faut bien entendre pour pouvoir comprendre la parole : a - i - m - s - ch - ou.  Je me suis donc confectionné une grille avec trois colonnes, une pour chaque programme, et chaque jour, ma conjointe Rachelle me teste avec 20 sons, sans lecture labiale.  Avec le meilleur programme, j'avais 18 sons corrects sur 20 !!!  J'ai beaucoup de difficulté à différencier « ssss » et « ch », et étonnamment, je confonds souvent « ou » et « m ».

Je termine mon roman en vous racontant une anecdote révélatrice.  Vendredi matin, avant mon deuxième ajustement, je suis allée me promener avec une copine dans un boisé près de mon quartier.  On est passées à côté d'une cascade d'eau.  Pour moi, ça sonnait comme les chutes Niagara !  Dimanche après-midi, j'y suis retournée avec ma conjointe.  Ben ça sonnait comme... une cascade d'eau!!! Avec toutes les nuances de l'eau qui s’écoule.  Enfin, un son agréable !!

J'ai un rendez-vous par semaine d'ici Noël, pour ces ajustements qui prennent la forme d’essais-erreurs... Mes acouphènes m'incommodent encore royalement.  Mais je les ignore du mieux que je peux.

Prochain rendez-vous : mardi 16 novembre, 13 h

Notes en vrac :
- Vendredi, 10 h a.m., partie de Scrabble dehors dans la cour : j'entends les oiseaux!!! Pour le moment ce sont des tintements, mais j'ai fait l'essai de fermer le processeur, et avec uniquement l'appareil auditif régulier à gauche, je ne les entends pas.
- Bruit du couteau qui coupe une pomme
- Déclic de la camera
- Bruit du balai qui frotte sur le plancher
- Eau qui s'égoutte dans l’évier
- Mes pas dans les feuilles

jeudi 11 novembre 2010

Des acouphènes très dérangeants

Aujourd'hui, sans doute parce que mon cerveau est en état de choc, mes acouphènes sont incroyablement forts.  On dirait même qu'ils sont provoqués, exacerbés par les sons que je perçois via le processeur.

Je dois m'accrocher à ce que ceux qui sont passés par là, ou ceux qui s'y connaissent me disent : ça va passer, il ne faut pas se décourager, ça va aller mieux avec le temps...

Drôle de coïncidence, le Ottawa Citizen publie justement un article à ce sujet aujourd'hui même : http://bit.ly/c92o17.  On y apprend entre autres que les chercheurs ont découvert que les acouphènes ne sont pas causés par un dysfonctionnement de l'oreille, mais par des neurones « firing in the brain ».  Je ne sais pas comment traduire ça, disons des neurones en folie dans le cerveau.

Malheureusement, l'article mentionne plus loin que cette découverte récente ne veut pas dire qu'un traitement est imminent.

Au moins on a la preuve qu'on n'est pas fous, hi! hi!

mercredi 10 novembre 2010

Jour de l'activation

1ère séance d'activation avec
l'audiologiste Josée Chénier
C'est ce matin à 11 h 15 que l'audiologiste a « réveillé » les 16 électrodes qui ont été implantés dans ma cochlée.  La première heure a été difficile.  Même si je m'y attendais, ce n'était pas du tout agréable de n'entendre que des « bips » qui avaient exactement la même tonalité que mes acouphènes!  Je ne pouvais pas croire que ces sons prendraient éventuellement la forme de mots audibles!!  Hummm... va falloir que je sois patiente me disais-je... Josée, l'audiologiste a caché sa bouche et a prononcé des mots (les jours de la semaine), en me demandant si je pouvais les reconnaître.  Pas du tout.  J'entendais comme les coucous d'une horloge... coucou!  La seule chose que je pouvais déceler c'est s'il y avait une ou deux syllabes... Oh boy... 



La vidéaste Julie Huard prépare un reportage
pour l'émission C'est ça la vie
Mais, après quelques manipulations de son programme d'ordinateur, on a essayé d'autres paramètres et là... tranquillement... j'ai commencé à réaliser que je ne portais plus attention au sens de ce qu'elle disait, mais à la forme !  Que lentement, du fin fond de mon oreille, certains mots commençaient à se former et que ça correspondait à ce que je pouvais lire sur ses lèvres! Ouf, quel soulagement!  Je me dis qu’il y a de l'espoir !

 En ce moment, oui c’est vrai que les voix sonnent comme Mickey Mouse, particulièrement à la télé.  Et il y a de l’écho, de la réverbération, et un délai d’une demie seconde entre la parole et ce que j’entends.  Et je dépends encore à 99 % de la lecture labiale.  Mais je vais faire confiance aux gens d’expérience qui me disent que ça va s’améliorer !  Et quand je ferme le processeur, j’entends zéro, alors hey, c’est déjà une GRANDE amélioration, n’est-ce pas ?

Le cerveau est vraiment une petite merveille.  J'aurai beaucoup à faire pour réapprendre à entendre, mais avec de la détermination (j'en ai à 110 %) et de la patience (hummm.... 20 % LOL), je vais y arriver !

Prochain rendez-vous : vendredi 12 novembre, 15 h.

Quelques notes en vrac :
* J’ai adoré le son de la fermeture-éclair du petit kit d’entreposage.  Je n’arrêtais pas de l’ouvrir et de le refermer LOL

Autres sons que je distingue clairement en n’utilisant que l’oreille implantée :
* Clignotant de l’auto
* Les boutons de programmation du micro-ondes
* La cuillère qui tinte dans le bol à soupe
* Le téléphone !!
* L’alerte de mon Blackberry
* L’horloge de la cuisine
* Le clavier d’ordinateur et de mon iPad (je ne savais même pas que les touches faisaient du bruit !)
* L’eau qui bout dans un chaudron : au début je croyais que c'était mes acouphènes!
* Quand je chante, ça sonne comme un hautbois, mouahahaha!

mardi 2 novembre 2010

Implant cochléaire 101

Depuis le 12 octobre 2010, date de ma chirurgie, beaucoup de gens me demandent : « Pis, entends-tu mieux maintenant ? »  Pas encore, parce que je n’ai reçu que la première partie du dispositif.  En effet, un implant cochléaire est constitué de deux parties (tout est simplifié à l’extrême ici, pour mieux comprendre) :

L’implant, qui comprend d’une part le récepteur, logé dans l'os temporal, sous la peau derrière l'oreille; et d’autre part, les électrodes, placés au bout du fil, et insérés dans la cochlée. (image de gauche - photos tirées du site d'Advanced Bionics).

C’est cette partie que mon chirurgien ORL, le Dr. David Schramm, a implantée dans mon crâne et mon oreille le 12 octobre dernier, à l’Hôpital Civic d’Ottawa.  En sortant de la salle d’opération, il a montré la radiographie de ma tête à la reporter Julie Huard, qui filme tout ce processus pour un reportage qui sera diffusé après les Fêtes à l’émission C’est ça la vie, à la télévision de Radio-Canada.  Pas mal impressionnant de voir ça :

 


La deuxième partie de l’implant est constituée d’un mini-ordinateur externe appelé processeur de son. (image de droite). Le mien sera de couleur noire.

Celui-ci transforme les sons environnants en signaux qui sont alors envoyés au nerf auditif, puis reconnus par le cerveau comme étant des sons. 

Il faut attendre que la cicatrice soit guérie et que l’oreille ait retrouvée une sensibilité normale avant de placer le processeur externe sur l’oreille et surtout d’activer les électrodes par ordinateur.  C’est le 10 novembre que mon audiologiste Josée Chénier procédera à la première activation.  Le deuxième rendez-vous aura lieu le 12 novembre, et plusieurs autres rendez-vous vont s’enchaîner par la suite pour optimiser cette petite merveille.  Je ferai alors un compte-rendu dans ce blogue à chaque rendez-vous - ou presque ! :-)

Le fonctionnement
Et comment tout cela fonctionne-t-il ?  Je ne suis pas une experte ici, je ne fais que vous dire comment je perçois les choses, mais la meilleure explication que j’ai trouvée vient justement du site du fabricant du modèle d’implant que j’ai choisi, Advanced Bionics.  (voir coordonnées au bas de la page).



Pas mal incroyable comme technologie, non ?

Voici la transcription de l’explication : Lorsque l’audition est normale, les cellules ciliées de l’oreille interne transmettent les informations sonores au nerf auditif, qui les envoie au cerveau.

Dans la plupart des surdités, le nerf auditif est toujours fonctionnel mais les cellules ciliées ont disparu ou sont lésées.

Dans un implant cochléaire, le son entre dans un microphone et passe dans un micro-ordinateur externe qu’on appelle « processeur de traitement de signal. »  Le son est traité et numérisé.

Cette information numérisée est transmise par l’antenne émettrice à la partie implantée chirurgicalement du système.  L’implant transforme l’information sonore en signaux électriques qui sont acheminés le long d’un faisceau d’électrodes inséré dans la minuscule oreille interne, la cochlée.

Les électrodes stimulent directement le nerf auditif qui envoie l’information sonore au cerveau.
En court-circuitant l’oreille interne défectueuse, l’implant cochléaire apporte un tout nouveau mécanisme d’audition.