SANTE A l’hôpital de la Timone, un psychologue passionné d’informatique a mis au point un robot qui permet aux patients en réanimation de communiquer avec les yeux

L’équipe de réanimation de l’hôpital de la Timone a mis au point un robot à destination des patients qui ne peuvent parler.
Ces patients communiquent avec leurs yeux par le biais d’un écran.
Cette situation tragique peut malheureusement arriver à tous. « Ici, on a de tout, tous les jours : des accidents de voiture, de vélo, de trottinette », énumère Yann Gogan, psychologue clinicien au service de réanimation polyvalente et de chirurgie cardio-vasculaire au sein de la Timone, à Marseille. Admis en service de réanimation, il n’est pas rare de devoir intuber ces patients pendant plusieurs semaines, les privant de la parole. Un vrai handicap pour ces personnes et leur entourage. « Ce sont des gens qui sont terrorisés, explique Yann Gogan. Ne pas pouvoir parler, avec le personnel soignant ou leur famille, c’est angoissant. Jusqu’ici, il existait des alphabets, et le patient cligne des yeux quand c’est la bonne lettre, mais vous comprenez que c’est assez fastidieux… »

Pour y remédier, en décembre 2015, Yann Gogan, passionné d’informatique, a eu l’idée de mettre au point un robot où ces patients privés de parole peuvent s’exprimer… avec les yeux. « On avait un patient qui souffrait du “locked-in syndrom”, se souvient-il. Ce sont des gens qui sont enfermés dans leurs corps, un peu comme dans Le scaphandre et le papillon. J’ai regardé les technologiques existantes, et cela coûtait très cher. Mais un monsieur avait créé un logiciel en accès libre qui utilisait la technologie du “eye tracker”. Cet appareil permet de suivre les mouvements oculaires sur un écran et remplace la souris : il suffit de fixer un item un certain temps pour cela le sélectionne. »

« Exprimer une douleur »
Yann Gogan décide d’adapter cette technologie au service du bien-être du patient, en utilisant une série de grilles pour répondre à ses besoins. « On peut créer des grilles à l’infini, explique-t-il. J’ai fait des grilles où, par exemple, les gens peuvent exprimer une douleur en fixant sur l’écran la partie du corps représentée où ils ont mal. Ils peuvent également dire l’intensité de cette douleur. Sur une autre grille, ils peuvent exprimer les états, que ce soit l’inquiétude ou l’angoisse. Ils peuvent également exprimer s’ils veulent voir une personne en particulier, ou plus simplement communiquer. Le robot est en effet équipé d’un clavier qui s’affiche sur l’écran. »

(...)

Auteur de l'article original: Mathilde Ceilles
Source: 20Minutes
Date de publication (dans la source mentionnée): Vendredi, 15. Février 2019
Photo: