Et cela ouvre la voie à une forme de communication pour des personnes privées de parole. Minority report. Ça devait arriver, les Japonais l’ont fait. Yukiyasu Kamitani, un spécialiste en intelligence artificielle de l’université de Kyoto vient d’inventer une machine en mesure d’intercepter les réflexions humaines et de les restituer en image sur un écran. Et ce n’a pas été une mince affaire.
Premièrement, on a connecté cette interface aux cerveaux de volontaires, par l’entremise d’un système d’imagerie à résonance magnétique (IRM). À chaque fois que les cobayes formulaient une pensée ou une émotion, cette stimulation cérébrale était retranscrite à l’écran sous forme de variations hémodynamiques. Vous savez, ces fameuses images de cerveaux avec des zones de couleurs plus ou moins chaudes.
Dans le cadre de cette expérience, plutôt que de confier l’interprétation des résultats et coupes hémodynamiques à des confrères, on les a remis à l’intelligence artificieille de Yukiyasu Kamitani. Sauf qu’il manquait à la machine des références. De la culture.
Citation :
Une telle interface pourrait interpréter nos rêves et aider à comprendre les personnes dans le coma
L’éducation sentimentale d’un cerveau. L’aspect crucial de l’expérience a donc consisté à mettre au point un réseau neuronal, autrement dit un cerveau artificiel. Au préalable, celui-ci a été « éduqué » par des volontaires à qui l’on présentait une cinquantaine d’images connues par ce réseau neuronal. À force de répétition, la machine a appris à mettre relation les images présentées d’un côté, et les zones activées dans le cerveau des volontaires de l’autre. Jusqu’au point d’être en mesure de reconnaître lorsqu’on montrait aux cobayes une tête de tigre, un hibou, un avion ou une boîte aux lettres rouge, etc.
Sans vouloir jouer les rabat-joie, à ce stade, c’est à peu près aussi impressionnant qu’apprendre à un rat à sortir d’un labyrinthe. C’est beaucoup de boulot pour pas grand-chose. Si cette expérience détonne vraiment, c’est que cette IA a fini par témoigner d’une capacité à reproduire, de manière rudimentaire, des images de formes imaginées par les volontaires, comme des croix ou des poissons rouges, alors qu’elle ne les avait pas apprises. Un traducteur pour les sans-voix. En continuant à l’entraîner sans relâche avec de nouvelles images, puis de sons, etc. cela voudrait dire qu’à terme une telle machine pourrait permettre de saisir les pensées de personnes qui ne peuvent communiquer. D’abord celles privées de paroles, parce que muettes ou victimes d’accident. Le locked-in syndrome et certains comas pourraient par exemple être enfin traités avec un suivi heure par heure. On peut aussi imaginer tenir ici un moyen d’enfin interpréter nos rêves, et de les archiver. Ce qui pourrait servir de base objective pour des thérapies psychiatriques et post-traumatiques. Mais l’IA nous servirait aussi dans des situations bien particulières comme pour travailler sous l’eau ou dans l’espace, deux possibles futurs espaces d’activité humaine. Sans parler de pouvoir un jour échanger avec des formes de vie extraterrestres… Communiquer au travers d’une interface qui irait directement puiser nos propos à la source, dans nos pensées, c’est en résumé une réinvention complète du langage. Donc une nouvelle page de l’Histoire de l’Homme.
Source : [Vous devez être inscrit et connecté pour voir ce lien]
_________________ [Vous devez être inscrit et connecté pour voir cette image] le.cricket vous salue bien !
Un robot capable de lire dans nos esprits, pour communiquer avec les gens dans le coma ! Par Joseph de Carme