41a. « 5 sur 5 » : Christel Beltran à TEDxMontpellier. Partie 1/2.
Bientôt les ordinateurs pourront respirer, sentir, écouter, voir, se rapprocher, et même avoir des capacités augmentées par rapport à nos propres sens.
Les ordinateurs qui interprèteront toutes ces nouvelles, euh ces nouvelles… nouveaux types (tous ces nouveaux types) d'information seront capables d'apprendre, seront capables de comprendre, seront capables surtout de ressentir le monde qui nous entoure et surtout aussi de s'y adapter. Les nouveautés résident dans ces termes.
Alors pour commencer par le sens du toucher : le toucher donc peut être représenté par les impulsions électriques que nos doigts, nos terminaisons nerveuses, envoient à notre cerveau lorsque nous touchons les objets qui nous… les objets qui nous entourent.
Notre cerveau ensuite les interprète et nous donne le retour en termes de sensations sur euh…, par rapport à ce que nous avons touché. Bientôt nous pouvons imaginer que ces impulsions puissent être modélisées pour définir la représentation du type de de matériel, de matériau que nous touchons, que ces informations soient apprises par des ordinateurs, que des schémas soient créés pour permettre de reproduire ces sensations par exemple au niveau de nos téléphones portables, par des vibrations qui pourraient reproduire donc la sensation de toucher de l'élément que nous sommes en train de regarder.
Euh… On peut imaginer des applications bien sûr dans le secteur de la distribution, lorsque nous faisons des achats au niveau… par… sur internet, pour avoir des informations complémentaires qui nous permettraient de faire des achats plus éclairés.
Mais aussi on peut imaginer, dans le domaine médical, dans des consultations à distances où le médecin recevrait un nouveau type d'informations sur son patient grâce à ce nouveau, à ce nouveau moyen.
La vue maintenant. Euh… On sait que 500 milliards de photos sont créées chaque année, 72 heures de nouvelles vidéos sur Youtube chaque, chaque minute, mais aussi dans le domaine de l'imagerie médicale où il y a une quantité d'informations, on peut même dire une mine d'informations, d'images, qui gisent dans différents endroits, qui sont issues de radiologies, échographies, IRMs, etc.
Toutes ces images aujourd'hui sont là, mais ne sont pas exploitées. On peut imaginer bientôt pouvoir enseigner à des ordinateurs à reconnaitre des aspects anatomiques, des aspects pathologiques, créer là aussi des modèles qui permettront d'analyser toutes ces images et d'en retirer des informations, qui, combinées avec d'autres informations sur le parcours du patient, sur des informations, sur les études, les résultats des nouvelles recherches ; toutes ces informations permettront d'améliorer la qualité du suivi du traitement, l'adéquation des traitements par rapport à la réalité de la situation du patient, sans oublier de pouvoir aussi bien sûr alimenter la recherche avec de nouvelles informations.
La capacité de l'ordinateur à pouvoir reconnaitre au niveau du pixel, au niveau de la forme, au niveau de la couleur, des informations à l'intérieur d'une image est sans aucun doute déjà aujourd'hui supérieure aux capacités de l'œil, de l'œil humain.
Passons à l'ouïe maintenant. Nous sommes entourés d'ondes, nous sommes entourés de vibrations, que, pour la plupart, nous ne percevons même pas. Nous pouvons imaginer bientôt un système de capteurs intelligents, installés dans les environnements qu'il nous intéresse de surveiller, ou pour prévenir des risques naturels.
Là, on peut déjà parler d'un premier exemple qui est en place au niveau de la ville de Rio, où des capteurs permettent de euh…, d'anticiper et d'alarmer dans le cas de pluies violentes qui provoquent des glissements de terrain au niveau des favelas.
Donc ça, c'est un exemple dans l'environnement, mais on peut imaginer dans tout type d'environnement où des changements de structures de ce qui nous entoure provoquent des bruits qui peuvent être capturés par des capteurs, par des ordinateurs, traités et donner des alertes intelligentes.