PROSPECTIVES TECHNO...
1] L’Imprimante 3D
L'impression 3D est une technique de prototypage rapide récente. Issue du MIT [Massachusetts Institute of Technology], elle permet de produire un objet réel à partir d'un fichier CAO en le découpant en tranches puis en déposant ou solidifiant de la matière couche par couche pour, en fin de compte, obtenir la pièce terminée. Le principe est donc assez proche de celui d'une imprimante 2D classique : les buses utilisées, qui déposent de la colle, sont d'ailleurs identiques aux imprimantes de bureau. C'est l'empilement de ces couches qui crée un volume.
D’ici une dizaine d’années, ce type de produit sera généralisé au sein des entreprises au même titre que nous disposons aujourd’hui d’une imprimante papier, ou dans les locaux où se trouveront les collaborateurs des entreprises. Dans le secteur médical de l’orthopédie, les ingénieurs pourront fabriquer à la demande et en quelques minutes, des prothèses personnalisées. Dans le secteur du bâtiment, les particuliers pourront dessiner leur maison avec leur ordinateur, envoyer le document à une entreprise spécialisée qui avec une imprimante 3D, pourra construire les murs, des éléments de cuisine, de salle de bain, du garage… et envoyer les éléments en kit vers l’acheteur.
Pour le décor de votre maison, il sera possible « d’imprimer » des meubles, des accessoires de mode, des boitiers, des bijoux, des sacs à main…..Certains imaginent même pouvoir imprimer en 3D des pièces de carrosserie pour les voitures.
L’imprimante 3D n’est pas une utopie. Elle pourrait très bien permettre la mise en place de mini usines de fabrication et travailler différentes matières comme le plastique ou le métal.
2] L’Internet des objets
Vinton Cerf, co-inventeur du protocole TCP/IP et considéré comme l’un des pères fondateurs d’Internet, a dit la chose suivante: « On dit qu’une année dans le secteur internet équivaut à une année canine, soit sept ans pour une personne normale. En d’autres mots, l’évolution est rapide, très rapide. ».
Dans les années 2000, Internet s’est étendu à la surface du globe, atteignant 1,59 milliards d’individus connectés en mars 2009. Suivant l’avènement de l’ère de l’information, les Nouvelles Technologies de l’Information et de la Communication [NTIC] ont façonné une société d’un genre nouveau qui ne cesse de surprendre par sa capacité à évoluer sans cesse. On en est au point où il devient parfois difficile d’y retrouver parmi la déferlante de données auxquelles nous sommes confrontés chaque jour.
Entre 2010 et 2020, la toile doit se préparer à recevoir un nouveau type d’utilisateurs qui va débarquer en nombre : les objets inanimés. L’Internet des Objets, dont la venue a été prophétisée à la fin du siècle dernier, s’apprête à devenir une réalité et à terme c’est toute notre vie quotidienne qui promet d’être changée par la venue de ces nouvelles technologies. Communiquer et générer du contenu via internet ne sera bientôt plus réservé uniquement aux individus équipés d’ordinateurs, de plus en plus d’éléments de notre environnement seront aptes à faire la même chose.
Des objets qui communiquent entre eux, se comprennent et agissent de concert pour simplifier toujours un peu plus la vie de leur propriétaire : l’idée a un potentiel énorme. Le champ des possibilités est vaste et de nombreuses portes devraient s’ouvrir vers des progrès dans des domaines tels que la domotique, la mobilité ou les pharmaceutiques. Qu’on appelle cela Informatique Ubiquitaire, Intelligence Ambiante ou Internet des Objets, on n’a pas fini d’entendre parler de ces nouvelles technologies qui ne tarderont pas à connaître leur heure de gloire.
On parle rarement d’Internet des Objets sans mentionner les puces RFID [Radio Frequency IDentification, radio-étiquettes en Français] au point que pour beaucoup, l’Internet des Objets n’est que le déploiement de ces marqueurs à l’intégralité des objets qui nous entourent. Ce n’est pas tout à fait faux, mais en réalité c’est encore bien plus simple que ça : il s’agit simplement d’attacher à chaque objet une étiquette qui contienne son « identité », un code qui le définisse sans ambiguïté.
Cette idée n’est pas sans rappeler celle du code-barres, et pour cause, l’Internet des Objets n’est qu’une évolution du code UPC [Universal Product Code] inventé par George Laurer en 1970. Là où le code-barres ne permettait que de différencier les différents produits [toutes les cafetières de modèle Y de la marque X sont étiquetées de la même manière], on cherche maintenant à pouvoir identifier chaque article individuellement [chaque cafetière est porteuse d’un code unique qui la différencie de toutes les cafetières identiques].
Autre nouveauté, la vie de l’étiquette ne s’arrête plus à la sortie du réseau de distribution. Jusqu’à présent, avec les techniques d’étiquetage dites « classiques », on peut suivre un lot depuis le fabricant jusqu’au point de vente dans le meilleur des cas. A en croire Lara Srivastava de l’International Telecommunication Union, l’Internet des Objets c’est un monde dans lequel à terme il sera possible d’étiqueter et de retrouver n’importe quel objet sur Terre. Identifié de manière unique par un marqueur [tag] qu’il conservera tout au long de son cycle de vie, on peut alors accéder très facilement à l’information le concernant.
Distribution, agro-alimentaire, logistique, industrie pharmaceutique, santé, domotique, maisons intelligentes, transports, tous ces secteurs sont ou seront touchés par l’Internet des Objets, tout comme notre vie quotidienne le sera tout autant.
3] Les murs intelligents
Les murs intelligents peuvent prendre plusieurs formes. L’un d’entre eux est que cette surface se transforme en un gigantesque écran multifonctions. Tout comme dans le film Total Recall, ce type de mur peut afficher la télévision, un paysage, un papier peint, des données informatiques, de la visioconférence…. Il peut même être truffé de capteurs pour diriger des robots nettoyeurs dans les entreprises, des robots transporteurs du courrier ou transporteurs de médicaments.
A titre d’exemple, le Touchwall de la société Schematic, est un mur tactile géant à la fois multitouch, multi-utilisateurs et intelligent. Il reconnaît ses utilisateurs grâce à des badges RFID et leur propose un espace de travail personnalisé. L’écran est capable aussi d’afficher des cartes 3D et de proposer l’accès à un réseau social sur lequel les utilisateurs peuvent laisser des messages. Son intérêt majeur est sa capacité multi-utilisateurs permettant aux gens de travailler les uns à côté des autres et de partager des informations.
Dans un autre domaine, les murs intelligents extérieurs seront capables de détecter des changements de chaleur et d’adapter le chauffage ou la climatisation en fonction des besoins.
Certains ingénieurs, notamment du Strate College, travaillent sur des murs nanotechnologiques. De microscopiques robots permettront d’ici 10 à 20 ans, de pouvoir concevoir son espace de travail ou de vie, à partir de murs « lisses ». En tirant sur une petite zone du mur avec les mains, elle se transforme en robinet. En « dessinant » et « tirant » une autre zone, elle devient un évier. Imaginons le fait de pouvoir créer son bureau de la même manière pour une table, un fauteuil, une lampe….
4] Les interfaces gestuelles
Dans le monde de demain, les souris et autres manettes de jeux ou de commandes auront disparues, soit pour devenir vocales, soit pour être remplacé par des interfaces gestuelles. Si cette méthode est apparue dans le secteur du jeu depuis quelques années, elle tend à se généraliser tous les fabricants de console de jeu, avec notamment la Kinect de Microsoft.
Déjà, deux membres du MIT, Pranav Mistry et Patty Maes, les mêmes qui ont mis au point 6th Sense, ont développé la souris invisible, la Mouseless, qui supprime cette exigence d'avoir une souris physique reliée à un ordinateur, tout en fournissant encore cette interaction intuitive qui nous sont familier. Mouseless se compose d’un faisceau laser infrarouge [IR] [surmonté d’un capuchon] et d’une caméra infrarouge. Les deux éléments sont embarqués sur l'ordinateur. Le module laser est modifié avec un capuchon de telle sorte qu'il balaie un plan avec ses infrarouges juste au-dessus de la surface de l'ordinateur sur lequel il se trouve. L’utilisateur forme un creux avec sa main [paume vers le bas] comme si une souris physique était présente en dessous, et le rayon laser illumine la main qui est en contact avec la surface. La caméra infrarouge détecte ces « taches » lumineuses IR en utilisant la vision par ordinateur. Le changement de la position et la disposition des taches sont interprétés comme le mouvement du curseur d’une souris et ses clics. Lorsque l'utilisateur déplace sa main, le curseur se déplace sur l'écran en conséquence. Lorsque l'utilisateur clique sur son index, la taille de la tache [donc de couleur] change et la caméra reconnaît le clic de souris correspondant.
Les téléphones mobiles sont aujourd’hui capables d’être commandés par des gestes. Ce qui permet les produits développés par la société eyeSight Mobile Technologies, notamment ses solutions d’interfaçage de gestes. Elles permettent de contrôler des appareils mobiles en faisant appel à la partie caméra, à un traitement d’image en temps réel et des algorithmes de vision. Sous peu, tout notre environnement sera capable d’interpréter nos gestes.
Ce qui permettra à une tranche de la population de profiter également de l’informatique. En effet, des ingénieurs de l’Université de Washington en 2010, ont développé le premier appareil capable de transmettre le langage des signes américains via des réseaux téléphoniques cellulaires avec un téléphone mobile. Cet outil complète le test initial sur le terrain des participants du programme d’été de cette université pour les étudiants sourds et malentendants. L'équipe MobileASL a travaillé afin d’optimiser les signaux vidéo compressés pour la langue des signes. En augmentant la qualité d'image autour du visage et des mains, les chercheurs ont réussir à réduire le débit de données jusqu'à 30 ko/s tout en délivrant une langue des signes intelligible. MobileASL utilise également la détection de mouvement pour déterminer si une personne signe ou pas, afin de prolonger la durée de la batterie du téléphone lors de l'utilisation vidéo.
5] L’informatique contextuelle
Des petits appareils portatifs toujours connectés et équipés de capteurs de faible puissance pourraient être le signe d'une nouvelle classe de gadgets contextuels qui seraient plus comme des compagnons personnels. De tels appareils pourraient anticiper nos humeurs, être au courant de nos sentiments et faire des suggestions sur eux.
"L'informatique contextuelle est en passe de changer fondamentalement la façon dont nous interagissons avec nos appareils", a déclaré Justin Rattner, CTO d'Intel.
"Les appareils du futur apprendront davantage sur nous, notre journée, où nous sommes et où nous voulons aller. Ils sauront même qui vous aime et ne vous aime pas"
L'informatique sensible au contexte est différente des simples applications à base de capteurs que nous voyons sur les smartphones d'aujourd'hui. Par exemple, les consommateurs peuvent utiliser une application et rechercher des restaurants en fonction de leur proximité, de leur cuisine et de leur prix. Un dispositif sensible au contexte aurait une fonction similaire qui saura quels restaurants que vous avez choisi dans le passé, comment vous avez aimé la nourriture et fera des suggestions de restaurants à proximité en fonction de ces préférences. En outre, il serait intégré dans les cartes et d'autres programmes dans l'appareil.
Les chercheurs travaillent depuis deux décennies à ce que les ordinateurs soient plus en harmonie avec leurs utilisateurs. Cela signifie que les ordinateurs puissent ressentir et réagir à leur environnement. Ceci fait, de tels dispositifs seraient tellement synchroniser avec leurs propriétaires que le premier serait le prolongement naturel du second.
Il existe déjà une télécommande de télévision capable d’apprendre les programmes préférés de l’utilisateur en «décelant » les choix de son utilisateur. Par la suite, le simple fait de toucher cette télécommande commandera l’ouverture de tels programmes de télévision.
Intel s'intéresse à l'informatique contextuelle. Après le Gartner, qui prédit depuis plusieurs mois l'avènement proche de l'informatique contextuelle, Intel prend maintenant le relais, avec quelques démonstrations concrètes à l'appui. Pour mémoire, l'informatique contextuelle est une vision des technologies futures qui s'adapteront automatiquement au contexte de l'utilisateur, qu'il s'agisse de contexte "physique" [localisation fournies par GPS, mouvement détecté par des accéléromètres, image de l'environnement capturé par un appareil photo...] ou "logique" [habitudes de navigation sur le web, réseau d'amis et de connaissances, agenda...].
Pour le constructeur, il s'agit d'une immense opportunité de développer les usages de ses gammes de capteurs et de processeurs, les premiers permettant de capturer le contexte ["physique"] et les seconds de l'analyser et de l'exploiter. Mais les chercheurs d'Intel s'intéressent également à la manière d'intégrer le contexte "logique" dans le corpus d'informations disponible ainsi qu'aux modèles pertinents de personnalisation de l'expérience utilisateur [comment et jusqu'à quel point le contexte peut influer sur le fonctionnement d'une application]. Sans oublier de prendre en compte les comportements et les préférences des consommateurs, afin de s'assurer de l'acceptabilité des solutions qui pourront être proposées.
Convaincu que le contexte est une clé de l'informatique du futur, Intel a présenté quelques prototypes issus de ses réflexions, parmi lesquels un assistant personnel de voyage, développé avec Fodor, qui prend en compte les préférences du vacancier, sa position, ce qu'il a déjà fait, son agenda... pour recommander sa prochaine activité.
Pour les banques [et autres entreprises], ces idées peuvent sembler un peu futuristes mais l'exemple des applications exploitant la géolocalisation montre bien que l'adoption peut être extrêmement rapide, ouvrant des opportunités aux acteurs les plus innovants. La recommandation que l'on peut faire est donc de se préparer, comme, il y a quelques années, lorsque Gartner conseillait aux entreprises de prévoir les informations de géolocalisation dans leurs modèles de données, même si elles n'étaient pas exploitées immédiatement. Cette préparation devra également prendre en compte les attentes des consommateurs et identifier les frontières à ne pas franchir pour éviter les réactions de rejet.
6] Le Smart Grid
Le nouveau rapport du Forum Economique Mondial identifie les réseaux électriques intelligents comme la clé pour une économie plus verte. Le Smart Grid ou le réseau électrique intelligent est devenu un vecteur essentiel pour une économie à faible émission de carbone et une réponse à une demande d’énergie de plus en plus forte. Aujourd'hui, 40% de l'énergie est consommée pour générer de l'électricité, et pourtant, les systèmes électriques sont basés sur des technologies qui sont plus de 50 ans. Les réseaux électriques obsolètes d'aujourd'hui exigent des réseaux intelligents, c'est-à-dire une mise à niveau dramatique afin d’être en mesure de soutenir les besoins en énergie du 21ème siècle. Les gouvernements ont commencé à reconnaître l'importance des réseaux intelligents en tant que catalyseur pour un ensemble de technologies à faible émission de carbone et voient de plus en plus les réseaux intelligents comme un investissement dans une infrastructure stratégique. Au cours de la dernière année, la Chine a elle-seule, dépensé 7,3 milliards de dollars pour le développement d’un réseau électrique intelligent, tandis que les États-Unis ont investi 4,5 milliards de dollars dans un plan de relance budgétaire dédié aux activités de réseau intelligent. En conséquence, un nombre croissant de projets pilotes pour la mise en œuvre de réseaux électriques intelligents sont en cours dans le monde.
Au Japon, le déploiement de ces réseaux intelligents capables de réguler automatiquement la distribution d’électricité, est considéré par le gouvernement japonais comme une des actions essentielles pour réduire les émissions de gaz à effet de serre du pays. En introduisant des outils issus des technologies de l’information à tous les niveaux du réseau, il devient possible de maîtriser la consommation électrique de chaque appareil. Cette volonté se traduit au niveau industriel par le développement de "smart meters" [compteurs intelligents] et d’autres dispositifs permettant de mesurer la consommation en temps réel. Dernièrement, Fujitsu a dévoilé une rampe multiprise capable de mesurer la consommation de chacun des appareils qui y sont branchés. Les "smart grids" devraient également permettre une meilleure intégration des petites unités de production d’électricité dont le nombre va grandissant avec le déploiement accéléré des systèmes photovoltaïques et des piles à combustible dans les maisons et les entreprises. Ces réseaux intelligents ne peuvent être construits sans la coordination des différents acteurs au niveau national, et même international. Aussi le gouvernement japonais a-t-il annoncé récemment un certain nombre d’actions allant dans ce sens. Le 8 avril 2010, le METI a annoncé le lancement prochain de quatre projets de tests grandeur nature des réseaux "smart grid". Il a sélectionné quatre sites parmi vingt candidats : la ville de Yokohama [Kanagawa], la ville de Toyota [Aichi], la ville de Kita-Kyushu [Fukuoka] et Kansai Science City, un pôle de recherche qui s’étend sur les départements de Kyoto, Osaka et Nara.
La France qui est le 8è investisseur mondial dans ce secteur, avec 250 millions d’euros d'investissements prévus, avance pas à pas dans le smartgrid : alors que ERDF installe les premiers compteurs électriques communicants Linky, à Lyon et en Indre-et-Loire, et que EDF travaille sur un test de maîtrise de l'énergie en Bretagne via sa filiale Edelia, une autre expérimentation, baptisée Premio et initiée par le pôle de compétitivité Capénergies, va entrer en phase d'expérimentation fin juin à Lambesc [Bouches-du-Rhône] pour une durée d'un an. Objectif : étudier le pilotage des ressources et des besoins en énergie sur le réseau d'une collectivité.
7] Les Cleantechs
Une étude récente en 2010 du CleanTech Group et du cabinet Deloitte fait état d’un impressionnant retournement de situation de l’investissement du capital risque dans le secteur des technologies propres. Au premier trimestre 2010 on assiste à un nombre record de tours de table réalisés par les entreprises auprès d’investisseurs du type capital risque dans ce domaine dans le monde, avec 81% de ce résultat pour l’Amérique du Nord à elle seule, et plus particulièrement la Californie et l’Oregon totalisant à eux deux plus d’un milliard de dollars d’investissement.
Cela contraste beaucoup avec l’état d’esprit apparent du secteur : tous les yeux étaient tournés en ce début d’année vers le solaire dont les investissements en 2009 avaient faibli par rapport à l’année précédente de 64%. En fait, c’est le secteur des transports qui a réalisé la plus belle envolée en Californie avec 520 millions de dollars investis, notamment grâce à la performance de Better Place [350 millions d’investissements].
Better Place est une startup Americano-Israélienne, dirigée par Shai Agassi, un ancien de SAP, qui se positionne sur le secteur des véhicules particuliers électriques et dont la particularité est de développer l’infrastructure des stations de recharge où les voitures peuvent directement changer leur batterie plutôt que d’attendre le temps de la recharge. Cette entreprise collabore notamment avec Renault-Nissan qui lui fournit les véhicules électriques.
Le deuxième plus bel investissement du secteur est fait chez Fisker Automotives, constructeur de voitures électriques sur le segment du très haut de gamme, avec tout de même 140 millions de dollars. Fisker se positionne sur un marché similaire à celui de Tesla Motors, en adoptant une stratégie de communication beaucoup plus discrète que cette dernière.
A ce propos il est important de rappeler que Tesla a récemment sécurisé un prêt de 465 millions de dollars auprès du Département de l’énergie pour la construction d’une usine supplémentaire.
Ce prêt du gouvernement américain avait été fait selon Steven Chu, ancien directeur du Lawrence Berkeley National Lab [LBNL] et actuel Secrétaire américain à l’énergie, dans le but de soutenir le développement du transport électrique et du même coup de réduire la dépendance des Etats-Unis à l’égard du pétrole. Il reste à noter Coda Automotive, qui récupère 30 millions de dollars d’investissements pour ses batteries et véhicules électriques et Coulomb Technologies [14 millions], qui développe des stations de chargement pour véhicules électriques.
On peut en conclure sur le transport que les sociétés d’investissement sont en train de prendre confiance et d’emboîter le pas au gouvernement. Dès lors, on doit s’attendre à une accélération des développements et, enfin, à la création de nombreux emplois dans ce secteur. Le secteur du solaire n’est pas en reste avec 322 millions de dollars investis au premier trimestre dans le monde dont plus d’un quart en Californie et Oregon : SpectraWatt, basée en Oregon, a sécurisé plus de 40 millions de dollars d’investissements pour ses développements sur les cellules photovoltaïques en silicone polycristallin.
C’est aussi la somme récupérée par Enphase Energy pour développer ses micro-invertisseurs pour panneaux solaires. Le troisième secteur, celui de l’Efficacité Energétique, totalise 220 millions investis, notamment sur des sociétés développant des diodes électroluminescentes dans d’autres régions du monde.
A contrario, il est intéressant de noter l’absence d’acteurs californiens dans le stockage énergétique, les bios fuels et les smart grids. Il faut relativiser pour les smart grids car Silver Springs Network avait pour sa part terminé l’année sur un tour de table à 100 millions de dollars. Et Amyris, dans les bio-fuels, vient tout juste de sécuriser 47 millions de dollars de capital risque.
En ce qui concerne en revanche le stockage, il est possible que ce secteur apparaisse encore aux yeux des investisseurs comme difficile et risqué, et c’est sans doute pour cela qu’un grand nombre de projets sur ce sujet sont financés par l’Advanced Reseach Project Agency - Energy [ARPA-E], agence créée par le DoE en 2007 pour financer le développement de technologies risquées à fort retour sur investissement [’’high risk - high reward’’].
Avec 70% de l’investissement américain dans le clean-tech et 55% de l’investissement mondial, la cote ouest des Etats-Unis conforte sa position de leader dans ce domaine pour le financement de type capital risque. Par comparaison, cette région a reçu ce trimestre plus de 4 fois les investissements réalisés en Europe et en Israël confondus, et plus de 15 fois ceux de la Chine.
8] La e-santé
En matière de santé, il faut bien le reconnaître, nous sommes les mieux protégés au monde et notre médecine est l’une des plus performantes. Mais, en contrepartie, cela coûte cher et la France comporte quelques « zones désertiques thérapeutiques », notamment dans nos campagnes. Oui, mais le réseau téléphonique filaire et cellulaire couvre tout l’Hexagone, donc Internet aussi, et l’électronique fait des bonds spectaculaires en matière de miniaturisation. Résultat : la e-Santé ou la télémédecine est en train de se développer. Et les domaines sont vastes comme par exemple, la téléprescription qui permet la dématérialisation des prescriptions médicales et évite ainsi des déplacements inutiles, ou encore la télévigilance. Elle consiste à surveiller à distance des personnes grâce à des capteurs qui détectent positions, comportements, fonctionnement des organes vitaux et même géolocalisation.
A titre d’exemple, un projet pilote est en cours au Centre Hospitalier de Moulins-Yzeure, suite à un accord entre Orange et Intel. L’objectif est de mettre en place un système de télésanté pour accompagner et améliorer la prise en charge des patients souffrant d’insuffisance respiratoire chronique depuis l’hospitalisation jusqu’au suivi à domicile. Son ambition est d’être reproductible et de démontrer le principe, notamment grâce à la mise en œuvre d’un dispositif de suivi médical à domicile de type Intel® Health Guide. Ce dernier, ou son équivalent, que nous pourrions très bien avoir à la maison d’ici 2015, relie les patients et l’équipe soignante via une liaison de type câble, ADSL, sans fil ou simple ligne RTC. Les prestataires de santé peuvent consulter et collecter des données à distance. Et les patients, prendre leur tension, effectuer des visioconférences avec leurs médecins…, être donc rassurés sans se déplacer. Mais la e-Santé va plus loin encore. La mise en place d’un réseau à très haut débit a révolutionné le fonctionnement de la médecine dans la région des Pays de Loire. Par exemple, grâce à l’interconnexion entre 7 CHUs [Centre Hospitaliers Universitaires] avec 6 CHs [Centre Hospitalier], plus de 850 heures de visioconférence mensuelles permettent à des médecins de différentes spécialités, répartis sur le Grand Ouest, de se réunir 2 fois par mois, via une «table virtuelle ». Le but ? S’entendre sur des stratégies thérapeutiques de cancérologie pour des patients. Résultat : cette pratique est aujourd’hui reconnue par l’Institut National du Cancer [INCA] qui considère qu’elle devrait être dupliquée dans tout l’hexagone.
D’un autre côté, grâce au SITE [Syndicat Interhospitalier de Télécommunications de Santé des Pays de la Loire], le traitement des urgences en traumatologie et neurologie a été métamorphosé. Par l’envoi de scanners numérisés d’un accidenté depuis un service d’urgence vers des experts d’un CHU distant, via le même réseau à très haut débit, la décision sera prise de stabiliser le patient sur place, de le transporter par ambulance, ou de l’héliporter. Un enjeu vital aujourd’hui concret, qui évite des transferts inutiles. Enfin, ce réseau permet aussi à des chirurgiens du CH de Laval, dans le cadre d’opérations d’angioplastie coronaire, de pouvoir opérer tout en disposant de l’aide en temps réel, de collègues spécialistes du CHU d’Angers, via une solution de visioconférence installée dans le bloc.
La e-Santé avec des e-formations
Le monde médical est donc un univers où le rythme des innovations est le plus rapide. Ce dont les patients veulent profiter au plus vite, et qui nécessite de la part du médecin, de travailler en équipe, même à distance. Pour le professeur Alexandre Mignon, de l’hôpital Cochin, « il faut former les professionnels de demain en utilisant les nouvelles techniques numériques ». Il a donc créé « iLUMENS », Laboratoire Universitaire Médical d’Enseignement basé sur les technologies Numériques et de Simulation, multidisciplinaire, ciblant les formations médicales initiale, spécialisée et continue, et développé à l’initiative de l’Université Paris Descartes et de sa faculté de Médecine. A l’aide de mannequins bardés de capteurs, représentant un adulte, une femme enceinte ou encore un nourrisson, des scénarii de situations réelles ou rarissimes sont reproduites afin que urgentistes, anesthésistes… puissent apprendre à réagir avec efficacité. Des chirurgiens peuvent aussi s’entraîner pour des opérations de cœlioscopie, cardiologie, …grâce à des consoles de simulation 3D avec immersion, praticiens qui retrouvent les résistances, les contraintes, les sensations de force des «corps »... Enfin, si vous voulez maîtriser une dissection sans scalpel, vous pourrez chez iLUMENS voyager en 3D, à travers un corps virtuel et apprendre l’anatomie en « enlevant » la peau, les nerfs, les organes…
En 2028, le cabinet médical ne sera plus. Le médecin pourra faire faire à distance et par visioconférence, des examens médicaux dans les foyers ou des lieux spécifiques comme par exemple, dans des salles installées dans des centres commerciaux. Sans oublier que la robotique jouera un rôle primordial dans cet univers. Il existe déjà aujourd’hui en 2010, des robots chirurgiens opérationnels. Dans 20 ans, ils agiront comme des aides à la personne et des infirmiers à domicile.
9] 3D et réalité augmentée
Si la 3D, après avoir envahi les salles de cinéma et le foyer avec des nouveaux types de téléviseurs, elle entre de plein pied également dans l’univers du PC et de la téléphone mobile. Plusieurs constructeurs annoncent l’arrivée prochaine d’ordinateurs de bureau et portables, capables d’afficher des images et de vidéo en relief, avec des lunettes spéciales. Mais bientôt, les écrans n’en auront plus besoin. Même les téléphones mobiles seront sous peu dotés d’un afficheur 3D. L’Institut national des sciences et technologies avancées [AIST] du Japon a même annoncé le 25 août dernier, l’ "i3Space", un système qui donne la sensation de toucher des images 3D. En attachant un appareil à un doigt, il donne à son porteur, le sentiment de toucher un objet 3D sur un écran et de le manipuler. AIST s'attend à ce que l'i3Space soit utilisé pour simuler une opération médicale et pour la conception de nouvelles interfaces de jeux. Mais nous pourrions très bien imaginé gérer des données informatiques de la même manière ou son environnement. Le i3Space reconnaît le mouvement des doigts et contrôle le sens tactile et kinesthésique [résistance] en temps réel en conformité avec le mouvement afin d’offrir une sensation de toucher une image 3D.
La notion de réalité augmentée désigne les systèmes [au sens informatique] qui rendent possible la superposition d'un modèle virtuel 3D ou 2D à la perception que nous avons naturellement de la réalité et ceci en temps réel. Ce système peut aussi bien s'appliquer à la perception visuelle [superposition d'image virtuelle aux images réelles] qu'aux perceptions proprioceptives comme les perceptions tactiles ou auditives. La technologie insère des images de synthèse sur les images du monde réel grâce à l'appareil photo d'un téléphone portable ou à des lunettes vidéo spéciales. De petites caméras situées au milieu et à l'extérieur de chaque verre envoient des images vidéo en continu à deux écrans à cristaux liquides sur la face interne des lunettes par l'intermédiaire d'un processeur mobile. Une fois reliées à un iPhone, à un iPod ou à un ordinateur, les lunettes combinent les données informatiques avec ce qui est filmé en direct, créant un champ de vision stéréoscopique unique sur l'écran LCD, où les images de synthèse fusionnent avec celles du monde réel.
Le concept de réalité augmentée vise donc à compléter notre perception du monde réel, en y ajoutant des éléments fictifs, non perceptibles naturellement. La réalité augmentée désigne donc les différentes méthodes qui permettent d'incruster de façon réaliste des objets virtuels dans une séquence d'images. Ses applications sont multiples et touchent de plus en plus de domaines : jeux vidéo et edutainment [éducation par le divertissement], chasses au trésor virtuelles, cinéma et télévision [post-production, studios virtuels, retransmissions sportives...], industries [conception, design, maintenance, assemblage, pilotage, robotique et télérobotique, implantation, étude d'impact...], médical, etc.
10] Les tissus intelligents
Les premiers objectifs de ces tissus intelligents concernent la vie de tous les jours. Thermorégulateurs, infroissables, intachables, ils le sont plus ou moins déjà. Isolantes ou thermorégulatrices, aujourd’hui de nombreuses matières innovantes comme le Gore Tex, le Windstopper ou le Coldwinner se partagent le marché. Des technologies qui s’appliquent principalement aux vêtements de sport en extérieur comme la voile, la haute montagne, les sports d’hiver, etc. Si ces matières protègent et isolent, d’autres, en cours d’élaboration, auront pour effet de restituer la chaleur corporelle ou environnante emmagasinée. Une technologie qui se développe dans le domaine vestimentaire, mais aussi dans le linge de lit comme les couettes et les couvertures. D’autres tissus sont à mémoire de forme avec la capacité de reprendre leur forme initiale. Très répandue dans l’industrie métallique, cette technologie investit le secteur du textile avec des créations innovantes. Des chapeaux indéformables, des chaussures dont les semelles mémorisent l’empreinte des pieds et la conservent ou des tissus infroissables développés pour l’habillement. Des chercheurs travaillent également sur le tissu résistant à l’eau et aux tâches. Le principe est simple : le tissu possède à sa surface des minuscules particules qui réduisent la surface de contact avec le liquide et empêchent l’adhésion sur le tissu. Cette technologie, applicable aux vêtements de ville ou de sport autant qu’aux draps, serviettes et autres nappes, rendra les tissus imperméables et insalissables. En cas d’accident, il suffira d’essuyer la tache pour la faire disparaître.
Mais le tissu intelligent fait également appel à l’électronique. Un récent projet intitulé Wearable Absence, présente des vêtements interactifs hautement sophistiqués: des biocapteurs dissimulés dans le tissu permettent de lire l'état physique et émotionnel du sujet par l'analyse de sa température, de son rythme cardiaque, de sa réaction électrodermale [humidité] et de son rythme respiratoire. Ces informations sont enregistrées et transférées à une base de données en ligne qui renverra des souvenirs archivés [messages, chansons ou enregistrements vocaux] qui rappellent une personne chère, absente.
Dernière invention en date, le tissu qui sert de microphone. Des chercheurs du MIT ont conçu des fibres à base d’un plastique spécial capable de détecter et produire des sons. Les applications peuvent inclure des vêtements qui sont eux-mêmes des microphones sensibles, pour la capture de la parole ou pour la surveillance des fonctions corporelles, et de minuscules filaments qui pourraient mesurer la pression sanguine dans les vaisseaux capillaires ou la pression dans le cerveau
11] Le Cloud Computing
La montée en puissance des débits de l’Internet, en réseau notamment de l’arrivée dans les 5 prochaines années, de la fibre optique dans les entreprises et les foyers, et de réseaux mobiles 4G, voire 5G, a fait naitre un concept baptisé de Cloud Computing. Il s’agit de déporter sur des serveurs distants des traitements informatiques traditionnellement localisés sur le poste utilisateur. Les noms officiels en français sont informatique dans le nuage, informatique en nuage, informatique dématérialisée, ou encore infonuagique. Il ne faut pas oublier non plus que ceci est né également lorsqu’on a commencé à parler de SaaS [Software as a Service] où des nombreuses applications ou programmes étaient installés chez des prestataires distants auxquels accédaient les clients par Internet via un navigateur. Les utilisateurs ou les entreprises ne sont plus gérants de leurs serveurs informatiques mais peuvent ainsi accéder de manière évolutive à de nombreux services en ligne sans avoir à gérer l'infrastructure sous-jacente, souvent complexe. Les applications et les données ne se trouvent plus sur l'ordinateur local, mais – métaphoriquement parlant – dans un nuage [« cloud »] composé d'un certain nombre de serveurs distants interconnectés au moyen d'une excellente bande passante indispensable à la fluidité du système. Pour la prochaine décennie, le Cloud Computing risque de se généraliser non seulement au sein des entreprises, mais aussi auprès du Grand Public. Et comme nous l’avons vu précédemment, les entreprises risquant de se transformer en e-entreprises, c'est-à-dire sans bureau physique, mais en bureau virtuel, le Cloud Computing a toutes les chances de prendre de l’ampleur. Déjà en 2009, des chercheurs de chez Intel ont imaginé un service baptisé le CloneCloud permettant de déléguer les tâches lourdes d’un appareil mobile, tel qu’un téléphone, vers un clone fonctionnant sur des serveurs Cloud. Le Clone Cloud utilise la connexion haut-débit d’un smartphone pour communiquer avec une copie logicielle de l’appareil située sur un serveur à distance. Lorsque le téléphone a besoin d’opérer une tâche sollicitant une puissance de calcul importante il décharge le travail au service CloneCloud après avoir évalué des facteurs tels que le temps et la consommation d’énergie nécessaires à la transmission des données vers le Cloud. Un des bénéfices majeurs de cette technologie est ainsi la possibilité d’étendre la durée de vie des batteries grâce à la plus faible utilisation des processeurs. L’avantage principal de service reste cependant d’améliorer sensiblement les capacités des téléphones. A titre d’exemple, la reconnaissance de visage requière 100 secondes sur un processeur de téléphone contre 1 seule seconde sur un ordinateur. Autre application pour CloneCloud : la sécurité. Les scans de virus et autres spywares mettant en jeu l’intégralité du système de fichier d’un appareil pourraient être exécutés à distance afin d’alléger la charge du processeur mobile. Imaginez ce qu’il sera possible de faire avec une tablette PC.
12] Le papier électronique ou e-paper
Le papier électronique flexible et coloré fait l’objet de nombreuses études et prototypes. L’objectif est de remplacer le papier traditionnel issu de la sylviculture par un élément plus pérenne et à multi usage, plus économique, moins gourmand en énergie et donc permettant de concevoir des appareils électroniques plus légers. Tous les constructeurs asiatiques sont sur ce marché. Et les tout dernières informations en datent proviennent de la Corée du Sud et du Japon. LG a annoncé des écrans couleur en e-paper de 9,7 pouces pour ses tablettes et ses appareils portables. En attendant l’arrivée d’un 19 pouces pour un marché de masse. Et Sony a présenté un prototype qui au lieu d’utiliser un substrat en verre, fait appel à un substrat en plastique, donc plus léger et courbable. L’atout majeur ici est que l’écran dans ce cas est très difficile à caser en cas de chute et qu’il est possible de le rouler comme un journal.
Au niveau industriel, Fujitsu a lancé un système de guidage pour des patients extérieurs à l’hôpital à base de papier électronique. L’appareil est conçu pour être utilisé au cours des processus d’enregistrement à l’arrivée dans les établissements médicaux. Au travers d’un système de communication sans fil, les porteurs se voient afficher sur leur appareil qui contient leur dossier médical électronique, une carte de navigation qui les guide vers les salles d’examens. Les malades peuvent ainsi voir leur place dans les files d’attente et être avertis pour leur consultation par un affichage visuel et des vibrations. Pour le corps médical, cela permet de réduire le nombre de terminaux fixes dans les locaux, de se concentrer davantage sur les soins car les malades extérieurs sont autoguidés, de réduire la consommation d’énergie et les émissions de CO2