Solutions utilisateurs encore plus performantes, spatial computing, capteurs, et intelligence artificielle… Les ingrédients clés pour une rentrée immersive réussie de Laval Virtual, où j’ai eu le plaisir de présenter les tendances 2019/2020 de la VR/AR. Les Laval Virtual Days étaient l’occasion de revenir sur les tendances et sur ce que nous avions découvert côté exposants lors du Laval Virtual 2019 et ce qui se dessine chaque jour à travers les articles passés en revue par le service de veille de Laval Virtual.
Des solutions utilisateurs (UX) toujours plus performantes
Boarding VAR veut mettre fin au mal de la VR, le fameux “motion sickness”
Comme 45% des utilisateurs, vous avez pu vous sentir mal à l’aise lors d’une expérience de réalité virtuelle. Étourdissements, maux de tête, nausées, cette sensation s’appelle la cybercinétose ou “motion sickness” en anglais et résulte d’un décalage sensoriel. C’est aujourd’hui le principal obstacle à une adoption plus large de la réalité virtuelle.
Une société varoise a décidé de se lancer dans le défi de mettre fin à ces symptômes. Boarding VAR est un dispositif complémentaire qui se met dans à l’intérieur des casques de réalité virtuelle pour lutter contre la motion sickness. Il fournit des signaux lumineux discrets qui synchronisent vos sens et préviennent tout problème avec 80% d’efficacité. Ainsi, le VAR d’embarquement vous permet de profiter d’immersions virtuelles pendant des heures avec un confort unique.
Or, si un tiers des personnes souffrent du mal des transports au moins une fois dans leur vie, nous sommes 40% à subir des nausées en réalité virtuelle, un réel frein au développement de cette technologie. Ces maux sont dus à un conflit entre les informations transmises à notre cerveau par nos yeux (vision périphérique) et celles transmises par notre oreille interne (système vestibulaire). Dans les transports, notre œil ne perçoit pas de mouvement puisque l’intérieur du train, du bateau, de l’avion et même de la voiture ne bouge pas, alors que pour notre oreille interne il y a bel et bien un déplacement. En réalité virtuelle, c’est la situation inverse : notre œil perçoit un mouvement mais pas notre oreille interne, d’où le malaise ressenti.
La solution mise au point par la start-up toulonnaise et brevetée sous le nom de Boarding VAR consiste donc à rétablir cet équilibre. Une solution simple et efficace qui traite les causes du mal plutôt que ses symptômes et donc sans être invasive et sans effet secondaire. Il s’agit ici de rajouter, dans n’importe quel casque VR, un plan horizontal dans le champ de vision de l’utilisateur. Celui-ci se déplacera en fonction du mouvement de la tête et non des images projetées, rendant ainsi cohérentes entre elles les informations transmises au cerveau et faisant disparaître tout risque de motion sickness en VR.
Teslasuit : une tenue haptique complète pour augmenter l’expérience immersive
Au delà des matériels haptiques qui existent déjà comme des gants, des colliers et d’autres capteurs, Teslasuit s’impose comme le dispositif le plus abouti dans ce domaine. En effet, Teslasuit est une combinaison haptique qui permet de ressentir les éléments qu’on voit à travers notre casque VR. La particularité de Teslasuit c’est qu’elle offre un retour haptique sur le tout le corps.
Pour arriver à ce résultat, la combinaison utilise un système de retour électro-tactile. Ainsi, elle intègre environ 92 balises électriques du torse aux jambes, capables de transmettre tout type de sensation. La combinaison intègre deux types d’électro-stimulations dont l’une stimule le muscle et l’autre active des décharges électriques sur la peau. Il est important de souligner que les décharges sont inoffensives pour le corps.
Avec cette combinaison, couplée avec l’utilisation de la VR, l’immersion est quasi-totale. On peut ressentir le froid sur le corps, tout comme la sensation de chaleur. On peut également simuler une collision sans subir un dommage physique.
Dans sa première version, Teslasuit n’était disponible que pour le marché professionnel, mais elle est désormais accessible et commercialisée pour tous, pour un montant de 15 000 euros incluant l’accès API & SDK (Software Development Kit) et le support technique complet.
Un champ de vision de 200 degrés avec le casque VR Pimax
Sur son stand, TechViz, une entreprise qui édite des logiciels de réalité virtuelle, permettait de tester le nouveau casque de la marque chinoise Pimax. Les deux acteurs ont construit un partenariat afin de présenter la nouvelle série de casque 8K qui s’adresse à une clientèle professionnelle.
La promesse de ce casque c’est une haute résolution de 4K par œil grâce à deux écrans LCD, et un champ de vision important de 200 degrés, semblable à la vision humaine et son angle de vue de 220 degrés. Le tout améliore considérablement la sensation d’immersion. Le Pimax 8K s’annonce comme le meilleur casque en terme de résolution, voulant effacer l’effet désagréable de grille que l’on peut percevoir sur l’écran.
Côté fonctionnalités, le casque 8K de Pimax ne dispose pas d’eye tracking, à la différence de nombreux autres casques sortis cette année. Néanmoins, la société chinoise affirme que les différents tracking peuvent être ajoutés à l’appareil. De plus, celui-ci est compatible avec d’autres accessoires comme les controllers HTC Vive ou encore toute caméra permettant le tracking dans l’espace. On peut aussi choisir d’utiliser les controllers conçus par Pimax, qui permettent d’effectuer des tâches les mains ouvertes pendant l’expérience, grâce à une sangle qui maintient la manette dans la paume.
La démonstration du Pimax sur le stand de TechViz permet d’entrevoir les usages potentiels de ce nouveau casque dans le secteur professionnel. Il peut être un outil pour de la révision de design, de la formation virtuelle ou encore pour des objectifs marketing en permettant de présenter virtuellement un futur projet. Le partenariat avec TechViz permet déjà à Pimax d’ouvrir son marché au secteur professionnel, puisque l’entreprise de software travaille avec plus de 300 clients dans des domaines variés : automobile, aéronautique, architecture, construction navale, machinerie. La compatibilité du casque avec les solutions proposées par TechViz est d’ailleurs déjà assurée.
Caractéristiques techniques : Fabricant : Pimax / Résolution graphique : (2*)3840×2160 pixels / Champ de vision : 200° / Poids : 499g / Année : 2018 / Pays : Chine.
Le spatial computing en force
Le Magic Leap One fait “vivre” les éléments virtuels dans l’environnement réel
Après d’importantes levées de fonds et des années de développement – qui ont pu pour le marché sembler quasi mystérieuses – Magic Leap a dévoilé son Magic Leap One en 2018. Ce sont des lunettes de réalité mixte dont la distribution se déploie doucement en 2019. Pour l’instant, le casque n’est disponible qu’aux États-Unis et s’adresse principalement aux développeurs et autres professionnels de l’image.
L’ensemble de l’équipement se compose de trois éléments : le casque à proprement parler relié par un câble au “lightpack“, un boîtier circulaire dans lequel se trouve le cœur de l’équipement. Enfin, il y a un contrôleur sans fil qui est compatible 6DoF (il offre 6 degrés de liberté de mouvement) et fournit des effets haptiques synchronisés avec les actions en cours. Son autonomie reste dans la norme des autres casques existants, soit environ 3 heures.
Caractéristiques techniques : Fabricant : Magic Leap, Résolution graphique : 1280 x 960 pixels, Champ de vision : 50°, Poids : 345 g
Année : 2018 , Pays : Etats- Unis
Voir les réseaux électriques enterrés pour les techniciens d’Enedis
Avec une application développée par le studio XXII, Enedis a équipé ses équipes de maintenance de casques de réalité augmentée HoloLens. Cette application est capable de convertir les plans 2D en plans 3D, de calculer et d’ajuster leur position précise en temps réel. Cela se fait à l’aide d’un smartphone et d’une balise GPS Trimble Catalyst pour les afficher en suite en réalité augmentée via un casque HoloLens.
L’utilisation de ce système peut engendrer plusieurs avantages. Tout d’abord l’identification du réseau devient plus rapide et plus fiable. À travers leur équipement HoloLens les techniciens peuvent distinguer immédiatement les réseaux haute tension, les réseaux basse tension mais également les réseaux désaffectés. Cela a le mérite d’éviter toute confusion avec le réseau d’un autre concessionnaire. Par ailleurs la localisation des zones d’intervention devient plus facile. La précision de la projection 3D est comprise entre 10 et 50 cm.
A partir de là le temps de l’intervention est réduit à 25% pour Enedis. En réduisant ainsi le temps d’intervention, le concessionnaire fait une économie de 150 000 euros par an. Aujourd’hui 90 casques sont déployés au sein du réseau, 400 sont en commande et l’objectif est d’en installer 900 d’ici 2020. Ainsi selon les termes de William Eldin, CEO de XXII, “non seulement cette solution est industrialisable chez Enedis, mais elle peut être adaptée très facilement à d’autres secteurs d’activité comme les télécoms, l’eau, le gaz ou les réseaux ferrés”.
Afficher son mode opératoire grâce à la data visualisation chez Scalian
La société française Scalian s’est spécialisé dans la création de solutions autour de la réalité virtuelle et de la réalité augmentée pour améliorer la sécurité, la productivité et les compétences des équipes des entreprises. Dans ces mêmes objectifs, elle a imaginé le projet OPAIR qui est une aide à la visualisation de données et à la prise de décision.
Scalian a collaboré avec Territoire d’énergie Mayenne pour mettre le projet OPAIR à disposition des techniciens. Territoire d’énergie Mayenne est un syndicat qui intervient sur le réseau électrique et notamment l’éclairage public de 255 communes du département. Les techniciens interviennent donc quotidiennement sur des réseaux souterrains.
Le projet OPAIR va faciliter leur travail grâce à un casque de réalité augmentée qui fait apparaître tous ces réseaux souterrains (électricité, gaz, eau et eaux usées). Ainsi, les techniciens peuvent marquer rapidement au sol la présence de ces réseaux, sans avoir à consulter des plans complexes et longs à analyser. Le dispositif permet également d’afficher des informations en temps réel pour l’opérateur.
L’utilisation de la réalité augmentée au sein de ce projet OPAIR permet de mieux préparer le travail des équipes techniques en amont. C’est aussi un moyen d’améliorer l’efficacité, la fiabilité et la sécurité des missions sur le terrain. Scalian promet également que ce projet aura un impact positif sur l’empreinte carbone, économisera du travail et de la maintenance et aidera à la décision pour la mise en place de stratégies.
Des matériels qui captent (eye-tracking, biometrics…)
Amélioration de la netteté de l’image grâce à l’eye-tracking avec Varjo VR-1
Sur le stand d’Immersion, le nouveau casque de Varjo a fait sensation. Il a récemment fait beaucoup parler de lui pour son prix : 6000€. Et pour cause, il dispose de la technologie d’eye tracking la plus avancée au monde, faisant du VR-1 le premier casque avec une résolution qui se rapproche de celle de l’œil humain.
Pour recréer la vision humaine, Varjo a installé deux écrans dans son casque : un écran micro-OLED 1920x1080p avec une résolution très élevée de 3000 ppi (appelé “Focus Screen”), et un écran AMOLED secondaire avec une résolution classique de 1440x1600p pour recréer la vision périphérique de soleil (le “Context Screen”). La partie nette se situe au centre du champ de vision de l’utilisateur, recréant le fonctionnement de la rétine humaine.
Cette très haute résolution est plus importante que n’importe quel casque VR sur le marché aujourd’hui. En comparaison, la vision périphérique correspond à la résolution d’un HTC Vive Pro. La précision du Focus Screen rend le casque très intéressant pour certains secteurs professionnels : la formation dans les domaines de l’aviation et de la chirurgie, le design automobile et l’architecture. En effet, la haute résolution permet de voir et lire de très petits détails que les autres casques VR ne permettent pas.
Pour compléter son dispositif, le VR-1 dispose d’une technologie d’eye tracking qui permet d’interagir avec les applications en activant des fonctionnalités grâce au regard. La technologie peut aussi être utilisée pour analyser l’expérience de l’utilisateur ; ce qui peut être très utile dans le domaine de la formation notamment. De plus, l’eye tracking permet de définir la distance inter pupillaire de chaque utilisateur, ainsi l’expérience est adaptée de façon unique à ses propres yeux.
HoloLens 2 : réalité mixte, amélioration de l’UX et eye-tracking
Microsoft a dévoilé son nouveau casque de réalité augmentée à l’occasion du Mobile World Congress (MWC) de Barcelone de 2019. Il s’agit d’une nouvelle version (ou version améliorée) du HoloLens 1. Les fonctionnalités et les potentiels du casque ont été présentés lors d’une conférence de Microsoft à Laval Virtual 2019.
Le nouveau HoloLens est un casque de réalité augmentée exclusivement fait pour les professionnels. Ce qui le distingue tout d’abord de la première version. Mais ensuite en terme de praticité, cette nouvelle version est réputée être plus facile à porter selon les différentes personnes qui ont pu l’essayer.
Contrairement à la première version qui nécessitait l’intervention d’une tierce personne, le HoloLens 2 peut être porté en toute autonomie et plus rapidement. Même si le HoloLens 1 n’était pas totalement inconfortable, le HoloLens 2 est conçu afin d’équilibrer le poids à l’avant et à l’arrière, ce qui laisse la possibilité de le porter plus longtemps. Mais la nouveauté qui le distingue “fondamentalement” de la première version est la possibilité de relever la visière, pour regarder les interlocuteurs dans les yeux.
Étant doté de deux caméras qui sont tournées vers les yeux de l’utilisateur, le HoloLens 2 est doté de la technologie de l’eye-tracking, un système qui détecte les mouvements de vos yeux et la direction de votre regard.
Étant conçu pour le monde professionnel, l’un des crédos de cette nouvelle version est de travailler plus vite sans faire d’erreur. Ainsi, il est principalement destiné à l’industrie, à la maintenance tout comme à la formation médicale ou à la construction notamment à travers la visualisation des données.
Une image qui suit le mouvement de vos yeux avec HTC Vive Pro Eye
Présenté avant sa sortie effective lors du Laval Virtual 2019, le nouveau casque HTC Vive Pro Eye comprend une technologie d’eye tracking pour suivre le regard de l’utilisateur. Sa sortie en Europe a eu lieu en mai, et entrevoit de nouvelles possibilités dans le monde professionnel et auprès des entreprises.
Le casque promet d’apporter des expériences VR de meilleure qualité, grâce à la technologie du “foveated rendering” (en français “rendu fovéal”) qui donne un rendu d’images nettes partout où l’œil humain se pose dans une scène virtuelle, et réduit la qualité des images des objets sur la périphérie ; comme lorsque nos yeux font naturellement des mises au point dans le monde réel. Le module d’eye tracking est fourni par une entreprise suédoise, Tobii, spécialisée dans cette solution.
L’eye tracking ouvre une variété de possibilités pour la VR. Cela inclut des images de meilleure qualité, mais aussi de nouvelles formes d’interaction en mains libres pendant les expériences VR et des options d’accessibilité pour ceux qui n’ont pas la possibilité d’utiliser des manettes. Imaginez pouvoir ouvrir rapidement des menus, faire des recherches dans une bibliothèque de titres ou même sur le web, et sélectionner des objets dans un environnement virtuel en vous concentrant simplement sur votre champ de vision. Ainsi l’utilisateur bénéficiera d’une expérience beaucoup plus intuitive et naturelle.
Le HTC Vive Pro Eye se destine davantage au monde de l’entreprise issues de multiples secteurs. Il est disponible à la vente en Europe depuis le 22 mai 2019 au prix de 1400 dollars soit 1649 euros.
L’IA : le nouvel allié indispensable des expériences immersives
Combiner les neurosciences et des nouvelles technologies avec Max’Sens Innovations
Max’Sens Innovations a conçu une solution qui fait appel à la réalité virtuelle, l’intelligence artificielle et l’internet des objets. Edwin & Edith permet à l’utilisateur de s’entraîner au pitch en réalité virtuelle. Il ne suffit en effet pas d’avoir tous les arguments pour convaincre, l’IA et la VR vont vous aider à mieux performer. Un bracelet connecté va mesurer des données de comportement en instantané. L’application va mesurer votre respiration, vous aider à organiser vos idées, améliorer votre diction et les éléments de présentation, le tout en situation.
Vous allez pouvoir vous entraîner autant de fois que nécessaire devant autant de jurys différents. Cette technologie fait appel à du « text to speech », de l’eye tracking et l’analyse NLP (Natural Language Processing). Elle mesure le temps de réponse, votre rythme cardiaque et niveau de stress, et évalue ainsi votre personnalité. Actuellement, c’est une solution 100% BtoB mais l’entreprise réfléchit au potentiel vers un public de BtoBtoC (comme les écoles ou les lycéens). Le but est de développer votre capacité à convaincre, resté focalisé sur l’objectif et être également agile. Il n’y a pas que de l’IA et des algorithmes dans cette expérience mais bien des experts métiers.
Relever les expressions faciales avec la tête robotisée SEER
SEER pour “Simulative Emotional Expression Robot”, est le projet de l’artiste japonais Takayuki Todo. Elle consiste en une tête robotique qui relève les expressions faciales de la personne lui faisant face grâce à différents capteurs et une intelligence artificielle très développée. L’oeuvre était présentée durant cette édition du Laval Virtual 2019.
Les détails des mouvements reproduits sont plutôt impressionnants. En effet, on perçoit aussi bien les mouvements de tête d’une finesse remarquable que les fermetures des paupières des yeux, les mouvements de sourcils, des lèvres.
Rien a été laissé au hasard, chaque détail a été travaillé avec une grande rigueur. L’oeuvre est une réussite puisqu’elle atteint son but : retranscrire l’expression faciale de l’utilisateur de la manière la plus réaliste possible. En plus de l’expression faciale très fidèlement retranscrite, l’esthétique de la tête robotique est vraiment réaliste. Cela impulse la fidélité de retranscription de l’expression humaine. Avec un tel réalisme, peut-être qu’à l’avenir les robots pourront s’immerger parmi nous sans qu’il soit possible de les distinguer ?
Contrôler un montage dans l’industrie grâce à l’IA chez Segula
Segula Technologies utilise l’intelligence artificielle pour le quality control. L’entreprise a conçu une application qui sert à automatiser le contrôle qualité sur une ligne de production automobile. Elle répond à un besoin chez les constructeurs d’augmenter les cadences sur leur chaînes de production.
Grâce à des techniques d’apprentissage automatique (“deep learning“) pour la détection et la reconnaissance visuelle d’objets, le système notifie à l’opérateur en temps réel par des signaux visuels ou sonores s’il manipule les bonnes pièces et s’il les assemble correctement. L’intelligence artificielle permet ainsi de détecter des défauts et d’améliorer la qualité sur une ligne de production en s’affranchissant des contraintes industrielles (absence d’opérateur, accès impossibles, zone dangereuse, cadences trop élevées…).
Cette année encore, le salon Laval Virtual a permis de découvrir les dernières tendances en termes de technologies immersives. Afin de se tenir informé tout le long de l’année, Laval Virtual propose des lettres de veille regroupant les derniers usages VR/AR dans 13 secteurs d’activités différents. Chaque semaine, recevez gratuitement jusqu’à 3 fils d’actualités dans votre boîte mail avec une poignée d’articles sélectionnés par l’équipe de veille de Laval Virtual.