Technologies VR

News:

  • Simul­ta­ne­ous Mul­ti Pro­jec­tion” :  tech­nolo­gie, inté­grée à l’architecture Pas­cal de Nivi­da par exem­ple, et qui per­met de cal­culer plusieurs point de vue et non plus un seul.  Cela annonce jusqu’à 30% de perf en +, notam­ment en VR. La tech­nolo­gie sera bien­tôt inté­grée à UE4 et Uni­ty.

Nvidia VRWorks:

  • VR SLI : pour utilis­er plusieurs CGs, mais sans aug­menter la latence qui était le prob­lème prin­ci­pal avec le SLI Stan­dard.
  • Lens Matched Shad­ing (Pas­cal): Défor­ma­tion LMS de l’image de l’image en fonc­tion de la lentille.
  • Mul­ti Res Shad­ing (Maxwell): chaque par­tie d’une image est ren­due à une réso­lu­tion qui cor­re­spond au mieux à la den­sité de pix­els de l’image finale affichée en VR.
  • Sin­gle Pass Stereo: Au lieu de cal­culer la géométrie pour chaque oeil, une opti­mi­sa­tion a été réal­isée au niveau des GPUs (Simul­ta­ne­ous Mul­ti-Pro­jec­tion archi­tec­ture) per­me­t­tant de ne cal­culer qu’une seule géométrie.
  • VRWorks Audio: La CG cal­cule com­ment le son rebon­dit et se propage en ten­ant compte de la géométrie de la pièce ou du lieu. Voir cette vidéo.
  • Voir Game­Works

VRWorks 2.1 est sup­port­ée par  l’Unre­al Engine 4.13 et Uni­ty 5.

AMD LiquidVR: voir cette présentation

  • Lat­est Data Latch: Utilise le time warp­ing, tech­nique con­sis­tant à réduire la latence en prenant en compte les infor­ma­tions des cap­teurs de mou­ve­ments après avoir débuté, voire ter­miné, le cal­cul de l’image. Sorte de cal­cul pré­dic­tif. Ces infor­ma­tions plus récentes sont exploitées pour déformer la dernière image cal­culée de manière à émuler ce que nous auri­ons vu si l’image pou­vait être cal­culée instan­ta­né­ment juste avant l’affichage.
  • Asyn­chro­nous Shaders: Voir cette vidéo. Livre blanc. Les ACE (Asyn­chro­nous Com­pute Engines) sont des processeurs de com­man­des sec­ondaires qui peu­vent lancer des tâch­es de type com­pute sur le GPU de manière trans­par­ente, en même temps que celui-ci est en train de traiter des com­man­des graphiques. Ce traite­ment en par­al­lèle per­met de réduire la latence en lançant l’opération de time warp­ing  égale­ment. Si le cal­cul de la nou­velle image prend trop de temps, le time warp­ing, qui est traité en par­al­lèle via les ACE, pour­ra appli­quer de façon trans­par­ente les dernières don­nées de posi­tion sur l’image précé­dente.
  • Affin­i­ty Mul­ti-GPU: Voir cette vidéo. Per­met de prof­iter de plusieurs GPU sans aug­menter la latence et en réduisant le coût CPU glob­ale. Le mode AFR clas­sique est inadap­té parce qu’il intro­duit trop de latence sup­plé­men­taire. En mode Affin­i­ty, chaque GPU peut être assigné à un œil.
  • Direct-to-Dis­play: per­met aux pilotes AMD de directe­ment gér­er l’affichage sur tous les casques de réal­ité virtuelle, sans pass­er par un SDK tiers tels que celui d’Oculus.

Aucune implé­men­ta­tion n’est prévue pour Unre­al Engine. Rien vu coté Uni­ty non plus…

Vers un rapprochement ?

Khronos group (celui d’OpenGL, Vulkan, etc.) a lancé le 6 décem­bre 2016 un appel pour la déf­i­ni­tion d’une API stan­dard pour les périphériques de réal­ité virtuelle. Ca n’empêchera chaque fab­ri­cant de met­tre en avant des fea­tures per­son­nelles, mais cela per­me­t­tra au moins d’exploiter plus facile­ment les plus com­munes.

320673-2016-vr-graphic-2b

Ce nou­veau stan­dard appelé Khronos VR con­tiendrait des API com­munes pour des casques, con­trôleurs, et autres objets track­és. Liste de com­pag­nies déjà investies dans le pro­jet (mais pas microsoft):

2016-vr-graphic-1

Pour les passionnés de 3D et de Jeux

%d blogueurs aiment cette page :