Google Seurat simplifie tous vos projets (films, jeux, applis) pour la Réalité Virtuelle

Je t’ en parlais il y a un an dans cet article où je te montrais une vidéo de Star Wars. Depuis, le projet est devenu Open Source, et on en sait un peu plus sur son fonctionnement. Tu vas voir, c’est vraiment très intelligent et on comprend mieux comment on arrive à passer de 46,6 millions de faces à seulement 307K dans le jeu Blade Runner Revelations VR. Je t’explique tout cela en vidéo !


Voilà,  tu trouveras le cdoe source et  les plugins pour Unreal, Unity et Maya sur le github de Seurat.

Merci de laisser un commentaire si tu as aimé ou si tu as des remarques ou questions. N’hésite pas à la partager si tu penses que cela peut en intéresser d’autres et penses à t’abonner pour ne pas manquer les prochaines vidéos, c’est gratuit ! A très vite, pour la prochaine pause café !

8 Commentaires

  1. Alhadef

    Bonjour,
    Si j’ai bien compris (je n’en suis pas sûr), il s’agit d’une forme de pré-rendu pour simplifier la 3D.
    ce que je n’ai pas saisi :
    S’agit-il d’envoyer un modèle complet de la scène, où tout l’espace est constitué d’un nuage de point ? Comme un scan 3D.
    S’agit t-il d’une espèce d’image 360° où les pixels ont en plus un paramètre de profondeur. La carte video doit rafraichir cette image à chaque mouvement à 60fps ? Dans ce cas quel est l’interet si la carte graphique peut envoyer des images compressés (matériellement) en H265.
    Est ce que cette techno est compatible avec du ray tracing ?

    Réponse
    • greg

      On envoie au casque une scène simplifiée qui ressemble à l’exemple que j’ai donné de « livre dépliable », ce n’est pas un nuage de points. Le nuage, c’est la technique intermédiaire, celle qui correspond à la « digestion » du modèle, avec une approche type « Photogrammétrie ». Ce n’est pas une image 360, car on n’aurait pas ce qu’il faut pour les lights, les ombres, les FX…
      La technique est compatible avec le Ray Tracing, mais ce serait inutile dans ce cas – et de là à ce que les casques VR mobiles puissent supporter le raytracing… ^^

      Réponse
      • Alhadef

        Super intéressant !
        Merci, pour cette réponse rapide. Que se passe-t-il lorsque le joueur change de point de vue? On reste dans la même scène simplifiée, ou faut-il un rafraichissement?
        par exemple si je tourne autour du livre déplié, ou que je m’en approche.

        Réponse
        • greg

          U R Welcome
          Il y a un pré-calcul fait pour chaque m3. S’il reste dans le même m3, alors, ça ne change pas. S’il change, alors, on utilise la zone correspondante. Je suppose que ce m3 est paramétrable selon les scènes.

          Réponse
  2. Alhadef

    Ah yes !
    C’était la donnée qui m’avait échappé ! le précalcul des m3 !
    Pensez vous que l’on peut aboutir à une forme de streaming. Je m’explique : Un serveur graphique précalcule x m3 autour du joueur et met à jour le fichier opengl en fonction de la position du joueur.
    Une solution qui pourrait avantageusement remplacer le flux vidéo pour les jeux en streaming ? Notamment cela résoudrait les problèmes de latence.

    Réponse
    • greg

      Oui, bien sûr, mais déjà là, la scène ne pèse plus très lourd. Après, l’avenir est plus aux voxels et au Raytracing semble t-il.

      Réponse
  3. Alhadef

    merci.
    Il m’a fallut un peu de temps pour comprendre, mais en fait, c’est énorme ! Je vais m’y intéresser de très près.

    Réponse
    • greg

      Content que tu fasses partie d’une minorité qui a compris le principe, et l’intérêt ! 🙂

      Réponse

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée.

Ces articles pourraient aussi vous intéresser …