Google Seurat simplifie tous vos projets (films, jeux, applis) pour la Réalité Virtuelle

Je t’ en par­lais il y a un an dans cet arti­cle où je te mon­trais une vidéo de Star Wars. Depuis, le pro­jet est devenu Open Source, et on en sait un peu plus sur son fonc­tion­nement. Tu vas voir, c’est vrai­ment très intel­li­gent et on com­prend mieux com­ment on arrive à pass­er de 46,6 mil­lions de faces à seule­ment 307K dans le jeu Blade Run­ner Rev­e­la­tions VR. Je t’explique tout cela en vidéo !

Voilà,  tu trou­veras le cdoe source et  les plu­g­ins pour Unre­al, Uni­ty et Maya sur le github de Seu­rat.

Mer­ci de laiss­er un com­men­taire si tu as aimé ou si tu as des remar­ques ou ques­tions. N’hésite pas à la partager si tu pens­es que cela peut en intéress­er d’autres et pens­es à t’abonner pour ne pas man­quer les prochaines vidéos, c’est gra­tu­it ! A très vite, pour la prochaine pause café !

8 réflexions sur « Google Seurat simplifie tous vos projets (films, jeux, applis) pour la Réalité Virtuelle »

  1. mer­ci.

    Il m’a fal­lut un peu de temps pour com­pren­dre, mais en fait, c’est énorme ! Je vais m’y intéress­er de très près.

  2. Oui, bien sûr, mais déjà là, la scène ne pèse plus très lourd. Après, l’avenir est plus aux vox­els et au Ray­trac­ing sem­ble t-il.

  3. Ah yes !
    C’était la don­née qui m’avait échap­pé ! le pré­cal­cul des m3 !

    Pensez vous que l’on peut aboutir à une forme de stream­ing. Je m’explique : Un serveur graphique pré­cal­cule x m3 autour du joueur et met à jour le fichi­er opengl en fonc­tion de la posi­tion du joueur.

    Une solu­tion qui pour­rait avan­tageuse­ment rem­plac­er le flux vidéo pour les jeux en stream­ing ? Notam­ment cela résoudrait les prob­lèmes de latence.

  4. U R Wel­come
    Il y a un pré-cal­cul fait pour chaque m3. S’il reste dans le même m3, alors, ça ne change pas. S’il change, alors, on utilise la zone cor­re­spon­dante. Je sup­pose que ce m3 est paramé­tra­ble selon les scènes.

  5. Super intéres­sant !

    Mer­ci, pour cette réponse rapi­de. Que se passe-t-il lorsque le joueur change de point de vue? On reste dans la même scène sim­pli­fiée, ou faut-il un rafraichisse­ment?
    par exem­ple si je tourne autour du livre déplié, ou que je m’en approche.

  6. On envoie au casque une scène sim­pli­fiée qui ressem­ble à l’exemple que j’ai don­né de “livre dépli­able”, ce n’est pas un nuage de points. Le nuage, c’est la tech­nique inter­mé­di­aire, celle qui cor­re­spond à la “diges­tion” du mod­èle, avec une approche type “Pho­togram­métrie”. Ce n’est pas une image 360, car on n’aurait pas ce qu’il faut pour les lights, les ombres, les FX
    La tech­nique est com­pat­i­ble avec le Ray Trac­ing, mais ce serait inutile dans ce cas — et de là à ce que les casques VR mobiles puis­sent sup­port­er le ray­trac­ing… ^^

  7. Bon­jour,

    Si j’ai bien com­pris (je n’en suis pas sûr), il s’agit d’une forme de pré-ren­du pour sim­pli­fi­er la 3D.
    ce que je n’ai pas saisi :
    S’agit-il d’envoyer un mod­èle com­plet de la scène, où tout l’espace est con­sti­tué d’un nuage de point ? Comme un scan 3D.
    S’agit t-il d’une espèce d’image 360° où les pix­els ont en plus un paramètre de pro­fondeur. La carte video doit rafraichir cette image à chaque mou­ve­ment à 60fps ? Dans ce cas quel est l’interet si la carte graphique peut envoy­er des images com­pressés (matérielle­ment) en H265.

    Est ce que cette tech­no est com­pat­i­ble avec du ray trac­ing ?

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.