Archive for juin, 2012


Salut à tous,

Cela fait un bout de temps que je n’ai pas publié sur mon blog, beaucoup de taff sur la production en cours, et donc moins de motivation pour taffer à coté (des tres longues journées… soir… nuit…). Donc pour ce remettre en forme, je viens de tester un tips and tricks de Octane Render dans ça derniere version Beta, detourner le SSS pour en faire du fog. Beh, ça marche pas trop mal, les images ci dessous ont tournées une petite demi heure, ce qui n’est pas enorme pour du unbiased volume, avec un resultat pas trop mauvais (kernel PMC).

Donc pour ma petite image en cours, nikel, j’avais besoin de volumetrique ;)

Resultat de l’image finale ( voir deux, trois images ), beh des que j’aurais eu le temps de finir le project… petite info, je fais un clin d’oeil au film « Innerspace ».

A++

Salut à tous,

Donc comme vous le savez ( enfin pour ceux qui utilise Guerilla ), par default, celui ci ne fait pas d’ombres colorées… enfin… ne fesait pas d’ombres colorées ;-)

Comme vous pouvez le constater ci-dessus, j’ai trouvé un workaround pas cher pour en faire, seule limitation, celà ne marche pas avec les ombres raytracées, mais avec un reyes, les ombres raytracées, on s’en moque un peu :-) .

Ma joie ultime fut de constater que celà marchait aussi avec les volumetriques, et le tout sans utiliser la fonction « shaded shadows »… Donc que demande le people :-)

Dans un prochain article, je reviendrai sur le « comment que l’on fait ça », pour l’instant j’ai besoin de cleaner mon shader de light, et de marquer toute la procédure de manière claire et précise en vue de la rajouter dans le wiki de Guerilla.

A+ et enjoy

Salut à tous,

Depuis quelque temps je suis overbooked de taff… mais j’ai enfin trouvé le temps de finir, la petite voiture en bois que je voulais faire sous Octane Render.

Le modéle est un jouet de mon fils, que je lui avais rapporté de mon voyage en Inde. Que dire, à part que Octane Render ça dechire grave… oui pour calculer ce rendu ( normal ou stereoscopique ), il a eu besoin seulement de 30 min pour atteindre les 8192 samples / pixels souhaités, pour du pathtracing avec un depth de 20 rebond, sampling 1.5, en utilisant que 50 mb de vram :o .

Donc ci-dessous, le rendu standard et en stereoscopie ( lunettes rouge / cyan ). La version stereo envois grave du bois… de plus en fesant un little trick, on peux sortir les deux yeux en separés pour faire une stereo ( active ou passive ) en couleur.

So Enjoy,

Salut à tous,

Donc j’ai récemment acquis une licence de Octane renderer ( vue le prix 99€ pour la beta test ). Que dire, bon pour commencer, ça va vite, certes il faut une très bonne carte graphique (nvidia series 9000, series 260 et bien sur le mieux les series 400, voir cartes pro type Tesla), mais il tourne parfaitement sur des cartes de jeux, sachant que moi même j’ai une GTX260.

Je ne vous cacherai pas, que plus il y a de depth de raytrace plus c’est long, normal c’est un path tracer ( bientot MLT ), personnellement, je migre vers une nouvelle machine du type I7 avec une GTX480. Mais les points fort de Octane, c’est surtout ça vitesse, et son feedback temps réel dans le viewport. Toujours en cours de développement, le produit est stable et laisse présagé un sérieux concurrent au moteur de type maxwell, fryrender ( ou arion, hybrid CPU/GPU ). Sérieux concurrent par son approche nodal de gestion de scène / matériaux et surtout grâce à sa capacité d’utiliser plusieurs carte graphiques de diffèrent type sans passer par le SLI, ce qui en fait un produit flexible et efficace.

De plus, le produit ne se limite pas à l’unbiased, vue que le direct lighting est aussi possible. Pour l’instant les object area light ne sont pas supportées, mais elle arrive dans la prochaine released.

Que dire de plus, beh pas grand chose à part que je ne regrette pas mon achat. Une démo est disponible sur leur site. A tester absolument.

Voici une images faites avec Octane, sur ma geforce GTX 260, en 1 heure ( la résolution de sortie était 1920×1080 ).

Envoy,

Matt

ps : L’image est surtout une private joke pour « Lapin », un gars de l’équipe.

Salut à Tous,

ça fait un bon moment que je n’ai pas poster… beaucoup de travail… et ouais ça arrive ;-) . Je profite d’un poil de temps pour poster quelques images du MB_Unified_shader faisant partis du pipeline MB_Unified_Tools (anciennement MB_Universal_shader). Ce pipeline est fait pour fonctionner avec maya et 3delight avec un but… occlusion, Image Based Ligthing et Global Illumination rapide et facilement gérable.

Donc pour la version 0.1, but atteint… le shader supporte l’occlusion, l’IBL et la GI (qui tiens compte aussi de l’IBL) de manière facile. Tout est driver à partir d’un tool, mais reste totalement overridable par shader. Dans une prochaine version, le multi-bounce GI ptc sera intégré de manière transparente aussi.

Donc le shader supporte donc l’occlusion, l’IBL, la GI, une diffuse BRDF et une ambient, le fastSSS et le normal mapping. Pour l’instant ce n’ai que le début, mon but été de base d’intégrer les fonctions les plus lourdes. Voici quelques images, les temps de rendu sont notés.

Voilà

Salut à tous,

Cela fait un petit moment que j’ai pas posté. Pour me rattraper, je poste quelques tests de shading sous Guerilla Render.

Enjoy

Salut à tous,

J’ai eu beaucoup de questions sur le forum 3Delight et par mail sur l’Image Based Lighting PTC sur 3Delight. Suite à ça, j’ai proposé sur le forum de faire une archive contenant un petit projet maya 2009, avec le shader source et le compilé, une scène en exemple et surtout un pdf qui explique le fonctionnement du shader.

Donc, je la mets à disposition aussi ici. Pour information, lisez bien le « disclamer », pour respecter les droits d’auteurs sur ce shader.

Cliquez ici pour recuperer l’archive (99 Mb)

Matt

Salut,

ça fait un petit moment que j’ai pas poster, je me rattrape en mettant deux screenshots de guerilla, qui supporte le shave, donc étant accrocs au rendu de fur (pourquoi, je ne sais pas lol), un petit test avec un le shader de base de guerilla, avec un poils de modifications, tel que la fake occlusion, et un changement un « poils radical » dans l’équation finale du shader (réorganisation des composantes ambient /diffuse and co), qui permet d’obtenir un genre de shader ressemblant à algorithme de Marschner, mais n’étant pas une prise de tête à mettre en place.

Bonjour à tous,

Aujourd’hui je publie ma 1er image faite avec « Guerilla Render ». J’ai la grande chance de pouvoir participer au bêta test de ce nouveau moteur de rendu qui est, soit dit en passant, extrêmement bien pensé. Comme on me l’a deja dit, l’image est un « poil » trop propre, mais je ferai plus texturé la prochaine fois ( je planche déjà sur une nouvelle image). Donc voilà, ci-dessous l’image et un screenshot de Guerilla.

A suivre.

Hello à tous,

Dernièrement, une personne m’a laissé un commentaire sur le fastSSS (la version en dev avec les 3 images de Buddha), en me demandant pourquoi j’utilisais une vieille techniques ? Certes le shader qui m’a servis de référence pour mon dev était une technique largement répandu et pour certain pas « super jolie ». Bien sur la version que j’ai développer par la suite était baser sur le gummi shader utiliser sur ratatouille, mais à ma sauce (prise en charge du dual scattering in / out et optimisation de la prise en charge du SSS et de la diffuse). Donc, comme j’ai répondu, dans des cas de scènes lourdes ou de géométries complexes, cette approche rester une bonne solution pour simuler du subsurface scattering rapidement, sans pénaliser le temps de calcul. Voici donc un exemple qui, dans ce cas-ci est la solution la plus rapide pour simuler du SSS aux travers de millions d’élément.

Le shader utilisait dans cette exemple est exactement le même que celui du post « FastSSS… Suite… ». Il ne comporte donc pas de loop de diffuse ou de spéculaire qui tiennent compte de la dérivation de la lumière le long du poils. A vrai dire j’avais déjà re-codé un shader pour shave and haircut baser sur celui de Joe Alter, avec prise en charge du fastSSS en état « dev », fake occlusion et dual scattering du spéculaire. Le test ici présent m’a apprit que il me fallait très peu de modifs pour terminer la version définitive de mon shader pour shave and haircut. Dans les images qui suivent, l’une comporte de l’occlusion générer à l’aide de la technique des Point clouds. Bien sur, cette approche sur du fur n’est pas la meilleure et coûte en temps de calcul, mais celle-ci sera remplacer dans le shader par la « Fake occlusion » que j’ai déjà approuver sur le shader précédent de fur. J’ai rajouté une image de la « Fake occlusion » pour vous donner une idée du résultat de celle-ci, avec son temps de calcul qui parle de lui même. La difference de calcul entre sans et avec FastSSS et de 2 secondes. La version avec du vrai SSS multiplie les temps de calcul par 3.

Les images qui suivent ont été calculer avec les paramètre suivant :

shading rate 0.5 // pixel samples 16 16 // filter sinc 4 4 // 2.1 milions de hairs