Il était temps de redorer un peu la communication autour d'Immersion!
Ce qui nous as motivé, c'est les cours de business dispensés à Epitech par Gilles Enguehard. En définissant mieux notre cible potentielle, nous avons pu redéfinir notre identité visuelle ainsi que les textes qui l'accompagne.
En bref, nouveau logo, nouvelle typo, nouvelle accroche, nouveau site, nouvelles cartes de visites, nouveaux flyers, etc.... beaucoup de nouvelles choses en préparation!
Voici en avant-première un projet de flyer dans lequel vous pouvez voir entre autres le nouveau logo !
N'hésitez pas à partager vos critiques/commentaires en dessous!
Si vous avez aimé l'article n'hésitez pas à laisser un commentaire, ou me suivre sur twitter
Monday, October 3, 2011
Monday, August 1, 2011
Rencontre avec AMD

Les 5 points à retenir absolument avant de se lancer dans le GPGPU:
- Un GPU est très bon pour les calculs parallèles sur de gros blocs de données, si toutefois les calculs ne diffèrent pas trop. Ce qui veut dire qu'il est très bon pour les rayons primaires, beaucoup moins pour les secondaires.
- Les algorithmes avec beaucoup de branchements (type parcours d'arbre) sont à BANNIR sur GPU. Le CPU est beaucoup plus à l'aise dessus.
- Un APU à environ 1/4 de la puissance d'un GPU. Mais du fait de sa localisation, il sera plus performant pour certains calculs que le GPU.
- La taille de la VRAM ne doit pas être un soucis. Des solutions arriveront.
- Le temps de transfert ne doit pas être un soucis. Des solutions arriveront.
Nous voilà donc partis dans nos premiers TPs sur OpenCL. Les premiers résultats sont concluants, mais il faudra un gros travail de conception avant de voir le GPGPU d'imposer dans le moteur.
Si vous avez aimé l'article n'hésitez pas à laisser un commentaire, ou me suivre sur twitter
Friday, June 10, 2011
Immersion dans la réalité virtuelle
J'ai le plaisir de vous annoncer notre collaboration avec l'INRIA (Institut national de recherche en informatique et en automatique), autour du lancer de rayons temps réel, et de la réalité virtuelle (VR).
Plus d'infos? http://www.inria.fr/centre-de-recherche-inria/sophia-antipolis-mediterranee/innovation/plateformes-technologiques2
Si vous avez aimé l'article n'hésitez pas à laisser un commentaire, ou me suivre sur twitter
![]() |
Notre but est de mettre en place notre moteur dans la salle de réalité virtuelle Gouraud-Phong (une plateforme d'1 M€ quand même!), basée dans le centre de Sophia Antipolis.
Caractéristiques techniques
- rétroprojection sur tous les écrans
- suivi de position optique
- stéréo Infitec
- son spatialisé
- espace de travail de l’iSpace : 3,2m * 3,2m * 2,4m
Plus d'infos? http://www.inria.fr/centre-de-recherche-inria/sophia-antipolis-mediterranee/innovation/plateformes-technologiques2
Si vous avez aimé l'article n'hésitez pas à laisser un commentaire, ou me suivre sur twitter
Friday, January 28, 2011
Revenons à nos rayons!
Je vous disais plus tôt que mon truc à moi, c'est les rayons.
En vérité, je suis (du verbe suivre) un master en sciences informatiques, dans lequel je me suis spécialisé dans la synthèse d'images, et plus particulièrement dans une méthode de rendu graphique appelée "Raytracing", traduit en français "Lancer de rayon".
Voila, le mystère est levé!
Cette technique part d'une base mathématique simple, la résolution polynomiale, mais poussée à l'extrême, avec des petits bouts de 3D dedans.
Le raytracing est utilisé principalement dans les films d'animations, et un peu dans les jeux actuels (mais sous une forme différente).
L'intérêt par rapport à la rastérization (technique utilisé dans les jeux)?
Rendre des images photo-réalistes, en simulant le parcours de la lumière, restituer des sons spatiaux parfaits, en simulant le parcours des ondes sonores, et générer des effets physiques convaincants, grâce à la précision des algorithmes utilisés. Rien que ça.
Moi, et une dizaine de copains (c'est l'avantage d'être étudiant), on s'attache à résoudre le plus gros problème du raytracing: la lenteur.
Pour faire bref, on pourrait dire que "le raytracing est à la technique de rendu ce que Java est aux langages de programmation".
Et du coup, ça donne un projet de recherche d'envergure en realtime raytracing, en partenariat avec l'ACSEL (Advanced Computer Sciences Epitech Laboratory), et joliment nommé Immersion Engine.
En vérité, je suis (du verbe suivre) un master en sciences informatiques, dans lequel je me suis spécialisé dans la synthèse d'images, et plus particulièrement dans une méthode de rendu graphique appelée "Raytracing", traduit en français "Lancer de rayon".
![]() |
Non, c'est pas moi. |
Voila, le mystère est levé!
Cette technique part d'une base mathématique simple, la résolution polynomiale, mais poussée à l'extrême, avec des petits bouts de 3D dedans.
A quoi ça sert?
Le raytracing est utilisé principalement dans les films d'animations, et un peu dans les jeux actuels (mais sous une forme différente).
L'intérêt par rapport à la rastérization (technique utilisé dans les jeux)?
Rendre des images photo-réalistes, en simulant le parcours de la lumière, restituer des sons spatiaux parfaits, en simulant le parcours des ondes sonores, et générer des effets physiques convaincants, grâce à la précision des algorithmes utilisés. Rien que ça.
![]() | ||
C'est beau, hein!? |
Et moi dans tout ça?
Moi, et une dizaine de copains (c'est l'avantage d'être étudiant), on s'attache à résoudre le plus gros problème du raytracing: la lenteur.
Pour faire bref, on pourrait dire que "le raytracing est à la technique de rendu ce que Java est aux langages de programmation".
Et du coup, ça donne un projet de recherche d'envergure en realtime raytracing, en partenariat avec l'ACSEL (Advanced Computer Sciences Epitech Laboratory), et joliment nommé Immersion Engine.
Si vous avez aimé l'article n'hésitez pas à laisser un commentaire, ou me suivre sur twitter
Subscribe to:
Posts (Atom)