Modèle d'apparence semi-procédural pour le contrôle et le passage à l'échelle de la synthèse de textures et de matériaux

Autor: Guehl, Pascal
Přispěvatelé: Laboratoire des sciences de l'ingénieur, de l'informatique et de l'imagerie (ICube), École Nationale du Génie de l'Eau et de l'Environnement de Strasbourg (ENGEES)-Université de Strasbourg (UNISTRA)-Institut National des Sciences Appliquées - Strasbourg (INSA Strasbourg), Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Institut National de Recherche en Informatique et en Automatique (Inria)-Les Hôpitaux Universitaires de Strasbourg (HUS)-Centre National de la Recherche Scientifique (CNRS)-Matériaux et Nanosciences Grand-Est (MNGE), Université de Strasbourg (UNISTRA)-Université de Haute-Alsace (UHA) Mulhouse - Colmar (Université de Haute-Alsace (UHA))-Institut National de la Santé et de la Recherche Médicale (INSERM)-Institut de Chimie du CNRS (INC)-Centre National de la Recherche Scientifique (CNRS)-Université de Strasbourg (UNISTRA)-Université de Haute-Alsace (UHA) Mulhouse - Colmar (Université de Haute-Alsace (UHA))-Institut National de la Santé et de la Recherche Médicale (INSERM)-Institut de Chimie du CNRS (INC)-Centre National de la Recherche Scientifique (CNRS)-Réseau nanophotonique et optique, Université de Strasbourg (UNISTRA)-Université de Haute-Alsace (UHA) Mulhouse - Colmar (Université de Haute-Alsace (UHA))-Centre National de la Recherche Scientifique (CNRS)-Université de Strasbourg (UNISTRA)-Centre National de la Recherche Scientifique (CNRS), Université de Strasbourg, Jean-Michel Dischler
Jazyk: francouzština
Rok vydání: 2022
Předmět:
Zdroj: Autre [cs.OH]. Université de Strasbourg, 2022. Français. ⟨NNT : 2022STRAD039⟩
Popis: Automating the tasks of authoring textures and materials for 3D virtual worlds is in high demand in the film and video game industry. In this context, we are interested in stochastic structured textures (and by extension to materials), among the most widespread. Characterized by spatially varying properties, they are particularly difficult to reproduce by by-example synthesis methods and have been the subject of little research work. We propose a new method of textures and materials synthesis, called semi-procedural, consisting in separating the synthesis of the structure, from that of the color details. The structure, procedural, uses a new generic sparse convolutional noise function that is infinite, repeatless, coherent, editable and controllable. The details are generated by-example via an automatic parallel optimization approach resulting in visual similarity. This method takes advantage of the best world of procedural and by-example synthesis: results faithful to examples, low storage cost representation, ability to synthesize on the fly, high degree of control, and scalability.; L’automatisation des tâches de création de textures et de matériaux des mondes virtuels 3D est en forte demande dans l'industrie du film et des jeux vidéo. Dans ce cadre, nous nous intéressons aux textures stochastiques structurées (et par extension aux matériaux), parmi les plus répandues. Caractérisées par des propriétés variant spatialement, elles sont particulièrement difficiles à reproduire par les méthodes de synthèse par l’exemple et ont fait l’objet de peu de travaux de recherche. Nous proposons une nouvelle méthode de synthèse de textures et de matériaux, dite semi-procédurale, consistant à séparer la synthèse de la structure, de celle des détails de couleur. La structure, procédurale, utilise une nouvelle fonction générique de bruit à convolution parcimonieuse, infinie, sans répétition, cohérente, éditable et contrôlable. Les détails sont générés par l’exemple via une approche d'optimisation parallèle automatique engendrant une similitude visuelle. Cette méthode tire parti du meilleur du monde de la synthèse procédurale et par l’exemple : résultats fidèles aux exemples, représentation à faible coût de stockage, possibilité de synthétiser à la volée, degré élevé de contrôle, et passage à l’échelle.
Databáze: OpenAIRE