Las técnicas de producción comunes incluyen fotogrametría, alquimia, simulación, etc.
El software más utilizado incluye: 3dsMAX, MAYA, Photoshop, Painter, Blender, ZBrush,Fotogrametría
Las plataformas de juegos más utilizadas incluyen teléfonos móviles (Android, Apple), PC (Steam, etc.), consolas (Xbox/PS4/PS5/SWITCH, etc.), dispositivos portátiles, juegos en la nube, etc.
La distancia entre un objeto y el ojo humano puede describirse como "profundidad" en cierto sentido.Según la información de profundidad de cada punto del objeto, podemos percibir mejor la geometría del objeto y obtener la información de color del objeto con la ayuda de las células fotorreceptoras de la retina.escaneo 3Ddispositivos (generalmente escaneo de pared única yestablecer escaneo) funcionan de manera muy similar al ojo humano, recopilando la información de profundidad del objeto para generar una nube de puntos (nube de puntos).La nube de puntos es un conjunto de vértices generados por el dispositivo de escaneo 3D después de escanear el modelo y recopilar los datos.El principal atributo de los puntos es la posición, y estos puntos están conectados para formar una superficie triangular, que genera la unidad básica de la cuadrícula del modelo 3D en el entorno informático.El agregado de vértices y superficies triangulares es la malla, y la malla representa objetos tridimensionales en el entorno informático.
La textura se refiere al patrón en la superficie del modelo, es decir, la información del color, y su comprensión del arte del juego es el mapeo difuso.Las texturas se presentan como archivos de imágenes 2D, cada píxel tiene coordenadas U y V y lleva la información de color correspondiente.El proceso de agregar texturas a una malla se llama mapeo UV o mapeo de texturas.Agregar información de color al modelo 3D nos da el archivo final que queremos.
La matriz DSLR se utiliza para construir nuestro dispositivo de escaneo 3D: consta de un cilindro de 24 lados para montar la cámara y la fuente de luz.Se instalaron un total de 48 cámaras Canon para obtener los mejores resultados de adquisición.También se instalaron 84 juegos de luces, cada uno de los cuales consta de 64 LED, para un total de 5376 luces, cada una de las cuales forma una fuente de luz de superficie de brillo uniforme, lo que permite una exposición más uniforme del objeto escaneado.
Además, para mejorar el efecto del modelado fotográfico, agregamos una película polarizadora a cada grupo de luces y un polarizador a cada cámara.
Después de obtener los datos 3D generados automáticamente, también necesitamos importar el modelo a la herramienta de modelado tradicional Zbrush para realizar algunos ajustes leves y eliminar algunas imperfecciones, como cejas y cabello (lo haremos por otros medios para recursos similares a cabellos). .
Además, es necesario ajustar la topología y los UV para ofrecer un mejor rendimiento al animar las expresiones.La imagen de la izquierda a continuación es la topología generada automáticamente, que es bastante desordenada y sin reglas.El lado derecho es el efecto después de ajustar la topología, que está más en línea con la estructura de cableado necesaria para realizar animaciones de expresión.
Y ajustar la luz UV nos permite crear un recurso de mapeo más intuitivo.Estos dos pasos se pueden considerar en el futuro para realizar un procesamiento automatizado a través de IA.
Utilizando la tecnología de modelado de escaneo 3D, solo necesitamos 2 días o menos para crear el modelo de precisión a nivel de poro que se muestra en la siguiente figura.Si utilizamos la forma tradicional para hacer un modelo tan realista, un modelista con mucha experiencia necesitará un mes para completarlo de forma conservadora.
Obtener un modelo de personaje CG de forma rápida y sencilla ya no es una tarea difícil, el siguiente paso es hacer que el modelo de personaje se mueva.Los humanos han evolucionado durante un largo período para ser muy sensibles a las expresiones de los de su especie, y las expresiones de los personajes, ya sea en juegos o películas CG, siempre han sido un punto difícil.