A Game Developers Conference já teve o seu momento mais alto deste ano. A Epic fez uma apresentação de cair o queixo em relação ao potencial do Unreal Engine e daquilo que vai começar a apresentar em alguns dos seus jogos.
Na apresentação “State of Unreal”, foi revelada a visão a longo prazo, não só da criação, mas também da distribuição e monetização. A Epic para além de demonstrar como pretende incluir todos os developers e criadores no metaverso, com bases sólidas para um ecossistema e economia abertos, também demonstrou o poder que o Unreal Engine 5 é capaz de oferecer aos seus parceiros.
Comecemos com o Fortnite, onde foi apresentado o Editor Unreal para o Fortnite (UEFN) que vai permitir que developers criem jogos dentro do Fortnite. Para além disso, a UEFN oferece a oportunidade de usar a nova linguagem de programação Verse pela primeira vez. Com diversos recursos de personalização disponíveis, o objetivo é permitir que os criadores tenham a capacidade de produzir scripts com as ferramentas já existentes do Fortnite Creative.
Numa demo apresentada, foram destacadas três partes: uma sessão de abertura em que foi mostrado como aprimorar os dispositivos Fortnite Creative existentes com o Verse, um olhar mais profundo no editor e uma emocionante batalha contra um Boss.
Depois temos o Creator Economy 2.0. Um recurso de pagamentos por engadgement. Será uma nova forma dos criadores elegíveis da ilha Fortnite receberem dinheiro com base no engadgment do conteúdo publicado. Pelo que foi anunciado os pagamentos vão ser distribuídos proporcionalmente 40% da receita líquida da Loja de Itens do Fortnite e a maioria das compras em dinheiro real do Fortnite para os criadores de ilhas e experiências elegíveis.
E por fim, neste universo do Fortnite, temos ainda o Fab. Um mercado unificado onde os criadores vão poder encontrar, publicar e compartilhar ativos digitais para uso na criação de experiências. A ferramenta vai reunir os cinco mercados da Epic: Unreal Engine Marketplace, Sketchfab, Quixel Bridge e o ArtStation Marketplace, tudo junto numa enorme comunidade, em que os criadores vão receber 88% da receita, numa só plataforma. O Fab chega apenas no final do ano, mas já existe uma versão Alpha disponível como pula-in para UEFN.
No entanto esta apresentação não foi só sobre o Fortnite, houve também espaço para demonstrações técnicas do Unreal Engine 5.2 que oferece mais refinamento e optimizações com vários novos recursos. Na versão 5.2, as novas ferramentas de geração de conteúdo processual (PCG) e de tempo de execução permitem que os artistas definam regras e parâmetros para preencher rapidamente espaços expansivos e altamente detalhados.
“O grande ambiente de mundo aberto [visto na demonstração do Unreal Engine 5.2] é construído usando ferramentas procedurais criadas por artistas que constroem em cima de um pequeno ambiente manual onde a aventura começa. Envio como Experimental na versão 5.2, as novas ferramentas de geração de conteúdo processual (PCG) no editor e em tempo de execução permitem que os artistas definem regras e parâmetros para preencher rapidamente espaços expansivos e altamente detalhados que podem ser direcionados à arte e funcionam perfeitamente com a colocação manual.”
Esta demonstração chamada de Electric Dreams, mostra como é feita a renderização da vegetação e folhagens, que são gerados proceduralmente e com uma qualidade que beira o fotorrealismo. O jipe elétrico Rivian R1T durante o seu trajecto mostra como a ferramenta Chaos do motor gráfico funciona, fazendo com que o cenário reaja à passagem do jipe nos mínimos detalhes, como ao resvalar na vegetação ou ao passar por uma poça de água.
Outro recurso apresentado é o Substrato, que tem relação com a estrutura material, ou seja, do que o objeto é feito. Utilizando essa ferramenta é possível trocar rapidamente os elementos estruturais que compõem o objeto, como é demonstrado no vídeo ao trocar a cor do carro pelo material reflectivo simulando uma pedra Opal.
Temos ainda que referir o MetaHuman Animator, um novo conjunto de recursos para a estrutura MetaHuman. Esta tecnologia vai permitir que os criadores produzam qualquer performance facial como animação de alta fidelidade. Basta usar um iPhone ou câmeras estéreo montadas no capacete para capturar a individualidade, o realismo e a fidelidade da performance.
Exemplo disso, é o vídeo que a Microsoft e a Ninja Theory partilharam onde se pode ver a capacidade desta tecnologia aplicada no jogo Senua’s Saga: Hellblade II. A demonstração intercala a atriz Melina Juergens com a personagem, exemplificando o realismo da ferramenta na conversão de captura de movimentos.
“Estamos a ultrapassar os limites da animação facial em tempo real em Senua’s Saga: Hellblade II, como demonstrado na GDC 2023 com a Unreal Engine”, consta na descrição do vídeo.
Outro dos destaques foi também a capacidade do motor gráfico em termos de iluminação. Neste caso foi o estúdio Hexworks da CI Games que demonstrou através do reboot de Lords of The Fallen, como utilizou o Unreal Engine 5.
A demonstração revelou um dos primeiros locais do reboot , a personalização das personagens, a armadura adaptável e como vai funcionar a técnica de ray tracing “Lumen Global Illumination”. A apresentação também mostrou como podemos viajar e trocar entre os dois mundos: Axiom, o reino dos vivos, e Umbral, o reino dos mortos e, como para a equipa de desenvolvimento foi possível trabalhar os dois planos em simultâneo.
Como se isto não bastasse, o fotorealismo e o upgrade gráfico que as cinemáticas podem levar com este motor gráfico foi também demonstrado em Project M, o novo jogo da coreana NCSoft.
O jogo mistura um estilo mais cinematográfico com escolhas, característica que é marca registrada da Quantic Dreams, como por exemplo, em Detroit: Become Human. O trailer mostra como o jogo passa de cutscene para a acção sem qualquer tipo de transição.
O foco deste projeto da NCSoft é o “Humano Digital”, como se pode ver pela apresentação do vídeo em si, feito por uma versão digitalizada do CCO do estúdio, Taekjin Kim. A voz do executivo foi criada a partir de uma tecnologia de IA do estúdio que transforma texto em voz (TTS – Text-to-speech) e assim será com todas as personagens do jogo.
Esta tecnologia converte informações em texto em fala humana natural refletindo a voz, sotaque e emoções de uma pessoa. Até mesmo as expressões faciais e sincronização labial de Project M é feita através dessa IA.
O Unreal Engine 5.2 já está disponível como uma versão de visualização.