En 2010, Halo: Reach a été lancé en grande pompe. Près de dix ans plus tard, la version remaniée vient de frapper PC, recevant une fois de plus les éloges de la critique et bouclant la décennie.
Beaucoup de choses ont changé au cours de ces dix années, et vous pouvez désormais profiter de Halo: Reach en 8K à 60 images par seconde (si le budget n'est pas un objet pour votre matériel PC, c'est-à-dire).
Et bien sûr, beaucoup plus a changé dans le monde plus large des jeux vidéo au cours des années 2010. Dans cet article, nous allons mettre en évidence une sélection d'avancées technologiques dans le jeu qui, selon nous, ont eu un impact important sur l'industrie du jeu.
Cela comprend l'introduction du lancer de rayons, de la technologie de synchronisation adaptative et d'énormes progrès dans les technologies existantes telles que la capture de mouvement, ainsi que d'autres avancées qui se sont combinées pour rendre les jeux beaucoup plus réalistes et immersifs – et plus encore.
Sommaire
tracé laser
Pour les non-initiés – s'il y a en effet encore quelqu'un là-bas pour entendre parler de cette technologie – comme son nom l'indique, cela implique de suivre les chemins des rayons lumineux individuels pour créer une représentation réaliste du fonctionnement de la lumière dans le monde réel. Le résultat est des ombres, des réflexions, etc. beaucoup plus réalistes, pour des graphismes beaucoup plus beaux (par rapport à la tramage, la méthode traditionnelle de rendu en temps réel).
Bien que lorsque les GPU RTX ont été lancés pour la première fois, un certain nombre de personnes ont fait valoir que le lancer de rayons était vraiment un complot ignoble préparé par Nvidia pour vendre une charge de cartes graphiques plus chères. Et bien qu'il y ait un élément de vérité dans cela – cela fait certainement partie d'un plan visant à dominer davantage les ventes de GPU – ce n'est pas seulement une campagne de marketing rentable.
Tout d'abord, rappelez-vous que le lancer de rayons n'est pas seulement une chose Nvidia, mais un pas en avant sur le front graphique dans l'ensemble de l'industrie des jeux. Sur PC, AMD et Intel seront également intégrés, et Microsoft a en effet intégré la prise en charge du lancer de rayons directement dans DirectX 12.
Mais plus important encore, les consoles de nouvelle génération de Microsoft et de Sony vont être capables de lancer de rayons, avec Tatu Aalto, programmeur graphique principal chez Remedy (qui a produit Control), notant que le lancer de rayons à venir sur Xbox Series X et PS5 représente un «Changement fondamental dans l'approche de l'infographie».
Il semblerait donc assez clair que tous les principaux développeurs de jeux finiront par être à bord pour pousser le lancer de rayons – et beaucoup le sont déjà. Le contrôle est fantastique et utilise le lancer de rayons avec des éléments tels que l'éclairage diffus, les réflexions sur le verre et les débris ultra-réalistes, ce qui signifie que par rapport aux graphiques normaux du jeu, c'est une différence absolue de jour comme de nuit.
Maintenant, avant de nous laisser trop emporter, il y a beaucoup de mises en garde avec le lancer de rayons dans son état actuel. Il y a de sérieux problèmes autour des succès de performance – en particulier en dehors des cartes graphiques RTX – et les jeux offrent différents niveaux de support, donc par exemple Call of Duty: Modern Warfare ne fait que des ombres ray-tracées.
Mais à mesure que tout le monde adopte la technologie et que les GPU évoluent et sont continuellement perfectionnés (avec des innovations de pilotes et de logiciels) pour mieux faire face au ray tracing, nous pouvons nous attendre à plus de nouveaux jeux (et même d'anciens) présentant pleinement les atouts visuels proposés; en particulier lorsque les consoles de nouvelle génération arrivent. Bref, il semblerait que l'avenir des graphismes de jeux vidéo ait débuté en 2018.
Capture de mouvement
La capture de mouvement, connue officieusement sous le nom de mo-cap, n'est bien sûr pas nouvelle. Le processus de capture des mouvements des acteurs humains – traditionnellement en collant une centaine de balles de golf sur un body en spandex noir – pour donner des personnages plus réalistes dans les jeux existe depuis les années 90 (et bien avant dans les films). Mais au cours de la dernière décennie, des progrès importants ont été réalisés avec la technologie qui mérite d'être soulignée comme révolutionnaire, amenant le processus d'animation à un nouveau niveau de réalisme.
Hellblade: Senua's Sacrifice, une action-aventure de 2016 de Ninja Theory, a utilisé le système de capture de mouvement en temps réel de Vicon (illustré dans la vidéo ci-dessus) pour faciliter des expressions incroyablement réalistes, et couplé avec Epic's Unreal Engine, le jeu a livré des résultats tout à fait exceptionnels dans termes de réalisme.
Cependant, comme le souligne Engadget, il y a eu un peu de fudging avec l'aspect mo-cap en temps réel ici, comme l'acteur devant s'en tenir à un ensemble d'actions à peu près chorégraphié, afin que le logiciel puisse suivre. Mais maintenant, la dernière démo mo-cap de Vicon et Epic, «Siren», offre une véritable capture de mouvement en direct, grâce à laquelle un acteur humain peut faire ce qu'il veut, avec les résultats transférés directement sur un avatar 3D à l'écran.
Depuis Hellblade, la puissance de calcul et de GPU a considérablement augmenté. Jeffrey Ovadya, directeur des ventes chez Vicon, a déclaré à Engadget: «Unreal Engine a ajouté encore plus de capacités et encore plus de réalisme, donc tout d'un coup, tous les efforts de fond qui ont été consacrés à Senua's Sacrifice sont devenus plus faciles, plus courts, plus rapides, et ils ont pu arriver à ce point plus rapidement.
"Donc, s'ils investissaient le même temps pour un projet, disons 100 heures, et la partie mo-cap a pris 80 pour Senua's Sacrifice, pour Siren, cela a pris une heure."
La capture de mouvements devenant un processus extrêmement rapide et indolore, les développeurs pourront l'utiliser plus facilement et disposer de plus de temps pour affiner les détails visuels et les animations, le résultat final étant des jeux beaucoup plus réalistes et immersifs ( avec les développements du lancer de rayons discutés ci-dessus).
Synchronisation adaptative
G-Sync de Nvidia et FreeSync, le concurrent d'AMD, ont été introduits au milieu de la dernière décennie et sont des technologies de contrôle conçues pour lutter contre le déchirement de l'écran et le bégaiement. En d'autres termes, ils visent à vous offrir une expérience de jeu plus fluide, en particulier avec les tireurs au rythme rapide où de tels effets de bégaiement pourraient retarder votre objectif.
Il y a un sentiment commun en ligne lorsque les acheteurs potentiels demandent s'il faut obtenir un affichage avec G-Sync ou FreeSync, et c'est que les adoptants disent qu'ils ne pourraient jamais revenir à un moniteur normal maintenant qu'ils ont connu les joies de la saveur de «synchronisation adaptative» qu'ils ont choisie.
Quand il s'agissait de choisir le bon moniteur de synchronisation adaptative pour vous, c'était un choix simple entre AMD ou Nvidia. Les écrans alimentés par AMD sont traditionnellement moins chers car la technologie est libre de droits, ne nécessitant pas de matériel propriétaire sur le moniteur, il ne coûte donc pas aux fabricants de prendre en charge le support.
De plus, dans le passé, vous aviez besoin d'une carte graphique Nvidia ou AMD pour G-Sync ou FreeSync respectivement, et il n'y avait pas de pollinisation entre marques. Cependant, cela a changé récemment, lorsque Nvidia a décidé d'autoriser ses GPU de la série 10 et les plus récents à prendre en charge la synchronisation adaptative sur des moniteurs tiers, y compris les modèles FreeSync.
Encore plus excitant pour de nombreux joueurs, ces technologies de synchronisation adaptative ne se limitent plus aux seuls moniteurs. Alors que les téléviseurs 4K ont mûri – et sont devenus beaucoup moins chers, ce qui est certainement une autre aubaine pour cette décennie – nous avons vu l'introduction du taux de rafraîchissement variable (VRR) avec HDMI 2.1. Cela signifie que vous disposez désormais de téléviseurs grand écran prenant en charge la synchronisation adaptative, par exemple, LG a introduit G-Sync dans sa gamme d'OLED 2019.
En outre, cela ouvre également les choses aux consoles, car la Xbox One X prend en charge la technologie VRR (mais il y a une mise en garde en ce que seuls certains jeux en bénéficieront). Cependant, avec les consoles de nouvelle génération, nous pouvons nous attendre à une nouvelle poussée dans ce sens (nous avons récemment entendu que la PS5 et la Xbox Series X – ainsi que les cartes graphiques AMD – pourraient fonctionner avec les futurs moniteurs Nvidia G-Sync).
Un gameplay fluide et des fréquences d'images fluides sont aussi importants que des graphismes réalistes et immersifs, en particulier lorsqu'il s'agit de jouer à des jeux en ligne de manière compétitive. Donc, pour nous, l'introduction de la synchronisation adaptative – et sa poussée plus large pour une plus grande accessibilité sur les PC, les téléviseurs grand écran et les consoles – représente une avancée considérable pour les jeux dans les années 2010.
Streaming en direct: Twitch (et plus)
En 2011, Twitch est né et a rapidement gagné des millions et des millions de téléspectateurs, tous regardant des streamers professionnels jouer à des jeux. Le service a vraiment fait mouche en 2014, quand Amazon l'a acheté, et Twitch n'a cessé de se renforcer depuis, avec des statistiques récentes indiquant que la plate-forme compte environ 15 millions de téléspectateurs quotidiens (et 2,2 millions de diffuseurs, pour démarrer).
Les jeux vidéo en streaming en direct ne concernent pas uniquement Twitch, bien sûr. Il y a aussi YouTube, Mixer (l'effort de Microsoft, qui fait un sérieux braconnage), et d'autres options en plus, ainsi que le streaming est devenu un si gros phénomène ces jours-ci que la fonctionnalité est intégrée directement dans les consoles.
Bien que vraiment, l'essor du streaming en direct représente un ensemble de technologies qui avancent ensemble, parallèlement à la création des plates-formes réelles pour diffuser. Le déploiement de connexions Internet plus rapides (au Royaume-Uni, les produits en fibre optique de BT lancés en 2010), qui est essentiel pour permettre la lecture en ligne et la diffusion simultanée de ces images, est certainement une partie importante du puzzle.
Et le matériel d'AMD a également joué son rôle en permettant la diffusion en direct, en introduisant des processeurs multicœurs abordables avec sa gamme Ryzen – des processeurs accessibles à un public grand public, et capables de faire face aux exigences multitâches considérables de jouer à un jeu et de le diffuser en continu. fluide en même temps.
Tout cela a conduit à l'explosion de la popularité des jeux en tant que sport de spectateurs. Être un streamer professionnel est maintenant un cheminement de carrière potentiel pour ceux qui sont capables de mélanger leur jeu expert avec des commentaires divertissants et charismatiques. Telle est la popularité de regarder des jeux, nous avons même vu des esports être couverts à la télévision par des gens comme Sky dès 2016…
Non seulement il est amusant de regarder des streamers professionnels, mais il ne faut pas sous-estimer que c'est aussi un puissant outil d'apprentissage. Pour ceux qui veulent vraiment bien faire sur le dernier jeu de tir compétitif, ou RTS, ou quoi que ce soit – regarder comment c'est vraiment fait peut être une expérience incroyablement informative. Le streaming a certainement révolutionné le concept de trucs et astuces pour les jeux populaires, et l'a porté à un autre niveau.
Streaming de jeu
Alors que le streaming en direct consiste à jouer à un jeu et à diffuser cette expérience en ligne, le streaming de jeu réel signifie que vous jouez à distance à un jeu hébergé sur un serveur ailleurs.
Également connu sous le nom de cloud gaming, ce type de services a démarré il y a un temps étonnamment long, avec le lancement d'OnLive au tout début de la décennie. En fin de compte, il a échoué, car 2010 était tout simplement trop tôt compte tenu de l'infrastructure Internet contemporaine, mais avec les mêmes connexions à large bande plus rapides qui ont contribué à stimuler l'essor du streaming en direct, le streaming de jeux est devenu une proposition réaliste.
Depuis les débuts d'OnLive, nous avons vu des goûts de PlayStation Now, et plusieurs grands noms se sont développés vers la fin de la décennie, y compris GeForce Now de Nvidia et Project xCloud de Microsoft, bien que ces produits soient toujours en version bêta.
Tous ces services de streaming ont leurs différents angles et approches quant à la façon exacte dont ils fonctionnent, mais l'offre la plus en vue est probablement Google Stadia. Cela a été officiellement lancé en novembre 2019, et comme nous l'avons noté dans notre revue, c'est une «véritable alternative à la console et, à terme, un tueur de plate-forme potentiel». Lors de nos tests, nous avons constaté que Stadia était très stable et permettait de jouer sur une gamme d'appareils – y compris Chromecast Ultra – ainsi que les flux de service 4K HDR.
Cela dit, il y a des problèmes précis ici, y compris que les joueurs hardcore ou compétitifs ne trouveront pas l'expérience Stadia acceptable par rapport à jouer sur une machine locale, et ceux qui ont des connexions à large bande plus lentes auront du mal. Vous avez besoin d'une connexion Internet très rapide (100 Mbps +) pour obtenir de bonnes performances, donc en quelque sorte, vous échangez les soucis concernant les spécifications matérielles contre les «spécifications» de votre connexion Internet.
Stadia a également été détruit par d'autres bogues de lancement, comme être plutôt limité dans sa bibliothèque de jeux et avoir des fonctionnalités manquantes. Mais dans l'ensemble, nous ne pouvons pas ignorer la promesse que le streaming de jeux montre (enfin) maintenant, en particulier alors que nous nous tournons vers un avenir de connexions haut débit plus rapides.
AI
L'intelligence artificielle (ou IA) est une autre technologie qui a été massivement développée au cours des dix dernières années. Et bien que beaucoup de ces progrès puissent impliquer des mentions sans fin de phrases comme « apprentissage machine '', « modèles de formation '' et « inférence '', qui peuvent bien menacer de vous plonger dans un sommeil profond (apprentissage), l'IA s'applique aux jeux ainsi qu'aux tout ce truc mortel et terne.
L'IA est un parapluie assez large, bien sûr, et accomplit toutes sortes de choses dans les jeux vidéo. Votre première pensée pourrait être sur l'IA régissant le comportement des PNJ (personnages non-joueurs) – nous discuterons des nuances impliquées là-bas – ou peut-être même des « bots '' pilotés par l'IA qui peuvent se présenter comme des concurrents si l'opposition humaine n'est pas disponibles (ou à des fins de formation).
Vous avez peut-être vu DeepMind faire les gros titres régulièrement ces derniers temps. La firme britannique a fait de grandes vagues lorsque son réseau de neurones AlphaGo a battu le champion sud-coréen Lee Se-dol lors du match de Go back en 2016. Plus récemment, un autre de ses programmes d'IA, AlphaStar, s'est révélé capable de battre 99,8% de tous les StarCraft humains. Joueurs II – atteignant le niveau supérieur du niveau «grand maître». Et puis nous avons eu des goûts du moteur OpenAI battant les champions du monde Dota 2…
Nous nous souvenons avoir été impressionné par l'IA dans Warcraft III, en 2002. Après avoir battu la campagne solo, engager un adversaire IA en multijoueur a entraîné une défaite rapide et une leçon brutale que nous étions loin d'être optimaux quand il est venu à notre base de construction et de stratégies de «rampement» (et que l'ordinateur était étonnamment bon; bien mieux que ce à quoi nous nous attendions).
Regarder où nous en sommes maintenant avec les moteurs d'IA renversant les meilleurs joueurs humains indique la possibilité d'un tout nouveau standard d'IA pour s'entraîner – ainsi ces côtelettes d'intelligence artificielle se répandront pour faire des PNJ beaucoup plus rusés ou évolués dans les goûts des campagnes solo?
Non, c'est la réponse courte à cela. En effet, ce que nous considérons généralement comme l'intelligence artificielle dans le jeu en solo n'est pas vraiment une véritable intelligence artificielle, comme DeepMind ou des chercheurs en apprentissage automatique. C'est plus un fudge, une illusion d'intelligence, avec des PNJ qui, certes, continuent de faire des décisions complexes – mais basées sur des arbres de comportement intelligemment conçus, par opposition à la «vraie» IA ou aux processus d'auto-apprentissage.
Comme le souligne un article éclairant de The Verge, les actions des PNJ nécessitent en fait un certain degré de prévisibilité, pour garantir que l'expérience narrative et globale du jeu se déroule dans le sens de ce que les développeurs ont en tête pour le joueur. Une véritable IA qui pourrait prendre toutes sortes de décisions étranges et merveilleuses de sa propre volonté rendrait le jeu beaucoup plus imprévisible, mais cela ne fournirait pas une expérience satisfaisante. Pour choisir un exemple de base, un PNJ peut décider de ne pas effectuer une action critique nécessaire au joueur pour terminer une quête.
En bref, le monde du jeu serait un endroit beaucoup plus chaotique, et cela pourrait ressembler beaucoup plus au monde réel – mais ce ne serait pas très amusant (et pourrait même casser le jeu).
The Verge suggère que plutôt que d'essayer de créer des PNJ libres dans les jeux, l'IA sera impliquée dans la conception de jeux automatisée, facilitant la création d'actifs ou de niveaux artistiques. Et finalement, dans une perspective plus large, une IA pourrait servir de « maître de jeux '' qui change les choses à la volée pour mieux convenir au joueur, et ce qu'elle prévoit qu'ils pourraient apprécier en fonction de ce qu'ils ont fait et de la façon dont les choses ont allé si loin.
Nous avons déjà vu l'intelligence artificielle déployer ses vrilles pour s'impliquer dans toutes sortes de facettes du monde du jeu. Par exemple, DeepMind vous aide maintenant à choisir les jeux – et les applications – que vous voudrez peut-être télécharger sur le Google Play Store.
L'intelligence artificielle aide également à remanier les graphismes des anciens jeux, avec des moddeurs utilisant la technologie pour améliorer les visuels des titres classiques à grande vitesse, comme donner à Morrowind une nouvelle couche de peinture.
À court terme, cependant, les joueurs compétitifs pourraient être les premiers à bénéficier de l'IA en termes de possibilités de formation que nous avons déjà mentionnées. Imaginez un « assistant de jeu '' de l'IA qui passe des données pendant que vous jouez à un jeu de tir, analyse chaque élément de votre style de jeu, le compare aux données recueillies par les meilleurs joueurs professionnels, et suggère des moyens que vous pourriez être meilleurs, ou signalant de mauvaises habitudes qui vous font tuer.
Et dans une perspective plus large, loin du multijoueur ou de l'e-sport, ce type d'analyse qui traverse toute une base de joueurs, peut-être couplé avec le maître des jeux d'IA susmentionné à la barre, pourrait inaugurer une sorte de jeu évolutif qui s'ajuste et se perfectionne constamment. temps.
En regardant les progrès de l'IA au cours de la dernière décennie, ce type d'expérience pourrait facilement être en préparation, et si ce n'est pas une perspective intrigante, nous ne savons pas ce qu'est (juste ne commencez pas à penser à la façon dont cela est , bien sûr, errant plus loin sur le chemin de la confidentialité de l'exploration de données).