Un E3 2021 décevant ? C’était gravé dans la roche.

Paresseux Scribouillard
11 min readJul 6, 2021

Pour la 2 ème année consécutive, il n’y aura pas eu de grand-messe du jeu vidéo. L’E3 était un symbole de l’industrie du jeu vidéo — alors qu’il n’est plus le plus grand depuis de nombreuses années (la Gamescom de Cologne l’avait dépassé depuis un moment) et alors que l’ESA, association des éditeurs est de plus en plus contestée au fil des années.

Mais l’évènement restait un incontournable, un évènement similaire en ampleur à une grand compétition sportive permettant pendant une semaine en juin de porter l’attention mondiale sur LE salon du jeu vidéo à Los Angeles.

Le bilan de 2020 ? Des mois de retard dans tous les studios majeurs

Pris de court par la pandémie en 2020, on avait assisté à une multiplication des évènements en ligne pour prendre sa place (certains nouveaux comme le Summer Game Fest, Guerilla Collective, d’autres déjà existants comme le PC Gaming Show).

L’absence de l’E3 2020 avait vu émerger plus de conférences en ligne, diluant l’E3 dans de nombreuses conférences pas toutes passionnantes.

En 2021, bien que la situation ne permette pas encore un retour au physique, l’E3 allait revenir, c’était sûr. Et avec lui la ferveur des joueurs, des éditeurs et même des développeurs content de pouvoir bénéficier d’un grand coup de projecteur sur des projets dans lesquels ils ont investi des années de leur vie.

Seulement, pour beaucoup, l’E3 2021 à déçu. Pas assez d’annonces “megaton”, pas assez de surprises, un manque de la “magie” caractérisant la période. Bref, quelque chose de manquant. Ce n’est pas mon avis personnel. Mais c’est un discours que l’on a beaucoup entendu et je voulais donc m’y intéresser, en apportant un éclairage différent. Et une des raisons est évidemment à chercher du côté de la situation de notre monde ces 18 derniers mois.

Entre la réouverture très partielle (et peut-être bientôt écourtée) des studios, l’indisponibilité durant des mois des procédés de motion capture/performance capture, une collaboration évidemment plus compliquée, l’absence d’accès à certains matériels… et la difficile cohabitation de la vie personnelle et professionnelle, il y a déjà un nombre suffisant de raisons pour expliquer la tenue d’un E3 pas à la hauteur des attentes.

Les propos d’Hiroki Totoki, directeur financier de Sony sur la situation de pénurie de semi-conducteurs affectant la disponibilité de la PS5. Traduction des propos rapportés par The Verge.

Mais au regard des choix des différents constructeurs sur les 10 dernières années, je pense pouvoir affirmer sans trop de problèmes que même sans pandémie ni pénurie de semi-conducteurs (vous pouvez vous abonner à ma newsletter ChipS qui s’intéresse à ce sujet précis), cet E3 2021 aurait tout de même été perçu comme “décevant”. Explorons donc un peu plus avant cela.

Un E3 décevant comme conséquence logique des choix de la génération précédente : “There’s no such thing as a free lunch”

Comme souvent, il est facile d’oublier les compromis nécessaires pour la production de produits électronique destinés au grand public. On pourrait même dire que, de tout temps l’homme à dû faire des choix dans le design de ses consoles de jeu vidéo.

La fin de la génération Xbox 360 et PS3 représente un tournant à ce titre. Il faut se rappeler de plusieurs choses propres au contexte de cette époque. Déjà la montée stratosphérique des smartphones, et avec eux le jeu mobile. Certains prophétisent d’ailleurs la fin du jeu vidéo “classique” sur consoles tel qu’il existe alors depuis plus de 30 ans. Et les succès des jeux de Zynga tels Farmville, ou Rovio avec Angry Birds et autres ne sont pas de bons signes.

Rappelons qu’au début des années 2010, même Miyamoto adoubait le jeu mobile, déclarant apprécier Angry Birds par exemple.

C’est d’autant plus vrai que les coûts de production des jeux augmentent de manière stratosphérique, les éditeurs de taille moyenne ont énormément de mal à suivre, notamment au Japon (coucou Konami, à part MGS V en 2014 et PES, aucune nouvelle licence forte depuis… El Shaddai en 2011 ou Neverdead en 2012. Une décennie de pachi-slot et de jeux mobiles.) Il n’est pas rare à l’époque de lire des articles qui sonnent comme des discours d’enterrement.

Les architectures exotiques de la PS3 et de la 360 ont laissé sur la paille un nombre de partenaires, avec divers challenges (les pertes colossales de Sony sur le CELL, Microsoft et la gestion du RROD…). Personne n’a envie de se ruiner à développer de nouveau une architecture qui ne sera utilisée que quelques années, et ce alors que Nintendo vient alors de le prouver avec la Wii et la DS : on peut faire un montant absolument ahurissant de pognon avec une console à l’architecture ayant des années de retard.

Rajoutons par-dessus tout ça sur les grands groupes que sont Microsoft et Sony le poids de la crise financière de 2008 qui est passé par là (surtout valable pour Sony et les grands groupes japonais d’ailleurs) : l’époque n’est plus vraiment à la dépense inconsidérée comme au début des années 2000.

Pour Sony (en vue de se racheter auprès des développeurs) comme pour Microsoft (en vue d’éviter un nouveau RROD et de rationaliser ses dépenses) il est donc temps de se diriger vers une architecture de console peu chère, bien connue par les développeurs, et bénéficiant d’un support logiciel et hardware sans commune mesure dans le monde électronique : le PC et le jeu d’instruction x86.

“Je vous ai compris” semblait dire Mark Cerny aux studios partenaires lors de l’annonce de la PlayStation 4 en février 2013. Fini les architectures exotiques comme le Cell.

Bref, les consoliers ont fait le choix de faire de leur prochaine génération des PC, avec des composants un peu modifiés, et surtout une ribambelle d’outils logiciels en vue d’attirer plus de développeurs alors que le jeu mobile prend son essor.

Non, ce qui nous intéresse ici c’est la conséquence de ces choix hardware.

L’adoption du x86 et des composants PC à de sacrés avantages : la compatibilité avec les générations futures est de fait assuré, c’est même la plus grande force de tout cet écosystème depuis les années 80 dans le monde PC. C’est aussi l’assurance de ne pas dépenser des milliards dans la conception de processeurs, il suffit d’aller voir AMD (alors dans une bien piètre santé financière, qui devra une grande partie de sa survie à la popularité de ces consoles d’ailleurs) pour disposer d’une base à un prix permettant aux constructeurs de faire une marge bénéficiaire dès le 1er jour de lancement de la PlayStation 4 / Xbox One.

Die shot (un plan de l’intérieur de la puce) pour la PS4 à gauche, ainsi que la Xbox One à droite.

Cela à tout de même des inconvénients qu’il ne faut pas négliger : déjà, c’est la fin de la souveraineté matérielle permettant de proposer des fonctionnalités matérielles vues nulle part ailleurs, ce qui avait pendant longtemps fait la force des consoles.

On pensera au mode Super-7 de la Super Nintendo dans les années 90, complètement impensable sur des PC abordables à l’époque, qui coûtaient de toutes façons des milliers de francs. Ou bien à la bande passante disponible directement pour la partie graphique de la PS2 — “Graphics Synthethizer”— supérieure à celle de la partie graphique Nvidia présente sur la PS3 et permettant certains effets comme le brouillard dans Silent Hill 2, effet uniquement disponible depuis peu sur PC).

Le Graphics Synthesizer, partie graphique de la PlayStation 2 était un monstre de bande passante, permettant des effets possibles nulle part ailleurs au prix d’une console.

Mais surtout, c’est un aller simple, sans retour vers une adoption toujours plus proche du modèle PC, et donc une importance toujours plus importante du software sur le hardware. Avec la disparition de réels sauts de génération, pour une approche bien plus itérative, à mesure que de nouveaux outils et de nouvelles pratiques émergent.

C’était déjà visible au début de la génération PS4, avec le portage amélioré de The Last Of Us Remastered qui fait plus que doubler le nombre d’images par secondes, d’un 30 images par secondes rarement atteint, on atteint le 60 fps sans trop de soucis. Mais la qualité d’image n’est pas fondamentalement différente de la version PS3 sortie l’année précédente.

Tout au long de cette génération on verra des outils et des techniques dicter l’amélioration des titres, comme la généralisation des résolutions dynamiques ou bien l’apparition du “checkerboarding” — une technique permettant de ne pas rendre complètement une image en 4K mais sans que cela soit immédiatement visible, et qui sera une des idées au cœur de la PS4 Pro.

Les différents modes de rendu graphique possibles sur la PS4 Pro.

D’un point de vue commercial, la génération PS4 est un succès colossal et au lancement de la PS5, le principal défi de Sony est surtout de répéter le miracle et faire frapper 2 fois la foudre au même endroit comme je l’écrivais fin 2020 dans ce long format.

A ce titre, et vu le coût de design de la PS4 / Xbox One probablement bien inférieurs à celui de la PS3/Xbox 360, on peut d’ailleurs se demander si même avec les supposés “seulement” 50 millions de consoles Xbox One (toutes versions confondues), Microsoft ne s’en sort pas mieux financièrement qu’à la fin de la génération 360.

La bataille médiatique est clairement perdue, mais il n’est pas dit que du côté des revenus (avec l’apparition des free to play tels que Fortnite et la montagne colossale d’argent généré…) la situation soit la même.

La conséquence principale du succès de cette génération à donc été l’adoption renouvelée d’une architecture x86 pour les machines de nouvelle génération que ce soit pour la PS5 ou bien les Xbox Series.

Comme sur PC, on assiste alors à une approche plus itérative, et non pas à un saut générationnel comme on pouvait le constater auparavant. Il est évident que le type de saut entre la génération PS1 et PS2 ne sera jamais reproductible. Et si la génération PS3/360 à pu un temps faire illusion, c’était uniquement de par le passage à la HD, passage coûteux qui ne sera que totalement réalisé sur la génération PS4.

Bien que cela soit une réalité technique indiscutable, c’est un réel challenge pour les départements marketing des constructeurs.

Cela s’est vu dans différents domaines et on pourrait parler de la communication autour du “SSD magique” de Sony par exemple. Mais je voulais me pencher plus spécialement de la partie graphique des machines, revenons à l’annonce de la PS4 Pro. L’architecte en chef Mark Cerny parle d’avoir conçu la machine avec la rétrocompatibilité en tête, c’est une manière diplomatique de répondre aux nouvelles contraintes qui sont les siennes.

La PS4 possède 18 unités de calcul graphiques. La PS4 Pro double ceci à 36 unités de calcul. Or, la PS5 dispose également des mêmes 36 unités de calcul, bien que cadencés bien plus haut et issus d’une architecture GPU plus récente (RDNA2 pour la PS5 versus GCN pour la PS4).

Sur ce die shot (plan interne de la puce) de la PS4 Pro on distingue bien les coeurs CPU à gauche, et les unités de calcul GPU à droite. Au nombre de 18 sur PS4, celles-ci doublent pour atteindre 36 unités sur la PS4 Pro.

Un choix nécessaire pour faire correspondre de manière hardware les 2 parties graphiques de PS4 à PS5 de la manière la plus simple et transparente sans aucune aide logicielle. Et ce parce que Sony n’a rien développé en ce sens et doit donc s’assurer de la compatibilité matérielle totale avec la PS4.

Il faut se rappeler qu’à la fin l’ère Sony ne souhaite pas investir dans la rétrocompatibilité et se distancer le plus possible et le plus vite du Cell et de la PS3. Même la PS2 n’aura le droit qu’à de très rares apparitions sur PS4 avec divers problèmes (format d’image, bug d’affichage, framerate clairement pas fabuleux…) montrant que le groupe japonais n’a aucun intérêt pour ses vieilles plateformes.

D’ailleurs qui voudrait jouer à “ces vieux jeux, à ces vieux trucs qui sont de véritables antiquités” selon le dirigeant actuel de PlayStation.

Dès lors, puisque la PS4 à été un succès absolument considérable, que ces jeux sont parfaitement compatibles sur PS5… quel intérêt pour un éditeur tiers d’investir massivement dès le lancement ? Sur une plateforme de toute façon pas assez disponible pour satisfaire la demande ?

Quel est l’intérêt pour un Ubisoft, un Bethesda (avant son acquisition par Microsoft), un Electronic Arts ou un Activision de fournir des titres next-gen demandant plus que le minimum alors que concevoir des versions PS4 avec quelques apports next-gen leur permettra de faire coup double en rentabilisant un peu plus la plateforme PS4 ?

Les contrats d’exclusivité tels que ceux conclus avec Bethesda pour Deathloop ou avec Square pour FF 16 sont à lire dans ce sens. Non seulement il s’agit de proposer un catalogue différenciant vis-à-vis de Microsoft, mais surtout, il s’agit de convaincre les éditeurs de passer à la nouvelle génération. Cela inclue donc de sortir le chéquier pour les pousser à passer à la nouvelle génération.

Dans une publicité pour le marché brésilien début 2021, Sony mettait en avant ses partenariats avec des éditeurs tiers. Depuis, Godfall à également été annoncé comme arrivant sur PS4, et il est presque sûr que Deathloop et Ghostwire Tokyo, nouvelles licences de Bethesda acquis en 2020 par Microsoft arriveront dans l’ecosystème Xbox une fois la préiode d’exclusivité passée.

La réalité de la 1ère moitié de 2021 est d’ailleurs tout à fait conforme à cela : hormis les exclusivités de Sony, qui à tout intérêt à essayer de pousser sa console de nouvelle génération, on ne voit pas de projet d’éditeurs tiers qui se précipite pour ne sortir que sur PS5. Et c’est sans même compter sur le rôle de la scène indépendante, encore plus importante qu’au lancement de la génération PS4.

On risque donc d’avoir une période crossgen fortement étendue, non seulement par la pandémie, la pénurie de semi-conducteurs, mais aussi et surtout parce que Sony à fait le choix il y a presque 10 ans d’adopter une architecture plus proche du PC. Qui à entre autres pour conséquences que les éditeurs tiers n’ont aucun intérêt à se ruer sur sa nouvelle machine, puisque de toutes façons la base installée de la PS4 est énorme (plus de 120 millions) et que ces titres sont de facto compatibles avec la PS5.

C’est pour ces raisons que dès la conception de la PS4 comme machine plus proche du PC avec le jeu d’instruction x86, et plus encore dès que son succès était acté entre 2013 et 2016, il était évident et acquis que le premier E3 de la prochaine génération de consoles serait décevant.

Comment ne pourrait-il pas l’être alors que les éditeurs n’ont absolument aucune raison de proposer pour le moment des productions coûtant des montants faramineux alors que la base installée de la génération précédente se compte en centaine de millions ?

Une situation anticipée et annoncée telle quelle dès 2019 chez Microsoft, mais qui est aujourd’hui le lot des 2 constructeurs.

L’annonce, presque comme un aveu, de la nature crossgen de Horizon : Forbidden West, God of War Ragnarok ou bien Gran Turismo 7 n’en est que la dernière preuve. Sony lui-même est bien obligé de reconnaître qu’il n’a que très peu d’intérêt de tout miser sur la PS5 avant probablement… 2023 ?

God of War : Ragnarok et GT7 annoncés comme des exclusivités PS5 durant l’annonce de la console par Sony l’année dernière ne seront au final pas si exclusifs. Une décision tout à fait logique d’un point de vue business.

Comme le cher Gautoz l’indiquait après ces annonces, cela valait bien la peine de passer des mois entiers à vanter la puissance de la next-gen et la libération créatrice que représenterait le “SSD magique”…

--

--

Paresseux Scribouillard

Parce que des fois, j’aime écrire plus long qu’un tweet