Salon de la réalité augmentée: comment Panasonic l'a fait à distance avec AR

La réalité augmentée à la rescousse. L'annulation de NAB 2022-2023 en raison de la pandémie COVID-19 a envoyé des ondes de choc dans l'ensemble de l'industrie de la radiodiffusion. Organisé chaque année à Las Vegas, NAB Show est le plus grand salon professionnel de la diffusion avec plus de 90 000 participants de plus de 160 pays. La majorité des 1 600 exposants lancent de nouveaux produits et technologies et pour de nombreuses grandes entreprises, jusqu'à six mois de planification sont mis en place. Dans un laps de temps très court, l'équipe Panasonic Pro Video a dû trouver des alternatives pour faire passer son message tout en travaillant à distance depuis chez elle.

Audio + Vidéo + IT. Nos éditeurs sont des experts dans l'intégration de l'audio, de la vidéo et de l'informatique. Obtenez des informations quotidiennes, des actualités et un réseautage professionnel. Abonnez-vous à Pro AV aujourd'hui

Dans les jours qui ont précédé l’annulation du salon NAB, l’équipe de Panasonic a commencé à chercher des options pour organiser un événement de remplacement, y compris l’idée de construire un stand physique où les clients pourraient se rendre en ligne. L'équipe Panasonic Pro Video était également en discussion avec Paul Lacombe, PDG de DisruptAR, basé en Nouvelle-Angleterre, spécialisé dans la création de productions virtuelles. Ayant commencé sa carrière chez General Motors après l'université, Lacombe a travaillé dans l'industrie de la production pendant 30 ans, commençant chez Silicon Graphics à la fin des années 80 avant de s'aventurer seul pour poursuivre des productions virtuelles. DisruptAR se concentre sur la réduction des coûts de production AR et VR pour le marché plus large.

  • Infrastructure de streaming Esports Training Factory
  • Citizen Cope inaugure un espace de concert sécurisé Covid
  • Apprentissage à distance: comment faire fonctionner un orchestre à distance
  • Meilleures caméras PTZ pour la diffusion en direct

Le 16 mars, le New Jersey, où est basé le siège social américain de Panasonic, est officiellement entré en lock-out; le 18 mars, Lacombe a programmé la première démo de l'équipe Panasonic. Le NAB Show 2022-2023 a été annulé le 20 mars. "

Nous avons dû choisir très rapidement entre les deux options », révèle Harry Patel, directeur de l'ingénierie chez Panasonic. «La première option nécessitait de construire physiquement un stand, de faire entrer le produit tout en respectant les exigences de distanciation sociale (moins de 10 personnes à la fois) et de faire appel à une équipe de tournage. Ce n'était pas pratique et nous voulions faire quelque chose de meilleure qualité, même si nous ne pouvions pas quitter nos maisons. Donc, finalement, cette idée d'un événement virtuel a été discutée plus avant et a été approuvée à la fin du mois de mars.

Paul Lacombe de DisruptAR fait une démo virtuelle depuis son domicile en utilisant le protocole Free-D.

Réalité augmentée et production à distance

La production à distance n'est pas un nouveau concept. Le réalisateur Francis Ford Coppola a réalisé et monté de nombreuses scènes de son film de 1982, One From the Heart, à partir d'une bande-annonce près du plateau. Mais créer une production à distance de chez soi pendant une pandémie mondiale est une autre histoire. Cela n'a été possible qu'en utilisant une technologie de caméra de pointe, des moteurs de jeu VR et des applications basées sur le cloud.

Pour Panasonic, le premier objectif était de créer un message clair avec une communication verbale et écrite traduite dans un format vidéo plus visuel. Chez NAB, les vendeurs communiquaient généralement avec les clients du salon pour discuter des solutions aux problèmes de chacun. Le directeur du groupe marketing, Jim Wickizer, et l'agence P.R., Racepoint Global, ont été en mesure de proposer un message cohérent et ont travaillé avec des chefs de produit individuels pour présenter les bons points de discussion.

Patel et Wickizer ont également commencé à travailler avec Lacombe à distance depuis son home studio pour créer des interviews vidéo entre les chefs de produit et l'animatrice du studio, Zoe Laiz, qui devaient discuter de nouveaux produits et technologies. «Nous avons tous eu des environnements de production difficiles, mais faire cela à distance avec ce calendrier, c'était définitivement un acte de foi», explique Lacombe. «Dans mon instinct, je savais que cela pouvait fonctionner, mais ne jamais l'avoir fait auparavant était une préoccupation.»

Lacombe a converti son garage de 20 'x 24' en espace studio.

Pour l'enregistrement à distance, chaque chef de produit a reçu un ordinateur portable, un microphone USB Blue Yeti et une caméra PTZ professionnelle Panasonic AW-HE42 Full-HD. Le HE42 a été connecté via Ethernet et le pilote USB virtuel PTZ et la vidéo a été introduite dans l'ordinateur portable en utilisant OBS pour enregistrer et TeamViewer pour le contrôle à distance.

Réalité augmentée et équipes MS

Pour la communication, le partage de fichiers, la visualisation de démos et le suivi des tournages de production à distance, Panasonic a utilisé Microsoft Teams, une plate-forme de communication et de collaboration. Du jour au lendemain, des plateformes telles que Teams, Zoom, Ring Central et bien d'autres ont permis aux particuliers et aux entreprises de communiquer avec le monde extérieur en toute sécurité depuis leur domicile.

Pour voir ce que Lacombe capturait sur le plateau pendant la production, Patel a utilisé Teams Screen share pour créer un quadruple split en utilisant une sortie de commutateur AV-UHS500 vers un convertisseur SDI vers USB. Le flux USB a été présenté dans Windows comme un flux de caméra, qu'ils ont partagé via Teams.

Tout en supervisant l'enregistrement du discours d'ouverture de John Baisley, vice-président principal, imagerie professionnelle et systèmes visuels, par le biais de Teams, Patel et Wickizer ont pu voir le salon de Baisley en direct et fournir des directives, qu'il s'agisse d'une erreur de lecture de ligne, d'un changement d'arrière-plan ou d'un problème technique. problème de son. Grâce à Teams, Patel a également été en mesure de fournir une direction d'écran en observant à la fois les vues d'écran vert et de décors virtuels. «Si Zoey se tenait juste derrière une porte et entre, nous pouvions vraiment voir si le tir était bon ou non», explique Patel. «Je dirais à Paul par l’intermédiaire de Teams:« Cela pourrait fonctionner mieux si elle bougeait un peu comme il se doit. »En termes de collaboration à distance, je ne pense pas que cela aurait été possible sans l’utilisation de Teams.

Alors que le vice-président senior, Imagerie professionnelle et systèmes visuels John Baisley enregistrait ses remarques d'ouverture, l'équipe a pu voir le salon de Baisley en direct et fournir des directives via Microsoft Teams.

«C'était plutôt cool de faire cela à distance», ajoute Wickizer. «Nous avions une personne à Boston, Harry et moi étions chez nous dans le New Jersey et nous avions une autre personne sur la côte ouest. Ma fille est descendue une fois dans notre sous-sol et m'a demandé ce que je faisais. «Nous faisons une production à distance», lui ai-je dit. Elle ne pouvait vraiment pas y croire. "

Free-D et le moteur Unreal

Pour incorporer des studios de réalité virtuelle réalistes dans une production en direct, il est essentiel de capturer des données de positionnement de caméra précises. Avant de présenter sa première démo pour Panasonic, DisruptAR a développé un pilote Free-D qui permettrait à la caméra AW-UE150 4K Pro PTZ d'être branchée directement sur l'Unreal Engine, ce qui lui a permis de générer des informations Pan / Tilt / Zoom / Iris. via IP (UDP) directement de la caméra au système de suivi d'Unreal en direct sans avoir besoin de capteurs ou d'encodeurs supplémentaires.

«Free-D est venu de la BBC au début des années 90 en tant que protocole de suivi pour l'un de leurs systèmes de suivi par caméra», explique Lacombe. «Il définit les six degrés de liberté - panoramique, inclinaison, roulis, X, Y, Z, ainsi que le champ de vision, le zoom et la mise au point. Ces valeurs sont envoyées au moteur de rendu virtuel et connectées à une caméra virtuelle afin que votre arrière-plan réagisse en conséquence en temps réel à 60 images par seconde. »

Selon Lacombe, l'Unreal Engine a été utilisé à tous les niveaux dans de nombreuses productions - du Roi Lion au Mandalorien. «C'est la technologie sous-jacente utilisée par la plupart des Hollywood à l'heure actuelle», déclare Lacombe. «Ils l’utilisent pour la plupart comme proxy, mais l’objectif est le« pixel final », ce que vous voyez apparaître en temps réel sur l’écran.»

Le protocole Free-D définit les six degrés de liberté - panoramique, inclinaison, roulis XYZ, ainsi que le champ de vision, le zoom et la mise au point.

«L'Unreal Engine est un moteur de jeu qui a été appliqué dans d'autres marchés, y compris l'architecture, la visualisation CAO et dans ce cas, la diffusion et le cinéma», explique Lacombe. «Nous l'utilisons pour atteindre le plus haut niveau de photoréalisme, en utilisant des ressources d'outils DCC traditionnels tels que Maya, 3D Studio Max, Blender, en utilisant des cartes graphiques NVIDIA à 60 images par seconde, offrant aux téléspectateurs la fidélité des caractéristiques de l'objectif comme floraison, fusées éclairantes et défocalisation. La qualité dont vous avez besoin pour obtenir le photoréalisme et le rendu à 60 images par seconde est essentiellement ce que fait l'Unreal Engine. »

Créer un monde virtuel… dans un garage

L’atelier de Lacombe se trouve dans son garage reconverti qui ne mesure que 20 x 24 et son équipe se compose d’un seul assistant. Pour l'écran vert, il a utilisé un fond Pro Cyc Portable. En raison des limitations d'espace, Laiz ne pouvait marcher que quelques pas, donc ils étaient limités sur les caméras, faisant de l'AW-UE150 l'outil parfait pour le travail. Pour éclairer son écran vert, Lacombe a utilisé des panneaux LED de 14 pouces. «L'idée est que vous voulez vraiment avoir une nuance de vert et vous débarrasser de toutes les taches pour que votre manipulateur puisse garder ces ombres», explique Lacombe. "Vous choisissez un vert que vous souhaitez masquer et les verts plus foncés sont les ombres superposées dans votre décor virtuel."

Même s'il travaillait dans les petits espaces de son garage, il devait éclairer son talent avec la lumière motivée d'un grand studio. Pour éclairer Laiz, Lacombe a utilisé deux panneaux LED pour sa clé et son remplissage. Il a également utilisé quelques projecteurs d'en haut pour simuler une lumière rougeâtre provenant des fenêtres. «Fondamentalement, nous essayons de faire correspondre cette direction et cette température de couleur sans affecter l'écran vert», révèle Lacombe. «C'est un défi parce que vous essayez d'éclairer le talent séparément de l'écran vert. Les portes de la grange sur ces LED nous laissaient plus d'espace, mais nous nous battions pour nous éloigner du vert et obtenir un rebond minimal du vert sur ses vêtements et sa peau.

Sur le plateau, Lacombe a utilisé deux caméras UE150 - la caméra 1 était à gauche et la caméra 2 à droite.

Sur le plateau, Lacombe a utilisé deux caméras UE150: la caméra 1 était à gauche et la caméra 2 à droite. Lorsque Zoe faisait son tour pour faire face à un chef de produit vu sur un moniteur vertical, il passait à la deuxième caméra au niveau des yeux de Laiz pour obtenir le point de vue simulé du chef de produit. Faire correspondre les lignes oculaires est un défi, mais Lacombe dit qu'il pourrait le tromper un peu en sachant où était sa position à domicile établie. «Si vous aviez deux caméras, l'une était à 90 degrés par rapport à l'autre à huit pieds de distance et l'autre à quatre pieds de distance, vous pouvez mesurer avec un ruban à mesurer et les placer dans le monde virtuel dans la même position. Ils adhéreront les uns aux autres à travers les lois de la physique afin qu'ils aient l'air d'être dans cette position exacte. Et puis vous pouvez tricher un peu en respectant ces règles. "

Conception de production en un clic

Pour la conception de l'ensemble virtuel, Lacombe a utilisé une conception modifiée avec laquelle il travaillait avec un autre client l'année dernière. La conception a été réalisée dans Maya et exportée dans Unreal. Comme le décor virtuel se déroule la nuit, ils avaient d'abord un aspect plus sombre, mais ils ont ensuite décidé de le rendre un peu plus brillant. Il a ajouté le logo Panasonic et a retiré des éléments qui n'étaient pas essentiels pour l'ensemble Panasonic. Il a également ajouté un moniteur qui sort du sol que Laiz sort de derrière.

En créant votre propre décor virtuel, selon Lacombe, il y a plus d'actifs 3D disponibles depuis que la visualisation architecturale en ligne a vraiment pris son envol. Vous pouvez accéder à une bibliothèque 3D et trouver des actifs ou des modèles 3D et les construire en fonction de vos besoins de personnalisation. «C’est vraiment un va-et-vient avec le client», explique Lacombe. «Vous ajoutez vos composants marketing, votre image de marque, toutes les couleurs et tous les matériaux. Une fois que vous avez l'actif là-dedans, vous pouvez abattre les murs avec un bouton, cliquer ou déplacer des objets, ajuster les moniteurs en temps réel. Dans le «monde physique», cela prendrait beaucoup de temps et d'argent. Une fois que vous avez construit l'objet, il est facile de l'ajuster et d'y revenir. »

L'animatrice Zoe Laiz interviewe le chef de produit principal Steve Cooperman à propos de la création de nouvelles et de contenu.

Garder une distance de sécurité

La production virtuelle a évolué au fil des décennies grâce à l'expérience et au raffinement. Bien que les rôles d'une production physique et d'une production virtuelle soient essentiellement les mêmes, la plus grande différence est que tout le monde travaille dans le même espace physique. Une fois l'ordonnance sur le maintien à la maison levée, la question de savoir si la véritable production à distance deviendra la norme reste à déterminer.

«Il y a une raison pour laquelle vous avez quelqu'un qui regarde la clé, quelqu'un qui regarde le scénario, quelqu'un qui regarde les angles de caméra et la garde-robe», dit Lacombe. Tous ces rôles doivent encore être remplis et nous essayons simplement de trouver la meilleure façon de le faire à distance. Jusqu'à présent, cela a très bien fonctionné et nous sommes tous surpris de la façon dont cela s'est mis en place si rapidement et a évolué de manière naturelle. Bien que nous ayons dû porter plus de chapeaux que nous ne l'aurions souhaité pour cette production, la prochaine étape logique consiste à distribuer encore plus ce chapeau pour que d'autres personnes soient impliquées pour affiner et améliorer le processus. Mais pour la première fois, je suis très satisfait des résultats et j'ai hâte de passer à l'étape suivante. "

Pour regarder l'événement virtuel de Panasonic, L'avenir de la production vidéo , cliquez ici.

Pour plus d'informations sur DisruptAR, visitez www.disruptar.com.

Articles intéressants...