L’intégration de l’intelligence artificielle dans l’animation de visages est devenue essentielle pour diverses applications, qu’il s’agisse d’animation 3D ou 2D. L’un des outils clés pour réaliser cette tâche est le Thin-Plate-Spline-Motion-Model. Cependant, l’installation de ce programme sur Windows peut être délicate en raison de diverses dépendances et configurations. Dans ce guide, nous allons décomposer le processus d’installation et vous fournir les étapes nécessaires pour réussir.
Tout d’abord, vous devez cloner le dépôt Thin-Plate-Spline-Motion-Model à partir de GitHub. Utilisez la commande suivante dans votre terminal :
git clone https://github.com/yoyo-nb/Thin-Plate-Spline-Motion-Model.git
Si vous ne souhaitez pas utiliser Git, vous pouvez également télécharger le dépôt au format zip depuis la page GitHub en cliquant sur le bouton « Code » et en sélectionnant « Download ZIP ». Une fois le téléchargement terminé, extrayez le contenu du fichier zip dans un répertoire de votre choix et accédez à ce répertoire via votre terminal :
cd ./Thin-Plate-Spline-Motion-Model
Pour installer et exécuter le Thin-Plate-Spline-Motion-Model, vous devez disposer d’un environnement Python 3.8. Nous vous recommandons d’utiliser Conda pour gérer cet environnement. Si vous ne l’avez pas déjà installé, référez-vous aux instructions fournies dans le lien suivant pour installer Conda de manière portable.
Une fois Conda installé, vous pouvez créer un nouvel environnement avec Python 3.8 à l’aide de la commande suivante, où vous spécifiez le chemin du répertoire dans lequel vous souhaitez créer cet environnement :
conda create --prefix ./env python=3.8
Après avoir créé l’environnement, activez-le en utilisant la commande Conda suivante :
conda activate env
Assurez-vous que l’environnement est correctement activé en vérifiant la version de Python :
python -V
Dans l’environnement virtuel avec Python 3.8 activé, vous pouvez maintenant installer les dépendances requises à partir du fichier requirements.txt
fourni avec le dépôt. Utilisez la commande suivante pour effectuer l’installation :
pip install -r requirements.txt
Une fois les dépendances installées, vous devez télécharger le modèle pré-entraîné à partir du dépôt Thin-Plate-Spline-Motion-Model sur GitHub. Rendez-vous sur la page GitHub du projet et accédez à la section « Pre-trained models ». Choisissez le modèle « vox.pht.tar » et téléchargez-le. Ensuite, déplacez le fichier téléchargé dans le dossier « checkpoints » de votre répertoire local.
Avant de tester le fonctionnement du script, assurez-vous de modifier le fichier demo.py
. Allez à la ligne 162 et ajoutez la ligne suivante :
device = torch.device('cpu') # <- modification
Cela permettra de forcer l’utilisation du CPU au lieu de CUDA, ce qui est nécessaire si vous n’avez pas installé PyTorch avec une version compilée de CUDA. N’oubliez pas de le retirer le jour où vous utiliser cuda.
Une fois cette modification effectuée, vous pouvez tester le script de démo en exécutant la commande suivante dans votre terminal :
python demo.py --config config/vox-256.yaml --checkpoint checkpoints/vox.pht.tar --source_image ./assets/source.png --driving_video ./assets/driving.mp4
Ce script générera un fichier result.mp4
à la racine de votre dépôt. Veuillez noter que cette opération peut prendre un certain temps en fonction de la puissance de votre matériel.
Félicitations ! Si le script s’exécute sans erreur, vous avez réussi à installer et à utiliser le Thin-Plate-Spline-Motion-Model sur Windows. Vous êtes maintenant prêt à explorer ses fonctionnalités pour animer des visages.
Pour les utilisateurs possédant une carte graphique NVIDIA, exploiter la puissance de CUDA peut considérablement accélérer les performances de calcul lors de l’exécution de modèles d’intelligence artificielle. Cette section vous guidera à travers le processus d’installation de PyTorch avec la prise en charge de CUDA.
Rendez-vous sur le site officiel de PyTorch à l’adresse suivante : https://pytorch.org/.
Faites défiler vers le bas jusqu’à ce que vous trouviez un tableau indiquant différentes versions de PyTorch. Sélectionnez « Previous version of PyTorch », car le dépôt que nous utilisons est basé sur une version antérieure de PyTorch afin d’éviter les conflits.
Dans la section « cu113 », copiez la ligne de commande suivante :
pip install torch==1.12.1+cu113 torchvision==0.13.1+cu113 torchaudio==0.12.1 --extra-index-url https://download.pytorch.org/whl/cu113
Collez cette commande dans votre terminal pour installer PyTorch avec CUDA. Assurez-vous d’activer votre environnement virtuel avant d’exécuter cette commande.
Après avoir installé PyTorch avec CUDA, retournez dans le fichier demo.py
. Assurez-vous de supprimer la ligne que nous avons ajoutée précédemment pour forcer l’utilisation du mode CPU. Recherchez la ligne 165 dans le fichier demo.py
et supprimez-la.
Maintenant que vous avez configuré PyTorch avec CUDA et ajusté le script de démo, vous pouvez réexécuter la même commande de démo pour tester les performances avec CUDA :
python demo.py --config config/vox-256.yaml --checkpoint checkpoints/vox.pht.tar --source_image ./assets/source.png --driving_video ./assets/driginv.mp4
Si tout fonctionne correctement, félicitations ! Vous pouvez désormais profiter pleinement de la puissance de calcul de votre carte graphique NVIDIA grâce à CUDA. Vous remarquerez une nette amélioration des performances lors de l’exécution du Thin-Plate-Spline-Motion-Model.