Krillin AI est une solution tout-en-un pour la localisation et l'amélioration simplifiée de vidéos. Cet outil minimaliste mais puissant gère tout : traduction, doublage, clonage vocal, et reformatage – convertissant facilement les vidéos entre formats paysage et portrait pour un affichage optimal sur toutes les plateformes (YouTube, TikTok, Bilibili, Douyin, WeChat Channel, RedNote, Kuaishou). Avec son workflow intégré, Krillin AI transforme des vidéos brutes en contenu professionnel en quelques clics.
🎯 Lancement Instantané - Démarrez votre workflow en un clic. Nouvelle version bureau plus intuitive !
📥 Téléchargement Vidéo - Prise en charge d'yt-dlp et des fichiers locaux
📜 Sous-titres Précis - Reconnaissance haute précision via Whisper
🧠 Segmentation Intelligente - Découpage des sous-titres par IA (LLM)
🌍 Traduction Professionnelle - Traduction cohérente par paragraphes
🔄 Remplacement de Termes - Échange de vocabulaire spécialisé en un clic
🎙️ Doublage et Clonage Vocal - Sélection de voix CosyVoice ou clonage
🎬 Composition Vidéo - Formatage automatique paysage/portrait
L'image ci-dessous montre le résultat après insertion automatique des sous-titres générés pour une vidéo locale de 46 minutes (sans ajustement manuel). Aucun sous-titre manquant ou chevauchant, une segmentation naturelle et une traduction de qualité.
subtitle_translation.mp4 |
tts.mp4 |
agi.mp4 |
Tous les modèles locaux dans le tableau ci-dessous prennent en charge l'installation automatique des fichiers exécutables + fichiers de modèle. Il vous suffit de faire votre sélection, et KrillinAI s'occupera du reste.
Service | Plateformes supportées | Options de modèle | Local/Cloud | Remarques |
---|---|---|---|---|
OpenAI Whisper | Multi-plateforme | - | Cloud | Rapide avec d'excellents résultats |
FasterWhisper | Windows/Linux | tiny /medium /large-v2 (recommandé medium+) |
Local | Vitesse accrue, pas de surcharge de service cloud |
WhisperKit | macOS (Apple Silicon uniquement) | large-v2 |
Local | Optimisation native pour puces Apple |
Alibaba Cloud ASR | Multi-plateforme | - | Cloud | Contourne les problèmes réseau en Chine continentale |
✅ Compatible avec tous les services cloud/locaux compatibles avec l'API OpenAI, y compris mais sans s'y limiter :
- OpenAI
- DeepSeek
- Qwen (Tongyi Qianwen)
- Modèles open source auto-hébergés
- Autres services API compatibles avec le format OpenAI
Langues d'entrée : Chinois, Anglais, Japonais, Allemand, Turc (autres en cours d'ajout)
Langues de traduction : 101 langues dont Anglais, Chinois, Russe, Espagnol, Français, etc.
Téléchargez d'abord le fichier exécutable de la version Release correspondant à votre système. Suivez les instructions ci-dessous pour choisir entre la version bureau ou standard, puis placez le logiciel dans un dossier vide. L'exécution du programme générera des répertoires supplémentaires - un dossier vide facilite la gestion.
[Pour la version bureau (fichiers avec "desktop" dans le nom)]
La version bureau est une nouveauté conçue pour simplifier la configuration (sans éditer de fichiers). Elle contient encore quelques bugs et est mise à jour régulièrement.
Double-cliquez sur le fichier pour l'utiliser.
[Pour la version standard (fichiers sans "desktop" dans le nom), voir ici]
La version standard est la publication originale, offrant une configuration plus complexe mais une fonctionnalité stable. Elle convient également au déploiement sur serveur grâce à son interface web.
Créez un dossier config
dans le répertoire, puis créez un fichier config.toml
à l'intérieur. Copiez le contenu du fichier config-example.toml
du dossier config
du code source dans votre config.toml
et remplissez les détails de configuration. (Si vous souhaitez utiliser les modèles OpenAI mais ne savez pas comment obtenir une clé, vous pouvez rejoindre le groupe pour un accès d'essai gratuit.)
Double-cliquez sur l'exécutable ou exécutez-le dans le terminal pour démarrer le service.
Ouvrez votre navigateur et entrez http://127.0.0.1:8888 pour commencer à l'utiliser. (Remplacez 8888 par le numéro de port que vous avez spécifié dans le fichier config.)
[Pour la version bureau (fichiers avec "desktop" dans le nom), voir ici]
La méthode actuelle d'empaquetage ne permet pas d'exécution par double-clic ni d'installation via DMG en raison de problèmes de signature. Une configuration manuelle de confiance est nécessaire :
-
Ouvrez dans le Terminal le répertoire contenant le fichier exécutable (nommé par exemple KrillinAI_1.0.0_desktop_macOS_arm64)
-
Exécutez les commandes suivantes dans l'ordre :
sudo xattr -cr ./KrillinAI_1.0.0_desktop_macOS_arm64
sudo chmod +x ./KrillinAI_1.0.0_desktop_macOS_arm64
./KrillinAI_1.0.0_desktop_macOS_arm64
[Pour la version standard (fichiers sans "desktop" dans le nom), voir ici]
Ce logiciel n'est pas signé. Après avoir complété la configuration des fichiers comme décrit dans les "Étapes de base", vous devrez approuver manuellement l'application sur macOS. Procédez comme suit :
- Ouvrez le terminal et accédez au répertoire contenant le fichier exécutable (par exemple
KrillinAI_1.0.0_macOS_arm64
) - Exécutez les commandes suivantes dans l'ordre :
sudo xattr -rd com.apple.quarantine ./KrillinAI_1.0.0_macOS_arm64
sudo chmod +x ./KrillinAI_1.0.0_macOS_arm64
./KrillinAI_1.0.0_macOS_arm64
Cela démarrera le service.
Consultez le Docker Deployment Instructions.
En cas d'échec de téléchargement, suivez le Cookie Configuration Instructions .
La méthode de configuration la plus rapide et pratique :
- Sélectionnez
openai
pourtranscription_provider
etllm_provider
. Ainsi, vous n'aurez qu'à renseigneropenai.apikey
dans les trois catégories de configuration principales (openai
,local_model
, etaliyun
) pour effectuer la traduction de sous-titres. (Complétezapp.proxy
,model
etopenai.base_url
selon votre situation.)
Méthode utilisant le modèle local de reconnaissance vocale (non supporté sur macOS pour le moment) (optimisant coût, vitesse et qualité) :
- Utilisez
fasterwhisper
pourtranscription_provider
etopenai
pourllm_provider
. Vous devrez alors renseigneropenai.apikey
etlocal_model.faster_whisper
dans les catégoriesopenai
etlocal_model
. Le modèle local sera téléchargé automatiquement. (app.proxy
etopenai.base_url
restent configurables comme mentionné ci-dessus.)
Cas nécessitant la configuration d'Alibaba Cloud :
- Si
llm_provider
est défini suraliyun
, le service de grands modèles d'Alibaba Cloud sera utilisé. Configurez alorsaliyun.bailian
. - Si
transcription_provider
est suraliyun
ou si la fonction "doublage vocal" est activée, le service vocal d'Alibaba Cloud sera utilisé. Configurezaliyun.speech
. - Si le "doublage vocal" est activé avec clonage de timbre vocal via fichiers audio locaux, le service OSS d'Alibaba Cloud sera aussi utilisé. Configurez alors
aliyun.oss
. Guide : Instructions de configuration Alibaba Cloud
Consultez la FAQ (Foire Aux Questions)
- Ne soumettez pas de fichiers inutiles comme
.vscode
,.idea
, etc. Utilisez correctement le fichier.gitignore
pour les exclure. - Ne soumettez pas
config.toml
; soumettez plutôtconfig-example.toml
.