Skip to content

Latest commit

 

History

History
173 lines (115 loc) · 10.1 KB

README_fr.md

File metadata and controls

173 lines (115 loc) · 10.1 KB
KrillinAI

Outil de Traduction et Doublage Audio/Video par IA

krillinai%2FKrillinAI | Trendshift

English简体中文日本語한국어Tiếng ViệtFrançaisDeutschEspañolPortuguêsРусскийاللغة العربية

Twitter Discord Bilibili

📢 Nouvelle Version Bureau pour Windows & Mac – Testez et Donnez Votre Avis

Présentation

Krillin AI est une solution tout-en-un pour la localisation et l'amélioration simplifiée de vidéos. Cet outil minimaliste mais puissant gère tout : traduction, doublage, clonage vocal, et reformatage – convertissant facilement les vidéos entre formats paysage et portrait pour un affichage optimal sur toutes les plateformes (YouTube, TikTok, Bilibili, Douyin, WeChat Channel, RedNote, Kuaishou). Avec son workflow intégré, Krillin AI transforme des vidéos brutes en contenu professionnel en quelques clics.

Fonctionnalités Clés :

🎯 Lancement Instantané - Démarrez votre workflow en un clic. Nouvelle version bureau plus intuitive !

📥 Téléchargement Vidéo - Prise en charge d'yt-dlp et des fichiers locaux

📜 Sous-titres Précis - Reconnaissance haute précision via Whisper

🧠 Segmentation Intelligente - Découpage des sous-titres par IA (LLM)

🌍 Traduction Professionnelle - Traduction cohérente par paragraphes

🔄 Remplacement de Termes - Échange de vocabulaire spécialisé en un clic

🎙️ Doublage et Clonage Vocal - Sélection de voix CosyVoice ou clonage

🎬 Composition Vidéo - Formatage automatique paysage/portrait

Démonstration

L'image ci-dessous montre le résultat après insertion automatique des sous-titres générés pour une vidéo locale de 46 minutes (sans ajustement manuel). Aucun sous-titre manquant ou chevauchant, une segmentation naturelle et une traduction de qualité. Alignment

Traduction de Sous-titres


subtitle_translation.mp4

Doublage


tts.mp4

Format Portrait


agi.mp4

🔍 Reconnaissance Vocale

Tous les modèles locaux dans le tableau ci-dessous prennent en charge l'installation automatique des fichiers exécutables + fichiers de modèle. Il vous suffit de faire votre sélection, et KrillinAI s'occupera du reste.

Service Plateformes supportées Options de modèle Local/Cloud Remarques
OpenAI Whisper Multi-plateforme - Cloud Rapide avec d'excellents résultats
FasterWhisper Windows/Linux tiny/medium/large-v2 (recommandé medium+) Local Vitesse accrue, pas de surcharge de service cloud
WhisperKit macOS (Apple Silicon uniquement) large-v2 Local Optimisation native pour puces Apple
Alibaba Cloud ASR Multi-plateforme - Cloud Contourne les problèmes réseau en Chine continentale

🚀 Prise en charge des Grands Modèles de Langage

✅ Compatible avec tous les services cloud/locaux compatibles avec l'API OpenAI, y compris mais sans s'y limiter :

  • OpenAI
  • DeepSeek
  • Qwen (Tongyi Qianwen)
  • Modèles open source auto-hébergés
  • Autres services API compatibles avec le format OpenAI

🌍 Langues Prises en Charge

Langues d'entrée : Chinois, Anglais, Japonais, Allemand, Turc (autres en cours d'ajout)
Langues de traduction : 101 langues dont Anglais, Chinois, Russe, Espagnol, Français, etc.

Aperçu de l'Interface

ui preview

🚀 Guide de Démarrage Rapide

Étapes de Base

Téléchargez d'abord le fichier exécutable de la version Release correspondant à votre système. Suivez les instructions ci-dessous pour choisir entre la version bureau ou standard, puis placez le logiciel dans un dossier vide. L'exécution du programme générera des répertoires supplémentaires - un dossier vide facilite la gestion.

[Pour la version bureau (fichiers avec "desktop" dans le nom)]
La version bureau est une nouveauté conçue pour simplifier la configuration (sans éditer de fichiers). Elle contient encore quelques bugs et est mise à jour régulièrement.

Double-cliquez sur le fichier pour l'utiliser.

[Pour la version standard (fichiers sans "desktop" dans le nom), voir ici]
La version standard est la publication originale, offrant une configuration plus complexe mais une fonctionnalité stable. Elle convient également au déploiement sur serveur grâce à son interface web.

Créez un dossier config dans le répertoire, puis créez un fichier config.toml à l'intérieur. Copiez le contenu du fichier config-example.toml du dossier config du code source dans votre config.toml et remplissez les détails de configuration. (Si vous souhaitez utiliser les modèles OpenAI mais ne savez pas comment obtenir une clé, vous pouvez rejoindre le groupe pour un accès d'essai gratuit.)

Double-cliquez sur l'exécutable ou exécutez-le dans le terminal pour démarrer le service.

Ouvrez votre navigateur et entrez http://127.0.0.1:8888 pour commencer à l'utiliser. (Remplacez 8888 par le numéro de port que vous avez spécifié dans le fichier config.)

Pour les utilisateurs macOS

[Pour la version bureau (fichiers avec "desktop" dans le nom), voir ici]
La méthode actuelle d'empaquetage ne permet pas d'exécution par double-clic ni d'installation via DMG en raison de problèmes de signature. Une configuration manuelle de confiance est nécessaire :

  1. Ouvrez dans le Terminal le répertoire contenant le fichier exécutable (nommé par exemple KrillinAI_1.0.0_desktop_macOS_arm64)

  2. Exécutez les commandes suivantes dans l'ordre :

sudo xattr -cr ./KrillinAI_1.0.0_desktop_macOS_arm64  
sudo chmod +x ./KrillinAI_1.0.0_desktop_macOS_arm64  
./KrillinAI_1.0.0_desktop_macOS_arm64  

[Pour la version standard (fichiers sans "desktop" dans le nom), voir ici]
Ce logiciel n'est pas signé. Après avoir complété la configuration des fichiers comme décrit dans les "Étapes de base", vous devrez approuver manuellement l'application sur macOS. Procédez comme suit :

  1. Ouvrez le terminal et accédez au répertoire contenant le fichier exécutable (par exemple KrillinAI_1.0.0_macOS_arm64)
  2. Exécutez les commandes suivantes dans l'ordre :
sudo xattr -rd com.apple.quarantine ./KrillinAI_1.0.0_macOS_arm64
sudo chmod +x ./KrillinAI_1.0.0_macOS_arm64
./KrillinAI_1.0.0_macOS_arm64

Cela démarrera le service.

Déploiement Docker

Consultez le Docker Deployment Instructions.

Configuration des Cookies

En cas d'échec de téléchargement, suivez le Cookie Configuration Instructions .

Aide à la Configuration

La méthode de configuration la plus rapide et pratique :

  • Sélectionnez openai pour transcription_provider et llm_provider. Ainsi, vous n'aurez qu'à renseigner openai.apikey dans les trois catégories de configuration principales (openai, local_model, et aliyun) pour effectuer la traduction de sous-titres. (Complétez app.proxy, model et openai.base_url selon votre situation.)

Méthode utilisant le modèle local de reconnaissance vocale (non supporté sur macOS pour le moment) (optimisant coût, vitesse et qualité) :

  • Utilisez fasterwhisper pour transcription_provider et openai pour llm_provider. Vous devrez alors renseigner openai.apikey et local_model.faster_whisper dans les catégories openai et local_model. Le modèle local sera téléchargé automatiquement. (app.proxy et openai.base_url restent configurables comme mentionné ci-dessus.)

Cas nécessitant la configuration d'Alibaba Cloud :

  • Si llm_provider est défini sur aliyun, le service de grands modèles d'Alibaba Cloud sera utilisé. Configurez alors aliyun.bailian.
  • Si transcription_provider est sur aliyun ou si la fonction "doublage vocal" est activée, le service vocal d'Alibaba Cloud sera utilisé. Configurez aliyun.speech.
  • Si le "doublage vocal" est activé avec clonage de timbre vocal via fichiers audio locaux, le service OSS d'Alibaba Cloud sera aussi utilisé. Configurez alors aliyun.oss. Guide : Instructions de configuration Alibaba Cloud

Foire Aux Questions

Consultez la FAQ (Foire Aux Questions)

Directives de Contribution

  • Ne soumettez pas de fichiers inutiles comme .vscode, .idea, etc. Utilisez correctement le fichier .gitignore pour les exclure.
  • Ne soumettez pas config.toml ; soumettez plutôt config-example.toml.

Historique des Stars

Star History Chart