Skip to content

Latest commit

 

History

History
170 lines (115 loc) · 10.9 KB

README_de.md

File metadata and controls

170 lines (115 loc) · 10.9 KB
KrillinAI

KI-Audio- & Video-Übersetzungs- und Synchronisationstool

krillinai%2FKrillinAI | Trendshift

English简体中文日本語한국어Tiếng ViệtFrançaisDeutschEspañolPortuguêsРусскийاللغة العربية

Twitter Discord Bilibili

📢 Neue Version für Windows & Mac Desktop – Willkommen zum Testen und Feedbackgeben

Überblick

Krillin AI ist eine All-in-One-Lösung für mühelose Video-Lokalisierung und -Optimierung. Dieses minimalistisch gestaltete, aber leistungsstarke Tool übernimmt alles von Übersetzung, Synchronisation bis hin zu Sprachklonierung und Formatierung – es wandelt Videos nahtlos zwischen Quer- und Hochformat um, um eine optimale Darstellung auf allen Content-Plattformen zu gewährleisten (YouTube, TikTok, Bilibili, Douyin, WeChat Channel, RedNote, Kuaishou). Mit seinem End-to-End-Workflow verwandelt Krillin AI Rohmaterial in nur wenigen Klicks in aufbereitete, plattformfertige Inhalte.

Hauptfunktionen:

🎯 Ein-Klick-Start - Sofortiger Workflow-Beginn, neue Desktop-Version noch benutzerfreundlicher!

📥 Video-Download - Unterstützt yt-dlp und lokale Datei-Uploads

📜 Präzise Untertitel - Hochgenaue Whisper-Erkennungstechnologie

🧠 Intelligente Segmentierung - LLM-basierte Unterteilungs- und Ausrichtungstechnologie

🌍 Professionelle Übersetzung - Absatzweise Übersetzung für konsistente Ergebnisse

🔄 Begriffsersetzung - Ein-Klick-Wechsel von fachspezifischem Vokabular

🎙️ Synchronisation & Sprachklonierung - CosyVoice-Stimmen oder individuelle Sprachklone

🎬 Video-Zusammensetzung - Automatische Formatierung für horizontale/vertikale Darstellungen

Beispiel-Demo

Das folgende Bild zeigt das Ergebnis, nachdem die Untertiteldatei – generiert durch einen Ein-Klick-Vorgang nach Import eines 46-minütigen lokalen Videos – in die Spur eingefügt wurde. Es wurden keinerlei manuelle Anpassungen vorgenommen. Es gibt keine fehlenden oder überlappenden Untertitel, die Satzsegmentierung wirkt natürlich und die Übersetzungsqualität ist ebenfalls sehr hoch. Alignment

Untertitel-Übersetzung


subtitle_translation.mp4

Synchronisation


tts.mp4

Hochformat


agi.mp4

🔍 Spracherkennungs-Unterstützung

Alle lokalen Modelle in der folgenden Tabelle unterstützen die automatische Installation von ausführbaren Dateien + Modelldateien. Treffen Sie einfach Ihre Auswahl und KrillinAI erledigt den Rest für Sie.

Dienst Unterstützte Plattformen Modelloptionen Lokal/Cloud Hinweise
OpenAI Whisper Plattformübergreifend - Cloud Schnell mit hervorragenden Ergebnissen
FasterWhisper Windows/Linux tiny/medium/large-v2 (empfohlen: medium+) Lokal Höhere Geschwindigkeit, kein Cloud-Service-Overhead
WhisperKit macOS (nur Apple Silicon) large-v2 Lokal Native Optimierung für Apple-Chips
Alibaba Cloud ASR Plattformübergreifend - Cloud Umgeht Netzwerkprobleme im chinesischen Festland

🚀 Unterstützung für Große Sprachmodelle

✅ Kompatibel mit allen OpenAI-API-kompatiblen Cloud-/Lokal-LLM-Diensten, einschließlich aber nicht beschränkt auf:

  • OpenAI
  • DeepSeek
  • Qwen (Tongyi Qianwen)
  • Selbstgehostete Open-Source-Modelle
  • Andere OpenAI-Format-kompatible API-Dienste

🌍 Sprachunterstützung

Eingabesprachen: Chinesisch, Englisch, Japanisch, Deutsch, Türkisch (weitere Sprachen in Vorbereitung)

Übersetzungssprachen: 101 Sprachen unterstützt, darunter Englisch, Chinesisch, Russisch, Spanisch, Französisch etc.

Interface-Vorschau

ui preview

🚀 Schnellstart

Grundlegende Schritte

Laden Sie zunächst die Release-Executable-Datei herunter, die zu Ihrem System passt. Folgen Sie den Anweisungen unten, um zwischen der Desktop- oder Nicht-Desktop-Version zu wählen, und platzieren Sie die Software in einem leeren Ordner. Beim Ausführen des Programms werden einige Verzeichnisse generiert, daher vereinfacht ein leerer Ordner die Verwaltung.

[Für die Desktop-Version (Release-Dateien mit "desktop" im Namen), siehe hier] Die Desktop-Version wurde neu veröffentlicht, um Anfängern die korrekte Bearbeitung von Konfigurationsdateien zu erleichtern. Sie enthält noch einige Fehler und wird kontinuierlich aktualisiert.

Doppelklicken Sie die Datei, um sie zu starten.

[Für die Nicht-Desktop-Version (Release-Dateien ohne "desktop" im Namen), siehe hier] Die Nicht-Desktop-Version ist das Original-Release mit komplexerer Konfiguration, aber stabiler Funktionalität. Sie eignet sich auch für Server-Deployment, da sie eine Web-basierte UI bietet.

Erstellen Sie einen config-Ordner im Verzeichnis und darin eine config.toml-Datei. Kopieren Sie den Inhalt der config-example.toml-Datei aus dem config-Verzeichnis des Quellcodes in Ihre config.toml und füllen Sie Ihre Konfigurationsdaten aus. (Falls Sie OpenAI-Modelle nutzen möchten, aber keinen Schlüssel haben, können Sie der Gruppe beitreten, um kostenlosen Testzugang zu erhalten.)

Starten Sie den Service per Doppelklick auf die Executable oder durch Terminal-Ausführung.

Öffnen Sie Ihren Browser und geben Sie http://127.0.0.1:8888 ein, um loszulegen. (Ersetzen Sie 8888 durch die im Config-File angegebene Port-Nummer.)

An: macOS-Benutzer

[Für die Desktop-Version (Release-Dateien mit "desktop" im Namen), siehe hier] Die aktuelle Paketierung der Desktop-Version unterstützt aufgrund von Signierungsproblemen kein direktes Ausführen per Doppelklick oder DMG-Installation. Eine manuelle Vertrauenskonfiguration ist wie folgt erforderlich:

  1. Öffnen Sie das Verzeichnis mit der ausführbaren Datei (angenommen der Dateiname ist KrillinAI_1.0.0_desktop_macOS_arm64) im Terminal

  2. Führen Sie folgende Befehle nacheinander aus:

sudo xattr -cr ./KrillinAI_1.0.0_desktop_macOS_arm64  
sudo chmod +x ./KrillinAI_1.0.0_desktop_macOS_arm64  
./KrillinAI_1.0.0_desktop_macOS_arm64  

[Für die Nicht-Desktop-Version (Release-Dateien ohne "desktop" im Namen), siehe hier] Diese Software ist nicht signiert, daher müssen Sie nach Abschluss der Konfiguration gemäß den "Grundlegenden Schritten" die Anwendung manuell in macOS freigeben. Gehen Sie wie folgt vor:

  1. Öffnen Sie das Terminal und navigieren Sie zum Verzeichnis der ausführbaren Datei (angenommener Dateiname: KrillinAI_1.0.0_macOS_arm64).
  2. Führen Sie folgende Befehle nacheinander aus:
sudo xattr -rd com.apple.quarantine ./KrillinAI_1.0.0_macOS_arm64
sudo chmod +x ./KrillinAI_1.0.0_macOS_arm64
./KrillinAI_1.0.0_macOS_arm64

Dadurch wird der Dienst gestartet.

Dadurch wird der Dienst gestartet.

Dieses Projekt unterstützt Docker-Bereitstellung. Bitte lesen Sie die Docker Deployment Instructions.

Cookie-Konfigurationsanleitung

Falls Probleme beim Herunterladen von Videos auftreten, lesen Sie bitte die Cookie Configuration Instructions zur Einrichtung Ihrer Cookie-Informationen.

Konfigurationshilfe

Die schnellste und bequemste Konfigurationsmethode:

  • Wählen Sie openai für sowohl transcription_provider als auch llm_provider. Auf diese Weise müssen Sie nur openai.apikey in den folgenden drei Hauptkonfigurationskategorien (openai, local_model und aliyun) ausfüllen, um Untertitelübersetzungen durchführen zu können. (Füllen Sie app.proxy, model und openai.base_url entsprechend Ihrer Situation aus.)

Die Konfigurationsmethode für die Verwendung des lokalen Spracherkennungsmodells (macOS wird vorerst nicht unterstützt) (eine kostengünstige, schnelle und qualitativ hochwertige Option):

  • Tragen Sie fasterwhisper für transcription_provider und openai für llm_provider ein. Damit müssen Sie nur openai.apikey und local_model.faster_whisper in den Kategorien openai und local_model ausfüllen, um Untertitelübersetzungen durchführen zu können. Das lokale Modell wird automatisch heruntergeladen. (Gleiches gilt für app.proxy und openai.base_url wie oben erwähnt.)

Folgende Nutzungsszenarien erfordern die Konfiguration von Alibaba Cloud:

  • Wenn llm_provider mit aliyun angegeben wird, wird der Large-Model-Service von Alibaba Cloud genutzt. Dementsprechend muss die Konfiguration von aliyun.bailian eingerichtet werden.
  • Wenn transcription_provider mit aliyun angegeben wird oder die "Sprachsynchronisation"-Funktion bei Aufgabenstart aktiviert ist, wird der Sprachservice von Alibaba Cloud verwendet. Daher muss die Konfiguration von aliyun.speech ausgefüllt werden.
  • Wenn die "Sprachsynchronisation"-Funktion aktiviert ist und gleichzeitig lokale Audiodateien für Stimmklonierung hochgeladen werden, wird auch der OSS-Cloud-Speicherservice von Alibaba Cloud genutzt. Folglich muss die Konfiguration von aliyun.oss ausgefüllt werden. Konfigurationsanleitung:Alibaba Cloud Configuration Instructions

Häufig gestellte Fragen

Bitte lesen Sie die Frequently Asked Questions

Beitragsrichtlinien

  • Reichen Sie keine unnötigen Dateien wie .vscode, .idea etc. ein. Nutzen Sie .gitignore entsprechend, um diese auszuschließen.
  • Reichen Sie nicht config.toml ein, sondern config-example.toml.

Sternverlauf

Star History Chart