In Youka können Sie die Funktion „Split-Modell“ verwenden, um die Gesangsstimmen von den Instrumenten in einem Lied zu trennen. Sie haben zwei Optionen:
- Demucs Demucs (Deep Extractor for Music Sources) ist ein hochmodernes Deep-Learning-Modell zur Trennung von Musikquellen. Es arbeitet im Zeitbereich, wodurch die zeitlichen Details des Audios erhalten bleiben, und verwendet eine Architektur eines konvolutionalen neuronalen Netzwerks (CNN). Demucs ist bekannt für seine hochwertige Trennung von Gesang, Schlagzeug, Bass und anderen Instrumenten und ist daher eine Top-Wahl für Aufgaben wie Karaoke-Erstellung und Musikproduktion. Es hat sich durch mehrere Versionen weiterentwickelt, die jeweils Verbesserungen brachten, und ist bekannt für seine starke Leistung in Signal-to-Distortion Ratio (SDR) Benchmarks (GitHub) (QuadraphonicQuad).
- MDX-23C Das MDX-23C Modell ist für fortgeschrittene Musik-Demixing-Aufgaben konzipiert und zielt speziell auf die Trennung von Musik in vier Stems: Bass, Schlagzeug, Gesang und andere Instrumente. Dieses Modell basiert auf einer Mischung aus den Demucs4- und MDX-Neuronennetzarchitekturen und integriert bestimmte Gewichte aus dem Ultimate Vocal Remover-Projekt. MDX-23C bietet eine hochwertige Trennung und ist besonders effektiv, wenn es mit einer leistungsstarken GPU-Konfiguration verwendet wird, was es zu einer starken Wahl für Benutzer macht, die eine präzise und professionelle Audio-Trennung suchen (GitHub) (QuadraphonicQuad).
- ReFormer ReFormer ist ein relativ neuer Akteur im Bereich des Musik-Demixings und bekannt für seinen innovativen Ansatz zur Trennung von Stems in Musikstücken. Obwohl detaillierte Informationen über ReFormer weniger verbreitet sind, ist es dafür bekannt, traditionelle Signalverarbeitungstechniken mit modernen Deep-Learning-Methoden zu kombinieren, um eine saubere und genaue Trennung zu erreichen. Dieses Modell zielt darauf ab, Qualität und Verarbeitungsgeschwindigkeit in Einklang zu bringen, was es sowohl für professionelle als auch für Hobbyanwender geeignet macht.
- MDX-Net (mit Hintergrundgesang) MDX-Net ist ein zweigleisiges neuronales Netzwerk, das speziell für das Musik-Demixing entwickelt wurde und sowohl einen Zeit-Frequenz-Zweig als auch einen Zeitbereich-Zweig umfasst. Diese Architektur ermöglicht es dem Modell, Stems zu trennen, indem verschiedene Aspekte des Audios analysiert werden, und kombiniert die Ausgaben beider Zweige, um hochgenaue Trennungen zu erzeugen. MDX-Net hat seine Effektivität bewiesen, indem es Spitzenpositionen bei internationalen Musik-Demixing-Wettbewerben erreicht hat, was es zu einer zuverlässigen Option für Benutzer macht, die hohe Präzision in ihrer Audiobearbeitung benötigen (GitHub).