Technik

Meta startet AudioCraft, eine KI, die Musik aus Text generiert

Meta lancia AudioCraft, un'AI che genera musica partendo dal testo thumbnail

Metadas Unternehmen hinter Plattformen wie Facebook und Instagram, hat mit der Veröffentlichung von Musik und künstliche Intelligenz verschmolzen AudioCraftein neuer Open-Source-Code, der es Benutzern ermöglicht Erstellen Sie Musik und Sound vollständig durch generative KI.

AudioCraft, Metas generative KI zur Generierung von Musik aus Text

Meta erklärt das AudioCraft besteht aus drei KI-Modellendie sich jeweils auf unterschiedliche Bereiche der Klangerzeugung spezialisiert haben. MusicGenakzeptiert beispielsweise Texteingaben, um Musik zu generieren. Um dieses Modell zu trainieren, nutzte Meta unglaubliche „20.000 Stunden Musik, die Meta gehört oder speziell für diesen Zweck lizenziert wurde“. Mit MusicGen können Benutzer Musiktitel auf innovative und kreative Weise erstellen.

ein anderes Modell, Mit AudioGen können Sie anhand einfacher schriftlicher Anweisungen realistische Sounds erstellen. Simuliert beispielsweise das Bellen eines Hundes oder das Geräusch von Schritten. Meta trainierte dieses Modell mit öffentlichen Soundeffekten und ermöglichte es Benutzern, mit der Erzeugung von Sounds verschiedener Umgebungen und Situationen zu experimentieren.

Darüber hinaus hat Meta eine eingeführt verbesserte Version des EnCodec-Decoders, cEr ermöglicht es Benutzern, Sounds mit weniger Artefakten zu erzeugen. Zu starke Audiomanipulationen können zu unerwünschten Verzerrungen führen, aber dank dieser neuen Funktion können Benutzer natürlichere und überzeugendere Klänge erzielen.

Musik und künstliche Intelligenz

musiclm google ai produziert Musik min

Die amerikanischen Medien hatten die Gelegenheit, einige mit AudioCraft erstellte Audiobeispiele anzuhören. Emilia David von The Verge berichtet, dass die erzeugten Geräusche wie Pfeifen, Sirenen und Summen überraschend natürlich klangen. Allerdings hatten einige Teile, wie zum Beispiel die Gitarrensaiten in einigen Songs, immer noch einen Hauch von Künstlichem.

Das ist nicht das erste Mal Künstliche Intelligenz verbindet sich mit Musik. Google hat MusicLM entwickelt, ein Sprachmodell, das winzige Töne auf der Grundlage von Textnachrichten generiert, aber nur für Forscher zugänglich ist. Es gab auch virale Beispiele für „KI-generierte“ Songs ähnliche Stimmen wie Prominente wie Drake und The Weeknd.

Während Musiker seit Jahren mit elektronischem Audio experimentieren, betreten Genres wie EDM und Festivals wie Ultra, AudioCraft und andere KI-Lösungen neue Wege. Auf KI basierende generative Musik bietet Möglichkeiten zur Erkundung und Innovation und ebnet den Weg für neue Formen des künstlerischen und kreativen Ausdrucks. Es geht nicht nur darum, Audio zu manipulieren, es geht darum, komplett von Grund auf neu zu erstellen. ein neues Kapitel in der Musikgeschichte aufschlagen.

Meta AudioCraft und die Zukunft der KI-generierten Musik

Im Moment scheint AudioCraft gut dazu zu passen stimmungsvolle Musikkreation, als Standardstücke oder zum Erstellen von Settings, anstatt ein neuer großer Pop-Hit zu werden. Meta glaubt jedoch, dass sein neues Modell neue Wege in der Musikwelt beschreiten könnte, so wie Synthesizer die Branche revolutionierten, als sie populär wurden.

meta audiocraft ai musik künstliche intelligenz min

Meta hat erklärt, dass er das denkt MusicGen kann zu einem innovativen Werkzeug werden, genau wie Synthesizer, als sie zum ersten Mal auftauchten. Aber im Vergleich zur Texterstellung (wie es bei Metas Llama 2 oder OpenAIs GPT der Fall ist) ist die Erstellung viel komplizierter, so die Forscher.

Um das Modell zu verbessern, hat Meta veröffentlicht AudioCraft als Open Source, was eine größere Vielfalt der für das Training verwendeten Daten ermöglicht. Das Unternehmen erkennt an, dass die aktuellen Datensätze begrenzt sind und eine widerspiegeln Verbreitung westlicher Musik mit Texten und Metadaten in englischer Sprache. Durch die Weitergabe des Codes an die Forschungsgemeinschaft hofft Meta, dass andere Forscher dazu beitragen können, neue Ansätze zu entwickeln, um Vorurteile und Missbräuche generativer Modelle zu reduzieren oder zu beseitigen.

Plattenfirmen und Künstler haben ihre Besorgnis über mögliche KI-bezogene Probleme zum Ausdruck gebracht. aus Angst, dass Models urheberrechtlich geschütztes Material für das Training verwenden könnten. Aber bevor wir diesen Zweifel überhaupt stellen, müssen wir uns fragen: Wird KI in der Lage sein, nicht nur Ambient-Songs und Hintergrundmusik für Videos zu erstellen, sondern auch Songs, die uns zum Singen, Tanzen und Bewegen bringen? Meta wettet ja, aber man muss verstehen, wie die öffentliche Reaktion sein wird, wenn diese Tracks von der künstlichen Intelligenz in die menschlichen Ohren gelangen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert