Meta baru saja mengumumkan model AI yang berfokus pada media, yang disebut Movie Gen, yang dapat digunakan untuk menghasilkan video dan klip audio yang realistis.
Perusahaan membagikan beberapa klip berdurasi 10 detik yang dibuat dengan Movie Gen, termasuk bayi kuda nil mirip Moo Deng yang sedang berenang, untuk menunjukkan kemampuannya. Meskipun alat ini belum tersedia untuk digunakan, pengumuman Movie Gen ini muncul segera setelah acara Meta Connect, yang memamerkan perangkat keras baru dan segar serta versi terbaru dari model bahasa besarnya, Llama 3.2.
Lebih dari sekadar pembuatan klip teks-ke-video, model Movie Gen dapat melakukan pengeditan yang ditargetkan pada klip yang sudah ada, seperti menambahkan objek ke tangan seseorang atau mengubah tampilan permukaan. Dalam salah satu contoh video dari Meta, seorang wanita yang memakai headset VR diubah menjadi seperti sedang memakai teropong steampunk.
Potongan audio dapat dibuat bersamaan dengan video dengan Movie Gen. Dalam klip sampel, seorang pria AI berdiri di dekat air terjun dengan suara percikan dan suara simfoni yang penuh harapan; mesin mobil sport mendengkur dan ban berdecit saat melaju di trek, dan seekor ular meluncur di sepanjang dasar hutan, diiringi klakson yang menegangkan.
Meta membagikan beberapa detail lebih lanjut tentang Movie Gen dalam makalah penelitian yang dirilis Jumat. Movie Gen Video terdiri dari 30 miliar parameter, sedangkan Movie Gen Audio terdiri dari 13 miliar parameter. (Jumlah parameter suatu model secara kasar sesuai dengan kemampuannya; sebaliknya, varian terbesar Llama 3.1 memiliki 405 miliar parameter.) Movie Gen dapat menghasilkan video definisi tinggi hingga 16 detik, dan Meta mengklaim bahwa model tersebut mengungguli model pesaing. dalam kualitas video secara keseluruhan.
Awal tahun ini, CEO Mark Zuckerberg mendemonstrasikan fitur Imagine Me dari Meta AI, di mana pengguna dapat mengunggah foto diri mereka sendiri dan memainkan peran wajah mereka ke dalam berbagai skenario, dengan memposting gambar AI dirinya yang tenggelam dalam rantai emas di Threads. Versi video dari fitur serupa dapat dilakukan dengan model Movie Gen—anggap saja ini semacam ElfYourself yang menggunakan steroid.
Informasi apa saja yang telah dilatih oleh Movie Gen? Detailnya tidak jelas dalam postingan pengumuman Meta: “Kami telah melatih model ini pada kombinasi kumpulan data berlisensi dan tersedia untuk umum.” Sumber data pelatihan dan apa yang dapat diambil dari web tetap menjadi isu kontroversial bagi alat AI generatif, dan teks, video, atau klip audio apa yang digunakan untuk membuat model utama mana pun jarang diketahui publik.
Menarik untuk melihat berapa lama waktu yang dibutuhkan Meta untuk membuat Movie Gen tersedia secara luas. Blog pengumuman tersebut secara samar-samar mengisyaratkan “potensi rilis di masa mendatang”. Sebagai perbandingan, OpenAI mengumumkan model video AI-nya, yang disebut Sora, awal tahun ini dan belum mengumumkannya kepada publik atau membagikan tanggal rilis yang akan datang (meskipun WIRED memang menerima beberapa klip Sora eksklusif dari perusahaan untuk menyelidiki bias. ).
Mengingat warisan Meta sebagai perusahaan media sosial, ada kemungkinan bahwa alat yang didukung oleh Movie Gen akan mulai bermunculan, pada akhirnya, di dalam Facebook, Instagram, dan WhatsApp. Pada bulan September, pesaing Google berbagi rencana untuk membuat aspek model video Veo tersedia bagi pembuat konten di dalam YouTube Shorts sekitar tahun depan.
Meskipun perusahaan teknologi besar masih menunda peluncuran penuh model video ke publik, Anda dapat bereksperimen dengan alat video AI sekarang dari startup kecil yang akan datang, seperti Runway dan Pika. Cobalah Pikaffects jika Anda pernah penasaran bagaimana rasanya melihat diri Anda dihancurkan secara kartun dengan mesin press hidrolik atau tiba-tiba meleleh di genangan air.