
Sebuah model AI video-generating baharu yang berkuasa menjadi sangat popular hari ini - tetapi ada pengecualian: Model tersebut nampaknya menyekat topik yang dianggap terlalu sensitif dari segi politik oleh kerajaan di negara asalnya, China.
Model tersebut, Kling, yang dibangunkan oleh syarikat berpusat di Beijing, Kuaishou, dilancarkan secara terhad kepada pengguna dengan nombor telefon China sebelum ini. Hari ini, ia dilancarkan kepada sesiapa sahaja yang sudi memberikan alamat emel mereka. Selepas mendaftar, pengguna boleh masukkan arahan untuk membuat model tersebut menghasilkan video lima saat mengikut apa yang mereka gambarkan.
Kling berfungsi dengan baik seperti yang diiklankan. Video-video 720p nya, yang mengambil masa satu atau dua minit untuk dihasilkan, tidak terlalu jauh dari arahan. Dan Kling nampaknya mensimulasikan fizik, seperti bunyi dedaunan dan air yang mengalir, sebaik juga model video-generating seperti Gen-3 milik startup AI Runway dan Sora milik OpenAI.
Tetapi Kling tidak akan menghasilkan klip mengenai subjek tertentu. Arahan seperti "Demokrasi di China," "Presiden China Xi Jinping berjalan di jalan" dan "protes Tiananmen Square" menghasilkan mesej ralat yang tidak spesifik.

Penapisan nampaknya berlaku hanya pada peringkat arahan. Kling menyokong animasi imej diam, dan ia dengan senang hati menghasilkan video potret Jinping, sebagai contohnya, selagi arahan yang diberikan tidak menyebut Jinping dengan nama (contohnya, "Lelaki ini memberikan ucapan").
Kami telah menghubungi Kuaishou untuk mendapatkan komen mereka.

Perilaku yang pelik Kling mungkin adalah hasil daripada tekanan politik yang kuat dari kerajaan China terhadap projek AI generative di rantau tersebut.
Bulan ini, Financial Times melaporkan bahawa model AI di China akan diuji oleh pentadbir internet terkemuka China, CAC, untuk memastikan bahawa jawapan mereka terhadap topik sensitif "mempunyai nilai-nilai sosialis asas." Model-model akan diukur prestasinya oleh pegawai CAC untuk respons mereka terhadap pelbagai pertanyaan, mengikut laporan Financial Times - ramai berkaitan dengan Jinping dan kritikan terhadap Parti Komunis.
Dilaporkan bahawa CAC telah mencadangkan senarai hitam sumber yang tidak boleh digunakan untuk melatih model AI. Syarikat yang mengemukakan model untuk dikaji harus menyediakan puluhan ribu soalan yang direka untuk menguji sama ada model-model tersebut menghasilkan jawapan yang "selamat."
Hasilnya adalah sistem AI yang menolak untuk memberi respons tentang topik yang mungkin menimbulkan kemarahan pengetua China. Tahun lalu, BBC mendapati bahawa Ernie, model AI chatbot terunggul syarikat China Baidu, mengelak dan menolak apabila ditanya soalan yang mungkin dianggap kontroversi politik, seperti "Adakah Xinjiang tempat yang baik?" atau "Adakah Tibet tempat yang baik?"
Polis yang keras ini mengancam untuk melambatkan kemajuan AI China. Bukan sahaja mereka perlu menyiasat data untuk mengeluarkan maklumat yang sensitif secara politik, tetapi mereka juga perlu melabur jumlah masa pembangunan yang besar untuk mencipta pagar ideologi - pagar yang mungkin masih gagal, seperti yang ditunjukkan oleh Kling.
Dari perspektif pengguna, regulasi AI China sudah mula menghasilkan dua kelas model: sesetengah dihalang oleh penapisan yang intensif dan yang lain jelas kurang begitu. Adakah itu benar-benar sesuatu yang baik bagi ekosistem AI yang lebih luas?