Sulawesi Utara
Menuju Sulut Maju, Sejahtera dan Berkelanjutan

Analis Beberkan Sensor AI Tiongkok - DeepSeek

Model AI Tiongkok menjanjikan pelatihan berbiaya rendah dan kemampuan canggih, tetapi masih ada pertanyaan tentang transparansi, keamanan data.

Editor: Arison Tombeg
TM/Al Jazeera
KECERDASAN BUATAN - Tangkapan layar video DeepSeek dan ChatGPT. Model AI Tiongkok menjanjikan pelatihan berbiaya rendah dan kemampuan canggih, tetapi masih ada pertanyaan tentang transparansi, keamanan data. 

Efisiensi Biaya

Salah satu klaim DeepSeek yang paling menarik adalah bahwa ia dapat melatih model AI dengan biaya yang jauh lebih murah dibandingkan dengan biaya yang dikeluarkan oleh perusahaan besar.

Perusahaan di balik DeepSeek menyatakan bahwa proses pelatihannya hanya menghabiskan biaya beberapa juta dolar—sebagian kecil dari biaya yang dilaporkan oleh OpenAI untuk modelnya.

Penasaran dengan hal ini, kami bertanya langsung kepada DeepSeek apakah chip Nvidia digunakan dalam pelatihannya.

Responsnya aneh: meskipun tidak secara eksplisit menyangkal klaim tersebut, ia menghindari pertanyaan tersebut, dan malah memberikan pernyataan samar tentang potensi biaya pelatihan dalam jutaan dolar.

Pada saat yang sama, klaim perusahaan tentang "sumber terbuka" tidak sepenuhnya akurat. Meskipun sebagian kodenya dapat diakses, data pelatihannya tetap tersembunyi.

Intinya, meskipun DeepSeek beroperasi dalam batasan hukum dan peraturan Tiongkok, semua hal lainnya bergantung pada "niat baik" perusahaan—dan niat sebenarnya tetap tidak jelas.

"Yang tidak terbuka adalah bobot model," jelas Evron. Namun, apa sebenarnya "bobot terbuka" itu, dan apa bedanya dengan kode terbuka atau tertutup? Evron menawarkan metafora: bayangkan resep kue. Kode, baik terbuka maupun tertutup, seperti resep—menjelaskan cara membuat kue, mencantumkan semua bahan dan langkah-langkahnya.

Kode sumber terbuka berarti siapa pun dapat membaca, memodifikasi, atau mempelajarinya.

Bobot, atau "bobot terbuka," lebih mirip nilai gizi kue setelah dipanggang. Bobot ini mewakili pengetahuan yang diperoleh jaringan saraf model AI selama pelatihan, tetapi tidak mengungkapkan bagaimana model tersebut dibangun.

Saat pengembang merilis "bobot terbuka," mereka membagikan hasil pelatihan, yang memungkinkan orang lain menggunakan atau mengadaptasi model tersebut, tetapi mereka tidak mengungkapkan resep lengkapnya, seperti proses pelatihan atau data yang digunakan.

Masalah Transparansi

Kebingungan muncul karena beberapa orang berasumsi bahwa merilis open weight sama dengan merilis kode lengkap.

Kenyataannya, keduanya berbeda secara mendasar: yang satu menyediakan resep lengkap, sementara yang lain hanya mengungkap hasil akhir.

Dengan kata lain, DeepSeek tidak benar-benar open source dalam pengertian tradisional. 

Halaman
123
Sumber: Tribun Manado
Berita Terkait
  • Ikuti kami di
    AA

    Berita Terkini

    Berita Populer

    © 2025 TRIBUNnews.com Network,a subsidiary of KG Media.
    All Right Reserved