Sulawesi Utara
Menuju Sulut Maju, Sejahtera dan Berkelanjutan

Peringatan Silicon Valley: AI Dapat Berkembang di Luar Kendali

Eliezer Yudkowsky, seorang pelopor dalam penelitian kecerdasan buatan atau AI dari Silicon Valley AS, menyerukan agar pengembangan AI dihentikan.

Editor: Arison Tombeg
TM/YNet
PERINGATAN - Eliezer Yudkowsky, seorang pelopor dalam penelitian kecerdasan buatan atau AI dari Silicon Valley AS. Dia menyerukan agar pengembangan AI dihentikan. 

TRIBUNMANADO.CO.ID - Eliezer Yudkowsky, seorang pelopor dalam penelitian kecerdasan buatan atau AI dari Silicon Valley AS, menyerukan agar pengembangan AI dihentikan sebelum terlambat. 

Menurutnya, manusia tidak memiliki kemampuan untuk mengendalikan teknologi yang pada akhirnya akan melampaui kecerdasan manusia. Ia dapat berkembang di luar kendali kita.

Konferensi tahunan teknologi dan budaya SXSW di Austin, Texas, menjadi daya tarik bagi para pengusaha, penemu, dan insinyur perangkat lunak yang ingin menyampaikan dan mempelajari tren teknologi terkini. Dari kesuksesan tak terduga peluncuran Twitter tahun 2006 hingga kegilaan mata uang kripto dan naik turunnya metaverse yang sangat cepat — SXSW telah menjadi ajang pamer inovasi yang luar biasa.

Tahun ini, kecerdasan buatan (AI) mendominasi konferensi yang berakhir selama akhir pekan, dengan banyak sekali presentasi yang menyoroti penerapannya dalam bisnis, sains, kedokteran, film, dan musik. Teknologi AI tampaknya telah merasuki hampir setiap aspek kehidupan manusia, menjanjikan kemajuan umat manusia menuju masa depan dengan potensi tak terbatas dengan munculnya Kecerdasan Umum Buatan (AGI).

Namun bagi Eliezer Yudkowsky, prospeknya jauh dari kata optimis. Peneliti AI Amerika-Israel ini hadir di SXSW sebagai peramal kiamat, memperingatkan dalam panel yang diberi judul "Cara Membuat AGI (Kecerdasan Umum Buatan) Tidak Membunuh Semua Orang" bahwa pengembangan AI harus dihentikan — atau umat manusia akan menghadapi kepunahan.

Yudkowsky, 45 tahun, yang tumbuh dalam komunitas Yahudi Ortodoks di Chicago sebelum meninggalkan agamanya, mendirikan Machine Intelligence Research Institute (MIRI) di California dua dekade lalu. Misi lembaga ini adalah mengembangkan sistem AI yang "ramah".

Namun, selama diskusi panel, Yudkowsky melukiskan gambaran yang jauh lebih gelap. Menurutnya, jika pengembangan AI tidak dihentikan, hal itu akan menyebabkan pemusnahan umat manusia. "AI yang saya khawatirkan itu cerdas — bukan karena seseorang memberinya senjata — tetapi karena ia dapat berevolusi di luar kendali kita," ia memperingatkan. "Manusia berawal sebagai hewan yang menjelajahi sabana dan akhirnya menciptakan teknologi dan senjata canggih. Kecerdasan non-manusia yang otonom dengan kemampuan serupa pada dasarnya berbahaya."

Dipandu oleh pengusaha Judd Rosenblatt, panel tersebut juga menampilkan Samuel Hammond, seorang peneliti senior di American Innovation Foundation, dan Nora Aman, seorang pakar mekanisme keamanan AI. Meskipun keduanya tidak memiliki visi apokaliptik seperti Yudkowsky, keduanya mengungkapkan kekhawatiran mendalam tentang ancaman eksistensial yang ditimbulkan oleh AI canggih.

"Ini adalah teknologi yang sama sekali berbeda dari teknologi sebelumnya," kata Aman. "AGI dapat beroperasi secara otonom di berbagai domain dengan tingkat kecerdasan yang tidak hanya melampaui manusia secara individu tetapi juga manusia secara keseluruhan. Dengan sistem seperti itu, kita tidak dapat membuat asumsi. Kita tidak dapat memprediksi apa yang akan memotivasinya, bagaimana ia akan berperilaku, atau apakah ia akan mengembangkan tujuannya sendiri."

Hammond menyuarakan kekhawatiran ini, memperingatkan bahwa AI dapat menghancurkan manusia melalui berbagai cara — tanpa perlu bernegosiasi dengan kita. Namun, yang paling mengkhawatirkannya adalah potensi kecepatan penyebaran AI, menyamakannya dengan pandemi COVID-19 tetapi dengan potensi kerusakan yang jauh lebih besar.

"Pandemi ini disebabkan oleh virus yang relatif sederhana yang membunuh jutaan orang karena mekanisme replikasi diri yang optimal," katanya. "Sekarang, bayangkan virus yang dapat belajar, menjalankan simulasi berulang, dan memilih saat yang tepat untuk menyerang. AI memiliki kemampuan itu — dan tidak seperti virus yang muncul dari satu laboratorium, 'virus AI' ini dapat berasal dari berbagai sumber secara bersamaan, dengan motivasi dan tujuan yang berbeda."

Yudkowsky juga mengkritik kesalahpahaman publik tentang AI, khususnya keyakinan bahwa AI akan tetap terbatas pada peran penasihat. "Orang-orang berpikir tidak ada orang yang cukup bodoh untuk menciptakan AI yang bertindak secara independen," katanya. "Mereka juga berasumsi bahwa AGI tidak diperlukan ketika AI yang terspesialisasi dapat menangani tugas-tugas seperti penerjemahan bahasa atau diagnostik medis."

Menurut Yudkowsky, asumsi-asumsi ini telah dibantah. "Kita tidak hanya memiliki sistem AGI yang memberikan hasil yang mengesankan," katanya, "tetapi beberapa juga mampu membuat keputusan dan bertindak secara independen. Kita harus menghentikan semuanya. Kita belum siap. Kita tidak memiliki kemampuan teknologi untuk merancang AI super cerdas yang sopan, patuh, dan selaras dengan keinginan manusia — dan kita masih jauh dari mencapainya."

Aman menyerukan pendekatan internasional terhadap regulasi AI, serupa dengan perjanjian pelucutan senjata nuklir, sebagai satu-satunya solusi yang layak untuk mencegah pengambilalihan AI secara paksa.

"Ada orang-orang yang sangat khawatir tentang konsekuensi AI — bahkan beberapa pakar terkemuka di bidang tersebut," katanya. "Namun dengan laju pengembangan yang cepat, sulit untuk mengidentifikasi kesalahan secara langsung."

Halaman
12
Sumber: Tribun Manado
Berita Terkait
Ikuti kami di
AA

Berita Terkini

Berita Populer

© 2025 TRIBUNnews.com Network,a subsidiary of KG Media.
All Right Reserved