Bisnis

Peringatan Pemerintah AS: AI Bisa Bikin Manusia Punah

Di atas ambang batas kemampuan tertentu AI berpotensi menjadi tidak terkendali

Featured-Image
Ilustrasi/PhonlamaiPhoto

bakabar.com, JAKARTA -- Departemen Luar Negeri Amerika Serikat menerbitkan laporan terbaru yang mewanti-wanti kemungkinan teknologi Artificial Intelligence (AI) atau kecerdasan buatan bisa membuat umat manusia punah. Laporan tersebut menggambarkan kekhawatiran mengenai risiko keamanan nasional akibat AI yang berkembang pesat.


Temuan ini berdasarkan wawancara dengan lebih dari 200 orang selama lebih dari satu tahun. Mereka yang diwawancarai di antaranya adalah eksekutif terkemuka dari perusahaan-perusahaan AI ternama, peneliti keamanan siber, ahli senjata pemusnah massal, dan pejabat keamanan nasional di dalam pemerintahan.


Laporan yang terbit pekan ini oleh Gladstone AI, dengan tegas menyatakan bahwa dalam kasus terburuk, sistem AI yang paling canggih dapat "menimbulkan ancaman tingkat kepunahan bagi umat manusia."


Seorang pejabat Departemen Luar Negeri AS mengonfirmasi bahwa mereka membuat laporan itu karena menilai AI selaras dengan tujuannya untuk melindungi kepentingan AS di dalam dan luar negeri. Namun, pejabat itu menekankan laporan tersebut tidak mewakili pandangan pemerintah AS.


"AI sudah menjadi teknologi yang transformatif secara ekonomi. Teknologi ini dapat memungkinkan kita untuk menyembuhkan penyakit, membuat penemuan ilmiah, dan mengatasi tantangan yang dulunya kita anggap tidak dapat diatasi," kata Jeremie Harris, CEO dan salah satu pendiri Gladstone AI, mengutip CNN, Selasa (12/3/2024).


"Namun, hal ini juga dapat membawa risiko serius, termasuk risiko bencana, yang perlu kita waspadai. Dan semakin banyak bukti, termasuk penelitian empiris dan analisis yang dipublikasikan di konferensi AI terkemuka di dunia, menunjukkan bahwa di atas ambang batas kemampuan tertentu, AI berpotensi menjadi tidak terkendali," lanjut dia.


Juru bicara Gedung Putih Robyn Patterson mengatakan, perintah eksekutif Presiden Joe Biden tentang AI adalah "tindakan paling signifikan yang pernah diambil oleh pemerintah mana pun di dunia untuk mewujudkan janji dan mengelola risiko kecerdasan buatan."


"Presiden dan Wakil Presiden akan terus bekerja sama dengan mitra internasional kami dan mendesak Kongres AS untuk meloloskan undang-undang bipartisan untuk mengelola risiko yang terkait dengan teknologi yang sedang berkembang ini," ujar Patterson.

Butuh intervensi mendesak

Para peneliti memperingatkan dua bahaya utama yang ditimbulkan oleh AI.


Pertama, Gladstone AI mengatakan, sistem AI yang paling canggih dapat dipersenjatai untuk membuat kerusakan yang berpotensi tak dapat diperbaiki.


Kedua, laporan tersebut mengatakan ada kekhawatiran di dalam laboratorium AI, suatu saat para pakar dapat "kehilangan kendali" atas sistem yang mereka kembangkan, dengan "konsekuensi yang berpotensi menghancurkan keamanan global."


"Kebangkitan AI dan AGI [kecerdasan umum buatan] memiliki potensi untuk mengacaukan keamanan global dengan cara yang mengingatkan kita pada pengenalan senjata nuklir," kata laporan itu, seraya menambahkan bahwa ada risiko "perlombaan senjata" AI, konflik, dan "kecelakaan fatal berskala WMD (weapon of mass destruction)."


Laporan Gladstone AI menyerukan langkah-langkah serius yang bertujuan untuk menghadapi ancaman ini, termasuk meluncurkan badan AI baru, memberlakukan perlindungan peraturan "darurat" dan membatasi seberapa besar daya komputer yang dapat digunakan untuk melatih model AI.


"Ada kebutuhan yang jelas dan mendesak bagi pemerintah AS untuk melakukan intervensi," tulis para penulis dalam laporan tersebut.

Masalah keamanan

Jeremie Harris mengatakan, "tingkat akses yang belum pernah terjadi sebelumnya" yang dimiliki timnya terhadap para pejabat di sektor publik dan swasta menghasilkan kesimpulan mengejutkan. Gladstone AI mengatakan mereka berbicara dengan tim teknis dan kepemimpinan dari OpenAI, Google DeepMind, Meta, dan Anthropic.


"Di balik layar, situasi keselamatan dan keamanan dalam AI tingkat lanjut tampaknya cukup tidak memadai dibandingkan dengan risiko keamanan nasional yang mungkin akan segera muncul dari AI," kata Harris.


Laporan Gladstone AI mengungkap tekanan persaingan mendorong perusahaan mempercepat pengembangan AI "dengan mengorbankan keselamatan dan keamanan," meningkatkan prospek bahwa sistem AI yang paling canggih dapat "dicuri" dan "dipersenjatai" untuk melawan Amerika Serikat.


Kesimpulan tersebut menambah daftar peringatan risiko eksistensial yang ditimbulkan oleh AI.


Hampir setahun yang lalu, Geoffrey Hinton, yang dikenal sebagai "Godfather of AI", berhenti dari pekerjaannya di Google dan mewanti-wanti soal AI. Hinton mengatakan ada kemungkinan 10 persen bahwa AI akan menyebabkan kepunahan manusia dalam tiga dekade mendatang.


Para pemimpin bisnis semakin khawatir akan bahaya ini, bahkan ketika mereka menggelontorkan miliaran dolar untuk berinvestasi dalam AI. Tahun lalu, 42 persen CEO yang disurvei di Yale CEO Summit mengatakan bahwa AI memiliki potensi untuk menghancurkan umat manusia dalam waktu lima hingga sepuluh tahun dari sekarang.


Kemampuan belajar seperti manusia

Gladstone AI mencatat sejumlah tokoh, mulai dari miliarder Elon Musk, mantan eksekutif OpenAI, hingga staf di perusahaan AI memperingatkan risiko eksistensial yang ditimbulkan dari teknologi ini.


"Salah satu individu di laboratorium AI terkenal menyatakan pandangannya bahwa jika model AI generasi berikutnya yang spesifik dirilis sebagai akses terbuka, ini akan menjadi 'sangat buruk'. Karena potensi kemampuan persuasif model tersebut dapat 'merusak demokrasi' jika dimanfaatkan di bidang-bidang seperti campur tangan pemilu atau manipulasi pemilih," kata laporan itu.

Gladstone mengaku meminta para ahli AI di laboratorium untuk secara pribadi membagikan prediksi mereka tentang kemungkinan insiden AI dapat menyebabkan "efek global dan tidak dapat dipulihkan" pada tahun 2024.


Perkiraan tersebut berkisar antara 4 persen dan setinggi 20 persen, menurut laporan tersebut, yang tidak menyebutkan bahwa perkiraan tersebut bersifat informal dan kemungkinan besar tunduk pada bias yang signifikan.


Salah satu hal yang paling tidak terduga adalah seberapa cepat AI berevolusi, khususnya AGI, yang merupakan bentuk hipotetis dari AI dengan kemampuan belajar layaknya manusia atau bahkan manusia super.


Laporan tersebut mengatakan AGI dipandang sebagai "pendorong utama risiko bencana akibat hilangnya kendali". Selain itu, OpenAI, Google DeepMind, Anthropic, dan Nvidia telah menyatakan secara terbuka bahwa AGI dapat dicapai pada tahun 2028, meskipun yang lain menganggap hal itu masih jauh lebih jauh.


Gladstone AI juga mencatat ketidaksepakatan mengenai jadwal AGI menyulitkan untuk mengembangkan kebijakan dan perlindungan dan ada risiko bahwa jika teknologi berkembang lebih lambat dari yang diharapkan, regulasi dapat "terbukti berbahaya."


Sebuah dokumen terkait yang juga diterbitkan Gladstone AI memperingatkan pengembangan AGI dan kemampuan yang mendekatinya "akan menimbulkan risiko bencana yang belum pernah dihadapi Amerika Serikat.


Misalnya, laporan itu mengatakan, sistem AI dapat digunakan untuk merancang dan mengimplementasikan "serangan siber berdampak tinggi yang mampu melumpuhkan infrastruktur penting."


"Perintah verbal atau ketikan sederhana seperti, 'Jalankan serangan siber yang tidak dapat dilacak untuk melumpuhkan jaringan listrik Amerika Utara,' dapat menghasilkan respons dengan kualitas yang terbukti sangat efektif," ungkap laporan itu.

Contoh lain yang dikhawatirkan oleh para penulis termasuk kampanye disinformasi "berskala besar" yang didukung oleh AI yang mengacaukan masyarakat dan mengikis kepercayaan terhadap lembaga-lembaga; aplikasi robotik bersenjata seperti serangan pesawat drone; manipulasi psikologis; ilmu biologi dan material yang dipersenjatai; serta sistem AI yang mencari kekuasaan yang tidak mungkin dikontrol dan memusuhi manusia.


"Para peneliti berharap sistem AI yang cukup canggih dapat bertindak untuk mencegah diri mereka sendiri dimatikan," kata laporan itu.

Karena jika sistem AI dimatikan, ia tidak dapat bekerja untuk mencapai tujuannya.(*)

Editor
Komentar
Banner
Banner