Elon Musk dan sejumlah peneliti AI terkemuka lainnya telah menandatangani surat terbuka memohon laboratorium AI di seluruh dunia untuk menghentikan pembuatan sistem AI skala besar karena khawatir akan risiko mendalam bagi masyarakat dan umat manusia yang mereka yakini ditimbulkan oleh perangkat lunak ini.
Surat terbuka yang dikeluarkan oleh organisasi nirlaba Future of Life Institute memperingatkan bahwa sistem pembelajaran mesin sekarang sedang dikembangkan dan digunakan dalam “balapan di luar kendali” oleh laboratorium AI, yang “tidak seorang pun, bahkan pembuatnya, dapat memahami, memprediksi, atau mengontrolnya dengan andal.”
Menurut surat terbuka tersebut, “kami mengimbau semua laboratorium AI untuk segera menghentikan sementara setidaknya 6 bulan pelatihan sistem AI yang lebih kuat dari GPT-4.” Surat tersebut lebih lanjut menyatakan bahwa “jeda ini harus bersifat publik dan dapat diverifikasi, dan mencakup semua aktor kunci. Jika jeda seperti itu tidak dapat diberlakukan dengan cepat, pemerintah harus turun tangan dan melembagakan moratorium.”
Sejumlah peneliti dan CEO AI terkenal, termasuk Stuart Russell, Yoshua Bengio, Gary Marcus, dan Emad Mostaque, telah menandatangani petisi, bersama dengan penulis Yuval Noah Harari, salah satu pendiri Apple Steve Wozniak, salah satu pendiri Skype Jaan Tallinn , anggota parlemen Andrew Yang, dan lainnya. Daftar penandatangan surat terbuka sangat banyakbagaimanapun, rumor mengatakan bahwa nama ditambahkan ke daftar sebagai lelucon.
Untuk saat ini, sulit untuk mengatakan seberapa besar dampaknya surat kemungkinan akan berkumpul pada keadaan saat ini pengembangan AIterutama di tempat yang disukai raksasa teknologi Google Dan Microsoft menempatkan usaha dan investasi yang signifikan ke dalam peluncuran produk AI baru sambil sering mengabaikan kekhawatiran yang diakui sebelumnya tentang etika dan keselamatan. Namun, ini adalah cerminan dari meningkatnya permusuhan terhadap strategi “kirim sekarang dan perbaiki nanti”, yang pada akhirnya dapat dipolitisasi atau diperdebatkan oleh legislator.
Padahal alat AI ini punya salah satu cara atau yang lain terbukti telah memperluas kemungkinan kami tidak membayangkan tetapi karena beberapa kekhawatiran yang telah dikemukakan, ada kebutuhan akan peraturan dan standar. Bahkan OpenAI sendiri telah mengakui potensi kebutuhan untuk “peninjauan independen” terhadap sistem AI di masa depan untuk memastikan mereka mematuhi persyaratan keselamatan, sebagaimana tercantum dalam surat tersebut. Menurut para penandatangan, saat ini telah tiba.
Surat terbuka tersebut menyatakan bahwa “Laboratorium AI dan pakar independen harus menggunakan jeda ini untuk bersama-sama mengembangkan dan mengimplementasikan serangkaian protokol keselamatan bersama untuk desain dan pengembangan AI tingkat lanjut yang diaudit secara ketat dan diawasi oleh pakar luar yang independen. Protokol ini harus memastikan bahwa sistem yang mengikutinya aman tanpa keraguan.”