‘Seharusnya apa batasannya?’ Bapak ChatGPT tentang apakah AI akan menyelamatkan umat manusia – atau menghancurkannya | Kecerdasan buatan (AI) | KoranPrioritas.com

oleh

WSaat saya bertemu Sam Altman, kepala eksekutif laboratorium penelitian AI OpenAI, dia sedang melakukan tur dunia. Dia berkhotbah bahwa sistem AI yang dia dan para pesaingnya bangun dapat menimbulkan risiko eksistensial bagi masa depan umat manusia – kecuali jika pemerintah sekarang bekerja sama untuk membangun rel panduan, memastikan pembangunan yang bertanggung jawab selama dekade mendatang.

Di hari-hari berikutnya, dia dan ratusan pemimpin teknologi, termasuk ilmuwan dan “ayah baptis AI”, Geoffrey Hinton dan Yoshua Bengio, serta CEO DeepMind Google, Demis Hassabis, mengeluarkan pernyataan mengatakan bahwa “memitigasi risiko kepunahan AI harus menjadi prioritas global bersama dengan risiko skala sosial lainnya seperti pandemi dan perang nuklir”. Ini adalah upaya habis-habisan untuk meyakinkan para pemimpin dunia bahwa mereka serius ketika mengatakan bahwa “risiko AI” memerlukan upaya internasional bersama.

Ini pasti posisi yang menarik – Altman, 38, adalah ayah dari AI chatbot ChatGPT, lagipula, dan memimpin tugas untuk menciptakan “kecerdasan umum buatan”, atau AGI, sistem AI yang mampu menangani tugas apa pun yang dapat dicapai manusia. Di mana “AI” digembar-gemborkan untuk mendeskripsikan sesuatu yang lebih kompleks daripada Tamagotchi, AGI adalah hal yang nyata: kecerdasan tingkat manusia dari cerita seperti Her, Star Trek, Terminator, 2001: A Space Odyssey dan Battlestar Galactica.

FILE - Logo OpenAI terlihat pada ponsel di depan layar komputer yang menampilkan keluaran dari ChatGPT, 21 Maret 2023, di Boston.  Kepala perusahaan kecerdasan buatan yang membuat ChatGPT akan bersaksi di depan Kongres karena anggota parlemen menyerukan aturan baru untuk memandu perkembangan pesat teknologi AI.  CEO OpenAI Sam Altman dijadwalkan untuk berbicara pada sidang Senat Selasa, 16 Mei. (AP Photo/Michael Dwyer, File)
Foto: Michael Dwyer/AP

Dalam tur dunianya, yang semakin memperumit posisinya, Altman juga mengkhotbahkan sesuatu selain bahaya pengembangan AI yang tidak terkendali. Dia berargumen bahwa manfaat mengembangkan “superintelligence” – sebuah AGI yang muncul hingga 11, yang mampu memecahkan masalah yang tidak dapat dipecahkan oleh umat manusia – begitu besar sehingga kita harus mempertaruhkan kehancuran segalanya untuk tetap mencoba melakukannya.

Ini adalah beberapa minggu yang melelahkan. Pada hari saya bertemu dengannya, dia terbangun di Paris setelah bertemu dengan Emmanuel Macron pada malam sebelumnya. Perjalanan Eurostar ke London dan lompatan cepat ke Oxford nanti, dia memberikan ceramah kepada Oxford Guild, sebuah perkumpulan mahasiswa yang berfokus pada bisnis, sebelum beberapa pertemuan lagi, kemudian pergi ke Nomor 10 untuk duduk bersama Rishi Sunak. Kemudian dia naik pesawat ke Warsawa sebelum menuju ke Munich keesokan paginya. Tim PR-nya berputar masuk dan keluar, tapi Altman ada di dalamnya selama lima minggu.

“Saya suka San Francisco dan Bay Area,” katanya di atas panggung di acara Oxford. “Tapi itu adalah tempat yang aneh, dan itu adalah ruang gema. Kami mengatur perjalanan ini untuk mulai menjawab pertanyaan ini, dengan para pemimpin di tempat yang berbeda, tentang, seperti, apa batasan dari sistem ini, untuk memutuskan bagaimana keuntungan harus dibagi. Dan ada perspektif yang sangat berbeda antara sebagian besar dunia dan San Francisco.”

Yang membuat timnya jengkel, mendengar sebanyak mungkin perspektif dengan jelas lebih diprioritaskan daripada rencana hari itu. Setelah sebuah acara di UCL, dia berjalan ke arah hadirin – percakapan santai yang menjadi berita utama di Time and FT. Saat dia akan duduk dan mulai berbicara dengan saya, dia keluar untuk berbicara dengan sekelompok kecil pengunjuk rasa yang memegang tanda mendesak OpenAI untuk “menghentikan perlombaan bunuh diri AGI”.

“Berhentilah mencoba membangun AGI dan mulailah mencoba memastikan bahwa sistem AI dapat aman,” kata salah satu pengunjuk rasa, seorang mahasiswa Universitas Oxford bernama Gideon Futerman. “Jika kami, dan menurut saya Anda, berpikir bahwa sistem AGI bisa sangat berbahaya, saya tidak mengerti mengapa kami harus mengambil risiko.”

Altman, pendiri dropout klasik dalam cetakan Mark Zuckerberg – dia keluar dari Universitas Stanford di tahun ketiganya untuk meluncurkan jejaring sosial bernama Loopt – tampaknya dalam mode politisi penuh saat dia mencoba menemukan jalan tengah. “Menurut saya berlomba menuju AGI adalah hal yang buruk,” kata Altman, “dan menurut saya tidak membuat kemajuan keselamatan adalah hal yang buruk.” Tapi, dia memberi tahu pengunjuk rasa, satu-satunya cara untuk mendapatkan keselamatan adalah dengan “kemajuan kemampuan” – membangun sistem AI yang lebih kuat, semakin baik mendorong mereka dan memahami cara kerjanya.

Altman membuat Futerman tidak yakin, tetapi saat kami kembali ke bawah, dia optimis tentang konfrontasi. “Senang melakukan percakapan ini,” katanya. “Satu hal yang banyak saya bicarakan dalam perjalanan ini adalah seperti apa kerangka peraturan global untuk superintelligence.” Sehari sebelum kita bertemu, Altman dan rekan-rekannya menerbitkan catatan yang menguraikan visi mereka untuk peraturan itu: sebuah badan internasional yang meniru Badan Energi Atom Internasional, untuk mengkoordinasikan antara laboratorium penelitian, memberlakukan standar keselamatan, melacak daya komputasi yang dikhususkan untuk sistem pelatihan dan bahkan pada akhirnya membatasi pendekatan tertentu sama sekali.

Dia terkejut dengan tanggapan itu. “Ada banyak minat untuk mengetahui lebih banyak; lebih dari yang saya harapkan, dari politisi dan regulator yang sangat senior, tentang seperti apa kelihatannya. Saya yakin kita juga akan membicarakan banyak hal jangka pendek.”

Tapi perbedaan itu, antara jangka pendek dan jangka panjang, membuat Altman tidak kekurangan kritik dalam turnya. Lagipula, OpenAI berkepentingan untuk memusatkan perhatian peraturan pada risiko eksistensial jika hal itu mengalihkan perhatian pemerintah dari mengatasi potensi bahaya yang sudah dapat ditimbulkan oleh produk perusahaan. Perusahaan telah bentrok dengan Italia atas perlindungan data ChatGPT, sementara Altman memulai perjalanannya dengan kunjungan ke Washington DC untuk menghabiskan beberapa jam dimarahi oleh senator AS atas segala hal mulai dari informasi yang salah hingga pelanggaran hak cipta.

“Lucu,” kata Altman, “orang yang sama akan menuduh kami tidak peduli tentang hal-hal jangka pendek, dan juga mencoba untuk menangkap peraturan” – gagasan bahwa, jika peraturan yang memberatkan diberlakukan, hanya OpenAI dan beberapa pemimpin pasar lainnya akan memiliki sumber daya untuk mematuhinya. “Saya pikir itu semua penting. Ada rentang waktu yang berbeda, tetapi kami harus mengatasi setiap tantangan ini.” Dia melontarkan beberapa kekhawatiran: “Menurut saya, ada hal yang sangat serius yang akan terjadi, disinformasi yang canggih; satu lagi sedikit setelah itu, mungkin tentang keamanan siber. Ini sangat penting, tetapi misi khusus kami adalah tentang AGI. Jadi saya pikir sangat masuk akal jika kita membicarakannya lebih banyak, meskipun kita juga mengerjakan hal-hal lain.

Dia sedikit tersinggung ketika saya menyarankan bahwa motivasi perusahaan mungkin didorong oleh keuntungan. “Kami tidak perlu memenangkan segalanya. Kami adalah perusahaan yang tidak biasa: kami ingin mendorong revolusi ini ke dunia, mencari cara untuk membuatnya aman dan sangat bermanfaat. Tapi saya tidak memikirkan hal-hal dengan cara yang sama seperti yang Anda pikirkan tentang topik ini.

OpenAI memang tidak biasa. Organisasi ini didirikan pada tahun 2015 sebagai organisasi nirlaba dengan sumbangan $1 miliar dari para pendukung termasuk Elon Musk, salah satu pendiri PayPal Peter Thiel dan salah satu pendiri LinkedIn Reid Hoffman. Altman awalnya bertindak sebagai co-chair bersama Musk, dengan tujuan “untuk memajukan kecerdasan digital dengan cara yang paling mungkin menguntungkan umat manusia secara keseluruhan, tidak dibatasi oleh kebutuhan untuk menghasilkan keuntungan finansial”. Tapi itu berubah pada 2019, ketika organisasi membentuk kembali dirinya sendiri di sekitar model “laba yang dibatasi”. Altman menjadi CEO, dan organisasi mulai mengambil investasi eksternal, dengan ketentuan bahwa tidak ada investor yang dapat menghasilkan lebih dari 100 kali input awal mereka.

Alasannya sederhana: bekerja pada penelitian AI yang canggih jauh lebih mahal daripada yang terlihat pertama kali. “Tidak ada cara untuk tetap menjadi yang terdepan dalam penelitian AI, apalagi membangun AGI, tanpa kami meningkatkan investasi komputasi kami secara besar-besaran,” kepala ilmuwan OpenAI Ilya Sutskever kata pada saat itu. Altman, sudah kaya secara mandiri – dia membuat kekayaan pertamanya dengan Loopt, dan yang kedua sebagai presiden akselerator startup Penggabung Y – tidak mengambil ekuitas di perusahaan baru. Jika AI akhirnya membentuk kembali dunia, dia tidak akan mendapat manfaat lebih dari kita semua.

Itu penting, katanya, karena sementara Altman yakin bahwa lengkungan mengarah ke pembentukan kembali menjadi positif secara luas, di mana dia kurang yakin siapa yang menang. “Saya tidak ingin mengatakan saya yakin. Saya yakin itu akan mengangkat standar hidup semua orang, dan, sejujurnya, jika pilihannya adalah menaikkan standar hidup semua orang tetapi menjaga ketidaksetaraan, saya akan tetap mengambilnya. Dan saya pikir kita mungkin bisa setuju jika [safe AGI] dibangun, itu bisa melakukan itu. Tapi itu mungkin kekuatan yang sangat menyamakan. Beberapa teknologi dan beberapa tidak, dan beberapa melakukan keduanya dengan cara yang berbeda. Tapi saya pikir Anda bisa melihat banyak cara, di mana, jika semua orang di Bumi mendapatkan pendidikan yang jauh lebih baik, perawatan kesehatan yang jauh lebih baik, kehidupan yang tidak mungkin karena harga tenaga kerja kognitif saat ini – itu adalah kekuatan penyeimbang di sebuah cara yang bisa ampuh.”

Altman berbicara kepada media setelah bersaksi di hadapan subkomite Senat tentang privasi, teknologi, dan hukum bulan lalu.
Altman berbicara kepada media setelah bersaksi di hadapan subkomite Senat tentang privasi, teknologi, dan hukum bulan lalu. Foto: Jim Lo Scalzo/EPA

Namun, dia melakukan lindung nilai atas taruhannya. Altman juga telah menjadi pendukung vokal dari berbagai bentuk pendapatan dasar universal, dengan alasan bahwa akan semakin penting untuk mencari cara membagi keuntungan kemajuan AI secara adil melalui periode ketika gangguan jangka pendek bisa parah. Itulah proyek sampingannya, sebuah startup crypto bernama Worldcoin, yang difokuskan pada penyelesaian – proyek tersebut telah menetapkan untuk memindai iris mata setiap orang di Bumi, untuk membangun pendapatan dasar universal berbasis cryptocurrency. Tapi itu bukan satu-satunya pendekatannya. “Mungkin komponen terpenting dari kekayaan di masa depan adalah akses ke sistem ini – dalam hal ini, Anda dapat memikirkan untuk mendistribusikan kembali itu sendiri.”

Pada akhirnya, semuanya kembali ke tujuan untuk menciptakan dunia tempat kecerdasan super bekerja untuk kita, bukan melawan kita. Suatu kali, kata Altman, visinya tentang masa depan adalah apa yang kita kenali dari fiksi ilmiah. “Cara yang biasa saya pikirkan tentang menuju superintelligence adalah kami akan membangun sistem yang sangat mumpuni ini. Ada banyak tantangan keamanan dengan itu, dan itu adalah dunia yang akan terasa sangat tidak stabil.” Jika OpenAI mengaktifkan versi terbarunya ChatGPT dan menemukan itu lebih pintar dari gabungan semua umat manusia, maka mudah untuk mulai memetakan serangkaian hasil yang cukup nihilistik: siapa pun yang berhasil menguasai sistem dapat menggunakannya untuk menguasai dunia, dan akan sulit untuk digeser oleh siapa pun kecuali sistem itu sendiri.

Namun sekarang, Altman melihat kursus yang lebih stabil hadir dengan sendirinya: “Kami sekarang melihat jalur di mana kami membangun alat ini yang menjadi semakin kuat. Dan, ada miliaran, atau triliunan, salinan yang digunakan di dunia, membantu setiap orang menjadi jauh lebih efektif, mampu melakukan lebih banyak lagi. Jumlah hasil yang dapat dimiliki satu orang dapat meningkat secara dramatis, dan di mana superintelijen muncul bukan hanya kemampuan jaringan saraf tunggal terbesar kita, tetapi semua ilmu baru yang kita temukan, semua hal baru yang kita ciptakan .

“Bukannya itu tidak bisa dihentikan,” katanya. Jika pemerintah di seluruh dunia memutuskan untuk bertindak bersama untuk membatasi pengembangan AI, seperti yang mereka lakukan di bidang lain, seperti kloning manusia atau penelitian senjata biologis, mereka mungkin bisa melakukannya. Tapi itu berarti menyerahkan semua yang mungkin. “Saya pikir ini akan menjadi lompatan maju yang paling luar biasa dalam kualitas hidup orang-orang yang pernah kita miliki, dan saya pikir entah bagaimana hal itu hilang dari diskusi.”