Pengambilalihan robot? Tidak terlalu. Seperti inilah hari kiamat AI | Teknologi | KoranPrioritas.com

oleh -18 views

ALarangan atas kecerdasan buatan telah mencapai puncaknya dalam beberapa bulan terakhir. Hanya minggu ini, lebih dari 300 pemimpin industri diterbitkan surat peringatan AI dapat menyebabkan kepunahan manusia dan harus dipertimbangkan dengan keseriusan “pandemi dan perang nuklir”.

Istilah seperti “kiamat AI” memunculkan citra fiksi ilmiah tentang pengambilalihan robot, tetapi seperti apa sebenarnya skenario itu? Kenyataannya, kata para ahli, bisa lebih ditarik keluar dan kurang sinematik – bukan bom nuklir tetapi kemerosotan yang merayapi bidang dasar masyarakat.

“Saya tidak berpikir kekhawatirannya adalah AI menjadi jahat atau AI memiliki semacam keinginan jahat,” kata Jessica Newman, direktur Inisiatif Keamanan Intelijen Buatan University of California Berkeley.

“Bahayanya berasal dari sesuatu yang jauh lebih sederhana, yaitu orang dapat memprogram AI untuk melakukan hal-hal berbahaya, atau kita akhirnya menyebabkan kerugian dengan mengintegrasikan sistem AI yang tidak akurat secara inheren ke lebih banyak domain masyarakat.”

Bukan berarti kita tidak perlu khawatir. Bahkan jika skenario pemusnahan manusia tidak mungkin terjadi, AI yang kuat memiliki kapasitas untuk mengacaukan peradaban dalam bentuk meningkatnya informasi yang salah, manipulasi pengguna manusia, dan transformasi besar pasar tenaga kerja saat AI mengambil alih pekerjaan.

Teknologi kecerdasan buatan telah ada selama beberapa dekade, tetapi kecepatan model pembelajaran bahasa seperti ChatGPT telah memasuki arus utama telah meningkatkan kekhawatiran yang sudah berlangsung lama. Sementara itu, perusahaan teknologi telah memasuki semacam perlombaan senjata, bergegas menerapkan kecerdasan buatan ke dalam produk mereka untuk bersaing satu sama lain, menciptakan badai yang sempurna, kata Newman.

“Saya sangat khawatir tentang jalan yang kita lalui,” katanya. “Kami berada pada saat yang sangat berbahaya bagi AI karena sistem berada di tempat di mana mereka tampak mengesankan, tetapi masih sangat tidak akurat dan memiliki kerentanan yang melekat.”

Para ahli yang diwawancarai oleh Guardian mengatakan ini adalah area yang paling mereka khawatirkan.

Disinformasi mempercepat erosi kebenaran

Dalam banyak hal, apa yang disebut revolusi AI telah berlangsung selama beberapa waktu. Pembelajaran mesin mendukung algoritme yang membentuk umpan berita media sosial kami – teknologi yang disalahkan melanggengkan bias gender, divisi pengapianDan mengobarkan kerusuhan politik.

Para ahli memperingatkan bahwa masalah yang belum terselesaikan itu hanya akan meningkat saat model kecerdasan buatan lepas landas. Skenario terburuk dapat mencakup terkikisnya pemahaman kita bersama tentang kebenaran dan informasi yang valid, yang mengarah ke lebih banyak pemberontakan berdasarkan kepalsuan – seperti yang terjadi dalam serangan 6 Januari di gedung DPR AS. Para ahli memperingatkan gejolak lebih lanjut dan bahkan perang dapat dipicu oleh meningkatnya misinformasi dan disinformasi.

“Dapat dikatakan bahwa gangguan media sosial adalah pertemuan pertama kami dengan AI yang benar-benar bodoh – karena sistem pemberi rekomendasi sebenarnya hanyalah model pembelajaran mesin yang sederhana,” kata Peter Wang, CEO dan salah satu pendiri platform ilmu data Anaconda. “Dan kami benar-benar gagal dalam pertemuan itu.”

Model bahasa besar seperti ChatGPT rentan terhadap fenomena yang disebut ‘halusinasi’, di mana informasi palsu atau palsu diulang. Foto: Greg Guy/Alamy

Wang menambahkan bahwa kesalahan tersebut dapat terjadi dengan sendirinya, karena model pembelajaran bahasa dilatih pada informasi yang salah yang menciptakan kumpulan data yang cacat untuk model masa depan. Ini dapat menyebabkan efek “kanibalisme model”, di mana model masa depan diperkuat dan selamanya bias oleh hasil model masa lalu.

Misinformasi – ketidakakuratan sederhana – dan disinformasi – informasi palsu yang disebarkan dengan jahat dengan maksud untuk menyesatkan – keduanya telah diperkuat oleh kecerdasan buatan, kata para ahli. Model bahasa besar seperti ChatGPT rentan terhadap fenomena yang disebut “halusinasi”, di mana informasi palsu atau palsu diulang. Sebuah studi dari pengawas kredibilitas jurnalisme NewsGuard diidentifikasi lusinan situs “berita” online yang seluruhnya ditulis oleh AI, banyak di antaranya berisi ketidakakuratan tersebut.

Sistem seperti itu dapat dipersenjatai oleh aktor jahat untuk dengan sengaja menyebarkan informasi yang salah dalam skala besar, kata Gordon Crovitz dan Steven Brill, co-CEO NewsGuard. Hal ini sangat memprihatinkan dalam acara berita berisiko tinggi, seperti yang telah kita lihat manipulasi informasi yang disengaja dalam perang Rusia-Ukraina.

“Anda memiliki aktor jahat yang dapat menghasilkan narasi palsu dan kemudian menggunakan sistem sebagai pengganda kekuatan untuk menyebarkannya dalam skala besar,” kata Crovitz. “Ada orang yang mengatakan bahwa bahaya AI dilebih-lebihkan, tetapi di dunia informasi berita dampaknya mengejutkan.”

Contoh terbaru berkisar dari yang lebih jinak, seperti gambar virus AI yang dihasilkan tentang Paus yang mengenakan “jaket swag”, hingga pemalsuan dengan potensi konsekuensi yang lebih mengerikan, seperti video presiden Ukraina, Volodymyr Zelenskiy, yang dibuat oleh AI, mengumumkan penyerahan pada April 2022.

“Misinformasi adalah individu [AI] bahaya yang memiliki potensi paling tinggi dan risiko tertinggi dalam hal potensi bahaya berskala lebih besar,” ujar Rebecca Finlay, dari Partnership on AI. “Pertanyaan yang muncul adalah: bagaimana kita menciptakan ekosistem di mana kita dapat memahami apa yang benar? Bagaimana kami mengautentikasi apa yang kami lihat online?”

Sementara sebagian besar ahli mengatakan informasi yang salah telah menjadi perhatian yang paling cepat dan meluas, ada perdebatan mengenai sejauh mana teknologi tersebut dapat secara negatif mempengaruhi pemikiran atau perilaku penggunanya.

Kekhawatiran itu sudah terjadi dengan cara yang tragis, setelah seorang pria di Belgia meninggal karena bunuh diri setelah chatbot diduga mendorongnya untuk bunuh diri. Insiden mengkhawatirkan lainnya telah dilaporkan – termasuk chatbot yang menyuruh satu pengguna untuk meninggalkannya mitraDan kabar lainnya memberi tahu pengguna dengan gangguan makan untuk menurunkan berat badan.

Chatbots, dengan desain, cenderung menimbulkan lebih banyak kepercayaan karena mereka berbicara kepada penggunanya dengan cara percakapan, kata Newman.

“Model bahasa besar sangat mampu membujuk atau memanipulasi orang untuk sedikit mengubah keyakinan atau perilaku mereka,” katanya. “Kita perlu melihat dampak kognitif yang ada di dunia yang sudah sangat terpolarisasi dan terisolasi, di mana kesepian dan kesehatan mental menjadi masalah besar.”

Ketakutannya, kemudian, bukanlah chatbots AI akan mendapatkan perasaan dan menyalip penggunanya, tetapi bahwa bahasa terprogram mereka dapat memanipulasi orang untuk menyebabkan kerugian yang mungkin tidak akan mereka alami. Ini terutama berkaitan dengan sistem bahasa yang bekerja pada model keuntungan periklanan, kata Newman, karena mereka berusaha memanipulasi perilaku pengguna dan membuat mereka tetap menggunakan platform selama mungkin.

“Ada banyak kasus di mana pengguna menyebabkan kerugian bukan karena mereka menginginkannya, tetapi karena itu merupakan konsekuensi yang tidak disengaja dari sistem yang gagal mengikuti protokol keamanan,” katanya.

Newman menambahkan bahwa sifat chatbots yang mirip manusia membuat pengguna sangat rentan terhadap manipulasi.

“Jika Anda berbicara dengan sesuatu yang menggunakan kata ganti orang pertama, dan berbicara tentang perasaan dan latar belakangnya sendiri, meskipun itu tidak nyata, hal itu masih lebih mungkin menimbulkan semacam respons manusia yang membuat orang lebih rentan terhadap keinginan. untuk mempercayainya, ”katanya. “Itu membuat orang ingin memercayainya dan memperlakukannya lebih seperti teman daripada alat.”

Krisis tenaga kerja yang akan datang: ‘Tidak ada kerangka kerja untuk bertahan hidup’

Kekhawatiran lama adalah bahwa otomatisasi digital akan memakan banyak pekerjaan manusia. Penelitian bervariasi, dengan beberapa penelitian menyimpulkan bahwa AI dapat menggantikan yang setara dengan 85 juta pekerjaan di seluruh dunia pada tahun 2025 dan lebih dari 300m dalam jangka panjang.

demonstran memegang tanda bertuliskan
Beberapa penelitian menunjukkan AI dapat menggantikan setara dengan 85 juta pekerjaan di seluruh dunia pada tahun 2025. Foto: Wachiwit/Alamy

Industri yang terkena dampak AI sangat luas, dari penulis skenario ke ilmuwan data. AI mampu lulus ujian bar dengan skor yang mirip dengan pengacara yang sebenarnya dan menjawab pertanyaan kesehatan lebih baik dari dokter sebenarnya.

Para ahli membunyikan alarm tentang kehilangan pekerjaan massal dan ketidakstabilan politik yang menyertainya yang dapat terjadi dengan kebangkitan kecerdasan buatan yang tak kunjung reda.

Wang memperingatkan bahwa PHK massal terjadi dalam waktu dekat, dengan “sejumlah pekerjaan berisiko” dan sedikit rencana untuk menangani dampaknya.

“Tidak ada kerangka kerja di Amerika tentang bagaimana bertahan hidup ketika Anda tidak memiliki pekerjaan,” katanya. “Ini akan menyebabkan banyak gangguan dan banyak kerusuhan politik. Bagi saya, itu adalah konsekuensi yang tidak diinginkan yang paling konkret dan realistis yang muncul dari ini.”

Apa selanjutnya?

Meskipun meningkatnya kekhawatiran tentang dampak negatif dari teknologi dan media sosial, sangat sedikit yang telah dilakukan di AS untuk mengaturnya. Para ahli khawatir kecerdasan buatan tidak akan berbeda.

“Salah satu alasan mengapa banyak dari kita memiliki kekhawatiran tentang peluncuran AI adalah karena selama 40 tahun terakhir sebagai masyarakat kita pada dasarnya telah menyerah untuk benar-benar mengatur teknologi,” kata Wang.

Namun, upaya positif telah dilakukan oleh legislator dalam beberapa bulan terakhir, dengan Kongres panggilan CEO Open AI, Sam Altman, untuk bersaksi tentang perlindungan yang harus diterapkan. Finlay mengatakan dia “berbesar hati” dengan langkah tersebut tetapi mengatakan lebih banyak yang harus dilakukan untuk membuat protokol bersama pada teknologi AI dan peluncurannya.

“Sama sulitnya memprediksi skenario hari kiamat, sulit juga memprediksi kapasitas respons legislatif dan peraturan,” katanya. “Kami membutuhkan pengawasan nyata untuk tingkat teknologi ini.”

Meskipun bahaya AI menjadi perhatian utama bagi kebanyakan orang di industri kecerdasan buatan, tidak semua ahli di bidang ini adalah “hari kiamat”. Banyak yang bersemangat tentang aplikasi potensial untuk teknologi ini.

“Saya benar-benar berpikir bahwa generasi teknologi AI yang baru saja kita temukan ini benar-benar dapat membuka potensi besar umat manusia untuk berkembang pada skala yang jauh lebih baik daripada yang telah kita lihat selama 100 tahun atau 200 tahun terakhir,” kata Wang. . “Saya sebenarnya sangat, sangat optimis dengan dampak positifnya. Tetapi pada saat yang sama saya melihat apa yang dilakukan media sosial terhadap masyarakat dan budaya, dan saya sangat menyadari fakta bahwa ada banyak potensi kerugian.