Kecerdasan buatan itu cerdas, tetapi apakah itu cocok dengan orang lain?

  • Bagikan
Kecerdasan buatan itu cerdas, tetapi apakah itu cocok dengan orang lain?


Manusia menganggap AI sebagai rekan satu tim yang membuat frustrasi ketika memainkan permainan kooperatif bersama, yang menimbulkan tantangan untuk “kecerdasan tim,” studi menunjukkan.

Dalam hal permainan seperti catur atau Go, program kecerdasan buatan (AI) telah jauh melampaui pemain terbaik di dunia. AI “manusia super” ini adalah pesaing yang tak tertandingi, tetapi mungkin lebih sulit daripada bersaing dengan manusia adalah berkolaborasi dengan mereka. Bisakah teknologi yang sama bergaul dengan orang-orang?

Dalam sebuah studi baru, Laboratorium MIT Lincoln peneliti berusaha mencari tahu seberapa baik manusia dapat memainkan permainan kartu kooperatif Hanabi dengan model AI canggih yang dilatih untuk unggul dalam bermain dengan rekan satu tim yang belum pernah ditemui sebelumnya. Dalam eksperimen single-blind, peserta memainkan dua seri permainan: satu dengan agen AI sebagai rekan satu tim mereka, dan yang lainnya dengan agen berbasis aturan, bot yang diprogram secara manual untuk bermain dengan cara yang telah ditentukan sebelumnya.

Hasilnya mengejutkan para peneliti. Tidak hanya skornya tidak lebih baik dengan rekan tim AI dibandingkan dengan agen berbasis aturan, tetapi manusia secara konsisten benci bermain dengan rekan tim AI mereka. Mereka merasa itu tidak dapat diprediksi, tidak dapat diandalkan, dan tidak dapat dipercaya, dan merasa negatif bahkan ketika tim mencetak gol dengan baik. A kertas merinci studi ini telah diterima pada Konferensi 2021 tentang Sistem Pemrosesan Informasi Saraf (NeurIPS).

“Ini benar-benar menyoroti perbedaan bernuansa antara menciptakan AI yang berkinerja baik secara objektif dan menciptakan AI yang dipercaya atau disukai secara subjektif,” kata Ross Allen, rekan penulis makalah dan peneliti di Artificial Intelligence Technology Group. “Tampaknya hal-hal itu begitu dekat sehingga tidak ada cahaya terang di antara mereka, tetapi penelitian ini menunjukkan bahwa itu sebenarnya adalah dua masalah yang terpisah. Kita perlu bekerja untuk mengurai itu.”

Manusia yang membenci rekan tim AI mereka dapat menjadi perhatian bagi para peneliti yang merancang teknologi ini untuk suatu hari nanti bekerja dengan manusia dalam tantangan nyata — seperti bertahan dari rudal atau melakukan operasi kompleks. Dinamika ini, yang disebut kecerdasan tim, adalah batas berikutnya dalam penelitian AI, dan menggunakan jenis AI tertentu yang disebut pembelajaran penguatan.

AI pembelajaran penguatan tidak diberi tahu tindakan mana yang harus diambil, melainkan menemukan tindakan mana yang menghasilkan “hadiah” paling numerik dengan mencoba skenario berulang kali. Teknologi inilah yang telah menghasilkan catur manusia super dan pemain Go. Tidak seperti algoritme berbasis aturan, AI ini tidak diprogram untuk mengikuti pernyataan “jika/maka”, karena kemungkinan hasil dari tugas manusia yang akan mereka tangani, seperti mengemudikan mobil, terlalu banyak untuk dikodekan.

“Pembelajaran penguatan adalah cara yang jauh lebih umum untuk mengembangkan AI. Jika Anda dapat melatihnya untuk mempelajari cara bermain catur, agen itu tidak perlu mengendarai mobil. Tetapi Anda dapat menggunakan algoritme yang sama untuk melatih agen yang berbeda untuk mengendarai mobil, dengan data yang benar” kata Allen. “Langit adalah batas dalam apa yang bisa, secara teori, lakukan.”

Petunjuk buruk, permainan buruk

Saat ini, para peneliti menggunakan Hanabi untuk menguji kinerja model pembelajaran penguatan yang dikembangkan untuk kolaborasi, dengan cara yang hampir sama seperti catur telah menjadi tolok ukur untuk menguji AI kompetitif selama beberapa dekade.

Permainan Hanabi mirip dengan bentuk multiplayer Solitaire. Pemain bekerja sama untuk menumpuk kartu dengan jenis yang sama secara berurutan. Namun, pemain tidak boleh melihat kartu mereka sendiri, hanya kartu yang dipegang rekan satu tim mereka. Setiap pemain sangat dibatasi dalam hal apa yang dapat mereka komunikasikan dengan rekan satu tim mereka untuk membuat mereka memilih kartu terbaik dari tangan mereka sendiri untuk ditumpuk selanjutnya.

Para peneliti Laboratorium Lincoln tidak mengembangkan AI atau agen berbasis aturan yang digunakan dalam percobaan ini. Kedua agen tersebut mewakili yang terbaik di bidangnya untuk kinerja Hanabi. Bahkan, ketika Model AI sebelumnya dipasangkan dengan rekan tim AI yang belum pernah bermain dengannya sebelumnya, tim mencapai skor tertinggi yang pernah ada untuk permainan Hanabi antara dua agen AI yang tidak dikenal.

“Itu adalah hasil yang penting,” kata Allen. “Kami pikir, jika AI yang belum pernah bertemu sebelumnya dapat berkumpul dan bermain dengan sangat baik, maka kami harus dapat membawa manusia yang juga tahu cara bermain dengan sangat baik bersama dengan AI, dan mereka juga akan melakukannya dengan sangat baik. Itulah mengapa kami berpikir tim AI akan bermain lebih baik secara objektif, dan juga mengapa kami berpikir bahwa manusia akan lebih menyukainya, karena umumnya kami akan menyukai sesuatu yang lebih baik jika kami melakukannya dengan baik.”

Tak satu pun dari harapan itu menjadi kenyataan. Secara obyektif, tidak ada perbedaan statistik dalam skor antara AI dan agen berbasis aturan. Secara subyektif, semua 29 peserta melaporkan dalam survei preferensi yang jelas terhadap rekan setim berbasis aturan. Para peserta tidak diberi tahu agen mana yang mereka mainkan untuk permainan apa.

“Salah satu peserta mengatakan bahwa mereka sangat stres dengan permainan buruk dari agen AI sehingga mereka benar-benar sakit kepala,” kata Jaime Pena, seorang peneliti di AI Technology and Systems Group dan penulis makalah tersebut. “Yang lain mengatakan bahwa mereka mengira agen berbasis aturan itu bodoh tetapi bisa diterapkan, sedangkan agen AI menunjukkan bahwa dia memahami aturan, tetapi gerakannya tidak kohesif dengan seperti apa tim itu. Bagi mereka, itu memberi petunjuk buruk, membuat permainan buruk.”

Kreativitas tidak manusiawi

Persepsi tentang AI yang membuat “permainan buruk” ini terkait dengan perilaku mengejutkan yang telah diamati peneliti sebelumnya dalam pekerjaan pembelajaran penguatan. Misalnya, pada tahun 2016, ketika DeepMind’s AlphaGo pertama kali mengalahkan salah satu pemain Go terbaik dunia, salah satu gerakan yang paling banyak dipuji dilakukan oleh AlphaGo adalah pindah ke 37 di game 2, sebuah langkah yang sangat tidak biasa sehingga komentator manusia menganggapnya sebagai kesalahan. Analisis selanjutnya mengungkapkan bahwa langkah itu sebenarnya sangat diperhitungkan dengan baik, dan digambarkan sebagai “jenius.”

Pergerakan seperti itu mungkin dipuji ketika lawan AI melakukannya, tetapi mereka cenderung tidak dirayakan dalam pengaturan tim. Para peneliti Laboratorium Lincoln menemukan bahwa gerakan aneh atau tampaknya tidak logis adalah pelanggar terburuk dalam menghancurkan kepercayaan manusia pada rekan tim AI mereka dalam tim yang sangat erat ini. Pergerakan seperti itu tidak hanya mengurangi persepsi pemain tentang seberapa baik mereka dan rekan tim AI mereka bekerja sama, tetapi juga seberapa besar keinginan mereka untuk bekerja dengan AI, terutama ketika potensi hasil tidak segera terlihat.

“Ada banyak komentar tentang menyerah, komentar seperti ‘Saya benci bekerja dengan benda ini,’” tambah Hosea Siu, juga penulis makalah dan peneliti di Control and Autonomous Systems Engineering Group.

Partisipan yang menilai dirinya sebagai ahli Hanabi, yang dilakukan oleh mayoritas pemain dalam penelitian ini, lebih sering menyerah pada pemain AI. Siu merasa ini mengkhawatirkan bagi pengembang AI, karena pengguna utama teknologi ini kemungkinan besar adalah pakar domain.

“Misalnya Anda melatih asisten pemandu AI super pintar untuk skenario pertahanan rudal. Anda tidak menyerahkannya kepada peserta pelatihan; Anda menyerahkannya kepada ahli Anda di kapal Anda yang telah melakukan ini selama 25 tahun. Jadi, jika ada bias ahli yang kuat terhadapnya dalam skenario game, kemungkinan akan muncul di operasi dunia nyata, ”tambahnya.

Manusia licin

Para peneliti mencatat bahwa AI yang digunakan dalam penelitian ini tidak dikembangkan untuk preferensi manusia. Tapi, itu bagian dari masalah — tidak banyak. Seperti kebanyakan model AI kolaboratif, model ini dirancang untuk mencetak skor setinggi mungkin, dan keberhasilannya telah diukur dengan kinerja objektifnya.

Jika peneliti tidak fokus pada pertanyaan tentang preferensi subjektif manusia, “maka kami tidak akan membuat AI yang benar-benar ingin digunakan manusia,” kata Allen. “Lebih mudah untuk bekerja pada AI yang meningkatkan angka yang sangat bersih. Jauh lebih sulit untuk bekerja pada AI yang bekerja di dunia preferensi manusia yang lebih lembek ini.”

Memecahkan masalah yang lebih sulit ini adalah tujuan dari proyek MeRLin (Mission-Ready Reinforcement Learning), yang didanai oleh eksperimen ini di Laboratorium Lincoln Kantor Teknologi, bekerja sama dengan Akselerator Kecerdasan Buatan Angkatan Udara AS dan Departemen Teknik Elektro dan Ilmu Komputer MIT. Proyek ini mempelajari apa yang mencegah teknologi AI kolaboratif untuk melompat keluar dari ruang permainan dan menjadi kenyataan yang lebih berantakan.

Para peneliti berpikir bahwa kemampuan AI untuk menjelaskan tindakannya akan menimbulkan kepercayaan. Ini akan menjadi fokus kerja mereka untuk tahun depan.

“Anda dapat membayangkan kami menjalankan kembali eksperimen, tetapi setelah fakta — dan ini jauh lebih mudah diucapkan daripada dilakukan — manusia dapat bertanya, ‘Mengapa Anda melakukan gerakan itu, saya tidak memahaminya?” Jika AI dapat memberikan beberapa wawasan tentang apa yang mereka pikir akan terjadi berdasarkan tindakan mereka, maka hipotesis kami adalah bahwa manusia akan berkata, ‘Oh, cara berpikir yang aneh tentang itu, tapi saya mengerti sekarang,’ dan mereka akan percayalah. Hasil kami akan benar-benar berubah, meskipun kami tidak mengubah pengambilan keputusan yang mendasari AI, ”kata Allen.

Seperti ngerumpi setelah pertandingan, pertukaran semacam ini sering kali membantu manusia membangun persahabatan dan kerja sama sebagai sebuah tim.

“Mungkin itu juga bias kepegawaian. Sebagian besar tim AI tidak memiliki orang yang ingin bekerja pada manusia licin dan masalah lunak mereka, ”tambah Siu sambil tertawa. “Orang-orang yang ingin melakukan matematika dan optimasi. Dan itulah dasarnya, tapi itu tidak cukup.”

Menguasai permainan seperti Hanabi antara AI dan manusia dapat membuka banyak kemungkinan untuk menggabungkan kecerdasan di masa depan. Tetapi sampai para peneliti dapat menutup kesenjangan antara seberapa baik kinerja AI dan seberapa banyak manusia menyukainya, teknologi mungkin tetap pada mesin versus manusia.

Ditulis oleh Kylie Foy

Sumber: Institut Teknologi Massachusetts





Source link

  • Bagikan

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *