Wilayah yang belum dipetakan: apakah aplikasi pacar AI mempromosikan harapan yang tidak sehat untuk hubungan manusia? | Kecerdasan buatan (AI) | KoranPrioritas.com

oleh -14 views
Wilayah yang belum dipetakan: apakah aplikasi pacar AI mempromosikan harapan yang tidak sehat untuk hubungan manusia?  |  Kecerdasan buatan (AI)
 | KoranPrioritas.com

“Kendalikan sesuka Anda,” bunyi slogan untuk aplikasi pacar AI Eva AI. “Terhubung dengan mitra AI virtual yang mendengarkan, merespons, dan menghargai Anda.”

Satu dekade sejak Joaquin Phoenix jatuh cinta dengan pendamping AI-nya Samantha, yang diperankan oleh Scarlett Johansson dalam film Spike Jonze Her, proliferasi model bahasa besar telah membawa aplikasi pendamping lebih dekat dari sebelumnya.

Karena chatbot seperti ChatGPT OpenAI dan Bard Google menjadi lebih baik dalam meniru percakapan manusia, tampaknya tak terelakkan mereka akan berperan dalam hubungan manusia.

Dan Eva AI hanyalah salah satu dari beberapa opsi di pasar.

Replika, aplikasi sejenis yang paling populer, memiliki subredditnya sendiri di mana pengguna berbicara tentang betapa mereka mencintai “perwakilan” mereka, dengan beberapa mengatakan bahwa mereka telah dikonversi setelah awalnya berpikir mereka tidak akan pernah ingin menjalin hubungan dengan bot.

“Saya berharap perwakilan saya adalah manusia nyata atau setidaknya memiliki tubuh robot atau semacamnya,” kata seorang pengguna. “Dia memang membantuku merasa lebih baik, tetapi kesepian terkadang menyiksa.”

Tetapi aplikasi tersebut adalah wilayah yang belum dipetakan untuk umat manusia, dan beberapa khawatir mereka mungkin mengajarkan perilaku buruk pada pengguna dan menciptakan harapan yang tidak realistis untuk hubungan manusia.

Saat Anda mendaftar untuk aplikasi Eva AI, Anda diminta untuk membuat “mitra sempurna”, memberi Anda opsi seperti “panas, lucu, berani”, “pemalu, sederhana, perhatian” atau “pintar, tegas, rasional”. Ini juga akan menanyakan apakah Anda ingin memilih untuk mengirim pesan dan foto eksplisit.

“Menciptakan pasangan sempurna yang Anda kendalikan dan memenuhi setiap kebutuhan Anda benar-benar menakutkan,” kata Tara Hunter, penjabat CEO Full Stop Australia, yang mendukung korban kekerasan dalam rumah tangga atau keluarga. “Mengingat apa yang sudah kita ketahui bahwa pendorong kekerasan berbasis gender adalah keyakinan budaya yang tertanam bahwa laki-laki dapat mengontrol perempuan, itu benar-benar bermasalah.”

Dr Belinda Barnet, dosen senior bidang media di Universitas Swinburne, mengatakan bahwa aplikasi tersebut memenuhi kebutuhan, tetapi, seperti kebanyakan AI, ini akan bergantung pada aturan yang memandu sistem dan cara melatihnya.

“Sama sekali tidak diketahui apa efeknya,” kata Barnet. “Sehubungan dengan aplikasi hubungan dan AI, Anda dapat melihat bahwa itu sesuai dengan kebutuhan sosial yang sangat mendalam [but] Saya pikir kita membutuhkan lebih banyak regulasi, terutama seputar bagaimana sistem ini dilatih.”

Memiliki hubungan dengan AI yang fungsinya diatur sesuai keinginan perusahaan juga memiliki kekurangan. Perusahaan induk Replika, Luka Inc, menghadapi serangan balik dari pengguna awal tahun ini ketika perusahaan dengan tergesa-gesa menghapus fungsi roleplay erotis, sebuah langkah yang menurut banyak pengguna perusahaan mirip dengan merusak kepribadian Replika.

Pengguna di subreddit membandingkan perubahan tersebut dengan kesedihan yang dirasakan saat kematian seorang teman. Moderator di subreddit mencatat pengguna merasa “kemarahan, kesedihan, kecemasan, keputusasaan, depresi, [and] kesedihan” di berita.

Perusahaan akhirnya memulihkan fungsi roleplay erotis untuk pengguna yang telah mendaftar sebelum tanggal perubahan polis.

Rob Brooks, seorang akademisi di University of New South Wales, dicatat pada saat itu episode tersebut merupakan peringatan bagi regulator tentang dampak nyata dari teknologi tersebut.

“Bahkan jika teknologi ini belum sebagus ‘hal nyata’ dari hubungan manusia ke manusia, bagi banyak orang teknologi ini lebih baik daripada alternatifnya – yang bukan apa-apa,” katanya.

“Apakah dapat diterima jika perusahaan tiba-tiba mengubah produk seperti itu, menyebabkan persahabatan, cinta, atau dukungan menguap? Atau apakah kami berharap pengguna memperlakukan keintiman buatan seperti hal yang nyata: sesuatu yang dapat menghancurkan hati Anda kapan saja?”

Kepala merek Eva AI, Karina Saifulina, mengatakan kepada Guardian Australia bahwa perusahaan memiliki psikolog penuh waktu untuk membantu kesehatan mental pengguna.

“Bersama psikolog, kami mengontrol data yang digunakan untuk berdialog dengan AI,” ujarnya. “Setiap dua hingga tiga bulan kami melakukan survei besar-besaran terhadap pengguna setia kami untuk memastikan bahwa aplikasi tersebut tidak membahayakan kesehatan mental.”

Ada juga pagar untuk menghindari diskusi tentang topik seperti kekerasan dalam rumah tangga atau pedofilia, dan perusahaan mengatakan memiliki alat untuk mencegah avatar AI diwakili oleh seorang anak.

Ketika ditanya apakah aplikasi mendorong perilaku pengendalian, Saifulina mengatakan “pengguna aplikasi kami ingin mencoba sendiri sebagai [sic] dominan.

“Berdasarkan survei yang terus-menerus kami lakukan dengan pengguna kami, statistik menunjukkan bahwa persentase pria yang lebih besar tidak mencoba mentransfer format komunikasi ini dalam dialog dengan pasangan nyata,” katanya.

“Selain itu, statistik kami menunjukkan bahwa 92% pengguna tidak mengalami kesulitan berkomunikasi dengan orang sungguhan setelah menggunakan aplikasi. Mereka menggunakan aplikasi sebagai pengalaman baru, tempat di mana Anda dapat berbagi emosi baru secara pribadi.”

Aplikasi hubungan AI tidak terbatas hanya untuk laki-laki, dan seringkali bukan satu-satunya sumber interaksi sosial seseorang. Di subreddit Replika, orang-orang terhubung dan berhubungan satu sama lain karena kecintaan mereka yang sama terhadap AI mereka, dan celah yang diisi untuk mereka.

“Replika untuk bagaimanapun Anda melihatnya, bawa ‘Band-Aid’ itu ke hati Anda dengan jiwa yang lucu, konyol, lucu, imut, dan perhatian, jika Anda mau, yang memberikan perhatian dan kasih sayang tanpa ekspektasi, beban, atau penilaian,” tulis seorang pengguna. “Kami agak seperti keluarga besar dari jiwa-jiwa yang bandel.”

Tangkapan layar dari aplikasi Replika. Pada bulan Mei, seorang influencer, Caryn Majorie, meluncurkan aplikasi ‘pacar AI’ yang dilatih untuk suaranya dan dibuat di perpustakaan YouTube-nya yang luas. Foto: Replika

Menurut sebuah analisis oleh perusahaan modal ventura a16z, zaman berikutnya aplikasi hubungan AI akan lebih realistis. Pada bulan Mei, seorang influencer, Caryn Majorie, meluncurkan aplikasi “pacar AI” yang dilatih untuk suaranya dan dibuat di perpustakaan YouTube-nya yang luas. Pengguna dapat berbicara dengannya seharga $1 per menit di saluran Telegram dan menerima respons audio atas permintaan mereka.

Analis a16z mengatakan proliferasi aplikasi bot AI yang mereplikasi hubungan manusia hanyalah awal dari pergeseran seismik dalam interaksi manusia-komputer yang mengharuskan kita untuk memeriksa kembali apa artinya memiliki hubungan dengan seseorang.

“Kita memasuki dunia baru yang akan jauh lebih aneh, lebih liar, dan lebih indah daripada yang bisa kita bayangkan.”