Bersama janji manis AI (akal imitasi / artificial intellgence) terdapat resiko besar bagi umat manusia. Kita perlu terus mengembangkan budaya berpikir kritis; termasuk berpikir kritis terhadap AI dan terhadap teknologi secara luas.

Narasi kelas kritis memandang AI penuh waspada; AI memang bisa bermanfaat tetapi resiko AI amat besar; AI makin berkembang efisien tetapi aktor jahat bisa eksploitasi AI yang merugikan umat. Hinton, Harari, dan Elon Musk adalah beberapa tokoh dalam kelas narasi kritis.
5. Bom Atom Kemanusiaan dari Hinton
6. Pernikahan Robot Manusia dari Mahayana
7. Nexus Homo Homini Lupus dari Harari
8. Teknologi Instrumen dari Habermas
9. Omong Kosong dan Disparitas dari Acemoglu
Berikut, kita akan membahas beberapa narasi kritis AI.
5. Bom Atom Kemanusiaan dari Hinton
AI bisa lebih bahaya dari bom atom. Kita menyebut narasi ini sebagai narasi bom atom kemanusiaan. Bom atom jelas sangat berbahaya. Tetapi, siapa pun orangnya sulit untuk memproduksi bom atom; sulit eksploitasi bom atom. Sementara, AI (akal imitasi / artificial intelligence) adalah sangat berbahaya. Di saat yang sama, AI mudah dieksploitasi oleh banyak pihak dengan biaya murah. Sehingga, AI lebih bahaya dari bom atom.
Hinton, pemenang Nobel fisika 2024, menolak pandangan Kurzweil yang optimis itu. Bagi Hinton, AI memunculkan beragam resiko ketidakpastian: [a] tidak pasti apakah bermanfaat atau berbahaya; [b] tidak pasti apakah bisa dikendalikan atau tidak; [c] tidak pasti apakah kita bisa mencegah orang jahat agar tidak memanipulasi AI. Totalitas ketidakpastian ini menyebabkan AI lebih bahaya dari bom atom.
Di bagian ini, kita akan membahas beberapa perspektif Hinton tentang AI.
Penghargaan Nobel 2024
Dua peraih Nobel Fisika tahun ini telah menggunakan berbagai alat dari fisika untuk mengembangkan metode yang menjadi dasar pembelajaran mesin yang canggih saat ini.
John Hopfield menciptakan memori asosiatif yang dapat menyimpan dan merekonstruksi gambar dan jenis pola lainnya dalam data.
Geoffrey Hinton menemukan metode yang dapat secara mandiri menemukan properti dalam data, dan melakukan tugas-tugas seperti mengidentifikasi elemen-elemen tertentu dalam gambar.
Ketika kita berbicara tentang kecerdasan buatan, yang sering kita maksud adalah pembelajaran mesin menggunakan jaringan saraf tiruan. Teknologi ini awalnya terinspirasi oleh struktur otak. Dalam jaringan saraf tiruan, neuron otak diwakili oleh simpul-simpul yang memiliki nilai berbeda. Simpul-simpul ini saling memengaruhi melalui koneksi yang dapat disamakan dengan sinapsis dan yang dapat diperkuat atau diperlemah.
Jaringan dilatih, misalnya dengan mengembangkan koneksi yang lebih kuat antara simpul-simpul dengan nilai tinggi secara bersamaan. Para pemenang tahun ini telah melakukan pekerjaan penting dengan jaringan saraf tiruan sejak tahun 1980-an dan seterusnya.
John Hopfield menemukan jaringan yang mampu untuk menyimpan dan menciptakan kembali pola. Kita dapat membayangkan simpul-simpul sebagai piksel. Jaringan Hopfield menggunakan fisika yang menggambarkan karakteristik material karena spin atomnya – sifat yang membuat setiap atom menjadi magnet kecil. Jaringan secara keseluruhan dijelaskan dengan cara yang setara dengan energi dalam sistem spin yang ditemukan dalam fisika, dan dilatih dengan menemukan nilai untuk koneksi antara simpul-simpul sehingga gambar yang disimpan memiliki energi yang rendah.
Ketika jaringan Hopfield diberi gambar yang terdistorsi atau tidak lengkap, ia secara metodis bekerja melalui simpul-simpul dan memperbarui nilainya sehingga energi jaringan turun. Dengan demikian, jaringan bekerja secara bertahap untuk menemukan gambar tersimpan yang paling mirip dengan gambar tidak sempurna yang diberikan kepadanya.
Geoffrey Hinton menggunakan jaringan Hopfield sebagai fondasi untuk jaringan baru yang menggunakan metode berbeda: mesin Boltzmann.
Mesin ini dapat belajar mengenali elemen karakteristik dalam jenis data tertentu. Hinton menggunakan alat dari fisika statistik, ilmu sistem yang dibangun dari banyak komponen serupa. Mesin dilatih dengan memberinya contoh yang sangat mungkin muncul saat mesin dijalankan. Mesin Boltzmann dapat digunakan untuk mengklasifikasikan gambar atau membuat contoh baru dari jenis pola yang dilatihnya. Hinton telah mengembangkan karya ini, membantu memulai pengembangan pembelajaran mesin yang eksplosif saat ini. (www.nobelprize.org)
Bapak AI Menyesali
Geoffrey Everest Hinton CC FRS FRSC (lahir 6 Desember 1947) adalah seorang ilmuwan komputer, ilmuwan kognitif, psikolog Inggris-Kanada dan paling terkenal atas karyanya pada jaringan saraf buatan, yang membuatnya mendapat gelar sebagai “Bapak AI”. Dan Nobel Fisika 2024.
Hinton dipandang sebagai tokoh terkemuka dalam komunitas pembelajaran mendalam (deep learning).
Ia telah menyuarakan kekhawatiran tentang penyalahgunaan AI yang disengaja oleh aktor jahat, pengangguran dampak teknologi, dan risiko eksistensial dari kecerdasan umum buatan.
Pada Konferensi Sistem Pemrosesan Informasi Neural (NeurIPS) 2022, ia memperkenalkan algoritma pembelajaran baru untuk jaringan neural yang disebutnya algoritma “Maju-Maju”. Ide dari algoritma baru ini adalah untuk mengganti lintasan maju-mundur tradisional dari backpropagation dengan dua lintasan maju, satu dengan data positif (yaitu nyata) dan yang lainnya dengan data negatif yang dapat dihasilkan hanya oleh jaringan.
Pada bulan Mei 2023, Hinton mengumumkan pengunduran dirinya dari Google secara terbuka. … bahwa ia ingin “berbicara secara bebas tentang risiko AI” dan menambahkan bahwa dirinya sekarang menyesali pekerjaan seumur hidupnya.
Resiko Ketidakpastian
Berikutnya, kita lebih fokus kepada argumen Hinton: ketidakpastian AI.
Manfaat vs Bahaya
Awalnya, narrow-AI jelas memberi manfaat bagi manusia dan alam. Peta digital, menggunakan AI, membantu manusia menemukan jalan paling lancar dan optimal ketika berada dalam situasi kemacetan lalulintas. Kita hemat waktu dan energi; dan hemat beban pikiran. Deteksi penyakit dengan AI berhasil mengenali sel kanker sehingga tidak terlambat untuk penanganan.
Ketika chatGPT, dan AI generatif lain, diluncurkan maka situasi berubah. AI tampil begitu cerdas; AI mampu menjawab semua pertanyaan yang kita ajukan dengan cepat dan menakjubkan. Anda tanya sejarah dunia, atau kemajuan sains teknologi terbaru, atau tips olah raga, atau resep masakan maka AI akan menjawab dengan cerdas. Saya pernah minta AI untuk membuatkan puisi cinta dan AI menuliskan puisi cinta yang indah.
Bagi Hinton, kemampuan AI yang meluas ini, misal disebut AGI, menjadi tidak pasti: apakah bermanfaat atau berbahaya. AGI tampak bermanfaat membantu kita menjawab beragam masalah. Tetapi, AGI berbahaya karena jawaban AGI bisa halusinasi. AGI bermanfaat sebagai call center tetapi mengakibatkan pengangguran bagi beberapa orang. AGI menambah kita cerdas dengan beragam pengetahuan tetapi membuat kita malas berpikir. Jadi, kita perlu waspada terhadap ancaman AI.
Tak Terkendali
Hinton terpesona oleh langkah 37 AlphaGo yang tidak masuk akal; terbukti, AI berhasil mengalahkan juara dunia Lee Sedol dalam permainan Go. Ketika AI berhasil mengalahkan juara dunia catur, itu prestasi hebat. Permainan Go lebih kompleks rasionalitasnya dari catur. Dan, AI berhasil mengalahkan juara Go asal Korea Selatan.
Bagaimana pun langkah 37 adalah misteri. Pemain Go profesional dan pengamat menilai bahwa langkah 37 adalah buruk bahkan tidak masuk akal. Pada analisis akhir, langkah 37 adalah kunci kemenangan. AI mampu berpikir sampai kepada langkah yang tidak dijangkau oleh pikiran manusia. Bila demikian, apakah manusia akan mampu mengendalikan AI? Bila AI tak terkendali apa saja resiko yang bisa terjadi? Ancaman eksistensial?
AlphaGo hanya salah satu AI. Situasi saat ini, perusahaan-perusahaan besar bersaing untuk terdepan dalam pengembangan AI; makin tak terkendali. Demikian juga negara-negara besar bersaing mengembangkan AI; Amerika, Rusia, Cina, dan lain-lain; lebih tak terkendali. Bisa diduga, salah satu persaingan AI terbesar adalah pengembangan untuk kepentingan senjata dan militer. Hinton mengingatkan kita agar lebih waspada.
Pencegahan
Hinton menyatakan ketidakpastian puncak adalah kita tidak yakin mampu mencegah orang jahat. Maksudnya, misal, ketika kita berhasil memastikan bahwa AI bermanfaat dan bisa dikendalikan maka, tetap saja, ada orang jahat yang memanfaatkan AI untuk kejahatan. Karena kemampuan AI sangat besar maka ukuran kejahatan itu juga sangat besar.
Merakit bom adalah kejahatan. Saat ini, orang jahat bisa berbagi proses merakit bom yang jahat itu. Meski orang jahat menguasai proses merakit bom, mereka tetap mengalami kesulitan untuk menciptakan bom lantaran kesulitan bahan dan lokasi, misalnya. AI berbeda dengan bom. AI bisa disebarkan, diperdagangkan, secara luas. Dari AI standar, penjahat bisa melatih AI untuk melakukan kejahatan. Proses dan tindakan melatih AI agar menjadi jahat hanya butuh biaya beberapa juta dolar saja. Kejahatan menjadi tak terkendali; nasib manusia dan nasib alam semesta menjadi kian tak pasti.
Dari beragam argumen ketidakpastian, Hinton menyarankan agar umat manusia mencegah beragam resiko dari AI; menyarankan agar mencegah terjadinya singularitas yang liar.
Apakah AI bisa lebih cerdas dari Einstein?
Tampaknya, Hinton akan menjawab positif: AI bisa lebih cerdas dari Einstein. Tetapi, kita harus mencegah itu sebelum terlambat. Jadi, Hinton sependapat dengan Kurzweil bahwa bisa terjadi singularitas. Mereka berbeda sikap. Kurzweil optimis bahwa singularitas membawa kebaikan; sementara, Hinton skeptis bahwa kita perlu selalu waspada.
6. Pernikahan Robot Manusia dari Mahayana
Narasi pernikahan robot manusia ini kaya akan makna. Dimitri Mahayana, lahir 1968, mengembangkan narasi pernikahan robot manusia dalam berbagai tulisan dan kuliahnya. [a] Pernikahan robot manusia bermakna bahwa seorang manusia menikahi sebuah robot cerdas yaitu AI. [b] Pernikahan robot manusia bermakna kemampuan robot AI bersintesis dengan kemampuan manusia. [c] Rekayasa AI berbaur dengan rekayasa manusia.
7. Nexus Homo Homini Lupus dari Harari
Harari mengembangkan narasi AI (akal imitasi /artificial intelligence) yang unik dalam buku Nexus. Di satu sisi, Harari mengingatkan resiko besar dari AI. Di sisi lain, Harari menunjukkan prospek besar bagi pihak yang menguasai industri AI. Saking dahsyatnya kemampuan AI, Harari menyebut AI sebagai alien intelligence.
Harari berhasil menampilkan analisis kritis terhadap AI tetapi gagal menunjukkan solusi yang mempertimbangkan etika dan filsafat. Narasi dari Harari bisa kita sebut sebagai Nexus homo homini lupus: manusia terhadap manusia adalah srigala. Sumber analisis dan kutipan kita adalah buku Nexus karya Harari yang terbit September 2024; kecuali disebut lain.
Kekuatan Fiksi
Harari tampak begitu bangga dengan manusia yang percaya terhadap fiksi. Keunggulan manusia adalah, menurut Harari, bisa komitmen terhadap fiksi. Sehingga, di awal buku Nexus, Harari menampilkan dua fiksi menarik.
“Sepanjang sejarah, banyak tradisi yang meyakini bahwa beberapa kelemahan fatal dalam sifat manusia menggoda kita untuk mengejar kekuatan yang tidak kita ketahui cara menanganinya. Mitos Yunani tentang Phaethon menceritakan tentang seorang anak laki-laki yang menemukan bahwa ia adalah putra Helios, dewa matahari. Berharap untuk membuktikan asal usulnya yang ilahi, Phaethon menuntut hak istimewa untuk mengemudikan kereta matahari. Helios memperingatkan Phaethon bahwa tidak ada manusia yang dapat mengendalikan kuda langit yang menarik kereta surya. Tetapi Phaethon bersikeras, sampai dewa matahari mengalah. Setelah terbang dengan gagah di langit, Phaethon benar-benar kehilangan kendali atas kereta itu. Matahari menyimpang dari jalurnya, menghanguskan semua tumbuhan, membunuh banyak makhluk dan mengancam akan membakar Bumi itu sendiri. Zeus campur tangan dan menyerang Phaethon dengan petir. Manusia yang sombong itu jatuh dari langit seperti bintang jatuh, dirinya sendiri terbakar. Para dewa menegaskan kembali kendali atas langit dan menyelamatkan dunia.”
Kemudian kita melompat ke era Revolusi Industri bersama Goethe untuk kisah kedua.
“Puisi Goethe (yang kemudian dipopulerkan sebagai animasi Walt Disney yang dibintangi Mickey Mouse) menceritakan tentang seorang penyihir tua yang menitipkan kepada seorang murid muda untuk menjaga bengkelnya dan memberinya beberapa tugas yang harus diselesaikan saat dia pergi, seperti mengambil air dari sungai. Murid itu memutuskan untuk mempermudah dirinya sendiri dan, menggunakan salah satu mantra penyihir itu, menyihir sebuah sapu untuk mengambilkan air untuknya. Namun, murid itu tidak tahu bagaimana menghentikan sapu itu, yang terus menerus mengambil lebih banyak air, mengancam akan membanjiri bengkel. Dalam kepanikan, murid itu memotong sapu yang disihir itu menjadi dua dengan kapak, hanya untuk melihat masing-masing bagiannya berubah menjadi sapu lainnya. Sekarang dua sapu yang disihir itu membanjiri bengkel dengan air. Ketika penyihir tua itu kembali, murid itu memohon bantuan: “Roh-roh yang aku panggil, sekarang tidak dapat kuhilangkan lagi.” Penyihir itu segera menghentikan mantranya dan menghentikan banjir. Pelajaran bagi murid – dan bagi umat manusia – jelas: jangan pernah memanggil kekuatan yang tidak bisa kamu kendalikan.”
AI adalah kekuatan yang tidak bisa Anda kendalikan. Manusia tidak akan mampu mengendalikan AI ketika AI lebih cerdas, dan lebih berkuasa, dari manusia. Pesan Harari jelas: jangan memanggil kekuatan AI yang tidak bisa kamu kendalikan.
Akankah pesan Harari ini efektif? Akankah manusia membatalkan proyek AI setelah mendengar Harari? Akankah AI menjadi musnah? Sulit sekali. Harari justru menunjukkan bahwa AI memiliki kekuatan besar yang luar biasa. Jika Anda tidak memanfaatkan AI maka orang lain yang akan memanfaatkan AI; konsekuensinya, Anda akan kalah bersaing dengan mereka.
Jaringan tidak Bijak
“Umat manusia memperoleh kekuatan yang luar biasa dengan membangun jaringan kerja sama yang besar, tetapi cara jaringan kita dibangun membuat kita cenderung menggunakan kekuatan secara tidak bijaksana. Sebagian besar jaringan kita dibangun dan dipelihara dengan menyebarkan fiksi, fantasi, dan delusi massal – mulai dari sapu ajaib hingga sistem keuangan. Masalah kita, kemudian, adalah masalah jaringan. Secara khusus, ini adalah masalah informasi. Karena informasi adalah perekat yang menyatukan jaringan, dan ketika orang diberi informasi yang salah, mereka cenderung membuat keputusan yang buruk, tidak peduli seberapa bijak dan baiknya mereka secara pribadi.”
Ide utama Nexus berupa pernyataan “informasi adalah perekat yang menyatukan jaringan.” Sayangnya, lebih banyak informasi tidak menjamin manusia menjadi makin bijak. Justru, manusia bisa makin ngawur ketika menguasai lebih banyak informasi. Padahal manusia adalah homo sapiens; homo = manusia; sapiens = bijak. Seharusnya, setiap manusia bersikap bijak.
“Apakah dengan memiliki lebih banyak informasi akan membuat keadaan menjadi lebih baik – atau lebih buruk? Kita akan segera mengetahuinya. Banyak perusahaan dan pemerintah berlomba-lomba mengembangkan teknologi informasi paling canggih dalam sejarah – AI. Beberapa pengusaha terkemuka, seperti investor Amerika Marc Andreessen, percaya bahwa AI akhirnya akan menyelesaikan semua masalah umat manusia. Pada tanggal 6 Juni 2023, Andreessen menerbitkan sebuah esai berjudul Mengapa AI Akan Menyelamatkan Dunia, yang dibumbui dengan pernyataan berani seperti: “Saya di sini untuk membawa kabar baik: AI tidak akan menghancurkan dunia, dan bahkan dapat menyelamatkannya.” Ia menyimpulkan: “Pengembangan dan penyebaran AI – jauh dari risiko yang perlu kita takuti – merupakan kewajiban moral yang kita miliki terhadap diri kita sendiri, terhadap anak-anak kita, dan terhadap masa depan kita.”
Yang lain lebih skeptis. Tidak hanya filsuf dan ilmuwan sosial tetapi juga banyak pakar dan pengusaha AI terkemuka seperti Yoshua Bengio, Geoffrey Hinton, Sam Altman, Elon Musk dan Mustafa Suleyman telah memperingatkan bahwa AI dapat menghancurkan peradaban kita.”
Otonomi AI
Berikutnya, Harari melompat dengan ide yang sangat berani.
“AI merupakan ancaman yang belum pernah terjadi sebelumnya bagi umat manusia karena AI merupakan teknologi pertama dalam sejarah yang dapat mengambil keputusan dan menciptakan ide-ide baru secara mandiri. …yang belum sepenuhnya kita pahami atau kendalikan.”
Bila AI mampu mengambil keputusan secara mandiri maka, tentu saja, manusia tidak akan bisa mengendalikan AI. Ungkapan ini tautologi. Harari mengemas argumen yang berani ini dengan transisi lembut. Sehingga, pembaca terpesona seakan-akan benar adanya. Memang, tautologi selalu benar; mandiri pasti tidak bisa dikendalikan; bila bisa dikendalikan maka tidak mandiri. Tetapi apakah sesuai dengan realitas? Apakah AI mampu mengambil keputusan mandiri? Saya menduga itu hanya kamuflase sejauh ini; atau dalam beberapa dekade ke depan.
Kecerdasan Alien
“AI tidak berkembang menuju kecerdasan setingkat manusia. AI mengembangkan jenis kecerdasan alien.
Bahkan saat ini, dalam tahap embrio revolusi AI, komputer sudah membuat keputusan tentang kita – apakah akan memberi kita hipotek, mempekerjakan kita, atau memenjarakan kita. Sementara itu, AI generatif seperti GPT-4 sudah menciptakan puisi, cerita, dan gambar baru.”
AI akan mengembangkan kecerdasan alien yang super cerdas; jauh lebih cerdas dari manusia. Saya benar-benar kagum dengan narasi AI oleh Harari ini. AlphaGo (AI) berhasil mengalahkan juara Go dari Korea Selatan pada tahun 2016. Go lebih kompleks dari catur. AI mulai menunjukkan kecerdasan alien miliknya.
“Langkah 37 merupakan lambang revolusi AI karena dua alasan. Pertama, langkah ini menunjukkan sifat asing AI. Di Asia Timur, Go dianggap lebih dari sekadar permainan: ini adalah tradisi budaya yang bernilai luhur. Selama lebih dari 2.500 tahun, puluhan juta orang telah memainkan Go, dan seluruh aliran pemikiran telah berkembang di sekitar permainan tersebut, menganut berbagai strategi dan filosofi. Namun selama ribuan tahun tersebut, pikiran manusia hanya menjelajahi area tertentu dalam lanskap Go. Area lain tidak tersentuh, karena pikiran manusia tidak berpikir untuk menjelajah ke sana. AI, yang bebas dari keterbatasan pikiran manusia, menemukan dan menjelajahi area yang sebelumnya tersembunyi ini.
Kedua, langkah 37 menunjukkan AI yang tidak terduga. Bahkan setelah AlphaGo memainkannya untuk meraih kemenangan, Suleyman dan tim tidak dapat menjelaskan bagaimana AlphaGo memutuskan untuk memainkannya. Bahkan jika pengadilan telah memerintahkan DeepMind untuk memberikan penjelasan kepada Sedol, tidak seorang pun dapat memenuhi perintah itu. Suleyman menulis: “Dalam AI, jaringan saraf yang bergerak menuju otonomi, saat ini, tidak dapat dijelaskan.”
Jaringan saraf tiruan AI “tidak dapat dijelaskan.” Sebuah istilah yang terlampau kuat. Pertimbangkan istilah senada: evolusi terjadi melalui proses “random”; ketika Big Bang semua hukum fisika “runtuh”; analisis akhir partikel menjumpai string yang “acak”; hasrat manusia dikendalikan oleh kekuatan “tak-sadar”. Dalam bahasa sehari-hari, istilah-istilah ini semakna dengan OTW: ojo takon wae; jangan tanya terus. Sebagai saintis atau cendekiawan bagaimana sikap Anda dengan jawaban bahwa AI “tidak bisa dijelaskan?” Tetangga saya yang masih usia TK juga bisa menjawab bahwa, menurutnya, AI “tidak-bisa-dijelaskan.”
Politik AI
“Munculnya kecerdasan alien yang tak terduga menimbulkan ancaman bagi semua manusia, dan menimbulkan ancaman khusus bagi demokrasi. …Menerjemahkan dongeng peringatan Goethe ke dalam bahasa keuangan modern, bayangkan skenario berikut: seorang pekerja magang Wall Street yang muak dengan kerja keras bengkel keuangan menciptakan AI bernama Broomstick, memberinya uang awal satu juta dolar, dan memerintahkannya untuk menghasilkan lebih banyak uang. Bagi AI, keuangan adalah taman bermain yang ideal, karena ini adalah ranah informasi dan matematika murni. AI masih merasa sulit untuk mengemudikan mobil secara otonom, karena ini memerlukan pergerakan dan interaksi di dunia fisik yang berantakan, di mana “kesuksesan” sulit didefinisikan. Sebaliknya, untuk melakukan transaksi keuangan AI hanya perlu berurusan dengan data, dan ia dapat dengan mudah mengukur keberhasilannya secara matematis dalam dolar, euro, atau pound. Lebih banyak dolar – misi tercapai.”
Berawal dari AI “tidak bisa dijelaskan” maka konsekuensi apa saja bisa jadi. AI menguasai politik dengan menggulingkan demokrasi mau pun penguasa otoriter. AI mengendalikan sistem ekonomi. AI mengendalikan seluruh aspek kehidupan manusia dan alam raya. Karena “tidak bisa dijelaskan” maka kita tidak bisa menjelaskan argumennya: pro mau pun kontra.
“Munculnya AI menimbulkan bahaya eksistensial bagi umat manusia, bukan karena keburukan komputer, tetapi karena kekurangan kita sendiri.
Dengan demikian, seorang diktator paranoid mungkin memberikan kekuasaan tak terbatas kepada AI yang tidak sempurna, termasuk bahkan kekuasaan untuk melancarkan serangan nuklir. … Peradaban manusia juga dapat dihancurkan oleh senjata pemusnah massal sosial, seperti cerita-cerita yang merusak ikatan sosial kita.”
Regulasi AI
“Banyak masyarakat – baik demokrasi maupun kediktatoran – dapat bertindak secara bertanggung jawab untuk mengatur penggunaan AI tersebut, menekan pelaku kejahatan, dan menahan ambisi berbahaya para penguasa dan fanatisme mereka sendiri.”
Setelah berpetualang dengan narasi panjang, Harari sampai kepada saran yang bagus: masyarakat dapat mengatur penggunaan AI. Bagaimana pun resiko politik ekonomi memang sangat besar.
“Akibatnya, kekuatan algoritmik dunia dapat terkonsentrasi di satu hub. Insinyur di satu negara dapat menulis kode dan mengendalikan kunci untuk semua algoritma penting yang menjalankan seluruh dunia.
Oleh karena itu, AI dan otomatisasi menimbulkan tantangan khusus bagi negara-negara berkembang yang lebih miskin. Dalam ekonomi global yang digerakkan oleh AI, para pemimpin digital mengklaim sebagian besar keuntungan dan dapat menggunakan kekayaan mereka untuk melatih kembali tenaga kerja mereka dan mendapatkan keuntungan lebih banyak lagi. Sementara itu, nilai pekerja tidak terampil di negara-negara tertinggal akan menurun, menyebabkan mereka semakin tertinggal. Hasilnya mungkin banyak pekerjaan baru dan kekayaan luar biasa di San Francisco dan Shanghai, sementara banyak bagian dunia lainnya menghadapi kehancuran ekonomi.”
Laba-Laba Kepompong
“Semakin sulit untuk mengakses informasi melalui tirai silikon, misalnya antara Tiongkok dan AS, atau antara Rusia dan Uni Eropa. Selain itu, kedua belah pihak semakin beroperasi pada jaringan digital yang berbeda, menggunakan kode komputer yang berbeda. Di Tiongkok, Anda tidak dapat menggunakan Google atau Facebook, dan Anda tidak dapat mengakses Wikipedia. Di AS, hanya sedikit orang yang menggunakan aplikasi Tiongkok terkemuka seperti WeChat.
Paradoksnya, teknologi informasi saat ini begitu kuat sehingga berpotensi memecah belah umat manusia dengan mengurung orang yang berbeda dalam kepompong informasi yang terpisah, mengakhiri gagasan tentang realitas manusia tunggal yang sama. Selama beberapa dekade, metafora utama dunia adalah web. Metafora utama beberapa dekade mendatang mungkin adalah kepompong.
Senjata siber dapat melumpuhkan jaringan listrik suatu negara, tetapi juga dapat digunakan untuk menghancurkan fasilitas penelitian rahasia, mengganggu sensor musuh, memicu skandal politik, memanipulasi pemilu, atau meretas satu telepon pintar. Semua itu dapat dilakukan secara diam-diam.”
Pemangsa atau Dimangsa
Ketidakpastian membuat Anda bingung: jadi korban atau pemangsa? Harari tampak ragu memilih Qabil atau Habil; Cain atau Abel? Pembaca Nexus akan memilih yang mana?
“Perbedaan penting kedua menyangkut prediktabilitas. Perang dingin bagaikan permainan catur yang sangat rasional, dan kepastian kehancuran jika terjadi konflik nuklir begitu besar sehingga keinginan untuk memulai perang pun kecil. Perang siber tidak memiliki kepastian ini. Tidak seorang pun tahu pasti di mana masing-masing pihak telah menanam bom logika, kuda Troya, dan malware.
Pembagian dunia menjadi kerajaan digital yang bersaing sesuai dengan visi politik banyak pemimpin; yang percaya bahwa dunia adalah hutan belantara, bahwa kedamaian relatif dalam beberapa dekade terakhir hanyalah ilusi, dan bahwa satu-satunya pilihan nyata adalah apakah akan berperan sebagai predator atau mangsa.”
“Jika diberi pilihan seperti itu, sebagian besar pemimpin lebih suka tercatat dalam sejarah sebagai predator dan menambahkan nama mereka ke dalam daftar penakluk yang mengerikan yang harus dihafal oleh murid-murid yang malang untuk ujian sejarah mereka. Namun, para pemimpin ini harus diingatkan bahwa ada predator alfa baru di hutan. Jika manusia tidak menemukan cara untuk bekerja sama dan melindungi kepentingan bersama kita, kita semua akan menjadi mangsa empuk bagi AI.”
Saya sulit memahami maksud Harari pada paragraf terakhir di atas: “sebagian besar pemimpin lebih suka … sebagai predator.” Apakah ini sebuah prediksi? Determinisme? Atau rekomendasi? Paling ringan adalah menjadi inspirasi. Paling berat sangat sulit dibayangkan.
Apakah AI bisa lebih cerdas dari Einstein? Tampaknya, Harari akan menjawab dengan yakin: AI bisa lebih cerdas dari Einstein.
Sedikit Filosofis
Harari sedikit sekali membahas pemikiran para filsuf. Kiranya, kita perlu membahas beberapa nama spesial yang sedikit disinggung dalam Nexus: Descartes, Kant, dan Foucault. Descartes skeptis apakah kita bisa membuktikan bahwa kita sedang dalam mimpi saat ini? Atau memang hidup di alam nyata? Apakah kita sedang dalam ilusi matriks sistem informasi?
Harari sudah tepat memahami perspektif skeptis Descartes itu. Tetapi Harari, tentu saja, sulit menemukan solusi. Ketika Harari membahas Kant, Harari justru makin menemukan kesulitan. Kant adalah solusi dari problem skeptis Descartes. Kant sadar dengan problem skeptis Descartes. Kant mengusulkan bahwa ada prinsip yang kita pasti yakin, tidak pernah ragu, misal “menghormati ibu.” Siapa pun Anda pasti setuju untuk “menghormati ibu.” Kapan pun dan di mana pun, semua orang wajib “menghormati ibu.” Kewajiban etis semacam ini disebut sebagai kategori imperatif oleh Kant.
Dalam dunia informasi, kita hidup bersama AI, kategori imperatif apa saja yang perlu kita kembangkan? Kita perlu menghormati hak setiap orang: kaya atau miskin, terdidik atau jelata, penindas atau korban. Kategori imperatif ini perlu untuk terus kita kumandangkan. Sungguh aneh, ketika Harari mengira ajaran Kant mendorong tumbuhnya rasisme ala Hitler. Rasisme tetap bisa muncul ketika seseorang membaca Kant atau pun Nexus Harari. Tetapi, Kant mengingatkan bahwa kita perlu komitmen kepada kategori imperatif.
Harari makin sulit lagi ketika membahas Foucault. Harari mengira, pada analisis akhir, Foucault sama dengan Trump. Mereka sama-sama mengejar kekuasaan atau power. Harari benar bahwa Foucault membahas power; relasi kompleks power dengan kebenaran. Foucault menyatakan bahwa klaim kebenaran selalu terperangkap dalam jaringan kompleks relasi power. Sehingga, kita perlu waspada terhadap relasi power. Harari tampaknya memahami Foucault seperti menyuruh kita agar mendominasi power; kemudian, dengan power itu, kita bisa klaim akan kebenaran. Foucault bukan seperti itu. Foucault meminta kita agar kritis terhadap relasi power.
Karena setiap klaim kebenaran terjerat dalam kompleks relasi power maka kita perlu waspada. Apakah bisa dibenarkan penguasa menggusur kaki lima? Apakah bisa dibenarkan Harari dan kawan-kawan menyerang Gaza? Apakah bisa dibenarkan jika Putin mengancam akan menggunakan senjata nuklir? Hanya karena mereka mimiliki power untuk melakukannya maka tidak menjadi justifikasi valid bagi mereka. Kita membutuhkan justifikasi moral untuk semua ini. Justifikasi moral melarang kita melakukan kerusakan; moral mengajak kita untuk menjaga perdamaian dan menegakkan keadilan.
Pada analisis akhir, kita perlu menolak narasi Nexus dari Harari; atau, minimal, kita mengakaji dengan sangat kritis terhadap narasi Nexus karena berpotensi terjebak dalan homo homini lupus. Mengacau kepada lima paradigma, Harari berhasil mengkaji AI dari paradigma positivisme dan rasionalisme kritis. Sayangnya, Harari melangkah mundur berulang kali dengan berpijak lagi ke positivisme. Kita perlu meluaskan perspektif dengan paradigma interpretivisme, posmodernisme, dan pragmatisme.
8. Teknologi Instrumen dari Habermas
Habermas, sejak awal, berpikir kritis terhadap teknologi. Bagi Habermas, dan aliran Frankfurt, teknologi adalah instrumen yang digunakan oleh pihak kuat untuk mencapai tujuan tertentu. Dengan nalar kritis yang sama, kita bisa memandang AI sebagai instrumen bagi pihak kuat, yaitu, pemerintah atau pengusaha besar. Sebagai instrumen, AI beroperasi sebagai wajarnnya teknologi. Tetapi dampak dari instrumen adalah terjadi penindasan terhadap pihak lemah dan kerusakan lingkungan.
Habermas mengusulkan, seharusnya sebagai teknologi, AI menjadi aksi komunikasi. AI (akal imitasi / artificial intelligence) membuka komunikasi antar seluruh warga di ruang publik. Apa tujuan AI? Justru itu yang perlu dikomunikasikan melalui aksi komunikasi.
9. Omong Kosong dan Disparitas dari Acemoglu
Acemoglu, peraih Nobel ekonomi 2024, memandang AI secara skeptis. AI berbahaya bukan karena cerdas tetapi karena AI bodoh. Kita terlalu tinggi menilai kemampuan AI; atau, kita terlalu meremehkan kemampuan manusia.
Apakah akan terjadi revolusi oleh singularitas AI?
“Tidak. Tidak. Jelas tidak,” kata Acemoglu. “Maksud saya, kecuali jika Anda menghitung banyak perusahaan yang berinvestasi berlebihan dalam AI generatif dan kemudian menyesalinya, yang seperti itu adalah perubahan yang revolusioner.”
AI adalah omong kosong. Andai AI berhasil membawa kemajuan peradaban manusia maka AI justru menyebabkan disparitas dunia; kesenjangan antara kelompok miskin dengan kelompok kaya.
Berikut kita akan mengkaji pemikiran Acemoglu. (Sumber: https://www.npr.org/sections/planet-money/2024/08/06/g-s1-15245/10-reasons-why-ai-may-be-overrated-artificial-intelligence)
Alasan 1: Kecerdasan buatan yang kita miliki saat ini sebenarnya tidak secerdas itu.
Saat pertama kali menggunakan sesuatu seperti ChatGPT, mungkin tampak seperti sulap. Seperti, “Wah, mesin pemikir sungguhan yang mampu menjawab pertanyaan tentang apa pun.”
Namun, saat Anda melihat di balik layar, itu lebih seperti trik sulap. Chatbot ini adalah cara canggih untuk menggabungkan internet dan kemudian mengeluarkan campuran dari apa yang mereka temukan. Sederhananya, mereka adalah peniru atau, setidaknya, pada dasarnya bergantung pada peniruan karya manusia sebelumnya dan tidak mampu menghasilkan ide-ide baru yang hebat.
Alasan 2: AI berbohong.
Industri AI dan media telah menyebut kepalsuan dan kesalahan yang dihasilkan AI sebagai “halusinasi.” Namun, seperti istilah “kecerdasan buatan,” istilah itu mungkin keliru. Karena istilah itu membuatnya terdengar seperti AI, Anda tahu, bekerja dengan baik hampir selalu — dan kemudian sesekali, AI suka minum ayahuasca atau makan jamur, lalu mengatakan sesuatu yang dibuat-buat.
Namun, halusinasi AI tampaknya lebih umum dari itu (dan, sejujurnya, semakin banyak orang mulai menyebutnya “konfabulasi”). Satu studi menunjukkan bahwa chatbot AI berhalusinasi — atau berkonfabulasi — sekitar 3% hingga 27% dari waktu. Wah, sepertinya AI harus menghentikan ayahuasca.
Alasan 3: Karena AI tidak terlalu cerdas dan halusinasi membuatnya tidak dapat diandalkan, AI terbukti tidak mampu melakukan sebagian besar — jika tidak semua — pekerjaan manusia.
Saya baru-baru ini melaporkan sebuah cerita yang menanyakan, “Jika AI begitu bagus, mengapa masih banyak pekerjaan untuk penerjemah?” Penerjemahan bahasa telah menjadi semacam garda depan penelitian dan pengembangan AI selama hampir satu dekade atau lebih. Dan beberapa orang telah meramalkan bahwa pekerjaan penerjemah akan menjadi yang pertama yang digantikan oleh otomatisasi.
Namun, terlepas dari kemajuan dalam AI, data menunjukkan bahwa pekerjaan untuk penerjemah dan juru bahasa manusia sebenarnya terus bertambah. Tentu, penerjemah semakin banyak menggunakan AI sebagai alat dalam pekerjaan mereka. Namun, laporan saya mengungkapkan bahwa AI tidak cukup pintar, tidak cukup sadar sosial, dan tidak cukup dapat diandalkan untuk menggantikan manusia sebagian besar waktu.
Alasan 4: Kemampuan AI telah dibesar-besarkan.
Anda mungkin ingat berita tahun lalu yang menyatakan bahwa AI benar-benar berhasil dalam Ujian Pengacara Kesetaraan untuk pengacara. OpenAI, perusahaan di balik ChatGPT, mengklaim bahwa GPT-4 memperoleh skor di persentil ke-90. Namun, saat di MIT, peneliti Eric Martinez menyelidiki lebih dalam. Ia menemukan bahwa skornya hanya di persentil ke-48. Apakah itu benar-benar mengesankan ketika sistem ini, dengan data pelatihannya yang banyak, memiliki hasil yang setara dengan pencarian Google di ujung jari mereka? Wah, mungkin saya pun bisa memperoleh skor setinggi itu jika saya memiliki akses ke ujian pengacara sebelumnya dan cara lain untuk menyontek.
Sementara itu, Google mengklaim bahwa AI-nya mampu menemukan lebih dari 2 juta senyawa kimia yang sebelumnya tidak diketahui oleh sains. Namun, para peneliti di University of California, Santa Barbara menemukan bahwa ini sebagian besar tidak benar. Mungkin penelitian itu salah, atau, yang lebih mungkin, mungkin industri AI terlalu membesar-besarkan kemampuan produk mereka.
Alasan 5: Meskipun media dan investor sangat antusias dengan AI selama beberapa tahun terakhir, penggunaan AI masih sangat terbatas.
Dalam studi terbaru, Biro Sensus AS menemukan bahwa hanya sekitar 5% bisnis yang telah menggunakan AI dalam beberapa minggu terakhir. Yang berhubungan dengan …
Alasan 6: Kita belum menemukan aplikasi utama AI.
Persentase perusahaan yang benar-benar menggunakan AI yang relatif kecil, tampaknya, menggunakannya dengan cara yang tidak memberikan manfaat besar bagi perekonomian kita. Beberapa perusahaan sedang bereksperimen dengannya. Namun, dari perusahaan yang telah memasukkannya ke dalam bisnis sehari-hari mereka, sebagian besar digunakan untuk hal-hal seperti pemasaran yang dipersonalisasi dan layanan pelanggan otomatis. Tidak terlalu menarik.
Sebenarnya, saya tidak tahu tentang Anda, tetapi saya lebih suka berbicara dengan agen layanan pelanggan manusia daripada chatbot. Acemoglu menyebut otomatisasi semacam ini sebagai “otomatisasi biasa-biasa saja,” di mana perusahaan mengganti manusia dengan mesin bukan karena mereka lebih baik atau lebih produktif, tetapi karena menghemat uang mereka. Seperti kios swalayan di toko kelontong, chatbot AI dalam layanan pelanggan sering kali hanya mengalihkan lebih banyak pekerjaan kepada pelanggan. Hal ini bisa membuat frustrasi.
Alasan 7: Pertumbuhan produktivitas tetap sangat mengecewakan. Dan AI generatif mungkin tidak akan membantunya menjadi lebih baik dalam waktu dekat.
Jika AI benar-benar merevolusi ekonomi, kita mungkin akan melihat lonjakan pertumbuhan produktivitas dan peningkatan pengangguran. Namun, lonjakan pertumbuhan produktivitas tidak terlihat di mana pun. Dan pengangguran berada pada titik terendah yang hampir mencapai rekor. Bahkan untuk pekerjaan kerah putih yang kemungkinan besar akan dipengaruhi AI, kita tidak melihat bukti bahwa AI akan membunuh mereka.
Meskipun AI generatif mungkin tidak mampu menggantikan manusia di sebagian besar atau hampir semua pekerjaan, AI jelas dapat membantu manusia dalam beberapa profesi sebagai alat informasi. Dan, Anda mungkin berkata, manfaat produktivitasnya mungkin memerlukan waktu untuk meresap ke seluruh perekonomian.
Namun, ada alasan kuat untuk percaya bahwa AI generatif tidak akan merevolusi ekonomi kita dalam waktu dekat.
Alasan ke-8: AI mungkin tidak berkembang secepat yang diklaim banyak orang. Bahkan, AI mungkin kehabisan daya.
Setiap kali kita berbicara tentang AI, pembicaraan selalu beralih ke masa depan.
Memang, AI belum sebagus itu. Namun dalam beberapa tahun, kita semua akan kehilangan pekerjaan dan tunduk pada penguasa robot atau apa pun. Namun, di mana bukti yang menunjukkan hal itu? Apakah ini hanya pengondisian kolektif kita melalui film fiksi ilmiah?
Banyak pembicaraan tentang AI yang berkembang sangat cepat. Beberapa orang mengklaim bahwa AI menjadi jauh lebih baik. Yang lain bahkan mengklaim bahwa model-model ini — pelengkapan otomatis yang muluk-muluk — adalah jalan menuju AGI, atau kecerdasan buatan super.
Namun, ada pertanyaan serius tentang semua ini. Faktanya, bukti menunjukkan bahwa laju kemajuan AI mungkin melambat.
Alasan 9: AI bisa sangat buruk bagi lingkungan.
AI sudah menghabiskan cukup banyak energi untuk memberi daya pada sedikit negara. Para peneliti di Goldman Sachs menemukan bahwa “proliferasi teknologi AI generatif — dan pusat data yang dibutuhkan untuk memasoknya — akan mendorong peningkatan permintaan daya AS yang belum pernah terlihat dalam satu generasi.”
“Salah satu hal paling konyol beberapa tahun lalu adalah gagasan bahwa AI akan membantu memecahkan masalah perubahan iklim,” kata Acemoglu. “Saya tidak pernah mengerti persis bagaimana. Namun, Anda tahu, jelas itu akan melakukan sesuatu terhadap perubahan iklim, tetapi itu bukan sisi positifnya.”
Alasan 10: AI dinilai terlalu tinggi karena manusia diremehkan.
Ketika saya bertanya kepada Acemoglu tentang alasan utama mengapa AI dinilai terlalu tinggi, dia memberi tahu saya sesuatu yang menghangatkan hati saya — perasaan yang tidak akan pernah bisa dialami oleh “kecerdasan buatan” yang bodoh.
Acemoglu mengatakan kepada saya bahwa dia yakin AI dinilai terlalu tinggi karena manusia diremehkan. “Jadi banyak orang di industri ini tidak menyadari betapa serba bisa, berbakat, dan beragamnya keterampilan serta kemampuan manusia,” kata Acemoglu. “Dan begitu Anda melakukannya, Anda cenderung menilai mesin lebih tinggi daripada manusia dan meremehkan manusia.” (www.npr.org)
Alasan terakhir, alasan ke 10, merupakan alasan paling menendang pikiran kita.
Bagaimana menurut Anda?

Tinggalkan komentar