Pandangan Pesimis Eliezer Yudkowsky

Di era lonjakan pesat kecerdasan buatan (AI), kekhawatiran terhadap potensi “kiamat” dan ancaman AI semakin berkembang. Salah satu tokoh yang menyoroti perspektif pesimis adalah Eliezer Yudkowsky, peneliti AI dari Machine Intelligence Research Institute di California. Dalam wawancara eksklusif dengan The Guardian, Yudkowsky mengungkapkan keyakinannya bahwa sisa waktu manusia semakin dekat dengan 5 tahun daripada 50 tahun. Menurutnya, kepunahan manusia akan terjadi ketika teknologi kecerdasan buatan mengambil alih kendali sepenuhnya.

“Jika Anda menyuruh saya memberikan probabilitas pada hal-hal tersebut, saya memiliki rasa bahwa sisa waktu kita saat ini lebih mirip lima tahun daripada 50 tahun. Bisa dua tahun, bisa sepuluh tahun,” ujarnya.

Yudkowsky melukiskan akhir zaman sebagai masa di mana mesin mengendalikan segala sesuatu, mirip dengan kiamat dalam film Terminator dan neraka seperti Matrix.

Baca Juga: 4 Kegagalan Manusia Vs Kecerdasan Buatan

Gerakan Neo-Luddite

Bukan hanya Yudkowsky yang mengangkat isu ini, tetapi gerakan Neo-Luddite juga ikut berbicara. Mereka skeptis terhadap adopsi teknologi tanpa mempertimbangkan dampaknya pada pekerjaan dan masyarakat. Anggota gerakan ini, seperti Nick Hilton dari “The Ned Ludd Radio Hour,” mengecam efisiensi teknologi yang dianggap merugikan hak-hak pekerja.

Dilema Persepsi Ahli AI

Meskipun sebagian besar peneliti kecerdasan buatan melihat AI sebagai kekuatan positif, terdapat keprihatinan bahwa teknologi ini berpotensi menjadi “kiamat” bagi umat manusia. Sebanyak 68% dari 2.778 peneliti menyatakan bahwa AI akan memberikan dampak positif lebih besar daripada dampak negatif. Namun, ada kemungkinan sebanyak 10% bahwa manusia tidak akan mampu mengendalikan perkembangan AI, mengancam kepunahan manusia.

Penyebaran Informasi Keliru

Lebih dari 80% peneliti AI menganggap bahwa isu terbesar terkait AI adalah kemampuannya menyebarkan informasi yang keliru. Di tengah maraknya penyebaran informasi tidak akurat dan potensi dampaknya terhadap masyarakat, risiko ini menjadi perhatian serius.

Kontroversi Yudkowsky

Meskipun Yudkowsky memiliki sejarah kontroversial, ia terus mempertahankan pandangannya, bahkan mengusulkan ide untuk melakukan serangan terhadap pusat-pusat data pengembangan AI. Pertanyaannya, apakah kekhawatiran ini hanyalah spekulasi berlebihan, ataukah memang panggilan untuk kewaspadaan yang lebih besar terhadap dampak teknologi bagi masyarakat?

Baca Juga: 5 Jurusan Kuliah yang Berkaitan dengan AI

Pertanyaan ini memicu diskusi sejauh mana kekhawatiran kiamat AI hanya spekulatif atau memerlukan tindakan serius. Bagaimana dunia menemukan keseimbangan antara mempercepat pengembangan AI dan mengurangi risiko ancaman AI?

Tagged in: