Kecerdasan buatan saat ini melakukan pekerjaan yang sebelumnya tidak diyakini dapat dilakukan oleh komputer.
Seorang ilmuwan asal Inggris memprediksi, AI bisa musnahkan peradaban manusia dalam waktu 100-200 mendatang. (Foto Ilustrasi: chandlervid85/Freepik)
ngarahNyaho! - Kecerdasan buatan atau AI saat ini belum mampu mendekati kemampuan manusia, namun seorang ilmuwan Inggris memprediksi dalam 100-200 tahun lagi justru bisa musnahkan kita.
Dalam makalahnya yang provokatif, Michael Garrett bertanya-tanya, mungkinkah AI adalah salah satu alasan mengapa kita tidak pernah menemukan makhluk cerdas lain di alam semesta.
Paradoks Fermi menangkap gagasan ini: di alam semesta tanpa batas, bagaimana mungkin tidak ada peradaban lain yang mengirimkan sinyal radio kepada kita?
Mungkinkah, begitu peradaban mengembangkan AI, sebagian besar peradaban akan segera melupakannya?
Peristiwa berskala besar semacam ini disebut 'Great Filter' (filter besar), dan AI adalah salah satu subjek spekulasi paling populer mengenai hal tersebut.
Mungkinkah perkembangan AI yang tak terelakkan oleh peradaban teknologi menciptakan Keheningan Besar (Great Silence) yang luar biasa yang kita dengar dari alam semesta?
Michael Garrett adalah astronom radio di Universitas Manchester dan direktur Pusat Astrofisika Jodrell Bank, dengan keterlibatan luas dalam Pencarian Kecerdasan Luar Angkasa (SETI).
Meskipun minat penelitiannya bersifat eklektik, ia adalah versi orang-orang di acara TV atau film yang berkualifikasi tinggi dan terpercaya yang mendengarkan alam semesta untuk mendengarkan tanda-tanda peradaban lain.
Dalam makalah yang ditinjau oleh rekan sejawat dan diterbitkan di jurnal International Academy of Astronautics, ia membandingkan teori tentang superintelligence buatan dengan observasi konkret menggunakan astronomi radio.
Garrett menjelaskan dalam makalahnya bahwa para ilmuwan semakin merasa tidak nyaman jika kita semakin lama tidak mendengar tanda-tanda kehidupan cerdas lainnya.
“’Keheningan Besar’ ini menghadirkan suatu paradoks ketika disandingkan dengan temuan astronomi lainnya yang menyiratkan bahwa alam semesta ramah terhadap munculnya kehidupan berakal,” tulisnya.
“Konsep ‘filter besar’ sering digunakan – ini adalah penghalang universal dan tantangan yang tidak dapat diatasi yang mencegah munculnya kehidupan berakal secara luas.”
Ada banyak sekali potensi Great Filter, mulai dari kepunahan iklim hingga pandemi global yang berbahaya. Sejumlah peristiwa apa pun dapat menghentikan peradaban global untuk menjadi multiplanet.
Bagi orang-orang yang mengikuti dan mempercayai teori Great Filter secara lebih ideologis, menetapnya manusia di Mars atau bulan merupakan cara untuk mengurangi risiko.
Semakin lama kita hanya tinggal di Bumi, semakin besar kemungkinan terjadinya peristiwa Great Filter yang akan melenyapkan kita, demikian pemikiran tersebut.
Saat ini, AI tidak mampu melakukan apa pun yang mendekati kecerdasan manusia. Namun, tulis Garrett, teknologi ini melakukan pekerjaan yang sebelumnya tidak diyakini dapat dilakukan oleh komputer.
Jika lintasan ini mengarah pada apa yang disebut kecerdasan buatan umum atau general artificial intelligence (GAI), kita bisa berada dalam masalah.
GAI adalah sebuah perbedaan utama yang berarti suatu algoritma yang dapat menalar dan mensintesis ide-ide dengan cara yang benar-benar manusiawi dikombinasikan dengan kekuatan komputasi yang luar biasa.
Dan dalam makalahnya, Garrett mengikuti rangkaian ide hipotetis menuju satu kemungkinan kesimpulan. Berapa lama waktu yang dibutuhkan sebuah peradaban untuk dimusnahkan oleh GAI yang tidak diatur?
Sayangnya, dalam skenario Garrett, hal ini hanya membutuhkan waktu 100-200 tahun.
Menurut dia, pengkodean dan pengembangan AI adalah proyek dengan tujuan tunggal yang melibatkan dan dipercepat oleh data dan kekuatan pemrosesan.
Itu bila dibandingkan dengan pekerjaan perjalanan dan pemukiman ruang angkasa yang berantakan dan multidomain, jelas Garret seperti dikutip dari Popular Mechanics.
Kita melihat perpecahan ini saat ini dengan banyaknya peneliti di bidang komputasi dibandingkan dengan kekurangan di bidang ilmu hayati.
Para miliarder berbicara tentang betapa hebat dan pentingnya menetap di Mars, tetapi kita masih belum tahu bagaimana manusia dapat bertahan dalam perjalanan tanpa terkoyak oleh radiasi kosmik.
Ada beberapa peringatan besar, atau sekadar hal yang perlu diingat, tentang penelitian ini. Garrett menelusuri serangkaian skenario hipotetis tertentu, dan dia menggunakan asumsi yang sangat besar.
Dia berasumsi ada kehidupan di Bima Sakti dan AI serta GAI adalah “perkembangan alami” dari peradaban ini.
Dia menggunakan Persamaan Drake yang sudah bersifat hipotetis, sebuah cara untuk menghitung kemungkinan jumlah peradaban planet lain, yang memiliki beberapa variabel yang belum kita ketahui secara pasti.
Namun, argumen hipotetis yang beragam menghasilkan satu kesimpulan yang kuat: perlunya regulasi AI yang ketat dan berkelanjutan.
Garrett menyatakan bahwa negara-negara di dunia sudah berada dalam perlombaan produktivitas, takut ketinggalan jika mereka ragu untuk melakukan lebih banyak regulasi.
Beberapa futuris juga memiliki gagasan aneh bahwa mereka dapat menumbangkan GAI hanya dengan mengembangkan sistem yang baik secara moral, lebih cepat, agar dapat lebih mengontrolnya.
Baginya, itu adalah sebuah argumen yang tidak masuk akal.
Dalam model Garrett, peradaban-peradaban ini hanya mempunyai waktu beberapa ratus tahun di era AI sebelum mereka hilang dari peta.
Dalam model Garrett, peradaban-peradaban ini hanya mempunyai waktu beberapa ratus tahun di era AI sebelum mereka hilang dari peta.
Mengingat jarak dan perjalanan waktu kosmik yang sangat panjang, kerangka waktu sekecil itu hampir tidak berarti apa-apa. Jumlah tersebut berkurang menjadi nol, yang menurutnya sesuai dengan tingkat keberhasilan SETI saat ini yang sebesar 0 persen. | Sumber: Popular Mechanics
Posting Komentar