Perkembangan tekhnologi yang sangat cepat mungkin disadari atau tidak akan membuat manusia sendiri dalam bahaya lho Gansist, setidaknya itu terlihat pada perang dunia pertama dikala Jerman dengan kemampuan angkatan udaranya berhasil membombardir beberapa kota di Inggis dan itulah yang ditulis dalam tinta sejarah sebagai pemboman pertama didunia (yang tertuju pada rakyat sipil).
Dan mulai makin mengerikan dalam perang dunia kedua seperti pemboman karpet tak memakai pemandu yang targetnya seperti untuk meratakan sebuah kota, mungkin itulah salah satu contoh perkembangan tekhnologi yang merusak walau pada kenyataannya justru perang lah yang memberikan banyak manfaat bagi manusia akibat semua negara berpacu membuat tekhnologi baru dan mutakhir, mungkin contohnya seperti Penisilin, Radar dan sebagainya.
Terutama yang paling mengerikan dalam perang dunia kedua adalah senjata nuklir yang telah mencabut nyawa ratusan ribu warga sipil dengan begitu kejamnya "kesalahan terbesar amerika" yang dipungkiri oleh banyak pendukungnya tanpa berpikir panjang!
Namun semakin modernnya manusia ternyata ada pula bahaya yang terus mengintai lho Gansist dan ini diungkapkan oleh Eliezer Yudkowsky seorang ilmuwan Artificial Intelligence dari Machine Intelligence Research Institute tentang kecemasan dirinya akan kecerdasan buatan, yang mungkin bahaya baru bagi manusia yang melebihi bahaya bom nuklir?
Ia pun meminta kepada negara negara didunia untuk untuk menggunakan ancaman bahayanya perang nuklir seperti halnya untuk mencegah pengembangan AI, karena menurutnya manusia pada dasarnya belumlah mampu dan siap untuk menghadapi perkembangan kecerdasan buatan ini yang ia khawatirkan malah membuat era baru yaitu era "The Terminator" yang bisa jadi membuat akhir manusia ketika dihadapkan pada adanya perang antar manusia melawan mesin.
Dan Eliezer pun memberi beberapa sarannya untuk menghindari hal itu terjadi yaitu tidak hanya cukup dengan menghentikan penelitian AI saja, tapi...
1). Lenyapkan segala perangkat keras yang jadi sarana pembuatan kecerdasan buatan di bumi
2). Ultimatum negara tersebut menggunakan ancaman nuklir bagi siapapun negara yang menolak untuk menghentikan penelitian kecerdasan buatan
3). Buat perjanjian multinasional untuk mencegahnya
4). Perlunya ketegasan bagi anggota yang melanggar dengan menggunakan serangan udara pada pusat pusat industri tekhnologi di negara tersebut.
Dan bagi Yudkowsky sendiri bahaya yang ditimbulkan oleh kecerdasan buatan itu sama saja dengan perang nuklir yang bisa mengakibatkan manusia diambang kepunahan bahkan sampai pada penekanan "lebih baik perang nuklir daripada mengembangkan AI" sebab dimungkinkan malah bahayanya bisa melebihi perang nuklir itu sendiri?
Konferensi internasional tentang bahaya AI pun telah dibuat di Buenos Aires, Argentina dan sebanyak 1000 ahli telah menandatangani kesepakatan ini, beberapa tokoh yang menolak tegas kecerdasan buatan sebagai senjata militer antara lain Elon Musk, Steve Wozniak, Stephen Hawking dan Demis Hassabis!
Tanda tandanya sudah banyak , mulai dari drone sampai tank yang bisa bergerak sendiri, tinggal dikasih chips nanti bisa bebas berkeliaran semau tank tersebut, tentu masih ada yang mengatur mereka dong, ya tentu mereka sesuai aturan tapi klo sistemnya rusak kan bikin berabe.
Tidak ada komentar:
Posting Komentar