amekachiAvatar border
TS
amekachi
AI Lebih Berbahaya dari Bom Nuklir yang Dijatuhkan Amerika, Ilmuwan Beri 4 Saran!
Dinilai Lebih Berbahaya dari Bom Nuklir yang Pernah Dijatuhkan oleh Amerika, Seorang Ilmuwan AI Berikan 4 Saran Hentikan Perkembangan Kecerdasan Buatan untuk Senjata Militer Gansist!






















Perkembangan tekhnologi yang sangat cepat mungkin disadari atau tidak akan membuat manusia sendiri dalam bahaya lho Gansist, setidaknya itu terlihat pada perang dunia pertama dikala Jerman dengan kemampuan angkatan udaranya berhasil membombardir beberapa kota di Inggis dan itulah yang ditulis dalam tinta sejarah sebagai pemboman pertama didunia (yang tertuju pada rakyat sipil).

Dan mulai makin mengerikan dalam perang dunia kedua seperti pemboman karpet tak memakai pemandu yang targetnya seperti untuk meratakan sebuah kota, mungkin itulah salah satu contoh perkembangan tekhnologi yang merusak walau pada kenyataannya justru perang lah yang memberikan banyak manfaat bagi manusia akibat semua negara berpacu membuat tekhnologi baru dan mutakhir, mungkin contohnya seperti Penisilin, Radar dan sebagainya.

Terutama yang paling mengerikan dalam perang dunia kedua adalah senjata nuklir yang telah mencabut nyawa ratusan ribu warga sipil dengan begitu kejamnya "kesalahan terbesar amerika" yang dipungkiri oleh banyak pendukungnya tanpa berpikir panjang!

















Namun semakin modernnya manusia ternyata ada pula bahaya yang terus mengintai lho Gansist dan ini diungkapkan oleh Eliezer Yudkowsky seorang ilmuwan Artificial Intelligence dari Machine Intelligence Research Institute tentang kecemasan dirinya akan kecerdasan buatan, yang mungkin bahaya baru bagi manusia yang melebihi bahaya bom nuklir?

Ia pun meminta kepada negara negara didunia untuk untuk menggunakan ancaman bahayanya perang nuklir seperti halnya untuk mencegah pengembangan AI, karena menurutnya manusia pada dasarnya belumlah mampu dan siap untuk menghadapi perkembangan kecerdasan buatan ini yang ia khawatirkan malah membuat era baru yaitu era "The Terminator" yang bisa jadi membuat akhir manusia ketika dihadapkan pada adanya perang antar manusia melawan mesin.

Dan Eliezer pun memberi beberapa sarannya untuk menghindari hal itu terjadi yaitu tidak hanya cukup dengan menghentikan penelitian AI saja, tapi...


1). Lenyapkan segala perangkat keras yang jadi sarana pembuatan kecerdasan buatan di bumi

2). Ultimatum negara tersebut menggunakan ancaman nuklir bagi siapapun negara yang menolak untuk menghentikan penelitian kecerdasan buatan

3). Buat perjanjian multinasional untuk mencegahnya

4). Perlunya ketegasan bagi anggota yang melanggar dengan menggunakan serangan udara pada pusat pusat industri tekhnologi di negara tersebut.





















Dan bagi Yudkowsky sendiri bahaya yang ditimbulkan oleh kecerdasan buatan itu sama saja dengan perang nuklir yang bisa mengakibatkan manusia diambang kepunahan bahkan sampai pada penekanan "lebih baik perang nuklir daripada mengembangkan AI" sebab dimungkinkan malah bahayanya bisa melebihi perang nuklir itu sendiri?

Konferensi internasional tentang bahaya AI pun telah dibuat di Buenos Aires, Argentina dan sebanyak 1000 ahli telah menandatangani kesepakatan ini, beberapa tokoh yang menolak tegas kecerdasan buatan sebagai senjata militer antara lain Elon Musk, Steve Wozniak, Stephen Hawking dan Demis Hassabis!

Tanda tandanya sudah banyak Gansist, mulai dari drone sampai tank yang bisa bergerak sendiri, tinggal dikasih chips nanti bisa bebas berkeliaran semau tank tersebut, tentu masih ada yang mengatur mereka dong, ya tentu mereka sesuai aturan tapi klo sistemnya rusak kan bikin berabe.


Tanknya bisa isi bensin sendiri dan bisa isi amunisi sendiriemoticon-Takut


"narasi dan opini sendiri"



Tulisan Sendiri:

@amekachi

Sumber Tulisan dan Gambar:

1

2

3

4

Maaf, saya tidak bisa mengambil contoh lain dari kerusakan sebab nuklir kecuali dari negara tersebut jadi bukan menggeneralisir atau tendensius tapi FAKTA!
putrakomang
drkhntr3ss
bocilural
bocilural dan 22 lainnya memberi reputasi
23
4.2K
72
GuestAvatar border
Guest
Tulis komentar menarik atau mention replykgpt untuk ngobrol seru
Urutan
Terbaru
Terlama
GuestAvatar border
Guest
Tulis komentar menarik atau mention replykgpt untuk ngobrol seru
Komunitas Pilihan