Dapatkan URL singkat
Mesin pembunuh otonom yang dapat menghancurkan target mereka sendiri dan mungkin menggantikan manusia dalam beberapa misi, menjadi kenyataan yang berkembang di negara-negara maju. Tren tersebut telah menimbulkan kontroversi atas moralitasnya, yang mengakibatkan tuntutan di seluruh dunia untuk melarang penggunaan teknologi tersebut.
Panel AS yang disebut Komisi Keamanan Nasional untuk Kecerdasan Buatan, menyimpulkan debat publik pada hari Selasa, apakah kecerdasan buatan harus diterapkan dalam layanan keamanan nasional. Saat draf laporan panel berbunyi, AS seharusnya tidak menyetujui larangan penggunaan atau pengembangan senjata otonom yang didukung oleh perangkat lunak AI.
Menurut wakil ketua panel, mantan wakil menteri pertahanan AS, Robert Work, sistem semacam itu diasumsikan membuat lebih sedikit kesalahan daripada manusia selama aksi perang, sehingga mengurangi jumlah korban.
“Ini adalah keharusan moral untuk setidaknya mengejar hipotesis ini,” dia menyarankan.
Sementara itu, para ahli telah mengakui bahwa senjata otonom memiliki jebakan tertentu termasuk bias dalam AI dan penyalahgunaan perangkat lunak. Namun demikian, kehadiran manusia hanya diperlukan dalam keputusan untuk meluncurkan hulu ledak nuklir, kata laporan itu.
Koordinator Kampanye delapan tahun untuk Menghentikan Robot Pembunuh, Mary Wareham, mencatat bahwa “fokus komisi pada kebutuhan untuk bersaing dengan investasi serupa yang dilakukan oleh China dan Rusia […] hanya berfungsi untuk mendorong perlombaan senjata. “
Seiring kemajuan teknologi yang semakin cepat, sejumlah negara dan aktivis telah menyerukan perjanjian untuk melarang penggunaan senjata otonom penuh, tetapi negosiasi yang relevan belum dimulai.
Banyak pakar, termasuk mantan karyawan Google, telah berbicara tentang bahaya “sistem senjata otonom mematikan” yang dapat dengan cepat meningkatkan konflik. Menurut mantan insinyur perangkat lunak Google Laura Nolan, robot pembunuh dapat menghancurkan seluruh kota dalam hitungan detik dengan tidak sengaja menyebabkan “perang kilat”
Seorang mantan kepala eksekutif Google, Eric Schmidt, sebelumnya mendesak pemerintah AS untuk tidak mengizinkan mesin pembunuh seperti drone dan robot, “untuk memutuskan sendiri untuk terlibat dalam pertempuran dan siapa yang harus dibunuh.”
CEO SpaceX Elon Musk sebelumnya juga menyatakan keprihatinan tentang bahaya pengembangan robot bertenaga AI yang tidak diatur di masa depan, menunjukkan bahwa perang dunia berikutnya dapat disebabkan oleh persaingan untuk Al di tingkat nasional.
Persembahan dari : Togel Singapore 2020