Tren utama abad XXI
Terlepas dari semua ketidakpastian istilah "kecerdasan buatan" (selanjutnya disebut AI), semua prasyarat untuk munculnya sistem tempur berperforma tinggi dan belajar mandiri di pasukan dunia telah lama dibuat.
Jika AI tidak ada, itu masih harus ditemukan. Sekarang, di hampir semua bidang kehidupan manusia, sejumlah besar informasi dihasilkan setiap detik, yang tidak memiliki apa pun untuk diproses.
Dan urusan militer jauh dari pengecualian di sini - cukup untuk mengingat konflik di Nagorno-Karabakh untuk memahami sejauh mana sebenarnya kekayaan informasi dari operasi militer.
Aliran data foto, video dan radar, serta audio dan pesan teks menjadi hal utama di lapangan. Baru sekarang kita dapat mengulangi ungkapan yang terkenal
"Siapa yang memiliki informasi, memiliki dunia"
menjadi modern
"Siapa yang tahu bagaimana menganalisis informasi dengan cepat, memiliki dunia."
Dan untuk pemrosesan operasional "data besar" (atau data besar), diperlukan teknologi yang sangat serius. Seperti jaringan syaraf tiruan yang mampu belajar sendiri tanpa partisipasi operator. Keuntungan penting dari jaringan saraf adalah kemampuan untuk mengidentifikasi pola berdasarkan data yang tidak ada dalam kode pelatihan asli.
Bagi militer, potensi kemampuan AI untuk bekerja dengan data yang tidak lengkap, “berisik”, atau terdistorsi sangat penting. Itulah sebabnya jaringan saraf pembelajaran mendalam saat ini sedang menunggu dalam sistem kecerdasan spesies untuk analisis cepat materi video dan fotografi. Seperti yang dicatat di departemen militer, tugas-tugas yang memakan waktu berbulan-bulan kerja puluhan dekoder, AI diselesaikan dalam hitungan detik.
Namun, analisis sederhana dari kumpulan data bahkan sekarang tampaknya tidak cukup untuk operasi militer - diperlukan
"prediksi kemungkinan tindakan"
и
"prediksi tanggapan"
sasaran potensial.
Berdasarkan "kesimpulan" ini, operator akan membuat keputusan untuk melepaskan tembakan. Ini akan sangat mempercepat jalannya operasi ofensif.
Sebagai contoh, beberapa tahun yang lalu, selama Operasi Enduring Freedom, drone MQ-1 Predator memasuki konvoi kendaraan musuh. Tetapi ketika operator sedang mengevaluasi kepemilikan dan memutuskan untuk meluncurkan roket, peralatan meninggalkan area yang terkena dampak. Dan ini jauh dari satu-satunya contoh.
Penggunaan AI dalam hal ini akan memungkinkan untuk dengan cepat membuat perkiraan mengenai prospek dan waktu pemogokan. Tapi ada jebakan di sini juga.
Komite Palang Merah sangat prihatin dengan pengenalan AI pada kendaraan tak berawak dan (yang paling penting) tingkat kepercayaan dari pihak orang tersebut kepadanya. Misalnya, dapatkah seseorang yang menggali di dekat jalan diidentifikasi secara andal sebagai penanam perangkat peledak improvisasi yang hanya didasarkan pada analisis sinyal video oleh jaringan saraf?
Sekarang operator drum drone cukup sering tidak menyadari realitas apa yang terjadi di medan perang (mentalitas Playstation). Dan jika AI membantu mereka dalam hal ini?
Tugas penghancuran yang sudah disederhanakan akan menjadi lebih mudah untuk dilakukan.
Otomatiskan!
Tantangan teknologi dan strategis memaksa kekuatan dunia untuk secara bertahap mentransfer pasukan mereka ke rel robotika.
Misalnya, di Amerika Serikat, "Strategi Kompensasi Ketiga" berjanji untuk mengubah angkatan bersenjata menjadi tentara. robot sudah tiga puluh tahun kemudian. Dan dalam sepuluh tahun, setiap pesawat ketiga di Pentagon akan tidak berawak.
Rusia juga berusaha mengikuti. Dan mereka berencana untuk menerima beberapa lusin model senjata baru untuk kendali jarak jauh di tahun-tahun mendatang. Namun, baik AS maupun Rusia masih memiliki sistem pengintaian dan serangan penuh yang dikendalikan oleh AI. Ini sebagian besar disebabkan oleh krisis tanggung jawab. Jika Anda entah bagaimana bisa tahan dengan kesalahan jenis pertama, yaitu, salah membatalkan serangan pada musuh, maka dengan kesalahan jenis kedua semuanya jauh lebih rumit. Dalam kasus terakhir, mesin memutuskan untuk "menembak bersahabat" (Friendly fire), atau menghancurkan warga sipil, yaitu, melakukan kejahatan perang.
Dalam situasi ini, tidak sepenuhnya jelas siapa yang bertanggung jawab atas tindakan seperti itu - pengembang perangkat lunak atau komandan yang memerintahkan penggunaan sistem.
Situasi serupa terjadi di industri otomotif, yang telah memimpikan drone yang sepenuhnya otonom selama beberapa dekade. Sebuah klasifikasi tingkat otomatisasi bahkan telah dikembangkan yang cukup berlaku untuk bidang militer.
Pada level nol, mobil adalah UAZ-496 bersyarat, di mana semuanya dikendalikan oleh pengemudi dan tidak ada asisten mekatronik - ESP, ABS, dll.
Pada level tertinggi, drone beroda bahkan tidak memiliki setir (atau dipasang sebagai opsi berbayar). Dan dalam semua situasi, gerakan dikendalikan oleh autopilot. Saat ini, hanya Honda Jepang yang mampu mensertifikasi autopilot produksi Level XNUMX.
Teknik "otomatisasi bersyarat" ini tidak mampu mengambil kendali dalam situasi berbahaya. Dan dalam kondisi normal, itu tidak selalu berhasil. Sistem Traffic Jam Pilot mengotomatiskan mobil dalam kemacetan lalu lintas, menjaganya tetap dalam jalur di jalan raya dan menyalip. Anda dapat melepaskan tangan dari kemudi, tetapi Anda tidak dapat mengalihkan pandangan dari jalan - kamera sedang memantau hal ini. Autopilot tingkat ketiga sangat mahal dan meningkatkan biaya akhir mobil satu setengah kali.
Pada saat yang sama, perlu diingat bahwa autopilot sudah dapat sepenuhnya diperkenalkan ke produksi massal. Dan mereka akan sangat serius mengurangi angka kematian di jalan. Tetapi masalah hukum dan etika dari kesalahan (termasuk yang fatal) AI membuat perusahaan mobil menemui jalan buntu.
AI seharusnya tidak dipersenjatai
Di bidang militer, situasi dengan pengembangan sistem tempur yang sepenuhnya otonom juga jauh dari ideal.
Dan itu bahkan tidak dalam aspek teknis dari masalah ini.
Di satu sisi, para ahli skeptis menunjukkan potensi kemampuan sistem belajar mandiri berdasarkan jaringan saraf untuk memberikan serangan preemptive. Misalnya, AI akan melihat kerentanan nyata atau imajiner pada musuh - mengapa ini bukan alasan untuk melakukan serangan pelucutan senjata pertama? Selain itu, semua "otak buatan" rentan terhadap persaingan dan tidak adanya unsur berpikir kritis, yang juga tidak menambah kepercayaan seseorang.
Analis dari RAND Corporation, secara umum, mendesak untuk tidak mempercayai keputusan strategis militer dengan kecerdasan buatan dalam hal apa pun - baik di masa sekarang maupun di masa depan. Jika beberapa non-kombatan yang dihancurkan oleh kesalahan AI masih dapat didamaikan secara kondisional, maka semuanya akan jauh lebih tragis ketika diterapkan pada kekuatan pencegahan nuklir.
Tidak semuanya begitu sederhana dan dengan operasional-taktis senjata dikendalikan oleh AI.
Mari kita kembali ke cuplikan dari Nagorno-Karabakh, yang dengan jelas menggambarkan keunggulan teknis drone serang dibandingkan senjata tradisional. Di sini semua orang mengerti bahwa di langit hanya ada mesin yang dikendalikan dari jarak jauh, meskipun sangat canggih.
Apa reaksi publik jika pemogokan dilakukan oleh Bayraktar yang sepenuhnya otonom?
Kapan AI akan mengudara ke seluruh dunia untuk membunuh orang, meskipun dengan senjata di tangan mereka?
Sisi moral dari masalah ini belum terselesaikan. Dan itu tidak mungkin diizinkan dalam waktu dekat.

Sumber: mil.ru
Secara umum, robot di tentara tentu saja bagus.
Mereka memungkinkan Anda untuk menarik tentara dari tembakan musuh langsung, mentransfer semua pekerjaan ke unit tempur dengan remote control. Kerugian dan biaya berkurang. Dan perang tampaknya semakin manusiawi.
Robot yang sepenuhnya otonom di bidang militer atau Sistem Senjata Otonom Lethal bukanlah tentang kemanusiaan dan pengurangan kerugian sama sekali. Jaringan saraf pembelajaran mendalam membuat perang lebih cepat dan dengan lebih banyak korban. Sebenarnya, inilah yang dipastikan oleh dua revolusi militer sebelumnya dalam urusan militer - mesiu dan nuklir.
Hal ini dipahami oleh banyak perusahaan sipil yang terlibat dengan negara dalam proyek-proyek pertahanan.
Jadi, pada tahun 2018, Google menarik diri dari proyek Maven yang sangat menguntungkan senilai lebih dari $7,5 miliar. Spesialis dari Silicon Valley, bersama dengan DARPA, mengerjakan sebuah program untuk memproses rangkaian informasi video dan foto dari berbagai intelijen drone. Data diproses oleh jaringan saraf. Dan memberi operator "perpustakaan target" dalam urutan prioritas penghancuran. Google keluar dari cerita. Dan sekarang DARPA mencoba mengatasinya sendiri.
Aspek penting AI di militer adalah penggunaannya dalam perang informasi.
Dapat dikatakan dengan tingkat kepastian tertentu bahwa dalam waktu dekat, Amerika Serikat hanya akan menurunkan lebih banyak wahyu dari Rusia dan (sebagian besar) China dalam pengembangan kecerdasan buatan tempur. Jika tidak mungkin untuk meyakinkan publik di dalam negeri tentang perlunya pikiran militer yang otonom, maka kami akan menakut-nakuti mereka dengan musuh eksternal. Pentagon telah terkenal dengan logika ini sejak zaman kuno. Katakanlah, mereka sudah mengerjakan AI sepenuhnya, dan di sini kita tidak dapat mengatasi moralitas kita sendiri.
Dan akhirnya, respons asimetris terhadap ancaman AI tempur terlihat cukup menjanjikan. Sekarang teknologi untuk menutupi objek dari mata yang melihat semua kecerdasan buatan dan bahkan kesalahan representasi yang disengaja mendapatkan momentum.
Sementara AI bekerja lumayan dalam kondisi damai, ketika informasi disajikan di piring perak.
Sangat buruk untuk berfungsi dengan data yang tidak lengkap dan berisik. Oleh karena itu, upaya untuk menyesatkan kecerdasan mesin dengan data yang sengaja dikoreksi terlihat cukup logis. Ketika waktu reaksi AI bersenjata diukur dalam hitungan detik dan tidak bergantung pada pendapat seseorang, informasi yang salah tersebut dapat menyebabkan konsekuensi yang sulit diprediksi.
Revolusi militer ketiga, dengan cara yang baik, lebih baik dibatalkan.
Atau mengembangkan tindakan pembatasan bersama untuk pengembangan dan penggunaan AI di bidang militer. Apakah Anda berhasil melakukan hal serupa dalam kasus senjata nuklir?