Ulasan Militer

Revolusi militer ketiga: kecerdasan mesin tidak boleh dengan senjata

48

Sumber: armflot.ru


Tren utama abad XXI


Terlepas dari semua ketidakpastian istilah "kecerdasan buatan" (selanjutnya disebut AI), semua prasyarat untuk munculnya sistem tempur berperforma tinggi dan belajar mandiri di pasukan dunia telah lama dibuat.

Jika AI tidak ada, itu masih harus ditemukan. Sekarang, di hampir semua bidang kehidupan manusia, sejumlah besar informasi dihasilkan setiap detik, yang tidak memiliki apa pun untuk diproses.

Dan urusan militer jauh dari pengecualian di sini - cukup untuk mengingat konflik di Nagorno-Karabakh untuk memahami sejauh mana sebenarnya kekayaan informasi dari operasi militer.

Aliran data foto, video dan radar, serta audio dan pesan teks menjadi hal utama di lapangan. Baru sekarang kita dapat mengulangi ungkapan yang terkenal

"Siapa yang memiliki informasi, memiliki dunia"

menjadi modern

"Siapa yang tahu bagaimana menganalisis informasi dengan cepat, memiliki dunia."

Dan untuk pemrosesan operasional "data besar" (atau data besar), diperlukan teknologi yang sangat serius. Seperti jaringan syaraf tiruan yang mampu belajar sendiri tanpa partisipasi operator. Keuntungan penting dari jaringan saraf adalah kemampuan untuk mengidentifikasi pola berdasarkan data yang tidak ada dalam kode pelatihan asli.

Bagi militer, potensi kemampuan AI untuk bekerja dengan data yang tidak lengkap, “berisik”, atau terdistorsi sangat penting. Itulah sebabnya jaringan saraf pembelajaran mendalam saat ini sedang menunggu dalam sistem kecerdasan spesies untuk analisis cepat materi video dan fotografi. Seperti yang dicatat di departemen militer, tugas-tugas yang memakan waktu berbulan-bulan kerja puluhan dekoder, AI diselesaikan dalam hitungan detik.


Sumber: i.pinimg.com

Namun, analisis sederhana dari kumpulan data bahkan sekarang tampaknya tidak cukup untuk operasi militer - diperlukan

"prediksi kemungkinan tindakan"

и

"prediksi tanggapan"

sasaran potensial.

Berdasarkan "kesimpulan" ini, operator akan membuat keputusan untuk melepaskan tembakan. Ini akan sangat mempercepat jalannya operasi ofensif.

Sebagai contoh, beberapa tahun yang lalu, selama Operasi Enduring Freedom, drone MQ-1 Predator memasuki konvoi kendaraan musuh. Tetapi ketika operator sedang mengevaluasi kepemilikan dan memutuskan untuk meluncurkan roket, peralatan meninggalkan area yang terkena dampak. Dan ini jauh dari satu-satunya contoh.

Penggunaan AI dalam hal ini akan memungkinkan untuk dengan cepat membuat perkiraan mengenai prospek dan waktu pemogokan. Tapi ada jebakan di sini juga.

Komite Palang Merah sangat prihatin dengan pengenalan AI pada kendaraan tak berawak dan (yang paling penting) tingkat kepercayaan dari pihak orang tersebut kepadanya. Misalnya, dapatkah seseorang yang menggali di dekat jalan diidentifikasi secara andal sebagai penanam perangkat peledak improvisasi yang hanya didasarkan pada analisis sinyal video oleh jaringan saraf?

Sekarang operator drum drone cukup sering tidak menyadari realitas apa yang terjadi di medan perang (mentalitas Playstation). Dan jika AI membantu mereka dalam hal ini?

Tugas penghancuran yang sudah disederhanakan akan menjadi lebih mudah untuk dilakukan.

Otomatiskan!


Tantangan teknologi dan strategis memaksa kekuatan dunia untuk secara bertahap mentransfer pasukan mereka ke rel robotika.

Misalnya, di Amerika Serikat, "Strategi Kompensasi Ketiga" berjanji untuk mengubah angkatan bersenjata menjadi tentara. robot sudah tiga puluh tahun kemudian. Dan dalam sepuluh tahun, setiap pesawat ketiga di Pentagon akan tidak berawak.

Rusia juga berusaha mengikuti. Dan mereka berencana untuk menerima beberapa lusin model senjata baru untuk kendali jarak jauh di tahun-tahun mendatang. Namun, baik AS maupun Rusia masih memiliki sistem pengintaian dan serangan penuh yang dikendalikan oleh AI. Ini sebagian besar disebabkan oleh krisis tanggung jawab. Jika Anda entah bagaimana bisa tahan dengan kesalahan jenis pertama, yaitu, salah membatalkan serangan pada musuh, maka dengan kesalahan jenis kedua semuanya jauh lebih rumit. Dalam kasus terakhir, mesin memutuskan untuk "menembak bersahabat" (Friendly fire), atau menghancurkan warga sipil, yaitu, melakukan kejahatan perang.


Sumber: popmeh.ru

Dalam situasi ini, tidak sepenuhnya jelas siapa yang bertanggung jawab atas tindakan seperti itu - pengembang perangkat lunak atau komandan yang memerintahkan penggunaan sistem.

Situasi serupa terjadi di industri otomotif, yang telah memimpikan drone yang sepenuhnya otonom selama beberapa dekade. Sebuah klasifikasi tingkat otomatisasi bahkan telah dikembangkan yang cukup berlaku untuk bidang militer.

Pada level nol, mobil adalah UAZ-496 bersyarat, di mana semuanya dikendalikan oleh pengemudi dan tidak ada asisten mekatronik - ESP, ABS, dll.

Pada level tertinggi, drone beroda bahkan tidak memiliki setir (atau dipasang sebagai opsi berbayar). Dan dalam semua situasi, gerakan dikendalikan oleh autopilot. Saat ini, hanya Honda Jepang yang mampu mensertifikasi autopilot produksi Level XNUMX.

Teknik "otomatisasi bersyarat" ini tidak mampu mengambil kendali dalam situasi berbahaya. Dan dalam kondisi normal, itu tidak selalu berhasil. Sistem Traffic Jam Pilot mengotomatiskan mobil dalam kemacetan lalu lintas, menjaganya tetap dalam jalur di jalan raya dan menyalip. Anda dapat melepaskan tangan dari kemudi, tetapi Anda tidak dapat mengalihkan pandangan dari jalan - kamera sedang memantau hal ini. Autopilot tingkat ketiga sangat mahal dan meningkatkan biaya akhir mobil satu setengah kali.

Pada saat yang sama, perlu diingat bahwa autopilot sudah dapat sepenuhnya diperkenalkan ke produksi massal. Dan mereka akan sangat serius mengurangi angka kematian di jalan. Tetapi masalah hukum dan etika dari kesalahan (termasuk yang fatal) AI membuat perusahaan mobil menemui jalan buntu.

AI seharusnya tidak dipersenjatai


Di bidang militer, situasi dengan pengembangan sistem tempur yang sepenuhnya otonom juga jauh dari ideal.

Dan itu bahkan tidak dalam aspek teknis dari masalah ini.

Di satu sisi, para ahli skeptis menunjukkan potensi kemampuan sistem belajar mandiri berdasarkan jaringan saraf untuk memberikan serangan preemptive. Misalnya, AI akan melihat kerentanan nyata atau imajiner pada musuh - mengapa ini bukan alasan untuk melakukan serangan pelucutan senjata pertama? Selain itu, semua "otak buatan" rentan terhadap persaingan dan tidak adanya unsur berpikir kritis, yang juga tidak menambah kepercayaan seseorang.

Analis dari RAND Corporation, secara umum, mendesak untuk tidak mempercayai keputusan strategis militer dengan kecerdasan buatan dalam hal apa pun - baik di masa sekarang maupun di masa depan. Jika beberapa non-kombatan yang dihancurkan oleh kesalahan AI masih dapat didamaikan secara kondisional, maka semuanya akan jauh lebih tragis ketika diterapkan pada kekuatan pencegahan nuklir.

Tidak semuanya begitu sederhana dan dengan operasional-taktis senjata dikendalikan oleh AI.

Mari kita kembali ke cuplikan dari Nagorno-Karabakh, yang dengan jelas menggambarkan keunggulan teknis drone serang dibandingkan senjata tradisional. Di sini semua orang mengerti bahwa di langit hanya ada mesin yang dikendalikan dari jarak jauh, meskipun sangat canggih.

Apa reaksi publik jika pemogokan dilakukan oleh Bayraktar yang sepenuhnya otonom?

Kapan AI akan mengudara ke seluruh dunia untuk membunuh orang, meskipun dengan senjata di tangan mereka?

Sisi moral dari masalah ini belum terselesaikan. Dan itu tidak mungkin diizinkan dalam waktu dekat.

Revolusi militer ketiga: kecerdasan mesin tidak boleh dengan senjata
Sumber: mil.ru

Secara umum, robot di tentara tentu saja bagus.

Mereka memungkinkan Anda untuk menarik tentara dari tembakan musuh langsung, mentransfer semua pekerjaan ke unit tempur dengan remote control. Kerugian dan biaya berkurang. Dan perang tampaknya semakin manusiawi.

Robot yang sepenuhnya otonom di bidang militer atau Sistem Senjata Otonom Lethal bukanlah tentang kemanusiaan dan pengurangan kerugian sama sekali. Jaringan saraf pembelajaran mendalam membuat perang lebih cepat dan dengan lebih banyak korban. Sebenarnya, inilah yang dipastikan oleh dua revolusi militer sebelumnya dalam urusan militer - mesiu dan nuklir.

Hal ini dipahami oleh banyak perusahaan sipil yang terlibat dengan negara dalam proyek-proyek pertahanan.

Jadi, pada tahun 2018, Google menarik diri dari proyek Maven yang sangat menguntungkan senilai lebih dari $7,5 miliar. Spesialis dari Silicon Valley, bersama dengan DARPA, mengerjakan sebuah program untuk memproses rangkaian informasi video dan foto dari berbagai intelijen drone. Data diproses oleh jaringan saraf. Dan memberi operator "perpustakaan target" dalam urutan prioritas penghancuran. Google keluar dari cerita. Dan sekarang DARPA mencoba mengatasinya sendiri.

Aspek penting AI di militer adalah penggunaannya dalam perang informasi.

Dapat dikatakan dengan tingkat kepastian tertentu bahwa dalam waktu dekat, Amerika Serikat hanya akan menurunkan lebih banyak wahyu dari Rusia dan (sebagian besar) China dalam pengembangan kecerdasan buatan tempur. Jika tidak mungkin untuk meyakinkan publik di dalam negeri tentang perlunya pikiran militer yang otonom, maka kami akan menakut-nakuti mereka dengan musuh eksternal. Pentagon telah terkenal dengan logika ini sejak zaman kuno. Katakanlah, mereka sudah mengerjakan AI sepenuhnya, dan di sini kita tidak dapat mengatasi moralitas kita sendiri.

Dan akhirnya, respons asimetris terhadap ancaman AI tempur terlihat cukup menjanjikan. Sekarang teknologi untuk menutupi objek dari mata yang melihat semua kecerdasan buatan dan bahkan kesalahan representasi yang disengaja mendapatkan momentum.

Sementara AI bekerja lumayan dalam kondisi damai, ketika informasi disajikan di piring perak.

Sangat buruk untuk berfungsi dengan data yang tidak lengkap dan berisik. Oleh karena itu, upaya untuk menyesatkan kecerdasan mesin dengan data yang sengaja dikoreksi terlihat cukup logis. Ketika waktu reaksi AI bersenjata diukur dalam hitungan detik dan tidak bergantung pada pendapat seseorang, informasi yang salah tersebut dapat menyebabkan konsekuensi yang sulit diprediksi.

Revolusi militer ketiga, dengan cara yang baik, lebih baik dibatalkan.

Atau mengembangkan tindakan pembatasan bersama untuk pengembangan dan penggunaan AI di bidang militer. Apakah Anda berhasil melakukan hal serupa dalam kasus senjata nuklir?
penulis:
48 komentar
Ad

Berlangganan saluran Telegram kami, informasi tambahan secara teratur tentang operasi khusus di Ukraina, sejumlah besar informasi, video, sesuatu yang tidak termasuk di situs: https://t.me/topwar_official

informasi
Pembaca yang budiman, untuk meninggalkan komentar pada publikasi, Anda harus login.
  1. Jaket dalam stok
    Jaket dalam stok 18 Maret 2021 05:11
    +3
    Kapan AI akan mengudara ke seluruh dunia untuk membunuh orang, meskipun dengan senjata di tangan mereka?

    Sisi moral dari masalah ini masih belum terselesaikan di sini.

    Itu. ketika orang dibunuh di udara oleh orang lain - apakah itu normal dari sisi moral?!
    1. A. Privalov
      A. Privalov 18 Maret 2021 05:44
      0
      Kutipan: Jaket dalam stok
      Itu. ketika orang dibunuh di udara oleh orang lain - apakah itu normal dari sisi moral?!

      Tentu saja tidak, tapi ini dia, masalah moralnya sudah jelas! Kami hanyalah orang modern, "terbebani" dengan pemahaman modern tentang moralitas. Dan ini bagus. hi
      1. DSK.
        DSK. 18 Maret 2021 18:56
        0
        Kutipan: A. Privalov
        Dan ini bagus

        Halo Profesor! Tentu saja bagus, tapi AI menghilangkan "beban" ini. Robotnya akan ekstrim, apa yang akan kamu bawa tak berjiwa "besi"...
        1. A. Privalov
          A. Privalov 18 Maret 2021 20:33
          +4
          Dan kamu, halo. hi
          Saya bukan seorang profesor, hanya seorang profesor asosiasi.

          Tidak ada permintaan dari sepotong besi. Sepotong besi tidak tahu malu. Mereka yang, tanpa alasan serius untuk itu, memutuskan untuk menggunakannya akan mengambil rap. Hanya hari ini, sementara umat manusia, yang tidak memiliki pengalaman dalam menggunakan senjata semacam ini, menyusun dongeng manis untuk dirinya sendiri. Seiring waktu, semuanya akan tenang. Mungkin sesuatu akan dilarang, karena tidak manusiawi, seperti perang militer dulu. Mungkin sesuatu akan dibatasi, katakanlah, robot akan bersiap, dan keputusan untuk menembaki orang akan dibuat oleh seseorang. dll. Bagaimanapun, akan ada kesalahan, akan ada segala macam konflik hukum dan filosofis. Orang hanya bisa berharap bahwa manusia dengan AI tidak mendorong dirinya sendiri ke dalam semacam jebakan, yang telah banyak ditulis oleh penulis fiksi ilmiah.
    2. Icarus
      Icarus 19 Maret 2021 23:05
      0
      Kutipan: Jaket dalam stok
      Kapan AI akan mengudara ke seluruh dunia untuk membunuh orang, meskipun dengan senjata di tangan mereka?

      Sisi moral dari masalah ini masih belum terselesaikan di sini.

      Itu. ketika orang dibunuh di udara oleh orang lain - apakah itu normal dari sisi moral?!

      Tentu saja, ini tidak normal jika bukan pembelaan diri atau aksi militer, ketika pembunuhan diperbolehkan dari sisi moral. Tetapi, pertama, si pembunuh (jika dia waras) memahami bahwa tanggung jawab mungkin datang, di dunia ini (di hadapan masyarakat atau di hadapan dirinya sendiri) atau di dunia lain, mungkin - di hadapan Tuhan, dan kedua, si pembunuh memiliki risiko, bahwa " korban" juga bisa membunuh si pembunuh. Ini semua adalah faktor pembatas. Dan mereka yang menonton online juga memahami bahwa si pembunuh kemungkinan besar akan dihukum (bahkan jika dia gila). Jika pembunuhnya adalah AI, pertama, tidak ada pencegah tertentu, dan kedua, pemirsa online juga memahami bahwa suatu tindakan dilakukan dengan impunitas, di depan umat manusia, tetapi pada saat yang sama sadar, yaitu membunuh seorang orang itu sadar (bukan meteorit) dan dengan impunitas. Nilai kehidupan manusia, di mata masyarakat itu sendiri, berangsur-angsur hilang. Oleh karena itu, moralitas berubah. Kita semua akan memahami bahwa ada entitas yang memutuskan sendiri siapa yang hidup dan siapa yang tidak, atas kebijakannya sendiri dan menurut aturannya sendiri, yang dapat berubah atas kebijakannya sendiri (AI berkembang sendiri). Dan secara umum, tidak jelas apakah AI yang telah menerima tugas membunuh orang (yang tidak memiliki larangan terprogram untuk membunuh seseorang) mampu menyelamatkan korban manusia, misalnya, yang menyerah. Ini jauh dari semua pertanyaan tentang penggunaan AI sebagai senjata untuk membunuh orang.
      Menurut pendapat saya, sudah waktunya bagi PBB untuk setidaknya menunjuk komisi untuk mengembangkan aturan dan peraturan (robot atau AI tidak boleh membuat keputusan untuk membunuh seseorang tanpa partisipasi orang lain) atau menetapkan larangan total terhadap AI sebagai alat untuk membunuh orang, dan makhluk hidup lainnya .
  2. A. Privalov
    A. Privalov 18 Maret 2021 05:31
    +4
    .Dan untuk pemrosesan operasional "data besar" (atau bata besar) diperlukan teknologi yang sangat serius.
    Penafian yang luar biasa. Hampir menurut Freud: "bata besar" adalah bahasa Filipina untuk "anak besar".
    Tentu saja, umat manusia harus menyelesaikan lebih banyak masalah terkait AI. Militer hanyalah salah satu dari banyak. Selain itu, tidak mungkin untuk membatasi diri pada beberapa pembatasan setengah hati. Kemajuan tidak bisa lagi dihentikan. "Kuda besi menggantikan kuda petani" (c)
    . Pada tahun 1865, Parlemen Inggris mengesahkan undang-undang yang menurutnya kecepatan transportasi dibatasi hingga 6 km / jam, dan seseorang harus berjalan di depan mobil, mengibarkan bendera merah. Klausa terakhir dihapuskan pada tahun 1878. Menurut sumber lain, aturan "bendera merah" dihapuskan hanya pada tahun 1896, bersama dengan peningkatan batas kecepatan menjadi 23 km / jam dan penghapusan persyaratan awak tiga (pengemudi, asisten, dan pemadam kebakaran) untuk penerangan. mesin (hingga 3 ton berat trotoar) kendaraan tanpa kuda, yaitu, perbedaan antara mobil dan lokomotif diakui secara hukum, yang memberikan dorongan untuk pengembangan industri otomotif Inggris. Batas kecepatan dinaikkan lagi pada tahun 1903, dan hukum tahun 1896 dan 1903 akhirnya dicabut di Inggris Raya hanya pada tahun 1930.
  3. tasha
    tasha 18 Maret 2021 05:48
    +1
    Revolusi militer ketiga, dengan cara yang baik, lebih baik dibatalkan.
    Akan menyenangkan, tapi sayangnya...
    Atau kembangkan tindakan pembatasan bersama untuk pengembangan dan penggunaan AI di bidang militer
    Hal ini tidak mungkin. Keuntungan yang terlalu jelas diberikan oleh pengembangan dan implementasi sistem otomatis. Dan jauh lebih sulit untuk mengontrol proses pembuatan AI daripada pembuatan dan distribusi senjata nuklir.
    Saya pikir dalam waktu dekat tidak akan ada kesepakatan ke arah ini. Jika Amerika Serikat dan Rusia belum menandatangani dan meratifikasi Perjanjian Ottawa tentang ranjau anti-personil ...
  4. sergo1914
    sergo1914 18 Maret 2021 06:19
    0
    Aristoteles harus disalahkan atas segalanya. Semuanya berawal dari silogistiknya.
  5. parusnik
    parusnik 18 Maret 2021 06:24
    +12
    Para jenderal tersenyum lelah.
    Mereka saling memandang dan berteriak gembira. Armagedon dimenangkan dan kekuatan Setan dikalahkan.
    Tapi sesuatu terjadi di layar televisi mereka.
    - Bagaimana! Ini… itu…” Jenderal McPhee memulai dan kemudian terdiam.
    Karena melintasi medan perang, di antara tumpukan logam yang melengkung dan hancur, Grace berbaris.
    Para jenderal terdiam.
    Grace menyentuh robot yang dimutilasi.
    Dan robot-robot itu bergerak di sepanjang gurun berasap. Potongan logam yang dipelintir, dibakar, dan dilelehkan diperbarui.
    Dan robot-robot itu berdiri.
    "McPhee," bisik Panglima Tertinggi Pengikat. - Tekan sesuatu - biarkan mereka, mungkin, berlutut.
    Jenderal menekan, tetapi remote control tidak berfungsi.
    Dan robot sudah melayang ke langit. Mereka dikelilingi oleh malaikat Tuhan, dan tank robot, infanteri robot, pembom otomatis naik lebih tinggi dan lebih tinggi.
    Dia membawa mereka hidup-hidup ke surga! Ongin berseru histeris. Dia membawa robot ke surga!
    "Ada kesalahan," kata Fetterer. - Lebih cepat! Kirim petugas penghubung... Tidak, kami akan pergi sendiri.
    Pesawat itu langsung diajukan, dan mereka bergegas ke medan perang. Tapi sudah terlambat: Armagedon berakhir, robot menghilang, dan Tuhan dengan pasukannya pulang.(c) R. Sheckley "Pertempuran"
    1. infanteri2020
      infanteri2020 18 Maret 2021 08:21
      +3
      Cerita favorit saya! :)
  6. Kolin
    Kolin 18 Maret 2021 09:36
    +2
    Kemuliaan bagi robot! Bunuh semua manusia! (c) Orihime Inoue
    1. Vadimtt
      Vadimtt 18 Maret 2021 10:36
      +2
      Eh, tapi sisi mana? Faktanya, penerjemah Futurama-lah yang menjadi terkenal tertawa
      1. Kolin
        Kolin 18 Maret 2021 13:49
        0
        Aku tahu, tapi Orihime pernah melukis gambaran epik masa depan... dengan robot. tertawa
    2. Minato2020
      Minato2020 18 Maret 2021 15:32
      +4
      Dikutip dari Kolin.

      Kemuliaan bagi robot! Bunuh semua manusia! (c) Orihime Inoue


      Orihime masih damai dan, dengan kemampuan terbaiknya,
      disembuhkan bahkan dibangkitkan.

      Tetapi jika programmer mampu melakukan apa saja, lalu apa lagi yang diharapkan dari AI?



      Dalam sebuah surat yang dikirim dari pabrik pesawat Irkutsk "Irkut" kepada direktur umum Biro Desain St. Petersburg "Elektroavtomatika", dikatakan tentang tombol tanpa nama yang aneh, ketika ditekan, tulisan "Glory to robots! Kill all people" ditampilkan pada layar kendali jarak jauh.


      https://strana.ua/news/231877-slava-robotam-ubit-vsekh-chelovekov-v-rossii-pri-ispytanii-boevoho-samoleta-jak-130-na-ekrane-vsplyla-strannaja-nadpis-foto.html
    3. pandiurin
      pandiurin 18 Maret 2021 23:27
      +1
      Dikutip dari Kolin.
      Kemuliaan bagi robot! Bunuh semua manusia! (c) Orihime Inoue


      Harus ada undang-undangnya
      Tombol "Bunuh semua orang"
      membuat merah.
      Ini akan mencegah penekanan yang tidak disengaja.
  7. Perangkap pertama
    Perangkap pertama 18 Maret 2021 10:55
    +7
    Dalam perang dunia berikutnya, tidak akan ada kejahatan perang dan kejahatan terhadap kemanusiaan, jadi terlepas dari sejumlah kekurangan, siapa pun yang memiliki banyak pembunuh otonom yang dicetak akan menjadi pemenangnya.
    1. Icarus
      Icarus 19 Maret 2021 23:11
      0
      Dalam perang dunia berikutnya, tidak akan ada kejahatan perang dan kejahatan terhadap kemanusiaan, jadi terlepas dari sejumlah kekurangan, siapa pun yang memiliki banyak pembunuh otonom yang dicetak akan menjadi pemenangnya.

      Dan kemudian pembunuh otonom akan membunuh pemenang, apakah mereka otonom atau tidak?
  8. Sakhalinet
    Sakhalinet 18 Maret 2021 11:16
    +2
    Seseorang dalam perang menjadi lelah, kehilangan konsentrasi, terus-menerus mengalami stres, dapat bingung, haus akan balas dendam, hanya ingin membunuh. Namun persepsi manusia sangat tidak sempurna dan tunduk pada banyak gangguan psikofisiologis. Tapi dia bisa membuat keputusan tentang melepaskan tembakan!
    Tapi robot yang tenang dan tidak pernah lelah - oh tidak, tidak pernah! tertawa
    Jelas bahwa AI saat ini tidak akan menarik tugas, tetapi dalam waktu dekat robotlah yang akan menyelesaikan semuanya.
    1. pandiurin
      pandiurin 18 Maret 2021 23:42
      +1
      Dikutip dari: Sahalinets
      Seseorang dalam perang menjadi lelah, kehilangan konsentrasi, terus-menerus mengalami stres, dapat bingung, haus akan balas dendam, hanya ingin membunuh. Namun persepsi manusia sangat tidak sempurna dan tunduk pada banyak gangguan psikofisiologis. Tapi dia bisa membuat keputusan tentang melepaskan tembakan!
      Tapi robot yang tenang dan tidak pernah lelah - oh tidak, tidak pernah! tertawa
      Jelas bahwa AI saat ini tidak akan menarik tugas, tetapi dalam waktu dekat robotlah yang akan menyelesaikan semuanya.


      Untuk menang ->
      perlu menerapkan / menggunakan robot sebanyak mungkin ->
      untuk ini, produksinya harus sesederhana mungkin ->
      AI paling sederhana akan dapat mengidentifikasi orang yang hidup, tetapi tidak akan dapat mengidentifikasi warga sipil atau kombatan.

      Pada output kami mendapatkan senjata pemusnah massal dengan AI.
  9. Basarev
    Basarev 18 Maret 2021 13:31
    +2
    AI masuk akal. Hanya di tempat pertama dia harus menanamkan kesetiaan mutlak kepada negaranya. Dan, tentu saja, awalnya tidak ada kemungkinan untuk melepaskan tembakan. Menekan tombol dan membuat keputusan harus selalu terserah orang tersebut.
    1. pemotong baut
      pemotong baut 18 Maret 2021 16:56
      0
      dia harus ditanamkan dengan kesetiaan mutlak kepada negaranya
      Buat daya dari baterai di kvass wassat Atau di coca cola tertawa
    2. pandiurin
      pandiurin 18 Maret 2021 23:56
      +1
      kutipan: Basarev
      AI masuk akal. Hanya di tempat pertama dia harus menanamkan kesetiaan mutlak kepada negaranya. Dan, tentu saja, awalnya tidak ada kemungkinan untuk melepaskan tembakan. Menekan tombol dan membuat keputusan harus selalu terserah orang tersebut.


      Operator mengendalikan 1000 robot,
      Jendela kueri muncul di layarnya
      "target terdeteksi. Hancurkan? Ya / Tidak"
      Operator menekan tombol "D" ...

      Drone sekarang digunakan
      keputusan untuk mogok dibuat oleh operator.
      Alih-alih kolom teroris, sebuah pukulan melanda iring-iringan pernikahan.

      Bagi militer, lebih mudah melepaskan robot ke wilayah yang dijamin tidak akan ada "teman". Setelah menentukan bahwa semua target dalam perimeter tertentu dianggap sebagai musuh.
      Sebuah analog dari penggunaan senjata cluster.

      Bom tandan tidak digunakan oleh hati nurani siapa pun, dan "mainan" baru untuk militer ini sama tetapi bahkan lebih efektif. Mereka suka itu.
  10. ironis
    ironis 18 Maret 2021 13:43
    +1
    Dan sementara beberapa bergumul dengan pertanyaan apakah itu moral, yang lain berjuang dengan pertanyaan tentang bagaimana cara cepat memasuki pasar konsumen dengan ini ... Saya bahkan tahu siapa yang akan lebih cepat.
    1. Viktor Tsenin
      Viktor Tsenin 18 Maret 2021 17:41
      +1
      Akan lebih cepat untuk memperkenalkan massa ke pasar, di zaman kita, ketika manusia kembali menjadi serigala bagi manusia, moralitas pahit meneteskan air mata yang tenang.
      1. ironis
        ironis 18 Maret 2021 18:01
        +1
        Moralitas, pada kenyataannya, sangat mutlak, tetapi imoralitas individu tidak memiliki batas. Dan ya.
        1. Viktor Tsenin
          Viktor Tsenin 18 Maret 2021 18:15
          +1
          Akan lebih tepat untuk mengatakan pada topik hari ini tentang amoralitas kolektif, dengan tidak adanya nilai dan ide yang dapat dipahami. Kemutlakan tertinggi telah terlupakan, sayangnya.
          1. ironis
            ironis 18 Maret 2021 18:24
            +2
            Yah ... itu ... jarahan mengalahkan kejahatan.
  11. evgen1221
    evgen1221 18 Maret 2021 17:26
    +2
    Pertanyaannya tentu menarik - di barat yang sama, peringatan dan ramalan telah dikeluarkan berkali-kali dari berbagai sisi masyarakat tentang tidak dapat diterimanya mempersenjatai AI. Bahkan dalam video game, ini jelas terwakili (Horizon zero fajar), singkatnya, tanpa pintu belakang, dengan bodohnya menangkap kesalahan dan planet ini bergegas menuju kepunahan, dan mati menjadi batu (yah, ada banyak penyederhanaan dan lubang, dari saja), tetapi yang utama adalah tanpa backdoor yang andal untuk menonaktifkan AI tidak cukup. Dan sesuatu memberitahu kita bahwa Yankees, tentu saja, akan gagal dengan kasus ini dan kita akan melihat Skynet lagi.
  12. Viktor Tsenin
    Viktor Tsenin 18 Maret 2021 17:39
    +1
    Di sini lagi AI, benar-benar tidak dapat dipahami bagaimana jaringan saraf cocok dengan AI masa depan yang tangguh dan kuat. Tidak ada AI, mesin dan algoritma tidak berpikir, AI cocok untuk media massa, mengapa repot-repot kawan di sini?
  13. Smirnov Mikhail
    Smirnov Mikhail 18 Maret 2021 20:20
    0
    Benar-benar berantakan. Bayraktar yang sepenuhnya otonom tidak akan memberikan satu pukulan pun, karena mereka tidak akan dapat mengorientasikan diri di luar angkasa. Dimana kita, kemana kita akan pergi. Pertama-tama, masalah definisi dangkal tentang posisi seseorang belum terpecahkan. Langkah selanjutnya adalah menyelesaikan masalah pengenalan. Ini adalah pemilihan detail geometri menjadi objek terpisah, memberi mereka nama mereka sendiri. Selanjutnya, Anda perlu menyelesaikan masalah interaksi dengan objek yang dipilih. Dan bagaimana dengan sisi moral, jika masalah teknis dasar tidak diselesaikan?
  14. victor_47
    victor_47 20 Maret 2021 10:19
    0
    Ada kriteria yang jelas: segera setelah terbukti bahwa AI memberikan probabilitas keputusan yang salah secara signifikan lebih rendah daripada tingkat kesalahan minimum yang dapat dicapai oleh operator manusia, maka akan rasional untuk mentransfer keputusan ke AI.
  15. Podvodnik
    Podvodnik 21 Maret 2021 22:05
    0
    Revolusi militer ketiga, dengan cara yang baik, lebih baik dibatalkan


    Kemanusiaan akan bermain. Sejarah berkembang dalam spiral. Tidak peduli bagaimana, setelah beberapa ratus ribu tahun, para peneliti berikutnya kembali mengerutkan dahi mereka dengan pertanyaan: "Dan siapa yang membangun piramida seperti itu?" Dan mereka akan menggali di tempat pembuangan sampah kita, terkubur di bawah lapisan pasir multi-meter, bertanya: "Ada sebuah peradaban besar, tetapi menghilang di suatu tempat .... Apa yang terjadi?"

    Dan inilah yang terjadi: keserakahan, kesombongan, dan kecemburuan menang. Dan kami kalah. Semua.