Daftar Isi:

Kepalsuan yang dalam: Neuroset diajari untuk menghasilkan suara dan video palsu
Kepalsuan yang dalam: Neuroset diajari untuk menghasilkan suara dan video palsu

Video: Kepalsuan yang dalam: Neuroset diajari untuk menghasilkan suara dan video palsu

Video: Kepalsuan yang dalam: Neuroset diajari untuk menghasilkan suara dan video palsu
Video: Kenapa Indonesia Dan Uni Soviet Memiliki Hubungan Baik 2024, April
Anonim

Untuk membuat gambar berita "individual" untuk kita semua dan untuk memalsukan laporan media yang dipilih di dalamnya, upaya satu programmer sudah cukup hari ini. Spesialis kecerdasan buatan dan keamanan siber memberi tahu Izvestia tentang hal ini.

Baru-baru ini, mereka memperkirakan bahwa ini membutuhkan kerja banyak tim. Akselerasi semacam itu menjadi mungkin dengan pengembangan teknologi untuk serangan pada jaringan saraf dan pembuatan audio dan video palsu menggunakan program untuk membuat "kepalsuan yang dalam". Surat kabar Izvestia baru-baru ini menjadi sasaran serangan serupa, ketika tiga portal berita Libya sekaligus menerbitkan pesan yang diduga muncul di salah satu terbitan. Menurut para ahli, dalam 3-5 tahun kita dapat mengharapkan invasi manipulator robot, yang secara otomatis akan dapat membuat banyak pemalsuan.

Dunia baru yang berani

Ada semakin banyak proyek yang menyesuaikan gambaran informasi dengan persepsi pengguna tertentu. Salah satu contoh pekerjaan mereka adalah aksi baru-baru ini dari tiga portal Libya, yang menerbitkan berita yang diduga diterbitkan dalam edisi Izvestia pada 20 November. Pencipta palsu memodifikasi halaman depan surat kabar, memposting di atasnya pesan tentang negosiasi antara Field Marshal Khalifa Haftar dan Perdana Menteri Pemerintah Kesepakatan Nasional (PNS) Fayez Sarraj. Palsu, dalam jenis huruf Izvestia, disertai dengan foto kedua pemimpin yang diambil pada Mei 2017. Label dengan logo publikasi dipotong dari edisi aktual 20 November, dan semua teks lain di halaman dari edisi 23 Oktober.

Dari sudut pandang spesialis, di masa mendatang, pemalsuan semacam itu dapat dilakukan secara otomatis.

The Truman Show - 2019: Bagaimana Jaringan Saraf Diajarkan untuk Memalsukan Gambar Berita
The Truman Show - 2019: Bagaimana Jaringan Saraf Diajarkan untuk Memalsukan Gambar Berita

“Teknologi kecerdasan buatan sekarang benar-benar terbuka, dan perangkat untuk menerima dan memproses data semakin kecil dan semakin murah,” Yuri Vilsiter, Doktor Ilmu Fisika dan Matematika, Profesor Akademi Ilmu Pengetahuan Rusia, kepala departemen “GosNIIAS” FSUE, kata Izvestia. - Oleh karena itu, sangat mungkin bahwa dalam waktu dekat, bahkan bukan negara dan perusahaan besar, tetapi hanya individu swasta akan dapat menguping dan memata-matai kita, serta memanipulasi kenyataan. Di tahun-tahun mendatang, dimungkinkan, dengan menganalisis preferensi pengguna, untuk memengaruhinya melalui umpan berita dan pemalsuan yang sangat cerdas.

Menurut Yuri Vilsiter, teknologi yang dapat digunakan untuk intervensi semacam itu di lingkungan mental sudah ada. Secara teori, invasi bot robot dapat diperkirakan dalam beberapa tahun, katanya. Sebuah titik pembatas di sini mungkin kebutuhan untuk mengumpulkan database besar contoh tanggapan orang nyata terhadap rangsangan buatan dengan pelacakan konsekuensi jangka panjang. Pelacakan semacam itu kemungkinan akan membutuhkan beberapa tahun penelitian lagi sebelum serangan yang ditargetkan diperoleh secara konsisten.

Serangan penglihatan

Alexey Parfentiev, kepala departemen analitik di SearchInform, juga setuju dengan Yuri Vilsiter. Menurutnya, para ahli sudah memprediksi serangan pada jaringan saraf, meskipun sekarang hampir tidak ada contoh seperti itu.

- Para peneliti dari Gartner percaya bahwa pada tahun 2022, 30% dari semua serangan dunia maya akan ditujukan untuk merusak data tempat jaringan saraf dilatih dan mencuri model pembelajaran mesin yang sudah jadi. Kemudian, misalnya, kendaraan tak berawak tiba-tiba bisa salah mengira pejalan kaki sebagai objek lain. Dan kami tidak akan berbicara tentang risiko keuangan atau reputasi, tetapi tentang kehidupan dan kesehatan orang-orang biasa, para ahli percaya.

Serangan pada sistem visi komputer sedang dilakukan sebagai bagian dari penelitian sekarang. Tujuan dari serangan tersebut adalah untuk membuat jaringan saraf mendeteksi sesuatu dalam gambar yang tidak ada. Atau, sebaliknya, tidak melihat apa yang direncanakan.

The Truman Show - 2019: Bagaimana Jaringan Saraf Diajarkan untuk Memalsukan Gambar Berita
The Truman Show - 2019: Bagaimana Jaringan Saraf Diajarkan untuk Memalsukan Gambar Berita

“Salah satu topik yang berkembang secara aktif di bidang pelatihan jaringan saraf adalah apa yang disebut serangan permusuhan (“serangan permusuhan.”- Izvestia),” jelas Vladislav Tuskanov, seorang analis web di Kaspersky Lab. - Dalam kebanyakan kasus, mereka ditujukan untuk sistem visi komputer. Untuk melakukan serangan seperti itu, dalam banyak kasus, Anda harus memiliki akses penuh ke jaringan saraf (yang disebut serangan kotak putih) atau hasil kerjanya (serangan kotak hitam). Tidak ada metode yang dapat menipu sistem visi komputer dalam 100% kasus. Selain itu, alat telah dibuat yang memungkinkan Anda menguji jaringan saraf untuk ketahanan terhadap serangan musuh dan meningkatkan ketahanannya.

Selama serangan semacam itu, penyerang mencoba entah bagaimana mengubah gambar yang dikenali sehingga jaringan saraf tidak berfungsi. Seringkali, noise ditumpangkan pada foto, serupa dengan yang terjadi saat memotret di ruangan dengan pencahayaan redup. Seseorang biasanya tidak memperhatikan gangguan seperti itu dengan baik, tetapi jaringan saraf mulai tidak berfungsi. Tetapi untuk melakukan serangan seperti itu, penyerang membutuhkan akses ke algoritme.

Menurut Stanislav Ashmanov, Direktur Umum Neuroset Ashmanov, saat ini tidak ada metode untuk mengatasi masalah ini. Selain itu, teknologi ini tersedia untuk siapa saja: rata-rata programmer dapat menggunakannya dengan mengunduh perangkat lunak sumber terbuka yang diperlukan dari layanan Github.

The Truman Show - 2019: Bagaimana Jaringan Saraf Diajarkan untuk Memalsukan Gambar Berita
The Truman Show - 2019: Bagaimana Jaringan Saraf Diajarkan untuk Memalsukan Gambar Berita

- Serangan pada jaringan saraf adalah teknik dan algoritma untuk menipu jaringan saraf, yang membuatnya menghasilkan hasil yang salah, dan pada kenyataannya, memecahkannya seperti kunci pintu, - Ashmanov percaya. - Misalnya, sekarang cukup mudah untuk membuat sistem pengenalan wajah berpikir bahwa itu bukan Anda, tetapi Arnold Schwarzenegger di depannya - ini dilakukan dengan mencampur aditif yang tidak terlihat oleh mata manusia ke dalam data yang masuk ke jaringan saraf. Serangan yang sama dimungkinkan untuk pengenalan suara dan sistem analisis.

Pakar yakin itu hanya akan menjadi lebih buruk - teknologi ini telah tersebar luas, penipu sudah menggunakannya, dan tidak ada perlindungan terhadapnya. Karena tidak ada perlindungan terhadap pemalsuan video dan audio secara otomatis.

Palsu yang mendalam

Teknologi deepfake berdasarkan Deep Learning (teknologi pembelajaran mendalam jaringan saraf. - Izvestia) sudah menimbulkan ancaman nyata. Video atau audio palsu dibuat dengan mengedit atau melapisi wajah orang-orang terkenal yang seharusnya mengucapkan teks yang diperlukan dan memainkan peran yang diperlukan dalam plot.

“Deepfake memungkinkan Anda mengganti gerakan bibir dan ucapan manusia dengan video, yang menciptakan perasaan realisme tentang apa yang terjadi,” kata Andrey Busargin, direktur departemen untuk perlindungan merek inovatif dan kekayaan intelektual di Group-IB. - Selebriti palsu "menawarkan" pengguna di jejaring sosial untuk berpartisipasi dalam pengundian hadiah berharga (smartphone, mobil, sejumlah uang), dll. Tautan dari publikasi video semacam itu sering mengarah ke situs penipuan dan phishing, di mana pengguna diminta untuk memasukkan informasi pribadi, termasuk detail kartu bank. Skema tersebut menimbulkan ancaman bagi pengguna biasa dan tokoh masyarakat yang disebutkan dalam iklan. Penipuan semacam ini mulai mengaitkan gambar selebriti dengan penipuan atau barang yang diiklankan, dan di sinilah kita mengalami kerusakan merek pribadi, katanya.

The Truman Show - 2019: Bagaimana Jaringan Saraf Diajarkan untuk Memalsukan Gambar Berita
The Truman Show - 2019: Bagaimana Jaringan Saraf Diajarkan untuk Memalsukan Gambar Berita

Ancaman lain terkait dengan penggunaan "suara palsu" untuk penipuan telepon. Misalnya, di Jerman, penjahat dunia maya menggunakan deepfake suara untuk membuat kepala anak perusahaan dari Inggris segera mentransfer € 220.000 dalam percakapan telepon, menyamar sebagai manajer perusahaan.ke dalam rekening pemasok Hungaria. Kepala biro hukum Inggris itu mencurigai adanya tipuan ketika "bosnya" meminta wesel kedua, tetapi panggilan itu datang dari nomor Austria. Pada saat ini, tahap pertama telah ditransfer ke rekening di Hungaria, dari mana uang itu ditarik ke Meksiko.

Ternyata teknologi saat ini memungkinkan Anda membuat gambar berita individual yang diisi dengan berita palsu. Selain itu, akan segera mungkin untuk membedakan yang palsu dari video dan audio asli hanya dengan perangkat keras. Menurut para ahli, langkah-langkah yang melarang pengembangan jaringan saraf tidak mungkin efektif. Karena itu, segera kita akan hidup di dunia di mana perlu untuk terus-menerus memeriksa ulang semuanya.

“Kita perlu mempersiapkan ini, dan ini harus diterima,” tegas Yuri Vilsiter. - Kemanusiaan bukanlah yang pertama kali berpindah dari satu realitas ke realitas lainnya. Dunia kita, cara hidup, dan nilai-nilai sangat berbeda dari dunia di mana nenek moyang kita hidup 60.000 tahun yang lalu, 5.000 tahun yang lalu, 2.000 tahun yang lalu, dan bahkan 200-100 tahun yang lalu. Dalam waktu dekat, seseorang akan kehilangan privasinya dan karena itu dipaksa untuk tidak menyembunyikan apa pun dan bertindak jujur. Pada saat yang sama, tidak ada apa pun dalam realitas di sekitarnya dan dalam kepribadian seseorang yang dapat dipercaya, semuanya harus dipertanyakan dan terus-menerus diperiksa ulang. Tetapi akankah kenyataan masa depan ini mengerikan? Tidak. Ini hanya akan benar-benar berbeda.

Direkomendasikan: