Konflik Israel-Iran melihat lonjakan besar-besaran dalam konten palsu yang dihasilkan AI

Reaksi pertama saya untuk melihat beberapa klip rudal Iran yang jatuh pada Israel tidak percaya. Bukan fakta bahwa kubah besi dapat dilanggar yang mengejutkan saya – jatuhkan proyektil yang cukup di atasnya, dan beberapa akan mencapai target mereka. Saya pikir saya sedang melihat konten yang dihasilkan AI yang dibagikan di media sosial untuk menyesatkan dan memanipulasi pengguna.

Hanya setelah memeriksa secara online untuk informasi lebih lanjut, dan melihat beberapa video, saya mulai mempercayai posting media sosial yang masuk, mengklaim bahwa Iran membom Israel.

Yang mengatakan, jika Anda melihat F-35 yang jatuh di padang pasir, Anda mungkin menyadari dengan cepat bahwa itu adalah gambar yang dihasilkan AI. Tetapi bahkan saya berhenti untuk mempertimbangkan apakah gambar itu mungkin nyata. Bagaimana jika Iran bisa menjatuhkan jet tempur AS yang paling canggih?

Saya mengatakan ini sebagai seseorang yang telah mengikuti perkembangan AI dengan cermat selama lebih dari dua tahun sekarang. Saya sangat menyadari apa yang dapat dilakukan oleh perangkat lunak AI generatif seperti ChatGPT dan Gemini, dan kemudahan yang dapat membuat pengguna internet amatir dapat membuat gambar palsu dan video AI seperti kehidupan untuk membodohi massa.

Bayangkan pengguna non-AI yang melihat beberapa gambar dan klip ini untuk pertama kalinya. Mereka mungkin memiliki pandangan yang berbeda tentang konflik Israel-Iran. Nah, ternyata beberapa kreasi yang dihasilkan AI ini menjadi viral secara online, mengumpulkan puluhan juta tampilan.

Menurut BBC, BBC Verifikasi Menemukan lusinan posting media sosial yang dibuat untuk memperkuat tanggapan Iran. Tiga video AI saja mengumpulkan lebih dari 100 juta tampilan di berbagai platform.

Bukan hanya konten AI generatif pro-Iran yang muncul di media sosial dengan kecepatan luar biasa. Beberapa akun pro-Israel memposting klip-klip protes lama di Iran, membagikannya sebagai bukti meningkatnya perbedaan pendapat setelah pemogokan Israel.

Disinformasi adalah bagian dari perang. Saya tidak terkejut bahwa masing -masing pihak akan mencoba membentuk narasi yang menguntungkan mereka. Tetapi perangkat lunak AI generatif membuatnya sangat mudah untuk menghasilkan konten yang dapat viral online. Yang Anda butuhkan hanyalah program yang tepat, prompt teks, dan uang untuk membuat gambar dan video yang akan membuat siapa pun mempertanyakan kenyataan.

Ini tidak selalu merupakan serangan yang disponsori negara yang mengakibatkan penggunaan program AI generatif untuk membuat konten palsu yang dapat menjadi viral juga, meskipun kemungkinan organisasi tersebut terlibat dalam sejumlah besar ai palsu yang beredar secara online.

Itu BBC mencatat bahwa beberapa orang melakukannya untuk keuntungan finansial yang datang dengan viral. Akun pro-Iran dipanggil Militer Iran Harian telah menggandakan jumlah pengikutnya pada X menjadi 1,4 juta dalam waktu kurang dari seminggu. Akun tersebut berbagi konten AI palsu, tetapi tidak terkait dengan Teheran.

Partai-partai lain mungkin tertarik untuk mengambil keuntungan dari konflik Israel-Iran untuk keuntungan mereka sendiri juga. CEO Analis Alethea Group Lisa Kaplan mengidentifikasi akun-akun yang terkait dengan operasi intelijen Rusia yang mempromosikan AI palsu yang menampilkan pejuang F-35 Amerika yang digunakan Israel untuk menyerang Iran.

Foto AI dari F-35 yang jatuh membuat putaran media sosial. Sebuah klip yang menunjukkan F-35 Israel ditembak jatuh menerima lebih dari 21 juta tampilan di Tiktok sebelum dihapus. Klip itu berasal dari simulator video game.

Objek kampanye semacam itu adalah untuk membuat senjata seperti F-35 tampak kurang mematikan dan kurang canggih dari itu. Dengan begitu, yang lain mulai meragukan supremasi senjata Amerika tertentu, yang merupakan keuntungan Rusia.

Konflik Israel-Iran mungkin akan menjadi perang pertama yang diperjuangkan secara online melalui kampanye informasi yang bertenaga AI. Sangat mungkin bahwa jutaan orang akan percaya apa yang mereka lihat dan berbagi konten viral sebelum memeriksa keakuratannya.

Platform AI yang membuatnya sangat mudah untuk membuat konten seperti itu akan sebagian bertanggung jawab. Layanan seperti ChatGPT, Gemini, dan lainnya memungkinkan pengguna membuat foto palsu dengan mudah. Sebagian besar dari mereka tidak memiliki tanda air yang terlihat. Dan di media sosial, hampir tidak ada yang memeriksa metadata yang mungkin termasuk tanda air permanen tetapi tidak terlihat.

Lalu ada platform sosial seperti X, Tiktok, Instagram, dan lainnya, yang membuatnya sangat mudah bagi siapa pun untuk berbagi konten seperti itu tanpa pengawasan nyata. Tidak setiap palsu diturunkan segera. Tiktok menghapus video F-35 setelah menerima lebih dari 20 juta tampilan. Kerusakan sudah dilakukan.

Konflik Israel-Iran juga akan menjadi testbed untuk kampanye informasi yang salah potensial lainnya. Aktor -aktor buruk mungkin menggunakan perang untuk menghasilkan strategi untuk mempersenjatai konten AI palsu untuk kampanye lain yang bertujuan menyesatkan massa di bulan -bulan dan tahun -tahun mendatang.

Pastikan untuk memeriksa BBC Laporkan untuk detail lebih lanjut tentang konten AI palsu yang terkait dengan konflik, serta contoh yang menunjukkan jenis gambar yang menyesatkan yang mungkin Anda lihat secara online.