Pada era digital saat ini, kecerdasan buatan (AI) semakin banyak digunakan dalam berbagai sektor, mulai dari kesehatan dan keuangan hingga pemasaran dan transportasi.
Seiring dengan peningkatan ketergantungan pada teknologi tersebut, muncul juga ancaman serius yang dapat merusak keakuratan dan keandalan sistem AI.
Salah satu ancaman utama adalah data poisoning.
Data poisoning adalah bentuk serangan siber di mana data yang digunakan untuk melatih model AI sengaja dicemari dengan informasi yang salah atau manipulatif.
Tujuannya adalah untuk merusak kemampuan model dalam membuat prediksi atau keputusan yang akurat, sehingga menyebabkan hasil yang tidak dapat dipercaya atau bahkan merugikan.
Cara Kerja Data Poisoning
- Penyerang mengumpulkan data yang akan digunakan untuk melatih model AI. Ini dapat mencakup data dari berbagai sumber yang valid atau data yang mereka buat sendiri.
- Data yang dicemari disisipkan ke dalam kumpulan data pelatihan. Pencemaran ini bisa berupa informasi yang salah, data yang menyesatkan, atau pola yang dirancang untuk memanipulasi model AI.
- Model AI dilatih menggunakan data yang sudah dicemari. Karena data pelatihan mengandung kesalahan atau manipulasi, hasil yang dihasilkan oleh model juga akan dipengaruhi.
- Penyerang dapat memanfaatkan hasil yang salah dari model AI untuk mencapai tujuan mereka. Misalnya, mereka bisa menyebabkan sistem memberikan rekomendasi yang salah, menghasilkan diagnosis medis yang keliru, atau merusak sistem deteksi penipuan.
Contoh Kasus Data Poisoning dalam Dunia Nyata
Manipulasi Sistem Rekomendasi Produk
Penjual di platform e-commerce seperti Amazon dan Shopee menggunakan bot atau pekerja bayaran untuk menulis ribuan ulasan palsu positif tentang produk mereka dan memberikan ulasan negatif pada produk pesaing.
Sehingga algoritma rekomendasi mulai berdampak pada:
- Promosi produk yang sebenarnya berkualitas rendah
- Konsumen tertipu dan membeli produk yang tidak sesuai harapan
- Menurunkan kepercayaan terhadap platform
Pemalsuan Data Harga
Penjual yang menggunakan bot supaya secara otomatis menyesuaikan harga produk mereka di marketplace agar selalu berada di posisi lebih kompetitif dengan menyuntikkan data palsu ke sistem e-commerce untuk menipu algoritma dynamic pricing.- Persaingan harga tidak sehat.
- Penjual lain mengalami kerugian karena harus mengikuti harga yang dimanipulasi.
Serangan terhadap Sistem Penilaian Kredit dan Pinjaman Online
Memanipulasi riwayat transaksi dan identitas untuk meningkatkan skor kredit di platform e-commerce yang menawarkan layanan cicilan atau pinjaman (seperti Klarna atau PayLater).Manipulasi Data Pencarian untuk Meningkatkan Visibilitas Produk (SEO Poisoning)
Penjual menggunakan teknik SEO Black Hat untuk menyuntikkan data beracun ke dalam sistem pencarian marketplace.Sistem Deteksi Penipuan
Penyusupan pada data transaksi palsu yang tampak sah ke dalam dataset pelatihan sistem deteksi penipuan.
Diagnosis Medis
Penyerang memasukkan data medis yang salah atau menyesatkan ke dalam sistem AI yang digunakan untuk diagnosis. Ini dapat menyebabkan kesalahan dalam diagnosis dan perawatan yang tidak tepat bagi pasien.
Serangan pada Sistem Deteksi Malware
Penyerang menyisipkan contoh file berbahaya yang telah dimodifikasi ke dalam dataset pelatihan antivirus.Manipulasi Pengenalan Wajah dalam Keamanan
Seorang peretas yang berhasil menyisipkan gambar dengan pola tertentu ke dalam sistem keamanan berbasis pengenalan wajah. Sistem mulai mengenali individu yang tidak sah sebagai pengguna resmi.Kecurangan dalam Model Kredit Skoring
Penipu mengunggah data palsu ke sistem pembelajaran mesin bank, di mana beberapa individu dengan skor kredit buruk diberikan riwayat kredit positif palsu. Model AI mulai memberikan pinjaman kepada pelanggan yang seharusnya tidak memenuhi syarat, meningkatkan risiko gagal bayar bagi bank.Peneliti dari University of California menemukan bahwa manipulasi dataset kredit skoring dapat meningkatkan kemungkinan persetujuan kredit bagi individu dengan riwayat keuangan buruk.
Serangan pada Mobil Otonom
Peretas memodifikasi rambu lalu lintas dengan stiker kecil yang tidak terlihat oleh manusia tetapi dapat menyebabkan kendaraan otonom salah mengenali tanda tersebut. Mobil otonom dapat membaca rambu "STOP" sebagai "30 MPH," berpotensi menyebabkan kecelakaan.
Penelitian MIT dan IBM menunjukkan bagaimana perubahan kecil pada rambu lalu lintas dapat membuat mobil otonom salah menginterpretasikan instruksi.
Jenis-Jenis Data Poisoning
Targeted Attacks
Penyerang memanipulasi model untuk berperilaku dengan cara tertentu terhadap input yang ditargetkan, sementara kinerja keseluruhan model tetap tidak terpengaruh.
Misalnya, menyisipkan sampel yang dirancang khusus ke dalam data pelatihan alat deteksi malware untuk membuat sistem salah mengklasifikasikan file berbahaya sebagai aman.
Non-Targeted Attacks
Penyerang bertujuan untuk menurunkan kinerja keseluruhan model tanpa menargetkan fungsi atau fitur tertentu. Misalnya, menyuntikkan noise acak ke dalam data pelatihan alat klasifikasi gambar dengan menambahkan piksel acak ke subset gambar yang digunakan untuk melatih model.
Label Flipping
Penyerang secara sengaja mengubah label dari data tertentu. Misalnya, dalam tugas klasifikasi biner, beberapa label '0' diubah menjadi '1' dan sebaliknya.
Backdoor Attacks
Penyerang menambahkan pola atau pemicu spesifik dalam data pelatihan yang menyebabkan model berperilaku tidak semestinya saat pemicu tersebut hadir.
Misalnya, dalam sistem pengenalan gambar, menambahkan stiker kecil yang tidak mencolok ke gambar yang, ketika terdeteksi, memaksa model untuk mengklasifikasikan gambar tersebut secara tidak benar.
Praktik Terbaik untuk Mencegah Data Poisoning
- Lakukan validasi dan pembersihan data secara berkala untuk memastikan integritas dataset.
- Terapkan kontrol akses yang ketat untuk mencegah manipulasi data oleh pihak yang tidak berwenang.
- Lakukan audit dan pemantauan rutin terhadap data dan model untuk mendeteksi anomali atau perubahan yang mencurigakan.
- Gunakan berbagai sumber data untuk mengurangi risiko data poisoning dari satu sumber tertentu.
- Tingkatkan kesadaran dan pelatihan keamanan bagi staf untuk mengenali dan mencegah potensi serangan data poisoning.
Dengan menerapkan langkah-langkah di atas, organisasi dapat meningkatkan ketahanan terhadap serangan data poisoning dan memastikan integritas serta keandalan sistem AI mereka.
Sumber: