Memahami Data Poisoning untuk Menghadapi Ancaman Terhadap Sistem Kecerdasan Buatan (AI)

Notification

×

Memahami Data Poisoning untuk Menghadapi Ancaman Terhadap Sistem Kecerdasan Buatan (AI)

02/02/2025 | Februari 02, 2025 WIB Last Updated 2025-02-02T04:56:04Z

https://www.itnews.id/2025/02/memahami-data-poisoning-untuk-menghadapi-ancaman-terhadap-sistem-kecerdasan-buatan-ai.html

Pada era digital saat ini, kecerdasan buatan (AI) semakin banyak digunakan dalam berbagai sektor, mulai dari kesehatan dan keuangan hingga pemasaran dan transportasi.  


Seiring dengan peningkatan ketergantungan pada teknologi tersebut, muncul juga ancaman serius yang dapat merusak keakuratan dan keandalan sistem AI.  


Salah satu ancaman utama adalah data poisoning.


Data poisoning adalah bentuk serangan siber di mana data yang digunakan untuk melatih model AI sengaja dicemari dengan informasi yang salah atau manipulatif. 


Tujuannya adalah untuk merusak kemampuan model dalam membuat prediksi atau keputusan yang akurat, sehingga menyebabkan hasil yang tidak dapat dipercaya atau bahkan merugikan.


Cara Kerja Data Poisoning

  • Penyerang mengumpulkan data yang akan digunakan untuk melatih model AI.  Ini dapat mencakup data dari berbagai sumber yang valid atau data yang mereka buat sendiri.

  • Data yang dicemari disisipkan ke dalam kumpulan data pelatihan.  Pencemaran ini bisa berupa informasi yang salah, data yang menyesatkan, atau pola yang dirancang untuk memanipulasi model AI.

  • Model AI dilatih menggunakan data yang sudah dicemari.  Karena data pelatihan mengandung kesalahan atau manipulasi, hasil yang dihasilkan oleh model juga akan dipengaruhi.

  • Penyerang dapat memanfaatkan hasil yang salah dari model AI untuk mencapai tujuan mereka. Misalnya, mereka bisa menyebabkan sistem memberikan rekomendasi yang salah, menghasilkan diagnosis medis yang keliru, atau merusak sistem deteksi penipuan.


Contoh Kasus Data Poisoning dalam Dunia Nyata

Manipulasi Sistem Rekomendasi Produk

Penjual di platform e-commerce seperti Amazon dan Shopee menggunakan bot atau pekerja bayaran untuk menulis ribuan ulasan palsu positif tentang produk mereka dan memberikan ulasan negatif pada produk pesaing.  


Sehingga algoritma rekomendasi mulai berdampak pada:

  • Promosi produk yang sebenarnya berkualitas rendah
  • Konsumen tertipu dan membeli produk yang tidak sesuai harapan
  • Menurunkan kepercayaan terhadap platform


Pemalsuan Data Harga

Penjual yang menggunakan bot supaya secara otomatis menyesuaikan harga produk mereka di marketplace agar selalu berada di posisi lebih kompetitif dengan menyuntikkan data palsu ke sistem e-commerce untuk menipu algoritma dynamic pricing.

Sehingga algoritma marketplace gagal mengenali harga pasar yang sebenarnya, menyebabkan:
  • Persaingan harga tidak sehat.   
  • Penjual lain mengalami kerugian karena harus mengikuti harga yang dimanipulasi.


Serangan terhadap Sistem Penilaian Kredit dan Pinjaman Online

Memanipulasi riwayat transaksi dan identitas untuk meningkatkan skor kredit di platform e-commerce yang menawarkan layanan cicilan atau pinjaman (seperti Klarna atau PayLater).  

Manipulasi tersebut berdampak pada model pembelajaran mesin e-commerce salah dalam menilai kelayakan kredit pelanggan, sehingga terjadi peningkatan jumlah kredit macet karena banyak pelanggan yang sebenarnya tidak mampu membayar justru mendapatkan akses pinjaman.

Pada 2020, terjadi peningkatan kasus penyalahgunaan layanan BNPL (Buy Now, Pay Later) dengan pengguna yang membuat identitas palsu atau menggunakan akun yang telah diretas untuk mendapatkan barang secara kredit tanpa niat membayar.  


Manipulasi Data Pencarian untuk Meningkatkan Visibilitas Produk (SEO Poisoning)

Penjual menggunakan teknik SEO Black Hat untuk menyuntikkan data beracun ke dalam sistem pencarian marketplace.

Seperti memasukkan kata kunci populer yang tidak relevan dalam deskripsi produk, sehingga produk dengan relevansi rendah muncul di posisi teratas pencarian, sementara produk yang lebih relevan tenggelam.  

Konsumen menjadi kesulitan menemukan produk yang benar-benar mereka butuhkan.  Penjual yang menyalahgunakan kata kunci trending dalam deskripsi produk mereka untuk meningkatkan visibilitas, meskipun barang yang mereka jual tidak sesuai dengan kata kunci tersebut.


Sistem Deteksi Penipuan

Penyusupan pada data transaksi palsu yang tampak sah ke dalam dataset pelatihan sistem deteksi penipuan.  

Akibatnya, model Machine learning (ML) dapat belajar bahwa pola penipuan tertentu adalah normal, sehingga gagal mendeteksi aktivitas penipuan di masa depan.  

Dengan menambahkan data yang sangat berbeda atau anomali ke dalam dataset pelatihan, penyerang dapat menyebabkan model mendeteksi terlalu banyak false positives, yang dapat mengganggu operasi normal dan menurunkan kepercayaan terhadap sistem deteksi.



Diagnosis Medis

Penyerang memasukkan data medis yang salah atau menyesatkan ke dalam sistem AI yang digunakan untuk diagnosis.  Ini dapat menyebabkan kesalahan dalam diagnosis dan perawatan yang tidak tepat bagi pasien.


Serangan pada Sistem Deteksi Malware

Penyerang menyisipkan contoh file berbahaya yang telah dimodifikasi ke dalam dataset pelatihan antivirus.  

Model machine learning yang digunakan oleh perangkat lunak antivirus gagal mengenali malware baru karena sudah "belajar" bahwa varian tertentu aman.

Peneliti keamanan dari Universitas Johns Hopkins menunjukkan bagaimana model antivirus dapat dibodohi dengan mengubah hanya beberapa byte dalam file malware, membuatnya lolos dari deteksi.


Manipulasi Pengenalan Wajah dalam Keamanan

Seorang peretas yang berhasil menyisipkan gambar dengan pola tertentu ke dalam sistem keamanan berbasis pengenalan wajah.   Sistem mulai mengenali individu yang tidak sah sebagai pengguna resmi.


Pada 2020, peneliti AI menemukan bahwa model pengenalan wajah dapat dimanipulasi menggunakan serangan "backdoor," di mana gambar dengan filter tertentu dapat diterima sebagai identitas yang berbeda.


Kecurangan dalam Model Kredit Skoring

Penipu mengunggah data palsu ke sistem pembelajaran mesin bank, di mana beberapa individu dengan skor kredit buruk diberikan riwayat kredit positif palsu.   Model AI mulai memberikan pinjaman kepada pelanggan yang seharusnya tidak memenuhi syarat, meningkatkan risiko gagal bayar bagi bank.


Peneliti dari University of California menemukan bahwa manipulasi dataset kredit skoring dapat meningkatkan kemungkinan persetujuan kredit bagi individu dengan riwayat keuangan buruk.


Serangan pada Mobil Otonom

Peretas memodifikasi rambu lalu lintas dengan stiker kecil yang tidak terlihat oleh manusia tetapi dapat menyebabkan kendaraan otonom salah mengenali tanda tersebut.   Mobil otonom dapat membaca rambu "STOP" sebagai "30 MPH," berpotensi menyebabkan kecelakaan.

Penelitian MIT dan IBM menunjukkan bagaimana perubahan kecil pada rambu lalu lintas dapat membuat mobil otonom salah menginterpretasikan instruksi.



Jenis-Jenis Data Poisoning

Targeted Attacks

Penyerang memanipulasi model untuk berperilaku dengan cara tertentu terhadap input yang ditargetkan, sementara kinerja keseluruhan model tetap tidak terpengaruh. 

Misalnya, menyisipkan sampel yang dirancang khusus ke dalam data pelatihan alat deteksi malware untuk membuat sistem salah mengklasifikasikan file berbahaya sebagai aman. 


Non-Targeted Attacks

Penyerang bertujuan untuk menurunkan kinerja keseluruhan model tanpa menargetkan fungsi atau fitur tertentu.  Misalnya, menyuntikkan noise acak ke dalam data pelatihan alat klasifikasi gambar dengan menambahkan piksel acak ke subset gambar yang digunakan untuk melatih model. 


Label Flipping

Penyerang secara sengaja mengubah label dari data tertentu.  Misalnya, dalam tugas klasifikasi biner, beberapa label '0' diubah menjadi '1' dan sebaliknya.  


Backdoor Attacks

Penyerang menambahkan pola atau pemicu spesifik dalam data pelatihan yang menyebabkan model berperilaku tidak semestinya saat pemicu tersebut hadir. 

Misalnya, dalam sistem pengenalan gambar, menambahkan stiker kecil yang tidak mencolok ke gambar yang, ketika terdeteksi, memaksa model untuk mengklasifikasikan gambar tersebut secara tidak benar. 


Praktik Terbaik untuk Mencegah Data Poisoning

  • Lakukan validasi dan pembersihan data secara berkala untuk memastikan integritas dataset. 
  • Terapkan kontrol akses yang ketat untuk mencegah manipulasi data oleh pihak yang tidak berwenang. 
  • Lakukan audit dan pemantauan rutin terhadap data dan model untuk mendeteksi anomali atau perubahan yang mencurigakan. 
  • Gunakan berbagai sumber data untuk mengurangi risiko data poisoning dari satu sumber tertentu. 
  • Tingkatkan kesadaran dan pelatihan keamanan bagi staf untuk mengenali dan mencegah potensi serangan data poisoning. 

Dengan menerapkan langkah-langkah di atas, organisasi dapat meningkatkan ketahanan terhadap serangan data poisoning dan memastikan integritas serta keandalan sistem AI mereka.


Sumber:  


Youtube:  RealTime Cyber, 16 May 2022 06:11. AI/ML Data Poisoning Attacks Explained and Analyzed-Technical.