Model AI Dapat Dimanipulasi untuk Hasil yang Salah
Sistem berbasis AI dan machine learning kini juga menjadi target serangan. Penyerang dapat melakukan data poisoning atau adversarial attack untuk memanipulasi hasil model. Hal ini dapat berdampak serius, terutama pada sistem yang digunakan untuk keamanan, kesehatan, atau keuangan. Pengembang disarankan untuk melakukan validasi data, mengamankan pipeline AI, serta menerapkan teknik pertahanan terhadap adversarial attack.