#Gate广场四月发帖挑战



Perusahaan data AI Mercor mengonfirmasi mengalami kebocoran data besar-besaran, melibatkan klien seperti OpenAI, Anthropic, dan lainnya

Dilaporkan, startup yang menyediakan data pelatihan untuk perusahaan AI seperti OpenAI, Anthropic, dan Meta, Mercor, mengonfirmasi mengalami celah keamanan besar. Insiden ini berasal dari serangan rantai pasokan terhadap perpustakaan open-source LiteLLM, yang banyak digunakan pengembang untuk menghubungkan layanan AI, dengan jumlah unduhan harian mencapai jutaan. Serangan ini dilakukan oleh organisasi hacker TeamPCP, yang menyisipkan kode berbahaya ke dalam LiteLLM untuk mencuri kredensial. Organisasi hacker lain, Lapsus$, kemudian mengklaim telah memperoleh hingga 4TB data dari Mercor, termasuk kode sumber, catatan basis data, komunikasi internal Slack, dan video percakapan platform. Menurut laporan yang belum diverifikasi, data sebagian klien Mercor dan informasi proyek AI rahasia mereka mungkin telah bocor. Mercor menyatakan telah mengambil langkah cepat untuk menahan situasi dan telah memulai penyelidikan forensik dari pihak ketiga.

Insiden ini merupakan contoh klasik dari “keracunan rantai pasokan” yang memicu reaksi berantai, tidak hanya mengungkap kerentanan infrastruktur AI, tetapi juga berpotensi membahayakan data pelatihan raksasa seperti OpenAI.

1. Ulasan rantai serangan: dari “alat” ke “data”

Sumber keracunan: Organisasi hacker TeamPCP menembus perpustakaan open-source LiteLLM (API gateway AI), merilis versi berbackdoor di PyPI (1.82.7/1.82.8).

Pencurian kredensial: Setelah Mercor dan perusahaan lain memperbarui dependensi mereka, kode berbahaya secara diam-diam mencuri kredensial cloud dan kunci API mereka.

Perampokan data: Organisasi hacker lain, Lapsus$, memanfaatkan kunci ini untuk masuk ke jaringan internal Mercor, mencuri sekitar 4TB data inti dan menjualnya.

2. “Kualitas” data yang bocor

Menurut klaim Lapsus$ dan verifikasi media, data yang dicuri sangat berbahaya:

Data rahasia klien: Meliputi dataset pelatihan dari raksasa seperti OpenAI, Anthropic, Meta, detail model yang belum dirilis, dan kode proyek internal.

Privasi pribadi: Banyak dokumen identitas kontraktor platform (seperti scan paspor), video wawancara, dan dokumen identitas.

Rahasia perusahaan: Hampir 1TB kode sumber Mercor, catatan obrolan Slack internal, dan data sistem tiket.

3. Dampak dan risiko potensial

Keamanan model: Jika data pelatihan (terutama data umpan balik manusia RLHF) bocor, penyerang dapat melakukan analisis balik terhadap kelemahan model dan melancarkan serangan yang lebih tepat sasaran.

Krisis kepatuhan: Kebocoran data PII (informasi pribadi) kontraktor secara besar-besaran dapat memicu denda besar sesuai regulasi seperti GDPR.

Kehilangan kepercayaan: Sebagai “bank data” dalam rantai industri AI, kegagalan keamanan Mercor akan memaksa para pelaku di hilir untuk menilai ulang risiko rantai pasokan data pihak ketiga.

4. Situasi saat ini dan langkah perlindungan

Tindakan darurat: Versi berbahaya telah dihapus dari distribusi, Mercor telah memulai penyelidikan forensik dari pihak ketiga dan memberi tahu klien.

Saran pemeriksaan mandiri: Jika Anda memperbarui LiteLLM pada akhir Maret, segera periksa versi dan ganti semua kredensial cloud serta kunci API. Pengguna biasa harus waspada terhadap kemungkinan email phishing selanjutnya.

Ringkasan singkat: Ini bukan hanya insiden keamanan perusahaan Mercor, tetapi juga peringatan keras terhadap kondisi “fungsi utama, keamanan rendah” dalam ekosistem AI secara keseluruhan.
Lihat Asli
post-image
post-image
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan