Baru saja saya menyadari bahwa baik Anthropic maupun OpenAI telah menyesuaikan janji keamanan mereka secara cukup besar. Pada Anthropic, sebuah janji utama dari kebijakan pertumbuhan bertanggung jawab dihilangkan begitu saja — secara spesifik: janji untuk menghentikan pelatihan AI jika langkah-langkah pengurangan risiko tidak cukup. Jared Kaplan, Chief Scientific Officer dari Anthropic, menjelaskan ini dengan kenyataan pasar yang sangat kompetitif. Penghentian sepihak di bawah tekanan kompetisi tentu tidak praktis.



Begitu juga di OpenAI: Misi mereka diubah dan kata 'aman' dihilangkan. Sebagai gantinya, fokus sekarang adalah agar AI dapat memberi manfaat bagi umat manusia. Ini tentu sesuai dengan harapan investor dan politisi, tetapi juga menunjukkan bagaimana perusahaan-perusahaan ini sekarang berpikir secara pragmatis.

Waktunya menarik: Anthropic baru saja menyelesaikan putaran pendanaan sebesar 30 miliar dolar dan dinilai sebesar 380 miliar. OpenAI menargetkan hingga 100 miliar, dengan dukungan dari Amazon, Microsoft, dan Nvidia. Jelas mengapa formulasi keamanan seperti ini dihilangkan — tekanannya sangat besar.

Poin lain: Anthropic menolak akses penuh ke Claude dari Pentagon, yang menyebabkan ketegangan dengan Menteri Pertahanan AS, Pete Hegseth. Ini menimbulkan pertanyaan tentang kontrak pertahanan dan menunjukkan bahwa kekhawatiran keamanan dan realitas geopolitik kadang bertentangan. Menarik untuk mengamati bagaimana industri ini sedang didefinisikan ulang saat ini.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan