Hasil pencarian untuk "OPUS"
2026-05-05
08:11

TrendAI Bermitra dengan Anthropic untuk Menemukan Kerentanan Platform AI, Menemukan Celah dengan Skor CVSS 9,8 pada Nvidia Isaac GR00T

Menurut Trend Micro, TrendAI berkolaborasi dengan Anthropic untuk menggunakan Claude Opus 4.7 guna riset keamanan yang bertujuan mengidentifikasi kelemahan perangkat lunak yang dapat dieksploitasi dan memberi peringkat berdasarkan tingkat risikonya. TrendAI telah bergabung dengan Program Cyber Verification milik Anthropic, yang memberi kelompok yang disetujui akses ke AI frontier
Lainnya
00:45

GitHub Copilot Beralih ke Penagihan Berbasis Token Mulai 1 Juni, Biaya Bulanan Tetap

Pesan Gate News, 28 April — GitHub mengumumkan bahwa semua paket Copilot akan beralih ke penagihan berbasis token mulai 1 Juni 2026. Model penetapan harga "permintaan premium" yang sudah ada akan digantikan oleh GitHub AI Credits, dengan penggunaan dihitung berdasarkan konsumsi token aktual (termasuk input, output, dan token cache dengan tarif yang sesuai dengan harga API publik setiap model.
Lainnya
23:49

Seri Xiaomi MiMo-V2.5 Hadir sebagai Open Source: 1T Parameter dengan Efisiensi Token Lebih Unggul Dibanding GPT-5.4

Pesan Berita Gate, 27 April — Tim MiMo dari Xiaomi telah merilis kode sumber seri model bahasa besar MiMo-V2.5 di bawah lisensi MIT, mendukung penerapan komersial, pelatihan lanjutan, dan fine-tuning. Kedua model memiliki jendela konteks 1 juta token. MiMo-V2.5-Pro adalah model pure-text campuran pakar MoE dengan total 1,02 triliun parameter dan 1T parameter aktif
Lainnya
05:17

GPT-5.5 Kembali ke Ujung Terdepan dalam Coding, Tapi OpenAI Mengganti Benchmark Setelah Kalah dari Opus 4.7

Berita Gate tanggal 27 April — SemiAnalysis, sebuah firma analisis semikonduktor dan AI, merilis benchmark perbandingan asisten coding yang mencakup GPT-5.5, Claude Opus 4.7, dan DeepSeek V4. Temuan utamanya: GPT-5.5 menandai kembalinya pertama OpenAI ke ujung terdepan dalam model coding dalam enam bulan, dengan insinyur SemiAnalysis kini bergantian antara Codex dan Claude Code setelah sebelumnya hampir sepenuhnya mengandalkan Claude. GPT-5.5 didasarkan pada pendekatan pra-pelatihan baru yang diberi kode "Spud" dan merupakan ekspansi pertama OpenAI dalam skala pra-pelatihan sejak GPT-4.5. Dalam pengujian praktis, muncul pembagian kerja yang jelas. Claude menangani perencanaan proyek baru dan penyiapan awal, sementara Codex unggul pada perbaikan bug yang membutuhkan penalaran intensif. Codex menunjukkan pemahaman yang lebih kuat tentang struktur data dan penalaran logis, tetapi kesulitan menyimpulkan maksud pengguna yang ambigu. Pada satu tugas di satu dasbor, Claude secara otomatis meniru tata letak halaman referensi tetapi memalsukan dalam jumlah besar data, sedangkan Codex melewatkan tata letak tetapi menyajikan data yang jauh lebih akurat. Analisis mengungkap detail manipulasi benchmark: posting blog OpenAI pada Februari mendorong industri untuk mengadopsi SWE-bench Pro sebagai standar baru untuk benchmark coding. Namun, pengumuman GPT-5.5 beralih ke benchmark baru yang disebut "Expert-SWE." Alasannya, yang terselip dalam catatan kecil, adalah bahwa GPT-5.5 disalip oleh Opus 4.7 pada SWE-bench Pro dan tertinggal jauh dari Mythos 77.8% yang belum dirilis Anthropic. Terkait Opus 4.7, Anthropic menerbitkan analisis pasca-kematian satu minggu setelah rilis, mengakui tiga bug dalam Claude Code yang bertahan selama beberapa minggu dari Maret hingga April, dan memengaruhi hampir semua pengguna. Beberapa insinyur sebelumnya telah melaporkan penurunan performa pada versi 4.6, tetapi diabaikan sebagai pengamatan subjektif. Selain itu, tokenizer baru Opus 4.7 meningkatkan penggunaan token hingga 35%, yang secara terbuka diakui Anthropic—secara efektif merupakan kenaikan harga yang tersembunyi. DeepSeek V4 dinilai sebagai "mampu menyamai laju dengan yang di garis depan tetapi tidak memimpin," dengan memposisikan dirinya sebagai alternatif berbiaya terendah di antara model sumber tertutup. Analisis juga mencatat bahwa "Claude terus mengungguli DeepSeek V4 Pro pada tugas penulisan bahasa Tionghoa dengan kesulitan tinggi," dengan komentar bahwa "Claude menang melawan model Tionghoa di bahasa aslinya." Artikel ini memperkenalkan konsep kunci: harga model harus dievaluasi berdasarkan "biaya per tugas" bukan "biaya per token." Harga GPT-5.5 dua kali lipat dari GPT-5.4 input $5, output per million tokens, tetapi ia menyelesaikan tugas yang sama dengan token yang lebih sedikit, sehingga biaya aktualnya tidak harus lebih tinggi. Data awal SemiAnalysis menunjukkan rasio input-ke-output Codex sebesar 80:1, lebih rendah daripada rasio Claude Code 100:1.
Lainnya
04:57

Xiaomi Mengungkap Detail Pelatihan MiMo-V2-Pro: Parameter Model 1T, Ribuan GPU Diterjunkan

Pesan Gate News, 24 April — Pemimpin tim model bahasa besar Xiaomi, Luo Fuli, mengungkapkan dalam wawancara mendalam bahwa model MiMo-V2-Pro memiliki total 1 triliun parameter dan memerlukan ribuan GPU untuk pelatihan. Ia mencatat bahwa skala 1T mewakili ambang batas minimum untuk mencapai kinerja yang mendekati tingkat Claude Opus 4.6 dan mendapatkan tiket masuk yang kompetitif untuk fase berikutnya dari agen AI.
Lainnya