Berita Pintu, 10 April, Musk baru-baru ini dalam sebuah balasan di platform X, memicu perbincangan hangat di kalangan publik tentang estimasi ukuran parameter model unggulan Anthropic. Saat menanggapi pertanyaan pengguna tentang jumlah parameter Grok 4.2, Musk mengonfirmasi: “0,5 triliun total parameter. Saat ini Grok adalah setengah dari Sonnet, dan sepersepuluh dari Opus. Dengan ukurannya, ini adalah model yang sangat kuat.” Jika memperkirakan secara terbalik dengan pernyataan Musk bahwa “Grok 4.2 adalah sepersepuluh dari Opus”, maka parameter Claude Opus sekitar 5 triliun, dan Claude Sonnet sekitar 1 triliun. Perlu dicatat bahwa Anthropic tidak pernah secara terbuka mengungkapkan ukuran parameter dari model apa pun yang dimilikinya; angka-angka di atas hanyalah hasil estimasi berdasarkan pernyataan Musk, bukan data resmi. Sementara itu, Musk mengungkapkan bahwa klaster superkomputer Colossus 2 milik SpaceX AI sedang secara serentak melatih 7 model, dengan skala terbesar mencapai 10 triliun parameter, dan menambahkan: “Ada beberapa pengejaran yang harus dilakukan.” Jika estimasi tersebut benar, Claude Opus dengan 5 triliun parameter akan menempati posisi teratas model yang saat ini diketahui telah dideploy; sedangkan model dengan 10 triliun parameter yang dilatih secara serentak oleh xAI akan menjadi variabel penting dalam kompetisi putaran berikutnya.