Intel Xeon Cascade Lake vs. NVIDIA Turing: Suatu Analisis dalam AI

Sepertinya moto baru untuk Lembah Silikon selama beberapa tahun terakhir adalah "Data adalah minyak baru," dan untuk alasan yang baik. Jumlah perusahaan yang menggunakan teknologi AI berbasis pembelajaran mesin telah meledak, dan bahkan beberapa tahun setelah semua ini dimulai dengan sungguh-sungguh, jumlah itu terus bertambah. Bentuk AI ini tidak lagi hanya tesis akademik atau proyek penelitian yang aneh, tetapi pembelajaran mesin telah menjadi bagian penting dari pasar perusahaan, dan dampaknya pada perangkat keras perusahaan – pembelian dan pengembangan – akan sulit untuk dilebih-lebihkan. Ini adalah era AI.

Pada pandangan pertama, pilihan perangkat keras untuk jenis aplikasi ini tampak sederhana: CPU Intel Xeon untuk menyimpan dan memproses data, GPU NVIDIA untuk (hampir) semua AI. Dan memang, ini sebagian besar telah terjadi selama beberapa tahun terakhir sekarang. Namun, pesaing NVIDIA tidak berdiri diam sepanjang waktu – dan itu terutama berlaku untuk Intel, yang pangsa pasar perusahaannya pada akhirnya mengancam. Dengan semuanya, mulai dari prosesor inferensi berdaya rendah khusus hingga Xeon yang dioptimalkan untuk tujuan, Intel mengincar setiap tingkat pasar AI. Hasil akhirnya adalah bahwa di antara semua pesaing ini, kami melihat AI ditangani dari berbagai arah, dan pertempuran perangkat keras untuk era AI sangat menarik menurut pendapat kami.

Hari ini kita melihat apa yang mungkin menjadi jantung dari perangkat keras Intel di ruang AI, prosesor Xeon Scalable generasi kedua Intel, yang lebih dikenal sebagai "Cascade Lake". Diperkenalkan sedikit awal tahun ini, prosesor baru ini masih didasarkan pada arsitektur Skylake inti yang sama dengan produk generasi pertama, tetapi menggabungkan sejumlah instruksi baru untuk mempercepat kinerja AI.

Dan sejauh teknologi baru berjalan, ini tentu saja merupakan aspek paling menarik dari Cascade Lake. Sementara kita dapat berbicara tentang peningkatan kinerja CPU tiga hingga enam persen secara umum, 56 core prosesor Intel termahal yang pernah ada, dan "tolok ukur rekor dunia," perbaikan kecil ini hampir tidak relevan untuk masa depan jangka pendek dan menengah dari Dunia IT. Lihat saja slide pertama dari pers Intel & briefing analis.

Internet hal-hal, rekayasa data, dan AI. Di situlah sebagian besar pertumbuhan, inovasi, dan masa depan TI akan terjadi. Dan di sinilah Intel ingin berada.

Saat ini, NVIDIA memiliki monopoli virtual pada bagian "terseksi" dari pasar ini, yang merupakan pembelajaran mendalam dan perangkat lunak "parsial paralel HPC". Berkat pertemuan faktor-faktor pada sisi perangkat keras dan perangkat lunak, sebagian besar perangkat lunak ini dijalankan pada GPU dan cluster NVIDIA. Jadi bagi masyarakat umum, sepertinya NVIDIA memiliki “pasar AI”, sebuah gambar yang tidak akurat, tetapi juga tidak lengkap. Ada jauh lebih banyak hal untuk pasar AI dari pada hanya menyimpulkan jaringan saraf, dan khususnya, segala sesuatu yang terjadi untuk memberi makan model AI dengan data hanya mendapat sedikit perhatian. Akibatnya, itu adalah jaringan saraf dan robot Terminator yang mendapatkan semua berita utama, meskipun mereka hanya sebagian dari gambar. Pada kenyataannya, web pemrosesan untuk aplikasi AI jauh lebih seperti gambar di bawah ini.

Intel Xeon Cascade Lake vs. NVIDIA Turing: Suatu Analisis dalam AI 1

Singkatnya, eksekusi kode pembelajaran mesin yang sebenarnya hanya sebagian kecil dari perangkat lunak yang diperlukan untuk membangun dan Aplikasi AI.

Sebelum Anda bahkan dapat memulai, Anda harus mencerna data, mendekompresi, memfilter, menyusun ulang, memetakan, dan mengacaknya. Setelah semuanya diurutkan dan diacak, Anda harus mengumpulkan data. Karena algoritme ML membutuhkan data dalam jumlah besar untuk menghasilkan prediksi yang baik, yang bisa jadi sangat memproses memori. Mengapa? Mari kita selami sedikit lebih dalam.

Pos terkait

Back to top button