NVIDIA Umumkan GPU Tesla T4 Berbasis Turing Untuk AI dan Database Hyperscale


NVIDIA Umumkan GPU Tesla T4 Berbasis Turing untuk AI dan Database Hyperscale

Di ajang GTX Jepang hari ini, NVIDIA mengumumkan GPU baru Tesla T4 yang mengusung GPU core Turing Tensor dan Tesla T4 dirancang untuk AI. Tesla T4 disiapkan untuk meningkatkan pengalaman penggunaan pada aplikasi AI saat ini dengan mempercepat penarikan kesimpulan dari model data terlatih yang diambil dari sistem deep learning. Menurut NVIDIA, mengingat model-model tersebut kian akurat dan kompleks, GPU Tesla T4 memiliki kemampuan komputasi untuk menangani komputasi multi-presisi untuk aplikasi pengambilan kesimpulan secara real-time seperti analisis video dan aplikasi obrolan AI.

Dengan persyaratan daya GPU Tesla T4 yang relatif rendah yakni 75 Watt dan faktor bentuk PCIe, GPU Tesla T4 siap digunakan di server dan bisa ditingkatkan untuk menghadirkan performa mencapai 1 petaflop dan satu peningkatan server. GPU Tesla T4 berisi 320-core Turing Tensor dan 2560 NVIDIA CUDA core. GPU Tesla T4 dilengkapi dengan VRAM GDDR6 16 GB dan bandwidth memori lebih dari 320 GB/detik.

NVIDIA juga memperkenalkan TensorRT Hyperscale Platform yang diposisikan sebagai platform datacenter AI generasi baru. Platform baru tersebut terdiri dari hardware, yakni GPU Tesla T4, dan “seperangkat software pengambilan keputusan baru.” Mesin runtime dan pengomptimalan pengambilan keputusan NVIDIA TensorRT 5 mampu memanfaatkan inti Turing Tensor. Di saat yang sama, NVIDIA TensorRT 5 mendukung beban kerja multi-presisi dengan peningkatan performa.

Sebagai bagian dari solusi software baru dari NVIDIA, TensorRT Inference Server “melingkupti” kerangkat kerja dan model data untuk kemudahan penerapan di lingkungan komputasi awan. Versi terbaru dari TensorRT Inference Server Container juga tersedia dari NVIDIA GPU Cloud bagi para pengembang untuk mencobanya.

(Sumber: NVIDIA)

Semua Kategori Berita