BahayBalitaSupercomputer Solving AI Speed Bottlenecks

Supercomputer Solving AI Speed Bottlenecks







Ang mga mananaliksik at mga institusyong pang-akademiko ay maaari na ngayong magpatakbo ng malalaking modelo ng AI, simulation, at data-intensive na mga eksperimento nang mahusay gamit ang isang supercomputer na may mataas na pagganap.

Ang pananaliksik sa artificial intelligence ay lalong limitado dahil sa limitadong kapangyarihan sa pag-compute.Ang pagsasanay sa malalaking modelo, pagpapatakbo ng mga kumplikadong simulation, at pagpoproseso ng malalaking dataset ay nangangailangan ng mga system na may mataas na pagganap.Sa Latin America, ang mga institusyong pang-akademiko ay nahaharap sa mga limitasyon sa imprastraktura, nagpapabagal sa inobasyon ng AI at pinipigilan ang pagbuo ng mga modelong iniayon sa mga lokal na konteksto.Ang mga mananaliksik ay nangangailangan ng mga scalable na kapaligiran na may kakayahang suportahan ang data-intensive AI, machine learning, at scientific computing workloads.

Tinutugunan ng supercomputer ng Jairu ang pangangailangang ito.Nilagyan ng 96 NVIDIA B200 GPU at Supermicro server, pinapayagan nito ang mga mananaliksik na magpatakbo ng mga modelo ng AI, magsagawa ng mga simulation, at magproseso ng mga kumplikadong algorithm nang mahusay.Pinagsasama ng system ang mataas na kapasidad na imbakan at mababang latency na mga interconnect, binabawasan ang mga bottleneck at pinapagana ang malalaking eksperimento.

Ang arkitektura nito ay nagbibigay ng ilang mga pakinabang.Ang mga head node ay namamahala sa kapaligiran, kabilang ang pag-login, orkestrasyon, at pamamahagi ng workload.Sinusunod ng mga GPU node ang pamantayan ng HGX at ginagamit ang NVLink para sa mabilis na inter-GPU na komunikasyon.Ang storage at networking ay idinisenyo upang mapanatili ang mataas na throughput at mababang latency.Kasama rin sa system ang software para sa sentralisadong pamamahala, pag-iiskedyul ng GPU, at muling paggawa ng eksperimento.

Ang mga pangunahing tampok ng supercomputer ay kinabibilangan ng:

5 head node ang humahawak sa pamamahala, pag-login, at orkestrasyon.
12 GPU node bawat isa ay may 8 NVIDIA B200 SXM-5 GPU.
Ikinokonekta ng NVLink ang mga GPU para sa mabilis na komunikasyon.
Gumagamit ang storage ng BeeGFS na may humigit-kumulang 300 TB na magagamit.
Pinagsasama ng networking ang Ethernet 200 Gb/s at InfiniBand 800 Gb/s.
Ang NVIDIA AI software ay namamahala ng mga workload at nag-iskedyul ng mga gawain.
Sinabi ni Fabio G. Cozman, USP's Center for Artificial Intelligence and Machine Learning (CIAAM-USP), "Sa Jairu, mayroon kaming imprastraktura ng AI na magbibigay-daan sa amin na bumuo ng malalaking modelo at palalimin ang pananaliksik na nauugnay sa konteksto ng Brazil."Sa pamamagitan ng pagsasama-sama ng high-performance hardware, enterprise software, at specialized engineering, pinapalakas ng system ang academic capacity at competitiveness ng Brazil sa AI at high-performance computing.