[Sina, Shenzhen, 14 july 2023] Hjoed ûntbleate Huawei syn nije AI-opslachoplossing foar it tiidrek fan grutskalige modellen, en leveret optimale opslachoplossingen foar basismodeltraining, yndustryspesifike modeloplieding, en konklúzje yn segmentearre senario's, dus nije AI-mooglikheden loslitte.
By de ûntwikkeling en ymplemintaasje fan grutskalige modelapplikaasjes stean bedriuwen foar fjouwer grutte útdagings:
As earste is de tiid dy't nedich is foar gegevenstarieding lang, gegevensboarnen binne ferspraat, en aggregaasje is stadich, en nimt sawat 10 dagen foar it foarferwurkjen fan hûnderten terabytes oan gegevens. Twad, foar multymodale grutte modellen mei massive tekst- en ôfbyldingsgegevensset, is de hjoeddeistige laden snelheid foar massive lytse bestannen minder dan 100MB / s, wat resulteart yn lege effisjinsje foar it laden fan trainingsset. Tredde, faaks parameter oanpassingen foar grutte modellen, tegearre mei ynstabile training platfoarms, feroarsaakje training ûnderbrekkings likernôch elke 2 dagen, wêrtroch it Checkpoint meganisme nedich te hervatten training, mei herstel dy't mear as in dei. As lêste, hege ymplemintaasje drompels foar grutte modellen, komplekse systeem opset, boarne skema útdagings, en GPU boarne benutten faak ûnder 40%.
Huawei slút oan by de trend fan AI-ûntwikkeling yn it tiidrek fan grutskalige modellen, en biedt oplossingen op maat foar ferskate yndustry en senario's. It yntrodusearret de OceanStor A310 Deep Learning Data Lake Storage en de FusionCube A3000 Training / Inference Super-Converged Appliance. OceanStor A310 Deep Learning Data Lake Storage is rjochte op sawol basis- as yndustry-nivo grutte model data mar senario's, it realisearjen fan wiidweidich AI-gegevensbehear fan gegevensaggregaasje, foarferwurking oant modeltraining, en konklúzjeapplikaasjes. De OceanStor A310, yn ien 5U-rack, stipet liedende 400GB / s-bânbreedte en oant 12 miljoen IOPS, mei lineêre skalberens oant 4096 knopen, wêrtroch naadleaze cross-protokol-kommunikaasje mooglik is. It Global File System (GFS) fasilitearret it yntelliginte weven fan gegevens oer regio's, it streamlinearjen fan prosessen foar gegevensaggregaasje. Near-storage computing realisearret near-data preprocessing, it ferminderjen fan gegevensbeweging, en it ferbetterjen fan preprocessing-effisjinsje mei 30%.
De FusionCube A3000 Training / Inference Super-Converged Appliance, ûntworpen foar yndustry-nivo grutte model training / konklúzje senario's, rjochtet him op applikaasjes wêrby't modellen mei miljarden parameters. It yntegreart OceanStor A300 opslachknooppunten mei hege prestaasjes, opliedings- / konklúzjeknooppunten, skeakelapparatuer, AI-platfoarmsoftware, en management- en operaasjesoftware, en leveret grutte modelpartners in plug-and-play-ynsetûnderfining foar in one-stop levering. Klear foar gebrûk, it kin binnen 2 oeren ynset wurde. Sawol training / konklúzje as opslachknooppunten kinne ûnôfhinklik en horizontaal útwreide wurde om te passen oan ferskate easken foar modelskaal. Underwilens brûkt FusionCube A3000 konteners mei hege prestaasjes om meardere modelopliedings en konklúzjetaken mooglik te meitsjen om GPU's te dielen, wêrtroch it gebrûk fan boarnen fan 40% nei mear dan 70% ferheget. FusionCube A3000 stipet twa fleksibele bedriuwsmodellen: Huawei Ascend One-Stop Solution en de one-stop-oplossing fan tredden partner mei iepen kompjûter-, netwurk- en AI-platfoarmsoftware.
Huawei's presidint fan 'e Data Storage Product Line, Zhou Yuefeng, sei: "Yn it tiidrek fan grutskalige modellen bepale gegevens de hichte fan AI-yntelliginsje. As drager fan gegevens wurdt gegevensopslach de wichtichste fûnemintele ynfrastruktuer foar AI grutskalige modellen. Huawei Data Storage sil trochgean mei ynnovearjen, diversifisearre oplossingen en produkten leverje foar it tiidrek fan grutte AI-modellen, gearwurkje mei partners om AI-empowerment te riden oer in breed skala oan yndustry.
Post tiid: Aug-01-2023