BMS, autobusų, pramoniniam, prietaisų kabeliui.

Artėjant pavasario festivaliui, jaudulys, supantis „Deepseek“, išlieka stiprus. Neseniai įvykusios atostogos pabrėžė reikšmingą konkurencijos jausmą technologijų pramonėje, daugelis aptarė ir analizavo šią „šamą“. Silicio slėnis patiria precedento neturintį krizės jausmą: atvirojo kodo šalininkai vėl išreiškia savo nuomonę, ir net „Openai“ iš naujo įvertina, ar jos uždarojo kodo strategija buvo geriausias pasirinkimas. Naujoji mažesnių skaičiavimo išlaidų paradigma paskatino grandininę reakciją tarp lustų milžinų, tokių kaip NVIDIA, todėl JAV akcijų rinkos istorijoje buvo rekordiniai vienos dienos rinkos vertės nuostoliai, o vyriausybinės agentūros tiria lustų, kuriuos naudoja „Deepseek“, laikymąsi. Tarp nevienareikšmiškų „Deepseeek“ užsienio apžvalgų, šalies viduje, jis patiria nepaprastą augimą. Pradėjus R1 modelį, „Associated App“ išaugo srautas, tai rodo, kad programų sektorių augimas paskatins bendrą AI ekosistemą į priekį. Teigiamas aspektas yra tas, kad „Deepseek“ išplės programų galimybes, ir tai rodo, kad pasikliauti „ChatGPT“ ateityje nebus toks brangus. Šis poslinkis atsispindėjo naujausioje „Openai“ veikloje, įskaitant samprotavimo modelio, vadinamo O3-mini, teikimą laisvam vartotojams, reaguojant į „Deepseek R1“, taip pat vėlesnius atnaujinimus, kurie padarė minties „O3-Mini Public“ grandinę. Daugelis užjūrio vartotojų išreiškė dėkingumą „Deepseek“ už šiuos pokyčius, nors ši minties grandinė yra santrauka.
Optimistiškai akivaizdu, kad „Deepseek“ suvienija vidaus žaidėjus. Sutelkdami dėmesį į mokymo išlaidų mažinimą, įvairius aukščiau esančius lustų gamintojus, tarpinius debesų tiekėjus ir daugybę pradedančiųjų aktyviai prisijungia prie ekosistemos, padidindami „Deepseeek“ modelio naudojimo ekonomiškumą. Remiantis „Deepseek“ dokumentais, visam V3 modelio mokymui reikia tik 2,788 mln. H800 GPU valandų, o mokymo procesas yra labai stabilus. MOE (ekspertų mišinys) architektūra yra labai svarbi norint sumažinti išankstinio mokymo išlaidas dešimčia koeficiento, palyginti su LLAMA 3 su 405 milijardų parametrų. Šiuo metu „V3“ yra pirmasis viešai pripažintas modelis, demonstruojantis tokį didelį MOE rašką. Be to, MLA (kelių sluoksnių dėmesys) veikia sinergiškai, ypač samprotavimo aspektais. "Kuo retser the Moe, tuo didesnis partijos dydis, reikalingas samprotavimuose, norint visiškai panaudoti skaičiavimo galią, o„ Kvcache “dydis yra pagrindinis ribojantis veiksnys; MLA žymiai sumažina„ Kvcache “dydį“, - pažymėjo Chuanjing technologijos tyrėjas AI technologijos apžvalgos analizėje. Apskritai, „Deepseek“ sėkmė yra ne tik vienos, bet ir įvairių technologijų derinys. Pramonės atstovai giria „Deepseee“ komandos inžinerijos galimybes, atkreipdami dėmesį į jų kompetenciją lygiagrečiai mokant ir optimizuodami operatorių, pasiekdami novatoriškus rezultatus, patobulindami kiekvieną detalę. „Deepseek“ atvirojo kodo metodas dar labiau skatina bendrą didelių modelių vystymąsi, ir tikimasi, kad jei panašūs modeliai išsiplės į vaizdus, vaizdo įrašus ir dar daugiau, tai žymiai paskatins paklausą visoje pramonėje.
Trečiųjų šalių samprotavimo paslaugų galimybės
Duomenys rodo, kad nuo jo išleidimo „Deepseek“ per 21 dieną sukaupė 22,15 mln. Aktyvių vartotojų (DAU), pasiekdamas 41,6% „ChatGpt“ vartotojų bazės ir pranoksta 16,95 mln. Dienų aktyvių „Doubao“ vartotojų, taigi tapo sparčiausiai augančia programa visame pasaulyje, visame pasaulyje, visame pasaulyje, visame pasaulyje, visame pasaulyje, visame pasaulyje, visame pasaulyje, visame pasaulyje, visame pasaulyje, visame pasaulyje. Vis dėlto, nors vartotojai plūstelėjo iš drovių, kibernetiniai įsilaužėliai negailestingai puolė „Deepseeek“ programą ir padarė didelę įtampą jos serveriams. Pramonės analitikai mano, kad taip iš dalies lemia tai, kad „Deepseek“ dislokuoja kortelių dislokavimo kortelių dislokavimą mokymui, tuo pačiu trūksta pakankamai skaičiavimo galios samprotavimui. Pramonės viešai neatskleista informacija informavo AI technologijų apžvalgą: „Dažnos serverio problemos gali būti lengvai išspręstos imant mokesčius ar finansavimą, kad būtų galima įsigyti daugiau mašinų; galiausiai tai priklauso nuo„ Deepseek “sprendimų“. Tai pateikia kompromisą sutelkti dėmesį į technologijas ir produktyvumą. „Deepseek“ iš esmės rėmėsi savarankiškumo kvantiniu kiekybine kiekiu, gavęs mažai išorinio finansavimo, todėl atsirado palyginti mažas grynųjų pinigų srauto slėgis ir grynesnė technologinė aplinka. Šiuo metu, atsižvelgiant į minėtas problemas, kai kurie vartotojai ragina „Deepseek“ socialinėje žiniasklaidoje padidinti naudojimo slenksčius arba pristatyti mokamas funkcijas, kad padidintų vartotojo komfortą. Be to, kūrėjai pradėjo optimizuoti oficialias API ar trečiųjų šalių API. Tačiau neseniai paskelbta „Deepseek“ platforma „Deepseek“ paskelbė: „Dabartinių serverių išteklių yra nedaug, o API paslaugų įkrovos buvo sustabdytos“.
Tai neabejotinai atveria daugiau galimybių trečiųjų šalių pardavėjams AI infrastruktūros sektoriuje. Neseniai daugybė vidaus ir tarptautinių debesų milžinų išleido „Deepseek“ modelio API - „Overseas Giants Microsoft“ ir „Amazon“ buvo vieni pirmųjų, kurie prisijungė sausio pabaigoje. Vidaus lyderis „Huawei Cloud“ padarė pirmąjį žingsnį, išleisdamas „Deepseek R1“ ir „V3“ samprotavimo paslaugas bendradarbiaudama su „Silicon Flow“ vasario 1 d. AI technologijų apžvalgos ataskaitos rodo, kad silicio pagrindu sukurtos srauto paslaugos pastebėjo vartotojų antplūdį, veiksmingai „sugriauna“ platformą. Trys didžiosios technologijų kompanijos-„Bat“ („Baidu“, „Alibaba“, „Tencent“) ir „Tedance“-taip pat išleido pigių, riboto laiko pasiūlymų, nuo vasario 3 d., Primenant praėjusių metų „Cloud Vendor Price Wars“, kuriuos užsidegė „Deepseek“ V2 modelio paleidimas, kur „Deepseek“ pradėjo būti dubliuojami „Price Butcher“. Nuostabūs debesų pardavėjų veiksmai atspindi ankstesnius tvirtus ryšius tarp „Microsoft Azure“ ir „Openai“, kur 2019 m. „Microsoft“ padarė nemažą 1 milijardo dolerių investiciją į „Openai“ ir pasinaudojo pranašumais po to, kai „ChatGpt“ paleido 2023 m., Tačiau šie artimi santykiai pradėjo kompensuoti jų didelius modelius. Šiuo atveju „Deepseek“ ne tik pranoko „ChatGPT“ produkto šilumos atžvilgiu, bet ir pristatė atvirojo kodo modelius po O1 išleidimo, panašiai kaip jaudulys, susijęs su Lamos atgimimu GPT-3.
Realybėje debesų tiekėjai taip pat apibūdina save kaip AI programų eismo šliuzus, tai reiškia, kad gilėjantys ryšiai su kūrėjais reiškia prevencinius pranašumus. Ataskaitose nurodoma, kad „Baidu Smart Cloud“ turėjo daugiau nei 15 000 klientų, naudodamiesi „Deepseee“ modeliu per „Qianfan“ platformą modelio paleidimo dieną. Be to, kelios mažesnės firmos siūlo sprendimus, įskaitant silicio pagrindu pagamintą srautą, „Luchen Technology“, „Chuanjing Technology“ ir įvairius AI infra teikėjus, kurie paleido paramą „Deepseek“ modeliams. PG technologijos apžvalga sužinojo, kad dabartinės optimizavimo galimybės lokalizuotai diegti „Deepseek“ pirmiausia egzistuoja dviejose srityse: viena optimizuoja MOE modelio „Sparsity“ charakteristikas, naudodama mišrią samprotavimo metodą, kad diegtų 671 milijardo parametro MOE modelį vietoje, naudojant hibridinį GPU/CPU. Be to, gyvybiškai svarbus MLA optimizavimas. Tačiau du „Deepseek“ modeliai vis dar susiduria su tam tikrais iššūkiais diegimo optimizavimu. „Dėl modelio dydžio ir daugybės parametrų optimizavimas iš tiesų yra sudėtingas, ypač vietiniams diegimams, kai optimalios našumo ir išlaidų pusiausvyros pasiekimas bus sudėtingas“, - teigė Chuanjing technologijos tyrėjas. Svarbiausia kliūtis yra atminties pajėgumų įveikimas. „Mes laikomės nevienalyčio bendradarbiavimo metodo, kad galėtume išsamiai panaudoti procesorių ir kitus skaičiavimo išteklius, pateikdami CPU/DRAM tik nedalingoms retos MOE matricos dalims apdoroti naudojant aukšto našumo CPU operatorius, o tankios dalys lieka GPU“,-toliau aiškino jis. Ataskaitose nurodoma, kad „Chuanjing“ atvirojo kodo sistema „Ktransformers“ pirmiausia švirkščiami įvairias strategijas ir operatorius į originalų transformatorių įgyvendinimą per šabloną, žymiai padidindamas išvadų greitį, naudojant tokius metodus kaip „Cudagraph“. „Deepseek“ sukūrė šiems pradedantiesiems galimybes, nes tampa akivaizdi augimo nauda; Daugelis firmų pranešė apie pastebimą klientų augimą, paleidus „Deepseeek“ API, sulaukusios ankstesnių klientų užklausų, ieškančių optimizavimo. Pramonės atstovai atkreipė dėmesį: „Anksčiau šiek tiek įsitvirtinusios klientų grupės dažnai buvo įtrauktos į standartizuotas didesnių kompanijų paslaugas, kurias dėl masto sudarė jų išlaidų pranašumai. Tačiau, atlikę„ Deepseek-R1/V3 “dislokavimą prieš pavasario festivalį, staiga gavome kelių žinomų klientų bendradarbiavimo prašymus“. Šiuo metu atrodo, kad „Deepseek“ daro pavyzdžių išvadų rezultatus vis kritiškiau, ir, platesniam didelių modelių priėmimui, tai ir toliau turės didelę įtaką AI infra pramonės plėtrai. Jei giluminio lygio modelį būtų galima panaudoti vietoje mažomis sąnaudomis, tai labai padėtų vyriausybės ir įmonių skaitmeninės pertvarkos pastangoms. Tačiau iššūkiai išlieka, nes kai kurie klientai gali turėti didelių lūkesčių dėl didelių modelių galimybių, todėl paaiškėja, kad veiklos suderinimas ir išlaidos tampa gyvybiškai svarbūs praktiškai diegiant.
Norint įvertinti, ar „Deepseek“ yra geriau nei ChatGPT, būtina suprasti jų pagrindinius skirtumus, stipriąsias puses ir naudoti atvejus. Čia yra išsamus palyginimas:
Funkcija/aspektas | Deepseek | ChatGpt |
---|---|---|
Nuosavybė | Sukūrė Kinijos įmonė | Sukūrė Openai |
Šaltinio modelis | Atvirojo kodo | Nuosavybės teise |
Kaina | Laisvas naudoti; pigesnės API prieigos parinktys | Prenumerata arba mokamos kainos kainos |
Pritaikymas | Labai pritaikomas, leidžiantis vartotojams pataisyti ir remtis | Galimas ribotas pritaikymas |
Spektaklis konkrečiose užduotyse | Išsiskiria tam tikrose srityse, tokiose kaip duomenų analizė ir informacijos gavimas | Universalus su stipriais kūrybinio rašymo ir pokalbio užduotimis |
Kalbos palaikymas | Didelis dėmesys kinų kalbai ir kultūrai | Platus kalbų palaikymas, bet į JAV orientuotą |
Mokymo kaina | Mažesnės mokymo išlaidos, optimizuotos efektyvumui | Didesnės mokymo išlaidos, reikalaujančios esminių skaičiavimo išteklių |
Atsakymo kitimas | Gali pasiūlyti skirtingus atsakymus, kuriuos gali paveikti geopolitinis kontekstas | Nuoseklūs atsakymai, pagrįsti mokymo duomenimis |
Tikslinė auditorija | Siekiama kūrėjų ir tyrėjų, norinčių lankstumo | Siekiama bendriems vartotojams, ieškantiems pokalbio galimybių |
Naudokite atvejus | Efektyvesnis kodų generavimui ir greitoms užduotims | Idealiai tinka generuoti tekstą, atsakyti į klausimus ir užmegzti dialogą |
Kritinė perspektyva „Nvidijos sutrikimas“
Šiuo metu, be „Huawei“, keli vidaus lustų gamintojai, tokie kaip „Moore Threads“, „Muxi“, „Biran Technology“ ir „Tianxu Zhixin“, taip pat prisitaiko prie dviejų „Deepseek“ modelių. Lustų gamintojas pasakojo AI technologijos apžvalgą: "„ Deepseek “struktūra demonstruoja naujoves, tačiau ji išlieka LLM. Mūsų adaptacija prie„ Deepseek “pirmiausia orientuota į samprotavimo programas, todėl techninis įgyvendinimas yra gana paprastas ir greitas." Tačiau MOE metodas reikalauja didesnių reikalavimų saugojimui ir platinimui, kartu su užtikrinimu suderinamumu, kai reikia dislokuoti su buitiniais lustais, pateikiant daugybę inžinerinių iššūkių, kuriems reikia išspręsti adaptacijos metu. „Šiuo metu vidaus skaičiavimo galia nesutampa su NVIDIA naudojimosi ir stabilumu, todėl reikia originalaus gamyklos dalyvavimo programinės įrangos aplinkos nustatymui, trikčių šalinimo ir pagrindinio našumo optimizavimui“, - teigė pramonės specialistas, paremtas praktine patirtimi. Tuo pačiu metu „Dėl didelės„ Deepseek R1 “parametrų skalės vidaus skaičiavimo galia reikalauja daugiau paralelizacijos mazgų. Be to, vidaus aparatinės įrangos specifikacijos vis dar šiek tiek atsilieka; pavyzdžiui,„ Huawei 910B “šiuo metu negali palaikyti FP8 informacijos, kurią pateikė„ Deepseee “.“ Vienas iš svarbiausių „Deepseeek V3“ modelio akcentų yra FP8 mišrių tikslumo treniruočių sistemos įvedimas, kuris efektyviai patvirtintas ypač dideliame modelyje, pažymint reikšmingą pasiekimą. Anksčiau pagrindiniai žaidėjai, tokie kaip „Microsoft“ ir „Nvidia“, pasiūlė susijusius darbus, tačiau abejonės pramonėje dėl galimybių. Suprantama, kad, palyginti su INT8, pagrindinis FP8 pranašumas yra tas, kad kvantizavimas po mokymo gali pasiekti beveik nuostolingą tikslumą, tuo pačiu žymiai padidindamas išvadų greitį. Palyginus su FP16, FP8 gali realizuoti iki du kartus pagreičio NVIDIA H20 ir daugiau nei 1,5 karto pagreičio H100. Pažymėtina, kad diskusijos, susijusios su vidaus skaičiavimo galios ir vidaus modelių tendencija, įgauna pagreitį, spėliojama, ar NVIDIA gali būti sutrikdyta, ir ar CUDA griovys gali būti aplenktas, tampa vis labiau paplitusi. Vienas neginčijamas faktas yra tas, kad „Deepseek“ iš tikrųjų smarkiai sumažėjo NVIDIA rinkos vertės, tačiau šis poslinkis kelia klausimų dėl NVIDIA aukščiausios klasės skaičiavimo galios vientisumo. Anksčiau priimti pasakojimai apie kapitalą skatinamą skaičiavimo kaupimą yra ginčijami, tačiau Nvidijai vis dar sunku visiškai pakeisti mokymo scenarijus. Išanalizavus gilų CUDA naudojimą „Deepseek“, rodo, kad lankstumas, pavyzdžiui, naudojant SM naudojimą ryšiui ar tiesiogiai manipuliuojant tinklo kortelėmis, neįmanoma įprastoms GPU pritaikyti. Pramonės požiūriai pabrėžia, kad „Nvidia“ griovys apima visą CUDA ekosistemą, o ne tik CUDA, ir PTX (lygiagrečių gijų vykdymo) instrukcijas, kurias „Deepseek“ naudoja vis dar yra CUDA ekosistemos dalis. "Per trumpą laiką„ NVIDIA “skaičiavimo galia negali būti apvažiuojama - tai ypač aišku mokymuose; tačiau diegti vidaus korteles samprotavimams bus gana lengviau, todėl progresas greičiausiai bus greitesnis. Vidaus kortelių pritaikymas daugiausia dėmesio skiria išvadoms, kuriems dar nepavyks išmokyti„ Deepseek “veiklos modelio, kurio vidaus kortos mastu". Apskritai, atsižvelgiant į išvadą, aplinkybės skatina didelius modelio lustus vidaus. Vidaus lustų gamintojų galimybės, susijusios su išvadų sritimi, yra akivaizdesnės dėl pernelyg didelių treniruočių reikalavimų, o tai trukdo patekti. Analitikai tvirtina, kad pakanka paprasčiausiai panaudoti vidaus išvadų korteles; Jei reikia, įsigyti papildomos mašinos yra įmanoma, tuo tarpu mokymo modeliai kelia unikalių iššūkių - valdyti padidėjusį mašinų skaičių gali tapti našta, o didesnis klaidų lygis gali neigiamai paveikti mokymo rezultatus. Treniruotėse taip pat yra specifinių klasterių skalės reikalavimų, tuo tarpu reikalavimai klasteriams daryti išvadą nėra tokie griežti, todėl palengvina GPU reikalavimus. Šiuo metu „NVIDIA“ vienos H20 kortelės našumas nepralenkia Huawei ar Cambrian; Jo stiprybė slypi klasteriuose. Remdamiesi bendrą poveikį skaičiavimo galios rinkai, „Luchen Technology“ įkūrėjui, Yang, interviu „AI Technology Review“ pažymėjo: „„ Deepseek “gali laikinai pakenkti tam tikro lygio mokymo skaičiavimo klasterių sukūrimui ir nuomai. nuolatinė paklausa skaičiavimo galios rinkoje “. Be to, „Padidėjęs„ Deepseek “samprotavimo ir tikslinimo paslaugų poreikis yra labiau suderinamas su vidaus skaičiavimo aplinka, kur vietiniai pajėgumai yra palyginti silpni, padedantys sušvelninti tuščiosios eigos išteklių atliekas po klasterio; tai sukuria perspektyvias galimybes gamintojams įvairių lygių vidaus skaičiavimo ekosistemos lygmenimis“. „Luchen Technology“ bendradarbiavo su „Huawei Cloud“, kad paleistų „Deepseeek R1“ serijos samprotavimo API ir debesų vaizdo gavimo paslaugas, pagrįstas vidaus skaičiavimo galia. Jūs Yang išreiškėte optimizmą apie ateitį: „Deepseek skatina pasitikėjimą šalies viduje gaminamais sprendimais, skatindamas didesnį entuziazmą ir investicijas į vidaus skaičiavimo galimybes toliau“.

Išvada
Ar „Deepseek“ yra „geresnis“ nei „ChatGpt“, priklauso nuo specifinių vartotojo poreikių ir tikslų. Jei užduoties reikia lankstumo, mažų išlaidų ir pritaikymo, „DeepseeE“ gali būti pranašesnis. Kūrybiniam rašymui, bendram tyrimui ir patogioms pokalbių sąsajoms „ChatGPT“ gali imtis iniciatyvos. Kiekvienas įrankis tarnauja skirtingiems tikslams, todėl pasirinkimas labai priklausys nuo konteksto, kuriame jie naudojami.
Valdymo kabeliai
Struktūrizuota kabelių sistema
Tinklas ir duomenys, pluošto optinis kabelis, pleistro laidas, moduliai, priekinė plokštė
2024 m. Balandžio 16 d., 2024 m.
2024 m. Balandžio 16 d., 2024 m. Securika Maskvoje
2024 m. Gegužės 9 d. Naujų produktų ir technologijų renginys Šanchajuje
2024 m. Spalio 22 d., Saugumas Kinija Pekine
2024 m. Lapkričio 19 d., „Connected World KSA“
Pašto laikas: 2012 m. Vasario 10 d