BMS, BUS, rūpnieciskajiem, instrumentācijas kabeļiem.

Pavasara svētkiem tuvojoties noslēgumam, sajūsma ap DeepSeek joprojām ir spēcīga. Nesenie svētki izcēla ievērojamu konkurenci tehnoloģiju nozarē, daudziem apspriežot un analizējot šo "samu". Silīcija ieleja piedzīvo nepieredzētu krīzi: atvērtā pirmkoda atbalstītāji atkal pauž savus viedokļus, un pat OpenAI atkārtoti izvērtē, vai tā slēgtā pirmkoda stratēģija bija labākā izvēle. Jaunā zemāku skaitļošanas izmaksu paradigma ir izraisījusi ķēdes reakciju starp mikroshēmu gigantiem, piemēram, Nvidia, izraisot rekordlielus vienas dienas tirgus vērtības zaudējumus ASV akciju tirgus vēsturē, savukārt valdības aģentūras izmeklē DeepSeek izmantoto mikroshēmu atbilstību. Neskatoties uz dažādām atsauksmēm par DeepSeek ārzemēs, vietējā tirgū tas piedzīvo ārkārtēju izaugsmi. Pēc R1 modeļa palaišanas saistītā lietotne ir piedzīvojusi datplūsmas pieaugumu, kas norāda, ka izaugsme lietojumprogrammu sektoros virzīs uz priekšu kopējo AI ekosistēmu. Pozitīvais aspekts ir tas, ka DeepSeek paplašinās lietojumprogrammu iespējas, kas liecina, ka paļaušanās uz ChatGPT nākotnē nebūs tik dārga. Šīs pārmaiņas ir atspoguļojušās OpenAI nesenajās darbībās, tostarp spriešanas modeļa o3-mini nodrošināšanā bezmaksas lietotājiem, reaģējot uz DeepSeek R1, kā arī turpmākajos uzlabojumos, kas padarīja o3-mini domu ķēdi publisku. Daudzi ārvalstu lietotāji pauda pateicību DeepSeek par šiem sasniegumiem, lai gan šī domu ķēde kalpo kā kopsavilkums.
Optimistiski raugoties, ir skaidrs, ka DeepSeek apvieno vietējos spēlētājus. Koncentrējoties uz apmācības izmaksu samazināšanu, dažādi augšupējie mikroshēmu ražotāji, starpposma mākoņpakalpojumu sniedzēji un daudzi jaunuzņēmumi aktīvi pievienojas ekosistēmai, uzlabojot DeepSeek modeļa izmantošanas izmaksu efektivitāti. Saskaņā ar DeepSeek dokumentiem, V3 modeļa pilnīgai apmācībai nepieciešamas tikai 2,788 miljoni H800 GPU stundu, un apmācības process ir ļoti stabils. MoE (Mixture of Experts) arhitektūra ir izšķiroša, lai desmit reizes samazinātu pirmsapmācības izmaksas, salīdzinot ar Llama 3 ar 405 miljardiem parametru. Pašlaik V3 ir pirmais publiski atzītais modelis, kas demonstrē tik augstu MoE retumu. Turklāt MLA (Multi Layer Attention) darbojas sinerģiski, jo īpaši spriešanas aspektos. "Jo retāks MoE, jo lielāks partijas lielums ir nepieciešams spriešanas laikā, lai pilnībā izmantotu skaitļošanas jaudu, un KVCache lielums ir galvenais ierobežojošais faktors; MLA ievērojami samazina KVCache lielumu," atzīmēja Chuanjing Technology pētnieks analīzē AI Technology Review. Kopumā DeepSeek panākumi slēpjas dažādu tehnoloģiju apvienojumā, ne tikai vienas vienas. Nozares eksperti slavē DeepSeek komandas inženiertehniskās spējas, atzīmējot viņu izcilību paralēlajā apmācībā un operatoru optimizācijā, sasniedzot revolucionārus rezultātus, pilnveidojot katru detaļu. DeepSeek atvērtā pirmkoda pieeja vēl vairāk veicina lielu modeļu vispārējo attīstību, un tiek prognozēts, ka, ja līdzīgi modeļi paplašināsies līdz attēliem, video un citiem materiāliem, tas ievērojami stimulēs pieprasījumu visā nozarē.
Trešo pušu spriešanas pakalpojumu iespējas
Dati liecina, ka kopš izlaišanas DeepSeek ir uzkrājis 22,15 miljonus aktīvo lietotāju dienā (DAU) tikai 21 dienas laikā, sasniedzot 41,6% no ChatGPT lietotāju bāzes un pārsniedzot 16,95 miljonus aktīvo lietotāju dienā Doubao, tādējādi kļūstot par visstraujāk augošo lietojumprogrammu pasaulē, apsteidzot Apple App Store 157 valstīs/reģionos. Tomēr, kamēr lietotāji pulcējās milzīgā apjomā, kiberhakeri ir nežēlīgi uzbrukuši DeepSeek lietotnei, radot ievērojamu slodzi tās serveriem. Nozares analītiķi uzskata, ka tas daļēji ir saistīts ar to, ka DeepSeek apmācībai izmanto kartes, bet tai trūkst pietiekamas skaitļošanas jaudas spriešanas veikšanai. Nozares iekšējais pārstāvis informēja AI Technology Review: "Biežās serveru problēmas var viegli atrisināt, iekasējot maksu vai finansējumu, lai iegādātos vairāk iekārtu; galu galā tas ir atkarīgs no DeepSeek lēmumiem." Tas rada kompromisu starp koncentrēšanos uz tehnoloģijām un produktu veidošanu. DeepSeek lielā mērā ir paļāvies uz kvantu kvantizāciju pašnodrošināšanai, saņemot nelielu ārējo finansējumu, kā rezultātā naudas plūsmas spiediens ir relatīvi zems un tehnoloģiskā vide ir tīrāka. Pašlaik, ņemot vērā iepriekšminētās problēmas, daži lietotāji sociālajos tīklos mudina DeepSeek paaugstināt lietošanas sliekšņus vai ieviest maksas funkcijas, lai uzlabotu lietotāju komfortu. Turklāt izstrādātāji ir sākuši izmantot oficiālo API vai trešo pušu API optimizācijai. Tomēr DeepSeek atvērtā platforma nesen paziņoja: "Pašreizējie serveru resursi ir ierobežoti, un API pakalpojumu uzlāde ir apturēta."
Tas neapšaubāmi paver vairāk iespēju trešo pušu pārdevējiem mākslīgā intelekta infrastruktūras nozarē. Nesen daudzi vietējie un starptautiskie mākoņgiganti ir laiduši klajā DeepSeek modeļa API — ārvalstu giganti Microsoft un Amazon bija vieni no pirmajiem, kas pievienojās janvāra beigās. Vietējais līderis Huawei Cloud spēra pirmo soli, 1. februārī sadarbībā ar Silicon bāzēto Flow izlaižot DeepSeek R1 un V3 spriešanas pakalpojumus. AI Technology Review ziņojumi liecina, ka Silicon bāzētie Flow pakalpojumi ir piedzīvojuši lietotāju pieplūdumu, faktiski "sagraujot" platformu. Trīs lielie tehnoloģiju uzņēmumi — BAT (Baidu, Alibaba, Tencent) un ByteDance — arī izlaida lētus, ierobežota laika piedāvājumus, sākot ar 3. februāri, kas atgādina pagājušā gada mākoņpakalpojumu pārdevēju cenu karus, ko izraisīja DeepSeek V2 modeļa laišana klajā, kur DeepSeek sāka dēvēt par "cenu miesnieku". Mākoņpakalpojumu sniedzēju drudžainās darbības atspoguļo agrākās ciešās saites starp Microsoft Azure un OpenAI, kur 2019. gadā Microsoft veica ievērojamas 1 miljarda ASV dolāru investīcijas OpenAI un guva labumu pēc ChatGPT palaišanas 2023. gadā. Tomēr šīs ciešās attiecības sāka sabrukt pēc tam, kad Meta padarīja Llama par atvērtā koda produktu, ļaujot citiem pārdevējiem ārpus Microsoft Azure ekosistēmas konkurēt ar saviem lielajiem modeļiem. Šajā gadījumā DeepSeek ne tikai pārspēja ChatGPT produktu popularitātes ziņā, bet arī ieviesa atvērtā koda modeļus pēc o1 izlaišanas, līdzīgi kā sajūsma ap Llama GPT-3 atdzimšanu.
Patiesībā mākoņpakalpojumu sniedzēji sevi pozicionē arī kā mākslīgā intelekta lietojumprogrammu datplūsmas vārtejas, kas nozīmē, ka ciešākas saites ar izstrādātājiem sniedz preventīva rakstura priekšrocības. Ziņojumi liecina, ka Baidu Smart Cloud modeļa palaišanas dienā vairāk nekā 15 000 klientu izmantoja DeepSeek modeli, izmantojot Qianfan platformu. Turklāt vairāki mazāki uzņēmumi piedāvā risinājumus, tostarp Silicon-based Flow, Luchen Technology, Chuanjing Technology un dažādi mākslīgā intelekta infrastruktūras pakalpojumu sniedzēji, kas ir sākuši atbalstīt DeepSeek modeļus. AI Technology Review ir atklājis, ka pašreizējās optimizācijas iespējas DeepSeek lokalizētai izvietošanai galvenokārt pastāv divās jomās: viena ir MoE modeļa retinātības raksturlielumu optimizēšana, izmantojot jauktu spriešanas pieeju, lai lokāli izvietotu 671 miljarda parametru MoE modeli, vienlaikus izmantojot hibrīda GPU/CPU secinājumus. Turklāt MLA optimizācija ir ļoti svarīga. Tomēr DeepSeek abi modeļi joprojām saskaras ar dažām problēmām izvietošanas optimizācijā. "Modeļa lieluma un daudzo parametru dēļ optimizācija patiešām ir sarežģīta, īpaši lokāliem izvietojumiem, kur optimāla veiktspējas un izmaksu līdzsvara sasniegšana būs sarežģīta," norādīja pētnieks no Chuanjing Technology. Vislielākais šķērslis ir atmiņas ietilpības ierobežojumu pārvarēšana. "Mēs izmantojam heterogēnu sadarbības pieeju, lai pilnībā izmantotu centrālos procesorus un citus skaitļošanas resursus, novietojot tikai nekoplietotās retās MoE matricas daļas uz CPU/DRAM apstrādei, izmantojot augstas veiktspējas CPU operatorus, savukārt blīvās daļas paliek uz GPU," viņš tālāk paskaidroja. Ziņojumi liecina, ka Chuanjing atvērtā pirmkoda ietvars KTransformers galvenokārt ievada dažādas stratēģijas un operatorus sākotnējā Transformers ieviešanā, izmantojot veidni, ievērojami uzlabojot secinājumu ātrumu, izmantojot tādas metodes kā CUDAGraph. DeepSeek ir radījis iespējas šiem jaunuzņēmumiem, jo kļūst acīmredzami izaugsmes ieguvumi; daudzi uzņēmumi ir ziņojuši par ievērojamu klientu skaita pieaugumu pēc DeepSeek API palaišanas, saņemot pieprasījumus no iepriekšējiem klientiem, kas meklē optimizācijas iespējas. Nozares pārstāvji ir atzīmējuši: "Agrāk zināmā mērā iedibinātas klientu grupas bieži vien bija piesaistītas lielāku uzņēmumu standartizētajiem pakalpojumiem, cieši saistot tās ar izmaksu priekšrocībām mēroga dēļ. Tomēr pēc DeepSeek-R1/V3 ieviešanas pabeigšanas pirms Pavasara svētkiem mēs pēkšņi saņēmām sadarbības pieprasījumus no vairākiem pazīstamiem klientiem, un pat iepriekš neaktīvi klienti uzsāka kontaktus, lai ieviestu mūsu DeepSeek pakalpojumus." Pašlaik šķiet, ka DeepSeek padara modeļu secinājumu veiktspēju arvien svarīgāku, un, plašāk ieviešot lielus modeļus, tas turpinās būtiski ietekmēt AI infrastruktūras nozares attīstību. Ja DeepSeek līmeņa modeli varētu ieviest lokāli par zemām izmaksām, tas ievērojami palīdzētu valdības un uzņēmumu digitālās transformācijas centienos. Tomēr problēmas joprojām pastāv, jo dažiem klientiem var būt lielas cerības attiecībā uz lielu modeļu iespējām, padarot skaidrāku, ka veiktspējas un izmaksu līdzsvarošana kļūst vitāli svarīga praktiskajā ieviešanā.
Lai novērtētu, vai DeepSeek ir labāks par ChatGPT, ir svarīgi saprast to galvenās atšķirības, stiprās puses un lietošanas gadījumus. Šeit ir visaptverošs salīdzinājums:
Funkcija/aspekts | DeepSeek | ČatsGPT |
---|---|---|
Īpašumtiesības | Izstrādājis Ķīnas uzņēmums | Izstrādājis OpenAI |
Avota modelis | Atvērtā koda | Patentēts |
Izmaksas | Bezmaksas lietošana; lētākas API piekļuves iespējas | Abonēšanas vai maksas par lietošanas reizi cenu noteikšana |
Pielāgošana | Ļoti pielāgojams, ļaujot lietotājiem to pielāgot un veidot uz tās pamata | Ierobežota pielāgošanas iespēja |
Veiktspēja konkrētos uzdevumos | Izceļas noteiktās jomās, piemēram, datu analītikā un informācijas izgūšanā | Daudzpusīgs ar izcilu sniegumu radošās rakstīšanas un sarunvalodas uzdevumos |
Valodu atbalsts | Liela uzmanība ķīniešu valodai un kultūrai | Plašs valodu atbalsts, bet orientēts uz ASV |
Apmācības izmaksas | Zemākas apmācību izmaksas, optimizētas efektivitātei | Augstākas apmācības izmaksas, kam nepieciešami ievērojami skaitļošanas resursi |
Atbildes variācija | Var piedāvāt dažādas atbildes, iespējams, ģeopolitiskā konteksta ietekmē | Konsekventas atbildes, kuru pamatā ir apmācības dati |
Mērķauditorija | Paredzēts izstrādātājiem un pētniekiem, kuri vēlas elastību | Paredzēts vispārējiem lietotājiem, kuri meklē sarunvalodas iespējas |
Lietošanas gadījumi | Efektīvāk koda ģenerēšanai un ātru uzdevumu veikšanai | Ideāli piemērots teksta ģenerēšanai, jautājumu atbildēšanai un dialoga veidošanai |
Kritisks skatījums uz "Nvidia darbības traucēšanu"
Pašlaik, neskaitot Huawei, arī vairāki vietējie mikroshēmu ražotāji, piemēram, Moore Threads, Muxi, Biran Technology un Tianxu Zhixin, pielāgojas DeepSeek diviem modeļiem. Kāds mikroshēmu ražotājs AI Technology Review pastāstīja: "DeepSeek struktūra demonstrē inovāciju, tomēr tā joprojām ir tiesību zinātņu maģistra (LLM) līmeņa izglītība. Mūsu adaptācija DeepSeek galvenokārt ir vērsta uz lietojumprogrammu spriešanu, padarot tehnisko ieviešanu diezgan vienkāršu un ātru." Tomēr MoE pieejai ir augstākas prasības attiecībā uz krātuvi un izplatīšanu, kā arī jānodrošina saderība, ieviešot to ar vietējām mikroshēmām, radot daudzas inženiertehniskas problēmas, kas jāatrisina adaptācijas laikā. "Pašlaik vietējā skaitļošanas jauda neatbilst Nvidia lietojamības un stabilitātes ziņā, un programmatūras vides iestatīšanai, problēmu novēršanai un pamata veiktspējas optimizācijai ir nepieciešama sākotnējā rūpnīcas līdzdalība," sacīja nozares praktiķis, balstoties uz praktisko pieredzi. Vienlaikus: "DeepSeek R1 lielā parametru mēroga dēļ vietējā skaitļošanas jauda prasa vairāk mezglu paralēlizācijai. Turklāt vietējās aparatūras specifikācijas joprojām nedaudz atpaliek; piemēram, Huawei 910B pašlaik nevar atbalstīt DeepSeek ieviesto FP8 secinājumu." Viens no DeepSeek V3 modeļa spilgtākajiem momentiem ir FP8 jauktas precizitātes apmācības ietvara ieviešana, kas ir efektīvi validēta ārkārtīgi lielā modelī, kas ir ievērojams sasniegums. Iepriekš lieli spēlētāji, piemēram, Microsoft un Nvidia, ieteica līdzīgu darbu, taču nozarē joprojām pastāv šaubas par tā iespējamību. Ir saprotams, ka salīdzinājumā ar INT8 FP8 galvenā priekšrocība ir tā, ka pēcapmācības kvantēšana var sasniegt gandrīz bezzudumu precizitāti, vienlaikus ievērojami uzlabojot secinājumu ātrumu. Salīdzinot ar FP16, FP8 var panākt līdz pat divām reizēm lielāku paātrinājumu Nvidia H20 un vairāk nekā 1,5 reizes lielāku paātrinājumu H100. Jāatzīmē, ka, tā kā diskusijas par vietējo skaitļošanas jaudu plus vietējo modeļu tendenci uzņem apgriezienus, arvien biežāk rodas spekulācijas par to, vai Nvidia varētu tikt traucēta un vai varētu apiet CUDA grāvi. Neapstrīdams fakts ir tas, ka DeepSeek patiešām ir izraisījis ievērojamu Nvidia tirgus vērtības kritumu, taču šī maiņa rada jautājumus par Nvidia augstas klases skaitļošanas jaudas integritāti. Iepriekš pieņemtie naratīvi par kapitāla virzītu skaitļošanas uzkrāšanu tiek apstrīdēti, tomēr Nvidia joprojām ir grūti pilnībā aizstāt apmācības scenārijos. DeepSeek dziļās CUDA izmantošanas analīze liecina, ka elastība, piemēram, SM izmantošana komunikācijai vai tieša tīkla karšu manipulēšana, nav iespējama parastajām GPU. Nozares viedokļi uzsver, ka Nvidia priekšrocības aptver visu CUDA ekosistēmu, ne tikai pašu CUDA, un PTX (Parallel Thread Execution) instrukcijas, ko DeepSeek izmanto, joprojām ir daļa no CUDA ekosistēmas. "Īstermiņā Nvidia skaitļošanas jaudu nevar apiet - tas ir īpaši skaidri redzams apmācībā; tomēr vietējo karšu izvietošana spriešanai būs salīdzinoši vienkāršāka, tāpēc progress, visticamāk, būs ātrāks. Vietējo karšu pielāgošana galvenokārt koncentrējas uz secinājumiem; nevienam vēl nav izdevies apmācīt DeepSeek veiktspējas modeli vietējās kartēs plašā mērogā," nozares analītiķis atzīmēja AI Technology Review. Kopumā no secinājumu viedokļa apstākļi ir iepriecinoši vietējiem lielmodeļu mikroshēmām. Vietējo mikroshēmu ražotāju iespējas secinājumu jomā ir acīmredzamākas, pateicoties pārmērīgi augstajām prasībām apmācībai, kas kavē ienākšanu tirgū. Analītiķi apgalvo, ka pietiek vienkārši izmantot vietējās secinājumu kartes; ja nepieciešams, ir iespējams iegādāties papildu mašīnu, savukārt apmācības modeļi rada unikālus izaicinājumus — palielināta mašīnu skaita pārvaldība var kļūt apgrūtinoša, un augstāks kļūdu līmenis var negatīvi ietekmēt apmācības rezultātus. Apmācībai ir arī īpašas klasteru mēroga prasības, savukārt klasteru prasības secinājumu veikšanai nav tik stingras, tādējādi atvieglojot GPU prasības. Pašlaik Nvidia vienas H20 kartes veiktspēja nepārsniedz Huawei vai Cambrian veiktspēju; tās stiprā puse ir klasterizācija. Pamatojoties uz kopējo ietekmi uz skaitļošanas jaudas tirgu, Luchen Technology dibinātājs Ju Jangs intervijā AI Technology Review atzīmēja: "DeepSeek var īslaicīgi apdraudēt īpaši lielu apmācības skaitļošanas klasteru izveidi un nomu. Ilgtermiņā, ievērojami samazinot izmaksas, kas saistītas ar lielu modeļu apmācību, spriešanu un lietojumprogrammām, tirgus pieprasījums, visticamāk, pieaugs. Tāpēc turpmākās AI iterācijas, kuru pamatā ir tas, nepārtraukti veicinās ilgtspējīgu pieprasījumu skaitļošanas jaudas tirgū." Turklāt "DeepSeek paaugstinātais pieprasījums pēc spriešanas un precizēšanas pakalpojumiem ir vairāk saderīgs ar vietējo skaitļošanas vidi, kur vietējās jaudas ir relatīvi vājas, palīdzot mazināt dīkstāves resursu izšķērdēšanu pēc klasteru izveides; tas rada dzīvotspējīgas iespējas ražotājiem dažādos vietējās skaitļošanas ekosistēmas līmeņos." Luchen Technology ir sadarbojies ar Huawei Cloud, lai laistu klajā DeepSeek R1 sērijas spriešanas API un mākoņattēlveidošanas pakalpojumus, kuru pamatā ir vietējā skaitļošanas jauda. Ju Jangs pauda optimismu par nākotni: "DeepSeek vairo pārliecību par vietēji ražotiem risinājumiem, veicinot lielāku entuziasmu un ieguldījumus vietējās skaitļošanas spējās nākotnē."

Secinājums
Tas, vai DeepSeek ir “labāks” par ChatGPT, ir atkarīgs no lietotāja īpašajām vajadzībām un mērķiem. Uzdevumiem, kuriem nepieciešama elastība, zemas izmaksas un pielāgošana, DeepSeek varētu būt pārāks. Radošai rakstīšanai, vispārīgiem jautājumiem un lietotājam draudzīgām sarunu saskarnēm ChatGPT varētu būt vadošais. Katrs rīks kalpo dažādiem mērķiem, tāpēc izvēle lielā mērā būs atkarīga no konteksta, kurā tie tiek izmantoti.
Vadības kabeļi
Strukturēta kabeļu sistēma
Tīkls un dati, optiskās šķiedras kabelis, plākstera vads, moduļi, priekšējā plāksne
2024. gada 16.–18. aprīlī Dubaijā notiks Tuvo Austrumu enerģētikas izstāde
2024. gada 16.–18. aprīlī Securika Maskavā
2024. gada 9. maijā Šanhajā notika JAUNU PRODUKTU UN TEHNOLOĢIJU ATKLĀŠANAS PASĀKUMS
2024. gada 22.–25. oktobrī Pekinā notiks ĶĪNAS DROŠĪBAS konference
2024. gada 19.–20. novembris, CONNECTED WORLD KSA
Publicēšanas laiks: 2025. gada 10. februāris