BMS, autobusu, rūpniecības, instrumentācijas kabeļam.

Tuvojoties pavasara svētkiem, aizrautība, kas apņem Deepepe, joprojām ir spēcīga. Nesenie svētki uzsvēra nozīmīgu konkurences sajūtu tehnoloģiju nozarē, daudzi apspriežot un analizējot šo “sams”. Silīcija ieleja piedzīvo nepieredzētu krīzes izjūtu: atvērtā koda aizstāvji atkal pauž savu viedokli, un pat Openai pārvērtē, vai tā slēgtā avota stratēģija ir labākā izvēle. Jaunā zemāko skaitļošanas izmaksu paradigma ir izraisījusi ķēdes reakciju starp mikroshēmu milžiem, piemēram, Nvidia, izraisot rekordlielu vienas dienas tirgus vērtības zaudējumus ASV akciju tirgus vēsturē, savukārt valdības aģentūras izmeklē DeepSeek izmantoto mikroshēmu ievērošanu. Neatkarīgi no jauktajiem pārskatiem par dziļu aizjūras zemēm, vietējā tirgū, tā piedzīvo ārkārtēju izaugsmi. Pēc R1 modeļa palaišanas saistītajā lietotnē ir vērojama trafika pieaugums, norādot, ka lietojumprogrammu sektoru pieaugums virzīs kopējo AI ekosistēmu uz priekšu. Pozitīvais aspekts ir tas, ka DeepSeek paplašinās lietojumprogrammas iespējas, kas liek domāt, ka paļaušanās uz Chatgpt nākotnē nebūs tik dārga. Šī maiņa ir atspoguļota Openai nesenajās aktivitātēs, tostarp nodrošinot argumentācijas modeli ar nosaukumu O3-Mini, lai atbrīvotu lietotājus, reaģējot uz DeepSeek R1, kā arī sekojošiem jauninājumiem, kas padarīja O3-Mini domu ķēdi publisku. Daudzi aizjūras lietotāji izteica pateicību par šo notikumu DeepSeek, lai gan šī domu ķēde kalpo kā kopsavilkums.
Optimistiski ir acīmredzams, ka DeepSeek apvieno vietējos spēlētājus. Koncentrējoties uz apmācības izmaksu samazināšanu, dažādiem augšupējiem mikroshēmu ražotājiem, starpposma mākoņu pakalpojumu sniedzējiem un daudziem jaunuzņēmumiem aktīvi pievienojas ekosistēmai, uzlabojot izmaksu efektivitāti DeepSeek modeļa izmantošanai. Saskaņā ar DeepSeek dokumentiem, pilnīgai V3 modeļa apmācībai ir vajadzīgas tikai 2,788 miljoni H800 GPU stundas, un apmācības process ir ļoti stabils. MOE (ekspertu sajaukums) arhitektūra ir būtiska, lai samazinātu pirms apmācības izmaksas par desmit, salīdzinot ar LLAMA 3 ar 405 miljardiem parametru. Pašlaik V3 ir pirmais publiski atzītais modelis, kas Moe demonstrē tik augstu mazību. Turklāt MLA (daudzslāņu uzmanība) darbojas sinerģiski, īpaši argumentācijas aspektos. "Jo retāks MOE, jo lielāks ir partijas lielums, kas nepieciešams argumentācijas laikā, lai pilnībā izmantotu skaitļošanas jaudu, un KVCache lielums ir galvenais ierobežojošais faktors; MLA ievērojami samazina KVCache lielumu," AI tehnoloģijas pārskata analīzē atzīmēja pētnieks no Chuanjing tehnoloģijas. Kopumā DeepSeek panākumi slēpjas dažādu tehnoloģiju, nevis tikai vienas, kombinācijā. Nozares iekšējie pārstāvji slavē DeepSeek komandas inženiertehniskās iespējas, atzīmējot viņu izcilību paralēlā apmācībā un operatora optimizācijā, sasniedzot revolucionārus rezultātus, uzlabojot katru detaļu. DeepSeek atvērtā koda pieeja vēl vairāk veicina lielo modeļu kopējo attīstību, un ir paredzams, ka, ja līdzīgi modeļi izvēršas attēlos, video un daudz kas cits, tas ievērojami stimulēs pieprasījumu visā nozarē.
Trešās puses spriešanas pakalpojumu iespējas
Dati norāda, ka kopš tā izlaišanas DeepSeek tikai 21 dienas laikā ir uzkrājis 22,15 miljonus ikdienas aktīvo lietotāju (DAU), sasniedzot 41,6% no Chatgpt lietotāju bāzes un pārsniedzot 16,95 miljonus ikdienas aktīvo Doubao lietotāju, tādējādi kļūstot par visātrāk augošo lietojumprogrammu visā pasaulē, papildinot Apple App Store 157 valstīs/reģionos. Tomēr, kamēr lietotāji pulcējās droves, kiber hakeri ir nerimstoši uzbrukuši DeepSeek lietotnei, izraisot ievērojamu slodzi tās serveriem. Nozares analītiķi uzskata, ka tas daļēji ir saistīts ar DeepSeek izvietošanas kartēm apmācībai, vienlaikus ar pietiekamu skaitļošanas jaudu argumentācijai. Nozares iekšējais pārstāvis informēja AI tehnoloģijas pārskatu: "Biežās servera problēmas var viegli atrisināt, iekasējot maksu vai finansējumu, lai iegādātos vairāk mašīnu; galu galā tas ir atkarīgs no DeepSeek lēmumiem." Tas piedāvā kompromisu, koncentrējoties uz tehnoloģijām, salīdzinot ar produktu veidošanu. DeepSeek lielā mērā ir paļāvusies uz kvantitatīvo kvantitatīvu pašpietiekamībai, jo ir saņēmis nelielu ārēju finansējumu, kā rezultātā relatīvi zems naudas plūsmas spiediens un tīrāka tehnoloģiskā vide. Pašlaik, ņemot vērā iepriekšminētās problēmas, daži lietotāji mudina DeepSeek sociālajos medijos paaugstināt lietošanas sliekšņus vai ieviest maksas funkcijas, lai uzlabotu lietotāju komfortu. Turklāt izstrādātāji ir sākuši izmantot oficiālo API vai trešo personu API optimizēšanai. Tomēr Deepseek atvērtā platforma nesen paziņoja: "Pašreizējo servera resursu ir maz, un API pakalpojumu uzlādēšana ir apturēta."
Tas neapšaubāmi paver vairāk iespēju trešo personu pārdevējiem AI infrastruktūras nozarē. Nesen daudzi vietējie un starptautiskie mākoņu giganti ir uzsākuši DeepSeek modeli API - Overseas Giants Microsoft un Amazon bija vieni no pirmajiem, kas pievienojās janvāra beigās. Vietējais līderis Huawei Cloud veica pirmo gājienu, izlaižot DeepSeek R1 un V3 spriešanas pakalpojumus sadarbībā ar silīcija balstīto plūsmu 1. februārī. AI tehnoloģijas pārskata pārskati norāda, ka uz silīcija balstītā plūsmas pakalpojumi ir redzējuši lietotāju pieplūdumu, efektīvi "avarējot" platformu. Trīs lielie tehnoloģiju uzņēmumi-bat (Baidu, Alibaba, Tencent) un Bytedance-arī izdeva arī zemu izmaksu, ierobežota laika piedāvājumus, sākot no 3. februāra, kas atgādināja pagājušā gada mākoņu pārdevēju cenu karus, kurus aizdedzināja Deepseek V2 modeļa palaišana, kur DeepSeek sāka saukt par "cenu". " Mākoņu pārdevēju izmisīgā rīcība atkārto iepriekšējās spēcīgās saites starp Microsoft Azure un Openai, kur 2019. gadā Microsoft veica ievērojamu 1 miljarda dolāru ieguldījumu Openai un pēc Chatgpt atklāšanas 2023. gadā. Tomēr šīs ciešās attiecības sāka satraukties pēc meta atvērtā avotes llama, ļaujot citiem pārdevējiem, kas ir lieli. Šajā gadījumā DeepSeek ir ne tikai pārspējis ChatGpt produktu karstuma ziņā, bet arī ir ieviesis atvērtā pirmkoda modeļus pēc O1 izlaišanas, līdzīgi kā satraukums, kas apņem Lama GPT-3 atdzimšanu.
Patiesībā mākoņu pakalpojumu sniedzēji arī sevi pozicionē kā satiksmes vārtejas AI lietojumprogrammām, kas nozīmē, ka padziļināšana ar izstrādātājiem nozīmē preventīvas priekšrocības. Pārskati liecina, ka Baidu Smart Cloud modeļa palaišanas dienā bija vairāk nekā 15 000 klientu, izmantojot DeepSeek modeli, izmantojot Qianfan platformu. Turklāt vairākas mazākas firmas piedāvā risinājumus, tostarp uz silīcija balstītu plūsmu, Lučenas tehnoloģiju, Chuanjing tehnoloģiju un dažādiem AI infra pakalpojumu sniedzējiem, kuri ir sākuši atbalstu DeepSeek modeļiem. AI tehnoloģiju apskats ir uzzinājis, ka pašreizējās optimizācijas iespējas lokalizētai DeepSeek izvietošanai galvenokārt pastāv divās jomās: viena ir optimizēšana MOE modeļa mazības īpašībām, izmantojot jauktu spriešanas pieeju, lai izvietotu 671 miljardu parametru MOE modeli lokāli, vienlaikus izmantojot hibrīda GPU/CPU secinājumus. Turklāt MLA optimizācija ir būtiska. Tomēr DeepSeek abi modeļi joprojām saskaras ar dažiem izaicinājumiem izvietošanas optimizācijā. "Sakarā ar modeļa lielumu un daudziem parametriem, optimizācija patiešām ir sarežģīta, jo īpaši vietējā izvietošanai, kad optimāla līdzsvara sasniegšana starp veiktspēju un izmaksām būs izaicinoša," paziņoja pētnieks no Chuanjing Technology. Visnozīmīgākais šķērslis ir atmiņas jaudas ierobežojumu pārvarēšana. "Mēs izmantojam neviendabīgu sadarbības pieeju, lai pilnībā izmantotu CPU un citus skaitļošanas resursus, novietojot tikai nelielas MOE matricas daļas, kas nav koplietotas daļas CPU/DRAM apstrādei, izmantojot augstas veiktspējas CPU operatorus, bet blīvās porcijas paliek GPU," viņš vēl vairāk paskaidroja. Pārskati norāda, ka Chuanjing atvērtā avota ietvars Ktransformers galvenokārt ievada dažādas stratēģijas un operatorus sākotnējā transformatoru ieviešanā, izmantojot veidni, ievērojami uzlabojot secinājuma ātrumu, izmantojot tādas metodes kā Cudagraph. DeepSeek ir radījis iespējas šiem jaunizveidotiem uzņēmumiem, jo izaugsmes ieguvumi kļūst acīmredzami; Daudzas firmas ir ziņojušas par pamanāmu klientu pieaugumu pēc DeepSEEK API uzsākšanas, saņemot jautājumus no iepriekšējiem klientiem, kuri meklē optimizāciju. Nozares iekšējās informācijas pārstāvji ir atzīmējuši: "Agrāk nedaudz izveidotas klientu grupas bieži tika ieslodzītas lielāku uzņēmumu standartizētajos pakalpojumos, kas ir cieši saistītas ar to izmaksu priekšrocībām mēroga dēļ. Tomēr pēc tam, kad bija pabeigta DeepSEEK-R1/V3 pirms pavasara festivāla, mēs pēkšņi saņēmām sadarbības pieprasījumus no vairākiem pazīstamiem klientiem un pat iepriekš neaktīviem klientiem, kas uzsāka kontaktu, lai ieviestu mūsu pakalpojumus." Pašlaik šķiet, ka DeepSeek padara modeļa secinājumu veiktspēju arvien kritiskāku, un, plašāk pieņemot lielus modeļus, tas ievērojami turpinās ietekmēt attīstību AI infra nozarē. Ja dziļa līmeņa modeli varētu izvietot uz vietas par zemām izmaksām, tas ievērojami palīdzētu valdībai un uzņēmuma digitālās pārveidošanas centieniem. Tomēr izaicinājumi joprojām pastāv, jo dažiem klientiem var būt lielas cerības attiecībā uz lielām modeļa iespējām, padarot acīmredzamāku, ka veiktspējas un izmaksu līdzsvarošana kļūst būtiska praktiskajā izvietošanā.
Lai novērtētu, vai DeepSeek ir labāks par ChatGpt, ir svarīgi izprast to galvenās atšķirības, stiprās puses un lietošanas gadījumus. Šeit ir visaptverošs salīdzinājums:
Funkcija/aspekts | Dziļa | Čokot |
---|---|---|
Īpašums | Izstrādājis Ķīnas uzņēmums | Izstrādājis Openai |
Avota modelis | Atvērtā koda | Patentēts |
Maksāt | Bezmaksas lietošana; lētākas API piekļuves opcijas | Abonēšanas vai maksas par lietošanu cenu noteikšana |
Pielāgošana | Ļoti pielāgojams, ļaujot lietotājiem to pielāgot un balstīties | Pieejama ierobežota pielāgošana |
Veiktspēja īpašos uzdevumos | Izceļas dažās jomās, piemēram, datu analītikā un informācijas iegūšanā | Daudzpusīgs ar spēcīgu sniegumu radošajā rakstībā un sarunvalodas uzdevumos |
Valodas atbalsts | Liela koncentrēšanās uz ķīniešu valodu un kultūru | Plaša valodas atbalsts, bet uz ASV orientēts |
Apmācības izmaksas | Zemākas apmācības izmaksas, optimizētas efektivitātei | Augstākas apmācības izmaksas, kurām nepieciešami ievērojami skaitļošanas resursi |
Reakcijas variācija | Var piedāvāt dažādas atbildes, ko, iespējams, ietekmē ģeopolitiskais konteksts | Konsekventas atbildes, kuru pamatā ir apmācības dati |
Mērķauditorija | Mērķis ir izstrādātāji un pētnieki, kas vēlas elastību | Mērķis ir vispārīgi lietotāji, kas meklē sarunvalodas iespējas |
Lietošanas gadījumi | Efektīvāks kodu ģenerēšanai un ātriem uzdevumiem | Ideāli piemērots teksta ģenerēšanai, atbildēšanai uz vaicājumiem un iesaistīšanos dialogā |
Kritiska perspektīva "NVIDIA izjaukšanai"
Pašlaik, izņemot Huawei, vairāki vietējie mikroshēmu ražotāji, piemēram, Moore Threads, Muxi, Biran Technology un Tianxu Zhixin, arī pielāgojas DeepSeek diviem modeļiem. Čipu ražotājs sacīja AI tehnoloģiju pārskatam: "DeepSeek struktūra parāda jauninājumus, tomēr tā joprojām ir LLM. Mūsu pielāgošanās DeepSeek galvenokārt ir vērsta uz spriešanas lietojumprogrammām, padarot tehnisko ieviešanu diezgan vienkāršu un ātru." Tomēr MOE pieejai ir vajadzīgas augstākas prasības attiecībā uz glabāšanu un izplatīšanu, kā arī nodrošinot saderību, izvietojot vietējās mikroshēmas, radot daudzas inženiertehniskās problēmas, kuras pielāgošanās laikā ir nepieciešama izšķirtspēja. "Pašlaik vietējā skaitļošanas jauda neatbilst NVIDIA lietojamībā un stabilitātē, tai nepieciešama oriģināla rūpnīcas līdzdalība programmatūras vides iestatīšanā, traucējummeklēšanā un pamata veiktspējas optimizācijā," sacīja nozares praktiķis, kura pamatā ir praktiska pieredze. Vienlaicīgi "DeepSEEK R1 lielās parametru skalas dēļ vietējai skaitļošanas jaudai ir nepieciešami vairāk paralelizācijas mezglu. Turklāt vietējā aparatūras specifikācijas joprojām ir nedaudz atpalikušas; piemēram, Huawei 910b pašlaik nevar atbalstīt FP8 secinājumu, ko ieviesis DeepSeek". Viens no DeepSEEK V3 modeļa akcentiem ir FP8 jauktas precizitātes apmācības sistēmas ieviešana, kas efektīvi apstiprināta ārkārtīgi lielā modelī, iezīmējot būtisku sasniegumu. Iepriekš lielākie spēlētāji, piemēram, Microsoft un NVIDIA, ieteica saistīto darbu, taču nozarē kavējas šaubas par iespējamību. Saprotams, ka, salīdzinot ar Int8, FP8 primārā priekšrocība ir tā, ka kvantēšana pēc apmācības var sasniegt gandrīz bez zaudējumus precizitāti, vienlaikus ievērojami palielinot secinājuma ātrumu. Salīdzinot ar FP16, FP8 var realizēt līdz divām reizēm paātrinājumu Nvidia H20 un vairāk nekā 1,5 reizes paātrināt H100. Proti, tā kā diskusijas par vietējās skaitļošanas jaudas un vietējo modeļu tendenci iegūst impulsu, spekulācijas par to, vai NVIDIA varētu izjaukt un vai Cuda Moat varētu apiet, kļūst arvien izplatītāka. Viens nenoliedzams fakts ir tas, ka DeepSeek patiešām ir izraisījis ievērojamu NVIDIA tirgus vērtības kritumu, taču šī maiņa rada jautājumus par NVIDIA augstākās klases skaitļošanas jaudas integritāti. Iepriekš pieņemti stāstījumi par kapitāla virzītu skaitļošanas uzkrāšanos tiek apstrīdēti, tomēr NVIDIA joprojām ir grūti pilnībā aizstāt apmācības scenārijos. DeepSeek dziļa CUDA lietojuma analīze parāda, ka elastība, piemēram, SM izmantošana komunikācijai vai tieši manipulējot ar tīkla kartēm, nav iespējams regulārā GPU pielāgošanās. Nozares viedokļi uzsver, ka NVIDIA grāvis ietver visu CUDA ekosistēmu, nevis tikai pati CUDA, un PTX (paralēlā pavediena izpildes) instrukcijas, kuras DeepSeek izmanto, joprojām ir daļa no CUDA ekosistēmas. "Īstermiņā NVIDIA skaitļošanas jaudu nevar apiet - tas ir īpaši skaidrs apmācībā; tomēr vietējo karšu izvietošana argumentācijai būs salīdzinoši vienkāršāka, tāpēc progress, iespējams, būs ātrāks. Vietējo karšu pielāgošana galvenokārt ir vērsta uz secinājumiem; neviens vēl nav spējis apmācīt DeepSeek snieguma modeli vietējā kartītēs mērogā," nozares analīze piezīmēja AI tehnoloģijas pārskatu. Kopumā no secinājuma viedokļa apstākļi ir iepriecinoši vietējā mēroga modeļa mikroshēmās. Vietējo mikroshēmu ražotāju iespējas secinājumu jomā ir acīmredzamākas, pateicoties apmācības pārmērīgi augstajām prasībām, kas kavē ieeju. Analītiķi apgalvo, ka pietiek ar vietējo secinājumu karšu izmantošanu; Ja nepieciešams, ir iespējams iegūt papildu mašīnu, turpretī apmācības modeļi rada unikālas problēmas - palielināts mašīnu skaits var kļūt apgrūtinošs, un augstāks kļūdu līmenis var negatīvi ietekmēt apmācības rezultātus. Apmācībai ir arī īpašas klasteru mēroga prasības, savukārt prasības pēc klasteriem secinājumiem nav tik stingras, tādējādi atvieglojot GPU prasības. Pašlaik NVIDIA vienīgās H20 kartes veiktspēja nepārspēj Huawei vai Cambrian; Tās spēks slēpjas klasterizācijā. Balstoties uz vispārējo ietekmi uz skaitļošanas enerģijas tirgu, Luchen Technology dibinātāju, jūs Yang, kas tika atzīmēts intervijā AI Technology Review, "DeepSeek var uz laiku mazināt īpaši lielas apmācības apmācības skaitļošanas kopu izveidi un nomu, ilgtermiņā ievērojami samazinot izmaksas, kas saistītas ar lielām modeļa modeļiem, argumentāciju, pamatojoties uz to, kas, iespējams, ir paredzēts. ilgstošs pieprasījums skaitļošanas enerģijas tirgū. " Turklāt "DeepSeek paaugstinātais pieprasījums pēc spriešanas un precizēšanas pakalpojumiem ir vairāk saderīgāks ar vietējo skaitļošanas ainavu, kurā vietējās spējas ir salīdzinoši vājas, palīdzot mazināt dīkstāves resursus pēc klastera izveidošanas; tas rada reālas iespējas ražotājiem dažādos vietējās skaitļošanas ekosistēmas līmeņos." Luchen Technology ir sadarbojusies ar Huawei Cloud, lai sāktu DeepSeek R1 sērijas argumentācijas API un mākoņdatošanas pakalpojumus, pamatojoties uz vietējo skaitļošanas jaudu. Jūs Yang pauda optimismu par nākotni: "DeepSeek rada uzticību vietēji ražotiem risinājumiem, veicinot lielāku entuziasmu un ieguldījumus vietējās skaitļošanas spējas turpmāk."

Secinājums
Tas, vai DeepSeek ir "labāks" nekā Chatgpt, ir atkarīgs no lietotāja īpašajām vajadzībām un mērķiem. Uzdevumiem, kuriem nepieciešama elastība, zemas izmaksas un pielāgošana, DeepSeek var būt pārāki. Radošai rakstīšanai, vispārējai izmeklēšanai un lietotājam draudzīgām sarunvalodas saskarnēm Chatgpt var uzņemties vadību. Katrs rīks kalpo dažādiem mērķiem, tāpēc izvēle būs ļoti atkarīga no konteksta, kurā tie tiek izmantoti.
Kontroles kabeļi
Strukturēta kabeļu sistēma
Tīkls un dati, optiskās šķiedras kabelis, plākstera vads, moduļi, priekšējā plāksne
2024. gada 16.-18. aprīlis Vidusjūras enerģija Dubaijā
2024. gada 1824. gada aprīlis Securika Maskavā
2024. gada maijs. Jaunie produkti un tehnoloģijas atklāšanas pasākums Šanhajā
2024. gada oktobris 22.-25. Drošība Ķīna Pekinā
2024. gada novembris.
Pasta laiks: Feb-10-2025