Dla BMS, Bus, przemysłowy, oprzyrządowania.

Gdy wiosenny festiwal dobiegł końca, emocje otaczające Deepseek pozostają silne. Niedawne święto podkreśliło znaczące poczucie konkurencji w branży technologicznej, przy czym wiele omawia i analizowało ten „sum”. Dolina Krzemowa doświadcza bezprecedensowego poczucia kryzysu: zwolennicy open source znów wyrażają swoje opinie, a nawet Openai ponownie ocenia, czy jej strategia zamknięcia była najlepszym wyborem. Nowy paradygmat niższych kosztów obliczeniowych wywołał reakcję łańcuchową wśród gigantów chipowych, takich jak NVIDIA, co prowadzi do rekordowej jednodniowej strat wartości rynkowej w historii rynku akcji w USA, podczas gdy agencje rządowe badają zgodność układów używanych przez DeepSeek. Wśród mieszanych recenzji Deepseek za granicą, w kraju, ma niezwykły rozwój. Po uruchomieniu modelu R1, powiązana aplikacja odnotowała wzrost ruchu, co wskazuje, że wzrost w sektorach aplikacji spowoduje naprzód ogólnego ekosystemu AI. Pozytywny aspekt polega na tym, że Deepseek poszerzy możliwości aplikacji, co sugeruje, że poleganie na Chatgpt nie będzie tak drogie w przyszłości. Ta zmiana została odzwierciedlona w ostatnich działaniach Openai, w tym w dostarczaniu modelu rozumowania o nazwie O3-Mini dla wolnych użytkowników w odpowiedzi na Deepseek R1, a także kolejne ulepszenia, które uczyniły łańcuch myślowy O3-Mini. Wielu zagranicznych użytkowników wyraziło wdzięczność w Deepeek za te zmiany, chociaż ten łańcuch myślowy służy jako podsumowanie.
Optymistycznie jest oczywiste, że Deepseek ujednolica graczy domowych. Koncentrując się na obniżeniu kosztów szkolenia, różni producenci układów chipowych, dostawców pośrednich chmur i licznych startupów aktywnie łączą się z ekosystemem, zwiększając efektywność kosztową korzystania z modelu DeepSeek. Według artykułów Deepseek, pełne szkolenie modelu V3 wymaga tylko 2,788 miliona godzin GPU H800, a proces treningu jest wysoce stabilny. Architektura MOE (mieszanka ekspertów) ma kluczowe znaczenie dla zmniejszenia kosztów wstępnego treningu o współczynnik w porównaniu z LAMA 3 z 405 miliardami parametrów. Obecnie V3 jest pierwszym publicznie uznanym modelem wykazującym tak wysoką rzadkość w Moe. Ponadto MLA (wieloletnia uwaga) działa synergicznie, szczególnie w aspektach rozumowania. „Im rzadszy MOE, tym większy rozmiar partii potrzebny podczas rozumowania w celu pełnego wykorzystania mocy obliczeniowej, przy czym wielkość KVCACHE jest kluczowym czynnikiem ograniczającym; MLA znacznie zmniejsza rozmiar KVCACHE” - zauważył badacz z technologii Chuanjing w analizie przeglądu technologii AI. Ogólnie rzecz biorąc, sukces Deepseek polega na połączeniu różnych technologii, a nie tylko jednego. Znawcy branży chwalą możliwości inżynieryjne zespołu Deepseek, odnotowując ich doskonałość w równoległym szkoleniu i optymalizacji operatora, osiągając przełomowe wyniki poprzez udoskonalenie każdego szczegółu. Podejście Deepseek open source dodatkowo napędza ogólny rozwój dużych modeli i oczekuje się, że jeśli podobne modele rozszerzają się na obrazy, filmy i więcej, znacznie stymuluje to popyt w branży.
Możliwości dla usług rozumowania stron trzecich
Dane wskazują, że od czasu jego wydania DeepSeek naliczył 22,15 miliona aktywnych użytkowników (DAU) w ciągu zaledwie 21 dni, osiągając 41,6% bazy użytkowników Chatgpt i przewyższając 16,95 miliona aktywnych użytkowników Doubao, stając się w ten sposób najszybciej rozwijającą się aplikacją na całym świecie, cofając Apple App Store w 157 krajach/regionach. Jednak podczas gdy użytkownicy gromadzili się w tłumach, cyber hakerzy nieustannie atakują aplikację Deepseek, powodując znaczne obciążenie jej serwerów. Analitycy branżowi uważają, że jest to częściowo spowodowane wdrażaniem karty DeepSeek w celu szkolenia, jednocześnie brakując wystarczającej siły obliczeniowej do rozumowania. Brancki poufny przegląd technologii AI: „Częste problemy z serwerem można łatwo rozwiązać, pobierając opłaty lub finansowanie w celu zakupu większej liczby maszyn; ostatecznie zależy to od decyzji Deepseek”. To stanowi kompromis w skupieniu się na technologii w porównaniu z produkcją. Deepseek w dużej mierze polegał na kwantyzacji kwantowej w celu samowystarczalności, otrzymując niewielkie finansowanie zewnętrzne, co powoduje stosunkowo niskie ciśnienie przepływu pieniężnego i czystsze środowisko technologiczne. Obecnie, w świetle wyżej wymienionych problemów, niektórzy użytkownicy wzywają do mediów społecznościowych do podwyższenia progów użytkowania lub wprowadzenia płatnych funkcji w celu zwiększenia komfortu użytkowników. Ponadto programiści zaczęli wykorzystywać oficjalne interfejsy API lub API stron trzecich do optymalizacji. Jednak otwarta platforma Deepseeka ogłosiła niedawno: „Obecne zasoby serwera są rzadkie, a doładowanie usług API zostały zawieszone”.
Niewątpliwie otwiera to więcej możliwości dla zewnętrznych dostawców w sektorze infrastruktury AI. Niedawno wielu krajowych i międzynarodowych gigantów w chmurze wprowadziło modelowe interfejsy API Deepseek - Oververseas Giants Microsoft i Amazon byli jednymi z pierwszych, którzy dołączyli pod koniec stycznia. Lider krajowy, Huawei Cloud, dokonał pierwszego ruchu, uwalniając usługi rozumowania Deepseek R1 i V3 we współpracy z przepływem krzemowym 1 lutego. Raporty z przeglądu technologii AI wskazują, że usługi Flow oparte na krzemionach odnotowały napływ użytkowników, skutecznie „awansując” na platformę. Trzy wielkie firmy technologiczne-BAT (Baidu, Alibaba, Tencent) i Bytedance-również wydały tanie, ograniczone oferty czasu od 3 lutego, przypominające zeszłoroczne wojny cenowe dostawcy chmury zapalili się przez modelu Deepseek V2, w którym Deepseek zaczął być nazywany „Butem ceny”. Szalone działania dostawców w chmurze odzwierciedlają wcześniejsze silne więzi między Microsoft Azure i Openai, gdzie w 2019 r. Microsoft dokonał znacznych inwestycji w wysokości 1 miliarda dolarów w openai i zbierał korzyści po uruchomieniu Chatgpt w 2023 r. Jednak ta bliska relacja za rozbijanie się po Meta open sourced Llama. W tym przypadku Deepseek nie tylko przewyższył Chatgpt pod względem ciepła produktu, ale także wprowadził modele open source po wydaniu O1, podobnie jak emocje związane z odrodzeniem GPT-3 przez LLAMA.
W rzeczywistości dostawcy chmur pozycjonują się również jako bramy ruchu dla aplikacji AI, co oznacza, że pogłębienie więzi z programistami przekłada się na korzyści zapobiegawcze. Raporty wskazują, że Baidu Smart Cloud miał ponad 15 000 klientów wykorzystujących model Deepseek za pośrednictwem platformy Qianfan w dniu premiery modelu. Ponadto kilka mniejszych firm oferuje rozwiązania, w tym przepływ na bazie krzem, Luchen Technology, Chuanjing Technology i różnych dostawców AI Infra, którzy wprowadzili wsparcie dla modeli Deepseek. Przegląd technologii AI dowiedział się, że obecne możliwości optymalizacji zlokalizowanych wdrażania Deepseek istnieją przede wszystkim w dwóch obszarach: jeden optymalizuje charakterystykę rzadkości modelu MOE przy użyciu mieszanego rozumowania w celu wdrożenia lokalnego modelu MOE o wartości 671 miliardów parametrów. Dodatkowo optymalizacja MLA jest niezbędna. Jednak dwa modele Deepseeka wciąż stają przed pewnymi wyzwaniami w zakresie optymalizacji wdrażania. „Ze względu na wielkość modelu i liczne parametry optymalizacja jest rzeczywiście złożona, szczególnie w przypadku lokalnych wdrożeń, w których osiągnięcie optymalnej równowagi między wydajnością a kosztami będzie trudne”, stwierdził badacz z technologii Chuanjing. Najważniejsza przeszkoda polega na przezwyciężeniu limitów pojemności pamięci. „Przyjmujemy heterogeniczne podejście do współpracy w celu pełnego wykorzystania procesorów i innych zasobów obliczeniowych, umieszczając tylko nie zorganizowaną części rzadkiej macierzy MOE na procesor/DRAM do przetwarzania przy użyciu wysokowydajnych operatorów procesorów, podczas gdy gęste części pozostają na GPU”, wyjaśnił dalej. Raporty wskazują, że KTransformers Chuanjinga KTransformers wprowadzają przede wszystkim różne strategie i operatorów do oryginalnej implementacji Transformers za pośrednictwem szablonu, znacznie zwiększając prędkość wnioskowania za pomocą metod takich jak CUDAGAGAG. Deepseek stworzył możliwości dla tych startupów, ponieważ korzyści wzrostu stają się widoczne; Wiele firm zgłosiło zauważalny wzrost klientów po uruchomieniu API Deepseek, otrzymując zapytania od poprzednich klientów szukających optymalizacji. Znawcy branży zauważyli: „W przeszłości nieco ustalone grupy klientów były często zamknięte w znormalizowanych usługach większych firm, ściśle związanych z ich zaletami kosztów ze względu na skalę. Jednak po ukończeniu wdrożenia Deepseek-R1/V3 przed wiosennym festiwalem nagle otrzymaliśmy prośby o współpracę od kilku dobrze znanych klientów, a nawet wcześniej uruchomionych klientów, aby wprowadzić nasze usługi Deepseek”. Obecnie wydaje się, że Deepseek sprawia, że wyniki wnioskowania modeli jest coraz bardziej krytyczne, a przy szerszym przyjęciu dużych modeli będzie to nadal wpływać na rozwój w branży AI Infra. Gdyby model na poziomie Deepseek mógłby zostać wdrożony lokalnie po niskich kosztach, bardzo pomogłby rządowi i cyfrowej transformacji. Jednak wyzwania utrzymują się, ponieważ niektórzy klienci mogą mieć wysokie oczekiwania dotyczące dużych możliwości modelowych, co sprawia, że bardziej widoczne jest, że równoważenie wydajności i kosztów stają się niezbędne w praktycznym wdrożeniu.
Aby ocenić, czy Deepseek jest lepszy niż Chatgpt, konieczne jest zrozumienie ich kluczowych różnic, mocnych stron i przypadków użycia. Oto kompleksowe porównanie:
Funkcja/aspekt | Deepseek | Chatgpt |
---|---|---|
Własność | Opracowany przez chińską firmę | Opracowany przez Openai |
Model źródłowy | Open source | Prawnie zastrzeżony |
Koszt | Bezpłatnie używać; Tańsze opcje dostępu do API | Ceny subskrypcji lub pay-za użytkowanie |
Dostosowywanie | Wysoce konfigurowalne, umożliwiając użytkownikom ulepszenie i budowanie na nim | Dostępne ograniczone dostosowanie |
Wydajność w określonych zadaniach | Wyróżnia się w niektórych obszarach, takich jak analizy danych i wyszukiwanie informacji | Wszechstronny z dużymi wynikami w kreatywnym pisaniu i zadaniach konwersacyjnych |
Wsparcie językowe | Silne skupienie się na języku chińskim i kulturze | Szerokie wsparcie językowe, ale zorientowane na USA |
Koszt szkolenia | Niższe koszty szkolenia, zoptymalizowane pod kątem wydajności | Wyższe koszty szkolenia, wymagające znacznych zasobów obliczeniowych |
Zmienność odpowiedzi | Może oferować różne reakcje, prawdopodobnie pod wpływem kontekstu geopolitycznego | Spójne odpowiedzi oparte na danych szkoleniowych |
Docelowi odbiorcy | Skierowane do programistów i badaczy chcących elastyczność | Skierowane do ogólnych użytkowników szukających możliwości konwersacyjnych |
Przypadki użycia | Bardziej wydajne w zakresie generowania kodu i szybkich zadań | Idealny do generowania tekstu, odpowiadania na zapytania i angażowania się w dialog |
Krytyczne spojrzenie na „zakłócenie Nvidii”
Obecnie, oprócz Huawei, kilku domowych producentów chipów, takich jak Moore Threads, Muxi, Biran Technology i Tianxu Zhixin, dostosowuje się również do dwóch modeli Deepseek. Producent chipów powiedział AI Technology Review: „Struktura Deepseek pokazuje innowacje, ale pozostaje LLM. Nasza adaptacja do Deepseek koncentruje się przede wszystkim na rozumowaniu aplikacji, dzięki czemu wdrożenie techniczne jest dość proste i szybkie”. Jednak podejście MOE wymaga wyższych wymagań w zakresie przechowywania i dystrybucji, w połączeniu z zapewnieniem kompatybilności podczas wdrażania z układami krajowymi, przedstawiając liczne wyzwania inżynieryjne wymagające rozwiązania podczas adaptacji. „Obecnie krajowa siła obliczeniowa nie pasuje do NVIDIA w użyteczności i stabilności, wymagającą oryginalnego udziału w fabryce w konfiguracji środowiska oprogramowania, rozwiązywania problemów i podstawowej optymalizacji wydajności” - powiedział praktykujący branżowy oparty na praktycznym doświadczeniu. Jednocześnie „Ze względu na dużą skalę parametrów Deepseek R1, krajowa moc obliczeniowa wymaga większej liczby węzłów do równoległości. Dodatkowo specyfikacje sprzętowe krajowe są nadal nieco opóźnione; na przykład Huawei 910b nie może obecnie obsługiwać wnioskowania FP8 wprowadzonego przez Deepseek”. Jednym z najważniejszych elementów modelu Deepseek V3 jest wprowadzenie ramy szkoleniowej mieszanej precyzyjnej FP8, która została skutecznie zatwierdzona w bardzo dużym modelu, oznaczając znaczące osiągnięcie. Wcześniej główni gracze, tacy jak Microsoft i Nvidia, zasugerowali powiązane prace, ale wątpliwości pozostają w branży o wykonalności. Rozumie się, że w porównaniu z INT8 główną zaletą FP8 jest to, że kwantyzacja po szkoleniu może osiągnąć prawie bezstronną precyzję przy jednoczesnym zwiększeniu prędkości wnioskowania. W porównaniu z FP16 FP8 może zrealizować nawet dwa razy przyspieszenie H20 NVIDIA i ponad 1,5 -krotności przyspieszenia H100. W szczególności, ponieważ dyskusje dotyczące trendu krajowej siły obliczeniowej plus modele krajowe zyskują pęd, spekulacje na temat tego, czy NVIDIA może zostać zakłócone, i czy fosa CUDA może zostać ominięta, staje się coraz bardziej powszechna. Jednym z niezaprzeczalnych faktów jest to, że Deepseek rzeczywiście spowodował znaczny spadek wartości rynkowej NVIDIA, ale ta zmiana rodzi pytania dotyczące wysokiej jakości integralności siły obliczeniowej NVIDIA. Wcześniej akceptowane narracje dotyczące akumulacji obliczeniowej opartej na kapitałach są kwestionowane, ale Nvidia trudno jest zostać w pełni zastąpionym w scenariuszach szkoleniowych. Analiza głębokiego wykorzystania CUDA Deepseeka pokazuje, że elastyczność - taka jak używanie SM do komunikacji lub bezpośrednio manipulowanie kartami sieciowymi - nie jest możliwa dla zwykłych GPU. Punkty widzenia branży podkreślają, że fosa Nvidii obejmuje cały ekosystem CUDA, a nie tylko sama CUDA, a instrukcje PTX (równoległe wykonanie wątku), które zatrudnia Deepseek, nadal są częścią ekosystemu CUDA. „W krótkim okresie nie można ominąć siły obliczeniowej NVIDIA - jest to szczególnie jasne w szkoleniu; jednak wdrażanie kart krajowych w celu rozumowania będzie stosunkowo łatwiejsze, więc postęp prawdopodobnie będzie szybszy. Adaptacja kart krajowych skupia się przede wszystkim na wnioskowaniu; nikt nie udało się jeszcze wyszkolić model wydajności Deepseeka na kartach krajowych na skalę,” analityk branżowy. Ogólnie rzecz biorąc, z punktu widzenia wnioskowania okoliczności zachęcają do krajowych dużych modeli. Możliwości krajowych producentów układów w dziedzinie wnioskowania są bardziej widoczne ze względu na nadmiernie wysokie wymagania szkolenia, które utrudniają wejście. Analitycy twierdzą, że wystarczy po prostu wykorzystać domowe karty wnioskowania; W razie potrzeby uzyskanie dodatkowej maszyny jest możliwe, podczas gdy modele szkoleniowe stanowi unikalne wyzwania - zarządzanie zwiększoną liczbą maszyn może stać się uciążliwe, a wyższe poziomy błędów mogą negatywnie wpłynąć na wyniki szkolenia. Szkolenie ma również określone wymagania skali klastra, podczas gdy wymagania dotyczące klastrów wnioskowania nie są tak rygorystyczne, co łagodzi wymagania GPU. Obecnie wydajność pojedynczej karty H20 NVIDIA nie przewyższa wydajności Huawei lub kambryjskiej; Jego siła polega na grupowaniu. W oparciu o ogólny wpływ na rynek władzy obliczeniowej, założyciel Luchen Technology, Yang Yang, zauważyłeś w wywiadzie dla AI Technology Review: „Deepseek może tymczasowo podważyć ustanowienie i wynajem ultra-dużych treningowych klastrów obliczeniowych. W dłuższej perspektywie, przez znaczne zmniejszenie kosztów związanych z dużymi treningami modelowymi, rozumowaniem i aplikacjami, na rynku jest prawdopodobne. Ciągle napędzają trwały popyt na rynku władzy obliczeniowej ”. Ponadto „Podwyższone zapotrzebowanie Deepeek na usługi rozumowania i dostrajania jest bardziej kompatybilne z krajowym krajobrazem obliczeniowym, w którym lokalne zdolności są stosunkowo słabe, pomagając w łagodzeniu odpadów z establishmentu po klastrze po klastrze; stwarza to opłacalne możliwości dla producentów na różnych poziomach krajowego ekosystemu obliczeniowego”. Luchen Technology współpracowało z Huawei Cloud w celu uruchomienia API rozumowania serii Deepseek R1 i usług obrazowania w chmurze opartych na krajowej mocy obliczeniowej. Ty Yang wyraził optymizm na temat przyszłości: „Deepseek wpuści zaufanie do produkowanych w kraju rozwiązań, zachęcając do większego entuzjazmu i inwestycji w krajowe zdolności obliczeniowe w przyszłości”.

Wniosek
To, czy Deepseek jest „lepszy” niż Chatgpt, zależy od konkretnych potrzeb i celów użytkownika. W przypadku zadań wymagających elastyczności, niskiej kosztów i dostosowywania Deepeek może być lepszy. W celu kreatywnego pisania, ogólnego zapytania i przyjaznych dla użytkownika interfejsów konwersacyjnych Chatgpt może objąć inicjatywę. Każde narzędzie obsługuje różne cele, więc wybór będzie w dużej mierze zależeć od kontekstu, w którym są używane.
Kable kontrolne
Strukturowany system okablowania
Sieć i dane, kabel światłowodowy, sznur łaty, moduły, płyta czołowa
16 kwietnia-8, 2024 Energia Bliskiego Wschodu w Dubaju
16 kwietnia do 8, 2024 Securika w Moskwie
9 maja, 2024 Nowe wydarzenie Products & Technologies Wprowadzenie w Szanghaju
22 października-25., 2024 Bezpieczeństwo Chiny w Pekinie
19 listopada, 2024 Connected World KSA
Czas postu: 10-2025 lutego