Do systemów BMS, BUS, przemysłowych, kabli pomiarowych.

Gdy Festiwal Wiosny dobiega końca, emocje wokół DeepSeek pozostają silne. Ostatnie święto podkreśliło znaczące poczucie konkurencji w branży technologicznej, a wielu dyskutowało i analizowało tego „sumika”. Dolina Krzemowa przeżywa bezprecedensowe poczucie kryzysu: zwolennicy oprogramowania typu open source ponownie wyrażają swoje opinie, a nawet OpenAI ponownie ocenia, czy jego strategia zamkniętego oprogramowania była najlepszym wyborem. Nowy paradygmat niższych kosztów obliczeniowych wywołał reakcję łańcuchową wśród gigantów chipów, takich jak Nvidia, co doprowadziło do rekordowych jednodniowych strat wartości rynkowej w historii giełdy amerykańskiej, podczas gdy agencje rządowe badają zgodność chipów używanych przez DeepSeek. Pośród mieszanych recenzji DeepSeek za granicą, w kraju odnotowuje on niezwykły wzrost. Po wprowadzeniu modelu R1 powiązana aplikacja odnotowała wzrost ruchu, co wskazuje, że wzrost w sektorach aplikacji będzie napędzał cały ekosystem AI. Pozytywnym aspektem jest to, że DeepSeek poszerzy możliwości aplikacji, co sugeruje, że poleganie na ChatGPT nie będzie tak drogie w przyszłości. Zmiana ta znalazła odzwierciedlenie w ostatnich działaniach OpenAI, w tym w udostępnieniu bezpłatnego modelu rozumowania o nazwie o3-mini w odpowiedzi na DeepSeek R1, a także w późniejszych aktualizacjach, które upubliczniły łańcuch myśli o3-mini. Wielu zagranicznych użytkowników wyraziło wdzięczność DeepSeek za te osiągnięcia, chociaż ten łańcuch myśli służy jako podsumowanie.
Z optymizmem widać, że DeepSeek jednoczy krajowych graczy. Skupiając się na redukcji kosztów szkolenia, różni producenci chipów upstream, pośredni dostawcy usług w chmurze i liczne startupy aktywnie dołączają do ekosystemu, zwiększając efektywność kosztową korzystania z modelu DeepSeek. Zgodnie z dokumentami DeepSeek, pełne szkolenie modelu V3 wymaga tylko 2,788 miliona godzin H800 GPU, a proces szkolenia jest bardzo stabilny. Architektura MoE (Mixture of Experts) jest kluczowa dla dziesięciokrotnego zmniejszenia kosztów wstępnego szkolenia w porównaniu do Llama 3 z 405 miliardami parametrów. Obecnie V3 jest pierwszym publicznie uznanym modelem wykazującym tak dużą rzadkość w MoE. Ponadto MLA (Multi Layer Attention) działa synergicznie, szczególnie w aspektach rozumowania. „Im rzadszy MoE, tym większy rozmiar partii potrzebny podczas rozumowania, aby w pełni wykorzystać moc obliczeniową, przy czym rozmiar KVCache jest kluczowym czynnikiem ograniczającym; MLA znacznie zmniejsza rozmiar KVCache” — zauważył badacz z Chuanjing Technology w analizie dla AI Technology Review. Ogólnie rzecz biorąc, sukces DeepSeek leży w połączeniu różnych technologii, a nie tylko jednej. Branżowi insiderzy chwalą możliwości inżynieryjne zespołu DeepSeek, zauważając ich doskonałość w równoległym szkoleniu i optymalizacji operatora, osiągając przełomowe wyniki poprzez dopracowanie każdego szczegółu. Podejście open source DeepSeek dodatkowo napędza ogólny rozwój dużych modeli i przewiduje się, że jeśli podobne modele rozszerzą się na obrazy, filmy i inne, znacznie pobudzi to popyt w całej branży.
Możliwości dla usług rozumowania stron trzecich
Dane wskazują, że od momentu wydania DeepSeek zgromadził 22,15 mln aktywnych użytkowników dziennie (DAU) w ciągu zaledwie 21 dni, osiągając 41,6% bazy użytkowników ChatGPT i przekraczając 16,95 mln aktywnych użytkowników dziennie Doubao, stając się tym samym najszybciej rozwijającą się aplikacją na świecie, zajmując pierwsze miejsce w sklepie Apple App Store w 157 krajach/regionach. Jednak podczas gdy użytkownicy tłumnie przybywali, cyberprzestępcy nieustannie atakowali aplikację DeepSeek, powodując znaczne obciążenie jej serwerów. Analitycy branżowi uważają, że jest to częściowo spowodowane tym, że DeepSeek wdraża karty do szkolenia, jednocześnie nie mając wystarczającej mocy obliczeniowej do rozumowania. Osoba z branży poinformowała AI Technology Review: „Częste problemy z serwerem można łatwo rozwiązać, pobierając opłaty lub finansując zakup większej liczby maszyn; ostatecznie zależy to od decyzji DeepSeek”. Stanowi to kompromis między skupieniem się na technologii a komercjalizacji. DeepSeek w dużej mierze polegał na kwantyzacji kwantowej w celu samowystarczalności, otrzymując niewielkie zewnętrzne finansowanie, co skutkowało stosunkowo niską presją przepływu gotówki i czystszym środowiskiem technologicznym. Obecnie, w świetle wyżej wymienionych problemów, niektórzy użytkownicy namawiają DeepSeek w mediach społecznościowych do podniesienia progów użytkowania lub wprowadzenia płatnych funkcji w celu zwiększenia komfortu użytkownika. Ponadto programiści zaczęli wykorzystywać oficjalne API lub API stron trzecich w celu optymalizacji. Jednak otwarta platforma DeepSeek niedawno ogłosiła: „Bieżące zasoby serwera są ograniczone, a doładowania usług API zostały zawieszone”.
To niewątpliwie otwiera więcej możliwości dla zewnętrznych dostawców w sektorze infrastruktury AI. Ostatnio liczni krajowi i międzynarodowi giganci chmury uruchomili modele API DeepSeek — zagraniczni giganci Microsoft i Amazon byli wśród pierwszych, którzy dołączyli pod koniec stycznia. Krajowy lider, Huawei Cloud, wykonał pierwszy krok, wydając usługi wnioskowania DeepSeek R1 i V3 we współpracy z Silicon-based Flow 1 lutego. Raporty AI Technology Review wskazują, że usługi Silicon-based Flow odnotowały napływ użytkowników, skutecznie „zawieszając” platformę. Trzy duże firmy technologiczne — BAT (Baidu, Alibaba, Tencent) i ByteDance — również wydały tanie, ograniczone czasowo oferty począwszy od 3 lutego, przypominając zeszłoroczne wojny cenowe dostawców chmury rozpalone przez wprowadzenie modelu V2 DeepSeek, gdzie DeepSeek zaczęto nazywać „rzeźnikiem cen”. Gorączkowe działania dostawców chmury przypominają wcześniejsze silne powiązania między Microsoft Azure i OpenAI, gdzie w 2019 r. Microsoft zainwestował znaczną kwotę 1 miliarda dolarów w OpenAI i odniósł korzyści po uruchomieniu ChatGPT w 2023 r. Jednak ta bliska relacja zaczęła się rozpadać po udostępnieniu przez Meta oprogramowania Llama w trybie open-source, co pozwoliło innym dostawcom spoza ekosystemu Microsoft Azure konkurować z ich dużymi modelami. W tym przypadku DeepSeek nie tylko prześcignął ChatGPT pod względem ciepła produktu, ale także wprowadził modele typu open-source po wydaniu o1, podobnie jak ekscytacja związana z odrodzeniem GPT-3 przez Llama.
W rzeczywistości dostawcy usług w chmurze również pozycjonują się jako bramy ruchu dla aplikacji AI, co oznacza, że pogłębianie więzi z programistami przekłada się na korzyści wyprzedzające. Raporty wskazują, że Baidu Smart Cloud miał ponad 15 000 klientów korzystających z modelu DeepSeek za pośrednictwem platformy Qianfan w dniu premiery modelu. Ponadto kilka mniejszych firm oferuje rozwiązania, w tym Silicon-based Flow, Luchen Technology, Chuanjing Technology i różni dostawcy infrastruktury AI, którzy uruchomili obsługę modeli DeepSeek. AI Technology Review dowiedział się, że obecne możliwości optymalizacji dla lokalnych wdrożeń DeepSeek istnieją głównie w dwóch obszarach: jeden to optymalizacja pod kątem cech rzadkości modelu MoE przy użyciu podejścia opartego na mieszanym rozumowaniu w celu wdrożenia 671 miliardów parametrów modelu MoE lokalnie przy jednoczesnym wykorzystaniu hybrydowego wnioskowania GPU/CPU. Ponadto optymalizacja MLA ma kluczowe znaczenie. Jednak dwa modele DeepSeek nadal napotykają pewne wyzwania w zakresie optymalizacji wdrożenia. „Ze względu na rozmiar modelu i liczne parametry, optymalizacja jest rzeczywiście złożona, szczególnie w przypadku lokalnych wdrożeń, w których osiągnięcie optymalnej równowagi między wydajnością a kosztami będzie trudne” — stwierdził badacz z Chuanjing Technology. Najpoważniejszą przeszkodą jest pokonanie ograniczeń pojemności pamięci. „Przyjmujemy heterogeniczne podejście do współpracy, aby w pełni wykorzystać procesory CPU i inne zasoby obliczeniowe, umieszczając tylko nieudostępniane części rzadkiej macierzy MoE na procesorze CPU/DRAM w celu przetwarzania przy użyciu wydajnych operatorów procesora CPU, podczas gdy gęste części pozostają na GPU” — wyjaśnił dalej. Raporty wskazują, że otwartoźródłowe środowisko KTransformers firmy Chuanjing wstrzykuje różne strategie i operatory do oryginalnej implementacji Transformers za pośrednictwem szablonu, znacznie zwiększając szybkość wnioskowania przy użyciu metod takich jak CUDAGraph. DeepSeek stworzył możliwości dla tych startupów, ponieważ korzyści ze wzrostu stają się widoczne; wiele firm zgłosiło zauważalny wzrost liczby klientów po uruchomieniu interfejsu API DeepSeek, otrzymując zapytania od poprzednich klientów poszukujących optymalizacji. Branżowi insiderzy zauważyli: „W przeszłości dość ugruntowane grupy klientów były często zamknięte w standardowych usługach większych firm, ściśle związane ze swoimi przewagami kosztowymi ze względu na skalę. Jednak po zakończeniu wdrażania DeepSeek-R1/V3 przed Świętem Wiosny nagle otrzymaliśmy prośby o współpracę od kilku znanych klientów, a nawet wcześniej uśpieni klienci nawiązali kontakt, aby wprowadzić nasze usługi DeepSeek”. Obecnie wydaje się, że DeepSeek sprawia, że wydajność wnioskowania modelowego staje się coraz bardziej krytyczna, a wraz z szerszą adopcją dużych modeli będzie to nadal znacząco wpływać na rozwój w branży infrastruktury AI. Gdyby model na poziomie DeepSeek można było wdrożyć lokalnie przy niskich kosztach, znacznie pomogłoby to w działaniach transformacji cyfrowej rządu i przedsiębiorstw. Jednak wyzwania nadal istnieją, ponieważ niektórzy klienci mogą mieć wysokie oczekiwania dotyczące możliwości dużych modeli, co sprawia, że bardziej oczywiste jest, że zrównoważenie wydajności i kosztów staje się kluczowe w praktycznym wdrożeniu.
Aby ocenić, czy DeepSeek jest lepszy od ChatGPT, konieczne jest zrozumienie ich kluczowych różnic, mocnych stron i przypadków użycia. Oto kompleksowe porównanie:
Cecha/aspekt | Głębokie poszukiwanie | CzatGPT |
---|---|---|
Własność | Opracowany przez chińską firmę | Opracowane przez OpenAI |
Model źródłowy | Oprogramowanie typu open source | Prawnie zastrzeżony |
Koszt | Bezpłatne korzystanie; tańsze opcje dostępu do API | Ceny subskrypcji lub płatności za użytkowanie |
Personalizacja | Wysoce konfigurowalny, umożliwiający użytkownikom dostosowywanie i rozbudowę | Dostępna ograniczona możliwość personalizacji |
Wydajność w określonych zadaniach | Wyróżnia się w takich obszarach jak analiza danych i wyszukiwanie informacji | Wszechstronny, wykazujący się wysoką sprawnością w pisaniu kreatywnym i zadaniach konwersacyjnych |
Wsparcie językowe | Duży nacisk na język i kulturę chińską | Szerokie wsparcie językowe, ale skoncentrowane na USA |
Koszt szkolenia | Niższe koszty szkoleń, optymalizacja pod kątem efektywności | Wyższe koszty szkoleń, wymagające znacznych zasobów obliczeniowych |
Zmienność odpowiedzi | Może dawać różne odpowiedzi, być może zależne od kontekstu geopolitycznego | Spójne odpowiedzi oparte na danych treningowych |
Grupa docelowa | Skierowany do programistów i badaczy, którym zależy na elastyczności | Skierowany do przeciętnych użytkowników poszukujących możliwości prowadzenia konwersacji |
Przykłady zastosowań | Bardziej wydajne generowanie kodu i szybkie zadania | Idealny do generowania tekstu, odpowiadania na pytania i angażowania się w dialog |
Krytyczna perspektywa „zakłócania działalności firmy Nvidia”
Obecnie, oprócz Huawei, kilku krajowych producentów chipów, takich jak Moore Threads, Muxi, Biran Technology i Tianxu Zhixin, również dostosowuje się do dwóch modeli DeepSeek. Producent chipów powiedział AI Technology Review: „Struktura DeepSeek jest innowacyjna, ale nadal jest LLM. Nasza adaptacja do DeepSeek koncentruje się przede wszystkim na aplikacjach rozumowania, dzięki czemu techniczna implementacja jest dość prosta i szybka”. Jednak podejście MoE wymaga wyższych wymagań pod względem przechowywania i dystrybucji, w połączeniu z zapewnieniem kompatybilności podczas wdrażania z krajowymi chipami, co przedstawia liczne wyzwania inżynieryjne, które należy rozwiązać podczas adaptacji. „Obecnie krajowa moc obliczeniowa nie dorównuje Nvidii pod względem użyteczności i stabilności, wymagając udziału oryginalnej fabryki w konfiguracji środowiska programistycznego, rozwiązywaniu problemów i podstawowej optymalizacji wydajności” — powiedział praktyk branżowy na podstawie praktycznego doświadczenia. Jednocześnie „Ze względu na dużą skalę parametrów DeepSeek R1, krajowa moc obliczeniowa wymaga większej liczby węzłów do paralelizacji. Ponadto krajowe specyfikacje sprzętowe są nadal nieco w tyle; na przykład Huawei 910B obecnie nie obsługuje wnioskowania FP8 wprowadzonego przez DeepSeek”. Jednym z najważniejszych elementów modelu DeepSeek V3 jest wprowadzenie ramowego treningu o mieszanej precyzji FP8, który został skutecznie sprawdzony na niezwykle dużym modelu, co stanowi znaczące osiągnięcie. Wcześniej główni gracze, tacy jak Microsoft i Nvidia, sugerowali pokrewne prace, ale w branży utrzymują się wątpliwości co do wykonalności. Wiadomo, że w porównaniu z INT8, główną zaletą FP8 jest to, że kwantyzacja po treningu może osiągnąć niemal bezstratną precyzję, jednocześnie znacznie zwiększając szybkość wnioskowania. W porównaniu z FP16, FP8 może osiągnąć do dwukrotnego przyspieszenia na H20 firmy Nvidia i ponad 1,5-krotne przyspieszenie na H100. Co ciekawe, w miarę jak dyskusje na temat trendu krajowej mocy obliczeniowej plus krajowych modeli nabierają rozpędu, spekulacje na temat tego, czy Nvidia może zostać zakłócona i czy fosa CUDA może zostać ominięta, stają się coraz bardziej powszechne. Niezaprzeczalnym faktem jest to, że DeepSeek rzeczywiście spowodował znaczny spadek wartości rynkowej Nvidii, ale ta zmiana podnosi pytania dotyczące integralności mocy obliczeniowej Nvidii na wysokim poziomie. Wcześniej akceptowane narracje dotyczące akumulacji obliczeniowej napędzanej kapitałem są kwestionowane, ale nadal trudno jest Nvidii zostać w pełni zastąpioną w scenariuszach szkoleniowych. Analiza głębokiego wykorzystania CUDA przez DeepSeek pokazuje, że elastyczność — taka jak używanie SM do komunikacji lub bezpośrednie manipulowanie kartami sieciowymi — nie jest wykonalna dla zwykłych procesorów graficznych. Punkty widzenia branży podkreślają, że fosa Nvidii obejmuje cały ekosystem CUDA, a nie tylko sam CUDA, a instrukcje PTX (Parallel Thread Execution), które wykorzystuje DeepSeek, nadal są częścią ekosystemu CUDA. „W krótkim okresie nie można pominąć mocy obliczeniowej Nvidii — jest to szczególnie widoczne w przypadku szkoleń; jednak wdrażanie krajowych kart do rozumowania będzie stosunkowo łatwiejsze, więc postęp prawdopodobnie będzie szybszy. Adaptacja krajowych kart koncentruje się przede wszystkim na wnioskowaniu; nikomu nie udało się jeszcze wytrenować modelu wydajności DeepSeek na krajowych kartach na dużą skalę” — zauważył analityk branżowy dla AI Technology Review. Ogólnie rzecz biorąc, z punktu widzenia wnioskowania okoliczności są zachęcające dla krajowych układów scalonych dużych modeli. Możliwości dla krajowych producentów układów scalonych w zakresie wnioskowania są bardziej widoczne ze względu na nadmiernie wysokie wymagania dotyczące szkoleń, które utrudniają wejście. Analitycy twierdzą, że samo wykorzystanie krajowych kart wnioskowania wystarczy; w razie potrzeby możliwe jest nabycie dodatkowej maszyny, podczas gdy modele szkoleniowe stwarzają wyjątkowe wyzwania — zarządzanie zwiększoną liczbą maszyn może stać się uciążliwe, a wyższe wskaźniki błędów mogą negatywnie wpłynąć na wyniki szkoleń. Szkolenie ma również określone wymagania dotyczące skali klastra, podczas gdy wymagania dotyczące klastrów do wnioskowania nie są tak rygorystyczne, co łagodzi wymagania dotyczące GPU. Obecnie wydajność pojedynczej karty H20 firmy Nvidia nie przewyższa wydajności Huawei ani Cambrian; jej siła tkwi w klastrowaniu. W oparciu o ogólny wpływ na rynek mocy obliczeniowej, założyciel Luchen Technology, You Yang, zauważył w wywiadzie dla AI Technology Review: „DeepSeek może tymczasowo podważyć tworzenie i wynajem ultradużych klastrów obliczeniowych. W dłuższej perspektywie, poprzez znaczne obniżenie kosztów związanych z dużym szkoleniem modeli, rozumowaniem i aplikacjami, popyt rynkowy prawdopodobnie wzrośnie. Kolejne iteracje AI oparte na tym będą zatem stale napędzać stały popyt na rynku mocy obliczeniowej”. Ponadto „zwiększony popyt DeepSeek na usługi rozumowania i dostrajania jest bardziej zgodny z krajowym krajobrazem obliczeniowym, w którym lokalne moce są stosunkowo słabe, co pomaga ograniczyć marnotrawstwo z bezczynnych zasobów po utworzeniu klastra; stwarza to realne możliwości dla producentów na różnych poziomach krajowego ekosystemu obliczeniowego”. Luchen Technology nawiązał współpracę z Huawei Cloud, aby uruchomić interfejsy API DeepSeek R1 i usługi obrazowania w chmurze oparte na krajowej mocy obliczeniowej. You Yang wyraził optymizm co do przyszłości: „DeepSeek wzbudza zaufanie do krajowych rozwiązań, zachęcając do większego entuzjazmu i inwestycji w krajowe możliwości obliczeniowe w przyszłości”.

Wniosek
To, czy DeepSeek jest „lepszy” niż ChatGPT, zależy od konkretnych potrzeb i celów użytkownika. W przypadku zadań wymagających elastyczności, niskich kosztów i personalizacji DeepSeek może być lepszy. W przypadku kreatywnego pisania, ogólnych zapytań i przyjaznych dla użytkownika interfejsów konwersacyjnych ChatGPT może przewodzić. Każde narzędzie służy innym celom, więc wybór będzie w dużej mierze zależał od kontekstu, w którym są używane.
Kable sterujące
System okablowania strukturalnego
Sieć i dane, Światłowód, Patch Cord, Moduły, Płyta czołowa
16-18 kwietnia 2024 r. Middle-East-Energy w Dubaju
16-18 kwietnia 2024 Securika w Moskwie
9 maja 2024 r. WYDARZENIE PREMIERY NOWYCH PRODUKTÓW I TECHNOLOGII w Szanghaju
22-25 października 2024 r. BEZPIECZEŃSTWO CHINY w Pekinie
19-20 listopada 2024 r. CONNECTED WORLD KSA
Czas publikacji: 10-02-2025