NVIDIA. Część 2⃣

Plan
Część 1⃣: Wprowadzenie. Wyniki, komentarze, zapowiedzi podczas konferencji kwartalnej. 5.03

Część 2⃣: Infrastruktura / oferta #NVDA pod AI. Czyli co ma tworzyć fosę wokół biznesu spółki w AI. 12.03

Część 3⃣: Omniverse, Automotive. 19.03

Dziś cz. druga 🧵
2/ Nvidia uważa, że rynek, który będą mogli zaadresować (TAM, Total Addressable Market) w dłuższym terminie będzie wart 1 bilion USD.

Ten schemat mniej więcej pokazuje nam, w jakim kierunku #Nvidia będzie chciała iść i gdzie będzie próbowała rozbudowywać kompetencje.
3/ Oczywiście to NIE JEST prognoza dla ich przychodów za 10 lat (roczna sprzedaż to teraz ok. 27 mld USD)

To jest wartość tortu, z którego spółka będzie próbowała wykroić jak największy kawałek dla siebie. Musi dodać nowe kompetencje, by wykroić więcej, ale musi i chronić obecne
4/ Spółka widzi aż 300 mld potencjału w Software (150 mld AI Enterprise + 150 mld Omniverse). Obecnie z software mają może kilkaset mln $ przychodów.

Dlatego prawdopodobnie będą tu sporo inwestować, gdyż nawet kilka procent udziału w tym rynku to już ogromne dodatkowe przychody.
5/ Ogromny potencjał widzą też w Automotive ($300B), gdzie od lat inwestują oraz w Hardware pod centra danych/AI ($300B).

Hardware: Chips&Systems to jest właśnie ten obszar, gdzie już są, mają największe kompetencje, jest nadal potężny potencjał, ale i muszą odpierać konkurencję
6/ I dziś skupię się na tym obszarze , gdyż ten wpis ma być poświęcony ofercie $NVDA w zakresie AI i co tworzy ich ekosystem, który jednocześnie też ma budować fosę wokół tego biznesu.

Spółka twierdzi, że wyznaje motto: "nie mamy żadnej przewagi", więc BUDUJMY JĄ.
7/ SZTUCZNA INTELIGENCJA. Hardware

Nvidia zdominowała rynek sprzętu do trenowania AI. Udział ich akceleratorów GPU wśród TOP6 🇺🇸 dostawców usług chmurowych (CPS) wynosi ~85%, a w ostatnim roku ich sprzęt odpowiadał wg Jefferies za blisko 100% przyrostu nowych akceleratorów u CPS
8/ Akceleratory Nvidii są więc zdecydowanie pierwszym wyborem. D. Driggers, CTO z Cirrascale, twierdzi, że przy Generative AI w przyszłości powinna utrzymać się zasada: 80% Nvidia / 20% reszta

Tort będzie szybko rosnąć, ale co do samych udziałów: $NVDA ma tu więcej do stracenia
9/ Nvidia podwaliny pod tę dominację stworzyła jeszcze w 2006, kiedy pokazała architekturę CUDA.

Otwarło to naukowcom drogę do wykorzystania mocy GPU i ich wielordzeniowej struktury, by rozwiązywać ogólne problemy numeryczne poprzez równoległe obliczenia na wielu rdzeniach.
10/ W tym czasie ATI, przejęte wtedy przez AMD, również wprowadziło swoje rozwiązanie i rozpoczęła się nowa era, w której GPU, tradycyjnie zajmujące się obliczeniami związanymi z grafiką komputerową, mogły być także wykorzystywane do obliczeń ogólnego przeznaczenia - domena CPU.
11/ Rok później Nvidia zapoczątkowała linię Tesla - pierwsza architektura dla GPU ogólnego przeznaczenia (GPGPU) - później już określane głównie jako AKCELERATOR.

#Nvidia zrobiła wokół nowego rozwiązania zdecydowanie większy szum niż konkurent i mocniej na to postawiła.
12/ Sama nazwa linii Tesla znika od 2020, kiedy wchodzi architektura Ampere. Nazwa Nvidia Tesla mogła być bowiem... lekko myląca, ze względu na inną popularną firmę.

Bardziej lub mniej świadoma przyszłego potencjału tej linii Nvidia przez blisko dekadę mocno ją rozwijała, aż...
13/ ...po blisko dekadzie inwestycji w ekosystem, kilku kolejnych po Tesli architekturach, w końcu wiele elementów zaskoczyło naraz, co opisywałem w części 1⃣, a Nvidia szybko stała się synonimem AI.

I ciągłe usprawnianie ekosystemu, likwidacja wąskich gardeł stała się obsesją.
14/ DGX - "superkomputer AI w pudełku"

Tzw. serwer DGX po raz pierwszy Nvidia wprowadziła latem 2016. Składa się on z 8 akceleratorów GPU oraz 1x CPU. W najnowszej architekturze Hopper jego koszt to ~$250k.

Do większych modeli wykorzystuje się setki GPU, do największych tysiące
15/ Dlatego DGX i całe ich klastry są popularnym rozwiązaniem.

Ale system jest tak silny, jak najsłabsze jego ogniwo. Co z tego, że mamy szybkie procesory, jeśli łączność między nimi, która jest niezbędna, by prowadzić równoległe obliczenia, będzie wolna. Powstanie WĄSKIE GARDŁO
16/ NVLink, InfiniBand

Te rozwiązania oferują niezbędną skalowalność całego systemu.

NVLink to opracowane przez Nvidię szybkie łącze GPU-to-GPU wewnątrz DGX (8x GPU), bez konieczności stosowania CPU.

Z kolei InfiniBand łączy serwery DGX. To znany produkt przejętego Mellanox'a
17/ Do wytrenowania modelu z 1.5 mld parametrami (GPT-3 ma 175 mld) potrzebne może być 512 GPUs, tj. 64xDGX.

InfiniBand jest teraz w stanie obsłużyć taki blok serwerów, ale to nie ogranicza skalowania. Można dokładać kolejne bloki połączone kolejnymi szybkimi warstwami switchy.
18/ Klienci są skłonni płacić krocie za systemy DGX, bo oferują one jednolity, szybko działający oraz łatwo skalowalny układ, a do tego mają cały ekosystem oprogramowania / narzędzi deweloperskich Nvidii.

Ale polityka cenowa też musi być wyważona, bo konkurencja nie śpi.
19/ Grace CPU

To może być ważny krok dla Nvidii. W drugiej połowie roku wprowadza procesor Grace CPU. Będzie on przeznaczony do zastosowań HPC (High-Performance Computing), tak jak akceleratory.

72-rdzeniowy procesor oparty o Arm v9, który będzie przyjmował postać pakietu 2x.
20/ Grace ma być przeznaczony do zastosowań profesjonalnych, ale kto wie czy później nie trafi do mas. W każdym razie Nvidia będzie miała czym zastąpić CPU Intela w swoich serwerach DGX i dalej optymalizować swój ekosystem.

Grace CPU może też pomóc spółce w obszarze INFERENCJI.
21/ W skrócie, mamy trzy fazy tworzenia aplikacji AI:

🔸zebranie i przygotowanie danych
🔹trening
🔸inferencja (wnioskowanie)

Ta ostatnia faza obejmuje wdrożenie w życie wytrenowanego modelu. Często będzie to miało miejsce poza centrum danych, na jakimś urządzeniu brzegowym.
22/ Nvidia dominuje w treningu, ale inferencja to - jak określają niektórzy eksperci - na razie Dziki Zachód.

Tu często nie będą potrzebne GPU z tysiącami czy nawet setkami rdzeni. W wielu zastosowaniach wystarczą mniejsze CPU (ARM). Ale to też zależy od modelu/przeznaczenia.
23/ ChatGPT do trenowania wykorzystywał 10k GPU, ale przy inferencji OpenAI może wykorzystywać nieużywane w danym czasie w chmurze CPU x86.

Przy generowaniu tekstu nie ma potrzeby mieć niezliczoną ilość rdzeni, bardziej może tu ograniczać pamięć, a CPU mają jej więcej jak GPU.
24/ Jeśli jednak chodziłoby o przetwarzanie / generowanie obrazu to taki model może mieć zbyt wiele parametrów, by do inferencji użyć czegoś słabszego jak Nvidia T4 z >2k rdzeni CUDA.

Te przykłady mogą nam podpowiadać, gdzie Nvidia będzie szukała swojego miejsca w inferencji
25/ Z czasem kolejne wytrenowane modele pójdą w świat i rynek wnioskowania będzie szybko rósł. W większości będą one optymalizowane do wersji na urządzenia brzegowe (oszczędność energii, czasu, latencja, prywatność) i w wielu zastosowaniach Nvidia nie będzie szukała obecności.
26/ Ale: pojazdy, maszyny, lokalne serwerownie w smart factories czy smart cities, tam często modele będą na tyle wymagające, że nie będzie można użyć słabszego sprzętu.

Grace CPU może być świetnym uzupełnieniem ich oferty hardware, które szerzej otworzy drzwi do fazy inferencji
27/ SZTUCZNA INTELIGENCJA. Software, narzędzia

Nvidia nie byłaby jednak synonimem #AI, gdyby szukała przewagi tylko w hardware. Dla dużych graczy oczywiście istotna jest łatwa skalowalność całego systemu DGX, ale dla mniejszych firm, pojedynczych deweloperów to nie ma znaczenia.
28/ W przeciwieństwie do typowego programowania w High Performance Computing, gdzie trzeba znać się na tym, co dzieje się na poziomie sprzętu, umieć to programować, dzięki platformie CUDA specjaliści od AI mogą skupić się na modelach, a platforma odpowiednio połączy to z hardware
29/ Typowe programowanie HPC vs AI: to są inne języki, inne specjalizacje.

Nvidia postawiła właśnie na podejście platformowe, wysoko wyniosła znaczenie software. Opracowała sposób, by GPU komunikowały się ze sobą, ale by i naukowcy od AI łatwo mogli się z hardware „dogadać”.
30/ Nvidia zoptymalizowała popularne języki do maszynowego uczenia, jak PyTorch czy TensorFlow i ich biblioteki, pod kątem swoich GPUs i platformy CUDA

Sięgali również po popularne biblioteki i „zCUDAfikowali” je

Krok po kroku, platforma stała się pierwszym wyborem specjalistów
31/ Platforma CUDA zapewnia kompatybilność ze wszystkimi generacjami GPU spółki, co też ma znaczenie, jeśli tworzy się model dla celów biznesowych, długoterminowych.

Dla poważnych firm znaczenie ma też sama stabilność finansowa dostawcy ekosystemu (vs start-upy).
32/ KONKURENCJA

Nie w każdym przypadku rozwiązania Nvidii czy też procesorów GPU są najbardziej optymalne. Ale na dziś dzień do treningu mogą takie być w 80% przypadków.

O ten kawał tortu Nvidia rywalizuje z AMD i Intelem, którzy wydają się ciągle pozostawać sporo w tyle.
33/ Czasami bardziej optymalne będą inne wyspecjalizowane urządzenia, które np. oferują sporo więcej pamięci po stronie obliczeniowej.

To otwiera też możliwości dla NOWEJ KONKURENCJI, jak prywatne: Cerebas, Graphcore czy SambaNova. Nvidia musi pilnie ich obserwować.
34/ Można też spotkać się z opiniami, że nowa generacja bibliotek do ML/DL, np. PyTorch 2.0, na tyle ma je zoptymalizować i otworzyć na inne urządzenia, że doprowadzi to do końca dominacji Nvidii.

To też pytanie do zajmujących się AI na co dzień: czy podzielają taki pogląd?
35/ Kiedy lata temu analizowałem Adobe, to im więcej czytałem o konkurencji, tym więcej widziałem ryzyk dla $ADBE, gdyż wiele innych produktów było wyżej ocenianych, z ambitnymi planami ich twórców.

Jednak tu wychodzi SIŁA EKOSYSTEMU. Kompleksowość produktu tworzy fosę.
36/ Nvidia zbudowała też taką fosę, ale NIE MOŻE spocząć na laurach.

Materiał się rozrósł, a to tylko "dotknięcie" tematu. Niemniej Omniverse i automotive muszę zrobić w oddzielnej części.

Jeśli 🧵 podobała się to tradycyjnie wielka prośba o ♥️, a najlepiej RT - dla zasięgów ;)

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with Tomasz Smolarek - makro i rynki

Tomasz Smolarek - makro i rynki Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

More from @T_Smolarek

Mar 11
🇺🇸 TABELA MIAR WYPRZEDZAJĄCYCH RECESJĘ
Luty

Aktualizacja sytuacji na moich ulubionych wskaźnikach, które powinny wyprzedzać recesję w USA w horyzoncie 6-24 miesięcy. W tabeli zaznaczony jest sygnał TAK/NIE na ostatni miesiąc danej publikacji

Dominuje nadal TAK. Szczegóły w 🧵
A/ Szukam potwierdzeń na grupie wskaźników, zamiast polegać na pojedynczych, choćby były w przeszłości niemal bezbłędne

Wielu może postrzegać wypatrywanie recesji przy tak mocnych raportach z rynku pracy jako coś dziwnego. Ale to lusterko wsteczne. Patrzmy obiektywnie do przodu
B/ 1⃣-2⃣ Najpopularniejsze i praktycznie bezbłędne miary to oczywiście te bazujące na rentownościach obligacji i stopie Fed

Zarówno na 10-2yr, jak i 10-Fed mamy odwrócenie krzywych i to się pogłębia. Pamiętajmy też o QT, które podnosi proxy na stopę Fed o ok. 2pp

Sygnały 2x TAK
Read 22 tweets
Mar 10
🇺🇸 RYNEK PRACY

Kolejny MOCNY raport o zatrudnieniu, lecz nie bez "ALE"

1⃣ Wzrost zatrudnienia o 311 tys. m/m to znów sporo lepiej od oczekiwań (205k). Oznacza to wzrost o 0.2% m/m, czyli +2.4% zannualizowane. Dynamika roczna wyhamowała natomiast do 2.9% z 3.3%.
2⃣ Średnia 3M zmiana zatrudnienia to wysokie +350k i od dwóch lat tylko raz (gru'22) była poniżej 300k

3⃣ Ale potraktujmy to też jako proces normalizacji po pandemicznych zwolnieniach. Poziom zatrudnienia był w lutym 2% powyżej lut'20, a tamten szczyt wyrównano dopiero w cze'22
4⃣ W samym sektorze prywatnym zatrudnienie wzrosło o 265k, ale poprzednie dwa miesiące zrewidowano w dół o 94k.

5⃣ Bardzo mocny wynik w detalu, +50k, solidny też w budowlance: +24k m/m i +3.2% r/r. Kiedyś szerzej opisywałem sytuację w budownictwie 🇺🇸
👇

Read 9 tweets
Mar 8
🇺🇸 NADWYŻKOWE OSZCZĘDNOŚCI

Ile ich jeszcze pozostało? Wg mnie to jest materiał na prace akademickie, a każda da inną odpowiedź.

Wchodzimy bowiem w alternatywne scenariusze - CO BY BYŁO GDYBY?

Bo jak z 👇 uzyskać wiarygodny trend, do którego porównamy wyniki z lat 2020-22 🧵 Image
2/ Do tego dane o dochodach i wydatkach, a więc i o oszczędnościach, podlegają sporym rewizjom za wiele lat wstecz. Duża coroczna rewizja ma miejsce w lipcu.

Nadwyżkowe oszczędności to oczywiście istotny aspekt obecnego cyklu, jego siły, odporności i... inflacyjnego charakteru.
3/ Ale po kolei. Najpierw kluczowe kategorie dochodów i wydatków, po nich o oszczędnościach.

Na wykresach, gdzie pokazuję linie trendu dla różnych kategorii, trend ten jest oparty o średnie ich dynamiki z lat 2017-19.

Same nadwyżkowe oszczędności liczę jednak na kilka sposobów.
Read 16 tweets
Mar 8
System EUV od 🇳🇱 ASML to jedna z najbardziej skomplikowanych maszyn w historii

By uzyskać światło EUV:
🔸50k kropli cyny spada na sekundę
🔹Każda jest 2x uderzana przez laser
🔸Powstała plazma emituje EUV
Krótki wątek o EUV👇

Ale stale szuka się alternatyw do tej litografii...
Po 8 latach prac R&D 🇯🇵 Canon ma wkrótce ruszyć z budową fabryki, gdzie między innymi będą powstawać maszyny do NANO-IMPRINT LITOGRAPHY (NIL).

Litografia nanoimprint to kolejne podejście, jak "przełamać" monopol tradycyjnej fotolitografii, opartej na świetle.
W historii były lepsze metody litografii od tej "tradycyjnej", ale głównie w fazie badań i trudne do zastosowania w skali przemysłowej.

Technologia Canon zamiast naświetlania ma bezpośrednio odciskać schemat na podłożu krzemowym.

Nowa fabryka ma być operacyjna od 2025 roku
Read 5 tweets
Mar 5
NVIDIA. Część 1⃣

Plan
Część 1⃣: Wprowadzenie. Wyniki, komentarze i zapowiedzi podczas konferencji kwartalnej.

Część 2⃣: Infrastruktura / oferta #NVDA pod AI. Czyli co ma tworzyć fosę wokół biznesu spółki w AI.

Temat jest zbyt szeroki, by ująć to w jednej 🧵, więc dziś część 1
2/ Zanim Nvidia stała się TĄ Nvidią była „zwykłą” Nvidią.

Bardzo długo była to spółka eksponowana głównie na cykliczne segmenty: PC-ty i gry, z prawie niewidocznym w wynikach komponentem trendów strukturalnych

Zmiany przychodów 2009 (dołek GFC)-15:
🔹Branża: +48%
🔸Nvidia: +51%
3/ Pierwsza połowa poprzedniej dekady to eldorado dla spółek eksponowanych na urządzenia mobilne i nowy potężny trend związany ze smartfonami.

Nvidię w tym świetle trudno było uznawać za spółkę wzrostową.

Zmiana kursów gru’09 - cze’15:
🔹Branża (indeks SOX): +89%
🔸Nvidia: +14%
Read 31 tweets
Mar 3
W grudniu pisałem o tym, co może czekać obszar sekwencjonowania DNA w 2023, a konkretnie o maszynie Illumina: NovaSeq X, która może sprowadzić koszt badania 1 genomu z 600 do 200 USD 👇

Teraz krótkie spojrzenie, co o popycie na nią spółka mówiła przy okazji wyników kwartalnych.
Spółka twierdzi, że popyt na nowe rozwiązanie jest większy niż oczekiwała. $ILMN ma obecnie zamówienia na 155 systemów i kolejne 250 jest w zaawansowanym procesie negocjacji. W poprzednim kwartale było to odpowiednio 50 i 170.

Spółka planuje dostarczyć 300 urządzeń w tym roku. Image
Dobry ma być też feedback od klientów dot. ekonomiki czy łatwości użytkowania.

Ta druga kwestia ma pozwolić na obsługę urządzenia także przez osoby, które nie mają wykształcenia w genomice, co może odblokować pewne wąskie gardła, które przyczyniają się do wysokich cen tych usług
Read 4 tweets

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Don't want to be a Premium member but still want to support us?

Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal

Or Donate anonymously using crypto!

Ethereum

0xfe58350B80634f60Fa6Dc149a72b4DFbc17D341E copy

Bitcoin

3ATGMxNzCUFzxpMCHL5sWSt4DVtS8UqXpi copy

Thank you for your support!

Follow Us on Twitter!

:(