W zeszłym roku w listopadzie NVIDIA planowała wprowadzić na rynek nową kartę graficzna opartą na maszynowym uczeniu.
Wg danych udostępnionych w sieci Techpowerup ta karta powinna być 9% wydajniejsza niż GeForce RTX 4090.
Karta ta do dnia dzisiejszego nie ma żadnego dostępnego realnego zdjęcia w sieci lecz wyłącznie renderowane obrazy.
Na stronie NVIDIA jest dostępny 20 stronicowy krótki opis produktu NVIDIA L40 GPU Accelerator gdzie można np. doczytać iż jest ona zbudowana na kościach RAM 48GB GDDR6.
Koszt? W sieci na ten temat nic nie znalazłem. Jeżeli sugerowana cena detaliczna modelu RTX 4090 w dniu premiery wynosiła 10kPLN to jaki będzie koszt modelu L40 na dziś nie wiadomo.
Od lat pracuje w służbach utrzymania ruchu.
Im temat trudniejszy tym ciekawszy jeżeli nie ma presji czasowej.
Has specialization in: energetyk/automatyk
jotko wrote 980 posts with rating 219, helped 41 times.
Live in city mazowsze.
Been with us since 2008 year.
Co to za dziwne tłumaczenie ? Co to jest "SI grafika neuronowa" ?
Ta karta to jest zwykła AD102 z większą ilością rdzeni niż 4090, czyli według dotychczasowego nazewnictwa można się spodziewać, że będzie to 4090Ti(ewentualnie TitanRTX Ada, ale to miano ma chyba podobna karta).
Ani nie jest to najmocniejszy akcelerator obliczeniowy na rynku, ani nic nowego. Ot zwykła karta graficzna, tylko mocniejsza i droższa od RTX 4090. Najmocniejszym akceleratorem Nvidii jest obecnie zdaje się H100. A jeszcze mocniejszy ma chyba AMD nazywa się Mi250(tzn. mocniejszy w dokładniejszych obliczeniach, w SI pewnie słabszy).
Jedyne powiązanie z SI i sieciami neuronowymi jest to, że te karty posiadają już sporą ilość rdzeni, o bardzo ograniczonej dokładności obliczeniowej, przez co może byc ich sporo wieksza ilość na takiej karcie, co z kolei prowadzi do tego, że można bardzo wiele równolegle liczyć. Można też np. nimi sztucznie generować dodatkowe klatki, próbując przewidzieć pośrednie położenia obiektów na obrazie.
Można też np. nimi sztucznie generować dodatkowe klatki, próbując przewidzieć pośrednie położenia obiektów na obrazie.
Tylko mi się to wydaje chore? Zamiast rozwijać GPU i wygenerować te pośrednie klatki szybciej to dokłada się sztuczną głupotę aby te klatki generowała.
L40 to jest akcelerator obliczeniowy do zabudowy w kasetach RACK. Odpowiednik K20s, który też nie ma systemu własnej wentylacji a polega na obiegu wymuszonym wentylacji kasety. Porównuję do Tesli K20s bo to mniej więcej odpowiednik TITAN-a, jednej z najwydajniejszych kart graficznych w okresie po swojej premierze.
Wydajne karty Tesla M,K,A,... nawet w wersji z własnym wentylatorem/mi czyli do stacji roboczych zwykle kosztują w okresie premiery i po, przez kilka lat ~36k PLN. Dlatego ~40k PLN. za L40 jakoś nie odbiega cenowo od standardu.
Zastosowanie dużej pamięci RAM jest normą w rozwiązaniach maszynowego uczenia, 48GB to nie jest nieprawdopodobna pojemność odnosząc to do liczby kanałów układu GPU/NPU. Rdzeń AD102-895² to nadal klasyczny rdzeń bardziej GPU jak NPU a uczenie maszynowe oparte jest o programową a nie sprzętową implementację sieci neuronowej. Dlatego dokładność obliczeń a przede wszystkim ich sposób nie będzie odbiegał od typowych Tesli. Nie jest to specjalnie zaskoczeniem gdyż centra danych otrzymują najróżniejsze zadania. Nie tylko związane z uczeniem maszynowym.
Neuronowe akceleratory obliczeniowe oparte o dedykowane sprzętowe rozwiązania to dopiero przyszłość. W grach sprawdzą się jak najbardziej choćby z powodu zupełnie innego, znacznie lepszego sposobu kompresji tekstur. W tym przypadku "kompresja" jest pojęciem mocno nieprzystającym do realiów bo mechanizm w jaki tekstury są kompresowane nie opiera się na kompresji bezstratnej a nawet stratnej ale na nauczeniu sieci tekstur a dekompresja polega na wywoływaniu na wejściu sieci skojarzeń . To oznacza, że będzie szybciej, znacznie szybciej!
Feralne wtyczki do kart NV to temat rzeka. Zaczynając od niezdecydowanych co chcą zrobić użytkowników, którzy potrafią celowo luzować gniazda złącza po to by "lepiej wchodziło", nie dociskając złącz, nie mogąc się zdecydować jak to ma być połączone a tym samym wykorzystując górny limit ~30 przyłączeń. To i tak lepiej jak możliwość ponownego wkręcenia zdemontowanych szpilek dociskających głowice silnika spalinowego .
Swoje w awaryjność dokładają producenci zasilaczy, którzy mają poważny problem z podwykonawcami zaciskającymi pojedyncze złącza żeńskie na przewodach. Nie oszukujmy się, większość zasilaczy ATX to jest gruz przy tak prądożernych kartach. Przede wszystkim chodzi o odpowiedź impulsową linii +12V a nie zastosowanie np. kondensatorów firmy takiej lub śmakiej. "Okablowanie modularne" to wręcz proszenie się o kłopoty. Według mnie zaistniałych katastrof jest i tak mało jak na tak wspaniałe możliwości .
Skończywszy na samej NV, która zbyt optymistycznie podeszła do tematu, zakładając, że pozostałe elementy tego łańcucha są na właściwym poziomie.
Sama wtyczka elektrycznie pozostawia wiele do życzenia pod względem konstrukcji, grubości pinów. Nie tyle chodzi o prąd maksymalny jaki może bezpiecznie przewodzić pojedyncze połączenie ale o wielkość powierzchni styku zarówno pojedynczy wtyk-gniazdo jak i wtyk/gniazdo-PCB/przewód. Dlatego, że wyprowadzenia posiadające niezerową rezystancję poprzez połączenie PCB/przewód rozpraszają ciepło. W symulacjach wyszło to dobrze a w praktyce jak zwykle.
W przypadku kaset RACK gdzie będą instalowane L40 z całą pewnością nie będzie motania się z układaniem wiązek przewodów i wynikającymi z tego przepinkami karty. Ktoś kto widział jak wyglądają serwerowe wiązki ze złączami do podpięcia akceleratorów obliczeniowych z płytami głównymi wie o czym napisałem.
Sama wtyczka elektrycznie pozostawia wiele do życzenia pod względem konstrukcji, grubości pinów. Nie tyle chodzi o prąd maksymalny jaki może bezpiecznie przewodzić pojedyncze połączenie ale o wielkość powierzchni styku zarówno pojedynczy wtyk-gniazdo jak i wtyk/gniazdo-PCB/przewód. Dlatego, że wyprowadzenia posiadające niezerową rezystancję poprzez połączenie PCB/przewód rozpraszają ciepło. W symulacjach wyszło to dobrze a w praktyce jak zwykle.
Myślę że ten problem wynika wprost z głupoty i oszczędności, jak zobaczyłem to złącze to stwierdziłem że trzeba być szalonym by to puścić do ludzi, no mówimy tu o amperach a tu liczy się każdy miliom. Czy takie złącze nie podlega pod efekt lawinowy? Chodzi o to że złącze się nagrzewa, wzrasta rezystancja a to powoduje że jescze bardziej się nagrzewa aż osiąga bardzo dużą temperaturę i z górki wszystko się topi. Jestem za cienki by umieć to wyjaśnić ale też z chęcią bym wysłuchał kogoś mądrego w tym temacie.
Dostrzegasz absurd tego co napisałeś? 30 podłączeń, serio?
I to ma być wina użytkownika, a nie twórcy tego dziadostwa?
Ten absurd nie jest wymyślony przeze mnie i znam jeszcze sporo podobnych "absurdów" gdzie wiadomo ile razy można daną rzecz w określony sposób połączyć. Podałem przykład szpilek, długich śrub zespalających głowicę z korpusem silnika samochodowego. W tym przypadku po odkręceniu zwykle należy wkręcić nowy komplet dlatego, że połączenie skręcane jest także połączeniem tarciowym. Liczba możliwych bezpiecznych lutowań układów BGA waha się w okolicach 4. Bezpieczniki nadprądowe na szynę też mają dosyć skromną liczbę łączeń a gdy wymagane jest częste rozłączanie służy do tego rozłącznik bezpieczeństwa, który jest bardzo podobny do bezpieczników.
Faktem jest, że nie we wszystkich ani też w większości kart dochodzi do uszkodzenia nowego złącza, które zastosowała NVidia. Całkiem spora grupa użytkowników traktuje sprzęt komputerowy jakby dopiero oderwano ich od pługa. Pourywane elementy to jest codzienność serwisów a nie odosobnione przypadki.
2konrafal1993 wrote:
Myślę że ten problem wynika wprost z głupoty i oszczędności, jak zobaczyłem to złącze to stwierdziłem że trzeba być szalonym by to puścić do ludzi, no mówimy tu o amperach a tu liczy się każdy miliom. Czy takie złącze nie podlega pod efekt lawinowy? Chodzi o to że złącze się nagrzewa, wzrasta rezystancja a to powoduje że jescze bardziej się nagrzewa aż osiąga bardzo dużą temperaturę i z górki wszystko się topi. Jestem za cienki by umieć to wyjaśnić ale też z chęcią bym wysłuchał kogoś mądrego w tym temacie.
Jeżeli pytasz czy ja bym to puścił, to zdecydowanie nie, optymiści . Konstrukcyjnie ma to sens choćby z powodu skrócenia pętli zasilania oraz łączenia karty z zasialczem w jednym miejscu. To ma znaczenie od strony równomiernego rozpływu energii po PCB.
Większym zagrożeniem od wzrostu rezystancji są mikroiskrzenia na połączeniu. To powoduje erozję materiału i jeszcze większe problemy ze stykiem co powoduje nagrzewanie i jeszcze większe mikroiskrzenia. Wypalanie się połączeń między płytą główną a ekranem w laptopach ma podobny charakter.
Jeżeli pytasz czy ja bym to puścił, to zdecydowanie nie, optymiści .
No właśnie optymiści, jestem tylko amatorem ale znam jedną zasadę nic nie projektuje się na styk i nigdy nie zakłada się optymistycznego scenariusza.
Przypomina mi się tylko że oryginalne złączki wago są przystosowane dla prądu powiedzmy 16A ale różne testy mówią jasno że są w stanie wytrzymać nawet 32A bez uszkodzeń, jest to zrobione z zapasem i ma dawać radę nawet gdy warunki pracy są ciężkie. Możliwe że uszkodzenia nastąpią przy takim prądzie po jakimś czasie ale za to mamy pewność że nominalne 16A nie sprawi kłopotu.
Tutaj większym problemem jest prąd impulsowy o dużych zmianach wartości i pasożytnicze indukcyjności. Na długość oraz jakość przewodów w zasilaczach ATX nie ma standardów. Te same problemy były w prądożernych kartach ze standardowymi złączami zasilania. Na 30cm wiązce przewodowej + złącze bywało np. 2.2V spadku napięcia czyli na karcie nie było +12V.
Obecnie wszystkie przewody zasilania są w dużych obudowach poukrywane, ciągnięte za płytą montażową płyty głównej. To oczywiście wydłuża połączenia. Dzieje się tak bo obecnie jest moda na podświetlenie RGB i tego typu ficzery oraz "experten" opowiadają bajki z mchu i paproci jakoby kilka wiązek przewodów miało zadusić przepływ powietrza w obudowie. Biedne, głupie istoty widocznie nigdy nie widziały kaset serwerowych albo stacji roboczych i tak sobie plotą te zabobony. Jak dodamy do tego estetów, którzy przepadają za zasilaczami modularnymi by nie plątały się niewykorzystane wiązki to mamy prosty przepis na to co się dzieje.
W mojej opinii nic nie stało na przeszkodzie by wprowadzić rozwiązania od dawna stosowane w serwerach gdzie za pomocą złącza krawędziowego, listwy można bez problemów przesłać i 120A/+12V. Nadmienię, że zasilacz serwerowy jak najbardziej komunikuje się z płytą główną czyli było to co leżało u podstawy zmian jakie wprowadziła NV. Ale to byłoby za proste . Widocznie w jej dziale rozwojowym pracuje za dużo elektroników a za mało elektryków i dlatego to tak mocno przekombinowali.
Ale to byłoby za proste . Widocznie w jej dziale rozwojowym pracuje za dużo elektroników a za mało elektryków i dlatego to tak mocno przekombinowali.
Organizacja ktora stoi za tym złączem opisała to w skrócie " my daliśmy wam dobre złącze i zalecenia a co wy zrobiliście to wasz problem" każdy kto jest powiązany z tematem umywa ręce i każdy gada że robił spoko robotę do tego "niezależni eksperci" twierdzą takie banialuki że głowa mała od razu wiadomo że są opłaceni. Jeden z tych ekspertów stwierdził że złącze jest ok ale połączenie pinów i kabli nie jest ok bo jest lutowane, połączenie które ma bardzo niską rezystancję jest złe ale jakieś masowe zagniatanie to według niego dobra jakość. No i mówił że cyna się topi, no to tylko pokazuje jak ogromne temperatury osiąga to marne złącze. Temat mnie śmieszy bo karty drogie a takie niespodzianki.
Rozbija się o zrobienie gniota i zwalanie winy na klientów. Jakoś stare złącze można było wpinać, wypinać i żyło całe lata bezproblemowo.
Jakoś dziwnie karta, chociaż to tylko render, ma stare złącze.
Niezbyt rozumiem co ma na celu ta energiczna obrona ewidentnej wpadki.