Elektroda.pl
Elektroda.pl
X
Sonel MPI 540Sonel MPI 540
Proszę, dodaj wyjątek dla www.elektroda.pl do Adblock.
Dzięki temu, że oglądasz reklamy, wspierasz portal i użytkowników.

Ogólnie o trybach pracy kart graficznych.

17 Wrz 2011 10:30 2531 24
  • Poziom 23  
    Witam po dłuższej przerwie, w czasie której całkowicie wypadłem z obiegu w temacie komputerów.
    Pytanie mam natomiast takie. Gdzieś obiło mi się o uszy, że nowe płyty potrafią wyłączyć kartę gdy nie jest ona potrzebna i przełączyć się na zintegrowaną kartę na płycie. Zatem proszę o jakieś bliższe szczegóły, bo nawet nie wiem czego szukać.
    Jakie to płyty, AMD czy Intel, a może to bez znaczenia?
    Darmowe szkolenie: Ethernet w przemyśle dziś i jutro. Zarejestruj się za darmo.
  • Sonel MPI 540Sonel MPI 540
  • Poziom 23  
    Praca 2d - integra, 3d grafika w pci-e bierze się za robotę, wiem że jest coś takiego.
    Pytam o szczegóły, nie potrzebuję złośliwości.
  • Pomocny post
    Admin grupy komputery
    Pomyśl logicznie. Skoro monitor jest podłączony do dodatkowej karty graficznej, to płyta gł. nie ma możliwości wysłać obrazu przez kartę zintegrowaną.
    Może czytałeś o funkcji PhysX, gdzie dodatkowa karta graficzna może wspomagać główną...

    Podaj źródło informacji.
  • Sonel MPI 540Sonel MPI 540
  • Poziom 23  
    Nie PsyhX, PsyhX znam.
    Nie mogę podać żródła, gdybym je znał nie pytałbym, prawda?
    Właśnie miało to być tak, że monitor jest pod kartę pci-e podpięty, a jeśli nie jest potrzebna praca tej karty, to robotę przejmuje integra na mobo.
    Jest takie coś na 100% ale nie znam szczegółów bo wypadłem z obiegu, a teraz zmieniam kompa i bardzo by mi się ta wiedza przydała.

    Chyba o to mi chodzi ale w stacjonarce.
    http://www.nvidia.pl/page/hybridsli_notebook.html
  • Pomocny post
    Poziom 41  
    Tak też o tym słyszałem. Monitor podłącza się do płyty a zwykła karta graficzna wysyła obraz rzez płytę. Niestety szczegółów nie znam. Jest to jakiś patent koncepcyjny, bo żadne obecnie produkowane karty tego nie obsługują - chyba.
  • Pomocny post
    Poziom 42  
    To działa, ale w laptopach. W moim ASUS'ie przy pulpicie używana jest zintegrowana z procesorem karta graficzna, a w grach i bardziej wymagających programach karta dedykowana. Tak więc coś takiego istnieje, ale w komputerach desktop chyba (jeszcze?) nie jest stosowane.

    Hybrid SLi to wspomaganie pracy karty dedykowanej przez zintegrowaną. Jakiś to związek z tym o czym mówimy ma, ale to nie to.

    Niestety źródła podać nie mogę również (internet jeszcze milczy na temat nowych laptopów ASUS), ale wydaje mi się, że tak jest ze wszystkimi laptopami z procesorami Intel SB wyposażonymi w karty dedykowane.
  • Poziom 12  
    A nie chodzi przypadkiem o zwykłe przełączanie trybu 2d>3d jak sie gry uruchamia i na odwrót? W rivatuner jest taka opcja przy oc ustawiamy zegary dla trybu 2d i 3d.
    I integra nie ma nic do tego
  • Pomocny post
    Poziom 16  
    Wojtek(KeFir) napisał:
    Tak też o tym słyszałem. Monitor podłącza się do płyty a zwykła karta graficzna wysyła obraz rzez płytę. Niestety szczegółów nie znam. Jest to jakiś patent koncepcyjny, bo żadne obecnie produkowane karty tego nie obsługują - chyba.

    Zapewne chodzi o Lucid Virtu ;) Karta graficzna ("zewnętrzna") nie musi tego obsługiwać, ważne, aby chipset płyty głównej (i karta zintegrowana) to potrafiły. Nieco więcej jest np. tutaj:
    http://www.bit-tech.net/hardware/motherboards/2011/05/13/what-is-the-intel-z68-chipset/3
    http://www.lucidlogix.com/product-virtu.html

    BTW. w komputerach stacjonarnych nie widzę większego sensu wykorzystywania tego "patentu", obecne generacje kart graficznych mają świetnie rozłożone "biegi" i tak np. podczas nic nierobienia (w idle) taki GTX 460 ma pobór ~25W.
  • Pomocny post
    Poziom 42  
    twistpl napisał:
    A nie chodzi przypadkiem o zwykłe przełączanie trybu 2d>3d jak sie gry uruchamia i na odwrót? W rivatuner jest taka opcja przy oc ustawiamy zegary dla trybu 2d i 3d.
    I integra nie ma nic do tego


    To jest całkiem inna sprawa. Przeczytaj dokładnie pierwszy post.

    Mr.S. napisał:
    Zapewne chodzi o Lucid Virtu :wink:

    To coś w ten deseń, ale nie chodzi o to. To o czym mówiłem to jakaś technologia Intel lub Nvidia. U mnie w laptopie nic o Virtu nie ma, a przy włączaniu programu mam opcję uruchomienia go przy użyciu zintegrowanego układu graficznego Intel HD Graphics lub akceleratora Nvidia GT540m.

    Ok, znalazłem - to technologia NVidia Optimus. Wyłącza kartę dedykowaną gdy wystarczającą moc może dostarczyć zintegrowana karta graficzna.
  • Pomocny post
    Poziom 16  
    daavid117 napisał:

    To coś w ten deseń, ale nie chodzi o to. [...]U mnie w laptopie nic o Virtu nie ma, a przy włączaniu programu mam opcję uruchomienia go przy użyciu zintegrowanego układu graficznego Intel HD Graphics lub akceleratora Nvidia GT540m.

    W laptopach jest to Nvidia Optimus, w przypadku układów AMD póki co należy korzystać z przełącznika na obudowie laptopa. W komputerach stacjonarnych nazywa się to właśnie Lucid Virtu ;)

    Edit:
    Widzę, że jak pisałem powyższe to już znalazłeś ;)
  • Poziom 23  
    Dziękuję kolegom daavid117 i Mr.S.
    Dokładnie o to mi chodziło ;) Teraz poszukam szczegółów, może coś znajdę do stacjonarnych. Właśnie z moich zasłyszanych informacji wynikało, że karta graficzna nie musi potrafić tego cuda obsługiwać (a mam gtx285) jedynie chipset, więc to by mi pasowało, bo nie zmieniałbym mojej grzałeczki ;)
    No i ma to sens dla mnie, bo moja grzałeczka nawet w 2d ma spory apetyt na prąd, więc gdyby została odłączona to by mi bardzo odpowiadało. Komputer w zasadzie działa u mnie non stop, a rzadko dość pracuje w 3d.
  • Poziom 32  
    user64 napisał:
    No i ma to sens dla mnie, bo moja grzałeczka nawet w 2d ma spory apetyt na prąd, więc gdyby została odłączona to by mi bardzo odpowiadało. Komputer w zasadzie działa u mnie non stop, a rzadko dość pracuje w 3d.


    GeForce GTX 280 potrafi działać w czterech trybach: idle/2D, gdy karta pobiera zaledwie 25 W, odtwarzanie filmów DVD lub Blu-ray (35 W), 3D (tu już maksymalnie 236 W) oraz HybridPower (w połączeniu z odpowiednią płytą z chipsetem nForce ze zintegrowanym GPU), gdy GeForce GTX 280 może być wyłączony i nie pobierać w ogóle prądu – przy mało obciążających zadaniach wykorzystywany będzie GPU zintegrowany w chipsecie płyty głównej.

    Ty masz 285 więc pobór jest niższy o jakieś 5-10%. Moim zdaniem bez sens. Poza tym jeśli się nie mylę to nVidia wyłączyła w najnowszych sterownikach wsparcie dla HybridPower w komputerach stacjonarnych (potrzebne źródło).
  • Poziom 23  
    Dziękuję za opinię kolego Lukson, aczkolwiek nie zgadzam się z nią. O ile dane oparte na podstawie życzeń producenta są jasne, o tyle samo jasnym być powinno iż często te dane mają się nijak. Realnie w 2d moja karta potrzebuje około 45-47W i jest to wartość o którą chcę walczyć.
    Proszę kolegów o propozycję sensownych płyt wspierających Hybrid Power, bo resztę trzeba odłożyć w tej chwili na bok. Może kiedyś to wejdzie w użycie.
  • Pomocny post
    Poziom 16  
    Cytat:
    Proszę kolegów o propozycję sensownych płyt wspierających Hybrid Power, bo resztę trzeba odłożyć w tej chwili na bok. Może kiedyś to wejdzie w użycie.

    Z HybridPower Nvidia już dawno zrezygnowała, obecnie, choć mylnie nazywa się tak w komputerach stacjonarnych stepingowanie napięć i taktowania -to o czym wyżej pisaliśmy.
    Lucid Virtu obecnie wspierają wszytskie płyty z chipsetem intela Z68. Niema ich za wiele i są diablo drogie.

    Cytat:
    Realnie w 2d moja karta potrzebuje około 45-47W i jest to wartość o którą chcę walczyć.

    Możesz podać jaka to karta? Tak jak wyżej pisałem, przykładowy GTX 460 w idle potrzebuje około 20W. Nie da się określić ile co do wata, ale można wystarczająco dokładnie. Obecnie przyjęło się robić pomiar zestawu na karcie zintegrowanej w stresie i w idle a później tego samego z wybraną karta graficzną, za pobór karty przyjmuje się otrzymaną różnicę.
  • Poziom 23  
    Oczywiście, to taka karta http://www.chip.pl/testy/podzespoly-pc/karty-...-285-oc-1024mb-gddr3/specification?switch_t=t Czyli BFG GTX285 OC.

    Ja mam inny sposób pomiaru, mam panel mierzący zapotrzebowanie grafiki i sprawdzałem go czy wskazuje poprawnie.
    http://www.yooki.pl/index.php?p4482,miernik-zuzycia-mocy-gpu-zalman-zm-vpm1-modul-dodatkowy

    Na płyty z z chipsetem intela Z68 mnie nie stać, choć może bardziej byłoby na miejscu napisać, że nie zamierzam aż tak drogiej kupować ;)

    Hybrid Power byłoby wystarczające dla mnie.
  • Pomocny post
    Poziom 32  
    Napisałem, że nVidia zrezygnowała ze wsparcia HybridPower. Oznacza to, że płyty które posiadały taką funkcję fizycznie nie uruchomią ją już programowo!!!
    Ten problem był już poruszany na kilku forach i tutaj chyba też.

    Odkładając 30gr dziennie (o ile komputer pracuje tyle co mój czyli 14h dziennie) zaoszczędzisz aby zapłacić rachunek za prąd. W skali roku daje to 95zl.
    Wymiana sprzętu jest nie adekwatna do osiągniętego wyniku.

    Tak poza tematem. Nie kupuję się hi-endowej karty graficznej aby potem oszczędzać na prądzie. To tak jakby kupić sobie Impreze i postawić ją w garażu bo nie ma się pieniędzy, żeby ją zalać.

    A ten miernik Zalmana można sobie w buty wsadzić bo nie mierzy poboru gdy karta jest w trybie low-power/idle i nie pobiera napięcia z 6-pin PCI-E a tylko z samego gniazda PCI-E 16x.
    Jedyne miarodajne urządzenie to miernik wpinany pomiędzy zasilacz a gniazdko.
    Należy jednak wziąć pod uwagę to, że ten miernik liczy prąd zmienny a zasilacz daje stały. I zużycie jest zależne od sprawności zasilacza.
  • Poziom 23  
    Cytat:
    Oznacza to, że płyty które posiadały taką funkcję fizycznie nie uruchomią ją już programowo!!!
    Ten problem był już poruszany na kilku forach i tutaj chyba też.

    Pomyślałem, że zawsze można skorzystać ze starszych sterowników, być może za bardzo kombinuję i to też nie zda egzaminu.
    Cytat:
    Odkładając 30gr dziennie (o ile komputer pracuje tyle co mój czyli 14h dziennie) zaoszczędzisz aby zapłacić rachunek za prąd. W skali roku daje to 95zl.
    Wymiana sprzętu jest nie adekwatna do osiągniętego wyniku.

    Pozwól, że to już sam ocenię, ok?
    Cytat:
    Tak poza tematem. Nie kupuję się hi-endowej karty graficznej aby potem oszczędzać na prądzie. To tak jakby kupić sobie Impreze i postawić ją w garażu bo nie ma się pieniędzy, żeby ją zalać.

    Przeznaczenie tej karty było inne początkowo i teraz pracuje w komputerze non stop, a początkowo nie brałem tego pod uwagę, bo pracowała w innym kompie i do innych zastosowań.
    Cytat:
    A ten miernik Zalmana można sobie w buty wsadzić bo nie mierzy poboru gdy karta jest w trybie low-power/idle i nie pobiera napięcia z 6-pin PCI-E a tylko z samego gniazda PCI-E 16x.

    Mylisz się ;) zajrzyj na stronę zalmana i zapoznaj się z pdf-em, zobaczysz co mierzy. Nie wiem jak wyobrażasz sobie pomiar z gniazda na płycie? ;)
    Miernik sprawdzałem z watomierzem i pomiar był bardzo zbliżony. Watomierz 44,8W a Zalman 45W pokazywał. Przy trybie 3D wynik był identyczny w obu urządzeniach.
  • Admin grupy komputery
    Lukson napisał:
    Jedyne miarodajne urządzenie to miernik wpinany pomiędzy zasilacz a gniazdko.

    user64 napisał:
    Nie wiem jak wyobrażasz sobie pomiar z gniazda na płycie?


    Nie ma tu słowa o gniazdkach na płycie. Miernik wpina się między zasilacz a gniazdko 230V i to faktycznie najlepszy rodzaj pomiaru.
    Inna możliwość - odpięcie wszystkich urządzeń w domu od zasilania, pozostawiasz tylko komputer i monitor, po czym spisujesz licznik i sprawdzasz zużycie.
    W sklepach i na allegro są też dostępne liczniki wpinane w skrzynkę bezpiecznikową, można dzięki temu kontrolować dokładnie zużycie danej linii w domu, np:
    http://www.technikadladomu.pl/1-fazowy-wskaznik-zuzycia-energii-elektrycznej-or-02y.html
  • Poziom 32  
    Czytałem PDF tego urządzenia. Gdybym się z nim nie zapoznał nie napisałbym, że można sobie go potłuc o pośladki.
    Nie wiem skąd on bierze taki wynik biorąc pod uwagę, że karta jest zasilana z 2 miejsc a w przypadku trybu idle tylko ze slotu PCI-E.
    Nie wiem jak inżynierowie Zalmana to wyliczyli.

    Napisałem, że najbardziej miarodajny jest miernik zasilacz <-> gniazdko. Tak niestety jest i nic tego nie zmieni. Pierw mierzysz pobór samego zestawu bez grafiki a potem dodajesz kartę i masz wynik ile karta pobiera.
    Skoro wszystkie serwisy w recenzji GTX 285 pisali, że pobiera 20-30W gdy nie działa (tryb idle) to nie wiem skąd nagle Twoja bierze 40-50W.
    Nawet EVGA GTX285 SSC (prawie najbardziej podkręcony GTX) ma taki sam niski pobór.
  • Poziom 23  
    Mierzyłem i pisałem już dawno, że mierzyłem, nie będę dalej się spierał bo nie jest to istotne. Możemy jeszcze task długo, tylko po co?
    Hybrid Power mnie interesuje, skupmy się na tym, ok?
  • Poziom 23  
    Wiem, wiem i wiem, no ileż można?
    Pytam, czy starsze drivery które nie są zablokowane coś dadzą.
    Albo, wiecie co, darujmy sobie, bo widzę, że prócz bezpodstawnej krytyki to nic nie uzyskam.
    Nie dotyczy to kolegów Daavid117 i Mr.S. Ci koledzy zasługują na miano prawdziwych elektrodowiczów i szukają rozwiązań na niemożliwe (a o to przecież chodzi).
    Reszta z Was, koledzy, utyka w podawaniu wciąż tych samych linków i argumentów i oklepanych zwrotów. A ja szukam świeżego spojrzenia w temat i kombinowania.
    Dzięki.
  • Poziom 32  
    Widzę, że kolega jest oporny na wiedzę i ciężko zrozumieć że HybridPower nie będzie działało.
    Z innego serwisu internetowego:
    Cytat:
    Unfortunately, it seems that HybridPower has no future on the desktop. The new GeForce GTX 285 and 295 don't support it...


    Nawet jeśli kupisz sobie płytę (nie chce mi się szukać listy) to jak znam życie tylko pod AMD i na dodatek nie odpalisz sobie HybridPower bo w trakcie gdy ta funkcja była dostępna nie było kart z serii GTX2xx i nawet nie zainstalujesz sobie starszych sterowników żeby odpalić ten tryb.
    Dlaczego?? BO KART Z SERII GTX2xx NIE BĘDĄ OBSŁUGIWAŁY!!!

    HybridPower i GeforceBoost działa tylko z serią 9 i to dokładnie z 9800GTX (GTX+ też już nie obsługiwał tej funkcji).

    HybridPower to powalony wymysł inżynierów nVidii, który powstał nie wiadomo po co.
    Działał tylko z Hi-Endową kartą na badziewnej płycie.

    A co do kolegów Daavid117 i Mr.S. to niech pierw się doczytają zanim zaczną udzielać porad.
  • Poziom 42  
    Lukson napisał:
    A co do kolegów Daavid117 i Mr.S. to niech pierw się doczytają zanim zaczną udzielać porad.
    Tobie kolego radzę doczytać jednak moje posty, bo nigdzie Hybrid Power nie doradziłem. Wyjaśniłem tylko o jaką technologię chodzić może. Doczytaj więc zanim zaczniesz kogoś oskarżać, bo Nvidia Optimus stosowane jest z powodzeniem w urządzeniach przenośnych i jest to technologia pokrewna z Hybrid Power.