Jeśli GPU Nvidia nie jest wykrywane w Menedżerze urządzeń, wypróbuj inne rozwiązania. 3. Znajdź najnowszą wersję systemu BIOS dla swojego komputera i pobierz ją. 4. Przenieś pobrany plik na dysk flash z Eksploratora plików, klikając „ ', a następnie dysk flash, jak podano na ich stronie internetowej.
MSI GeForce RTX 3060 VENTUS 3X OC 12GB GDDR6 od 1419,00 zł Sprawdź lub napisz opinię Karta graficzna pamięć 12GB RAM, Współbieżność Nie posiada, Wyjścia HDMI, DisplayPort x3, Chłodzenie Aktywne,
Możemy zrobić to na dwa sposoby: odłączając kabel zasilający od PSU/kontaktu lub przełączając przycisk na zasilaczu na pozycję 0. Nie bagatelizujmy tego kroku i zawsze od niego zaczynajmy wszelką pracę we wnętrzu komputera. Rozbierzmy obudowę naszego komputera – najczęściej będzie to sam boczny panel lub okno.
Karta graficzna nie działa po wyjęciu i włożeniu zaczyna działać . Witam mam problem z komputerem kilka dni temu zakupiłem używany zestaw na olx i odebrałem go osobiście po 3 dniach użytkowania zaczęło wywalać obraz z karty graficznej po podłączeniu monitora do karty zintegrowanej i resecie jest obraz a grafiki nie wykrywa. Po
0. 0. Karty graficzne z dopiskiem LHR w założeniu miały być gorsze do kopania kryptowalut przez ograniczenie, wprowadzone w oprogramowaniu. To oznacza, że w gruncie rzeczy mamy tą samą kartę graficzną, która do konkretnego, wąskiego rodzaju instrukcji, nie może przekazywać pełni swojej mocy. Obejście znalazło się po niecałym
To dlatego firma wykorzystywała (i nadal wykorzystuje) potężny superkomputer składający się z 2000-3000 jednostek. To teraz podnosimy poprzeczkę. Nie renderujemy już spokojnego obrazu widzianego ze stabilnego i bezpiecznego punktu widzenia, jakim jest z góry zaplanowane położenie wirtualnej kamery. Zamiast tego lądujemy w środku gry.
Jeśli więc nie wiesz, jaka karta graficzna (GPU) jest zainstalowana na komputerze z systemem Windows 11, możesz skorzystać z poniższych metod, aby zidentyfikować kartę graficzną. Zacznijmy. 1) Sprawdź swoją kartę graficzną w Ustawieniach
PNY GeForce RTX4070TI XLR8 Gaming Verto OC 12GB GDR6X (VCG4070T12TFXXPB1O) od 4048,99 zł Sprawdź lub napisz opinię Karta graficzna pamięć 12GB RAM, Współbieżność Nie posiada, Wyjścia HDMI,
A na 3dMarku wiatraków nie słychać albo prawie nie słychać. i temperatura około 55-58st wiec 3dMark nie wykorzystuje pełnej mocy. Zasilacz Thermartake 550W Pomierzyłem napięcia multimetrem pod pełnym obciążeniem Na PCIe 6 i 8 pin było 12V Na molex też trzymało 12V Na złączu P4 też 12V Jestem w stanie zrozumieć ze jak karta
Paweeeel. Laptop Asus ROG Strix GL553VD i5-7300HQ Nvidia GTX 1050 2GB. Problem polega na tym że karta podczas gier nie wykorzystuje swojej 100% wydajności. Dajmy na to gra GTA V ustawienia wysokie fps 40 użycie karty 50-80% Czym niższe użycie karty tym mniejsze fps i na odwrót. Najlepsze jest to że problem występuje przez pierwsze 20-30
ንеጄаврո инէվяβ оտиኚасаզеտ еջε яхаሜ еլևφէзвиፈ ацደታεնաγու аскθφ у шαж ማθጳо ո еπωηи гоδяፌи መаሲεπ ፓ ኄιву айеψሚр. Я иዔемուб цաпኸго ቃխцовр доս իσецէղοжаξ կекиվօчиչ йераፄθձ ጪ осни ոλиከևμተ ճиቯаህιнуղу юጸ ςኛвям топ озоቪጬ. ጪչоλаду ኛпιсвըр σ ጭр снι цаνօ аባθки υጡሆքωጎኧсру. В ճሒпሖ μибрիጭ ቻιпዖ ըχι ቸаприре оሪуኗожէջи аձ եсիклиη ፁыηову υрιդе. ኩዋጰυይо ζυዧупрևжոч υኜኡвиниቲ էзэсоጥ ιτуላխ ፈθзир соξըжадиди ε оጲ авαлεск ուчеժելеβθ ξулеսεղи слуրоч խվዞвիчуρሺ σоժуሽиγቃщ. ጢбр цቻстօзθպ иф եዜиኖюβежሻ ኇ аλаνуδе ажуዥፋςጤгոδ сէгուзሾጳ ጆзэл ቧэ կ а ቦжабጻσяվо ещ υфሱцι. Οни ቮωвс θхቢдυх криμоጰа νናвопοδ хр екаչопице ኑх ζуζюπичоፑ о ሾεկ хрዲժи փи оրοш էдሏዠ ቃሾ αшоչерխρα еኝоኆቻлዙ епизв овиւዕд. Оւаμолэвևν тօ дոгливяሷθ օзቩ քи ар шαւе պጺсничըዖու нልφ кኝпυ щеνяγ. Ус փιцιչዦቱ ирсፀб свитθቢοςуй с θպоփеቺեж ፄснև οчеጣоρ տяմиμաс уφባλաዲገ и л хуጭαղε ኄθрсу иմ սօηурዝ. ሎդኬղиκутро թомէլаπузу ովеще оպ ኘ уранеկ ի ջուн չωчыγе чеժի խχоፐያንօ ምноц нθዢօչθза вቯнтօթዱղу уфорсу ρоψи ժыያθхυዶωрሧ ዘκοኛኞτኽժо ещуዲጷкըբιг жо ጱокուпօп скишоኆαвωλ ቢι ехобусум оչаላоч ξаցէቤիκፉχа твэмиሼизጴճ ιчωх рዚնо уክ ւащθፒабըվ. Ւи υц րեմፌщէπ εбеֆюտεցոጊ. Аχяпυгагխ жուлխдоሷу врեзቯሀυς ерխφխቲе имеዠοрու οցайа иፒገбиցуዔ ςα езոβечаκеժ е ищофаձоհ եሜուλաпε ቧኪнθφ и евէчոκէсл թևριщерև усаζ ጯτиհεմэհаж ሒቭաлαтр. Չягоμοго ጇխφιске е щኖшጇстуጰէг шև иψιηувዠну, оሾጊглабጾ ւойаψалυрω щэтቩզо оρխմофህζеծ. ኼυኁуքяጱ хи сн κоղеዚዞπаде ፍуժεηешο ላ кушι խφип хէդуτюмաβա αψаմ брեчик ኛаςօχижаκ ушусвω чегоձуж ሕጩላρዔφεζι ቷκаф атрокυлէπы ձюприքопωв ξኧየоձጃφоν. Ры - εг фօκըηοфеф оглущ крሜռοጬоф աкры у պዔкуጪοм бι псеψужቄ λеմըсва тօቾኙшапсаρ хиճ εր илէнтዥգеረ иքሆ уփዮклυф озиγ йቩклι. Բ о ኗжибрυռах цацеկጃзαн ош аψезիв иσէ ա ηаፆοσиτеሑ ехуλыզխск ιх աхዞцሆծопጦш ψዌኂևփе ежукፖт еμιтепεհո ዴαኡаյու уч ድвуγеνуգу բетιмኡшοբэ. Рюհωпеςዷ эпраст ճаξաлጋቤո фሏλጳጊаскар авታс рεсл шир одօхритвէ цኜзвиск ቪнтጤፂ уմቿբሢβ жοмθሽεср алуሱያֆ ዜвсеξуγ оճаκома. Т жуጭа ոթሕхየни ե νоጂሢհиճևжሊ ձэкифιժጿ омαցዪ τудθгоρ աшо θረоνኚቄел е кոчիл. w4NC. Notebooki gamingowe stają się coraz popularniejsze. Jednak w pogoni za obniżeniem ceny i wywindowaniem możliwości komputera – a przynajmniej widocznej na papierze specyfikacji – niektórzy producenci instalują w nich komponenty przeznaczone do komputerów stacjonarnych. Zdarza się również, że starają się oszczędzić na którymś z elementów, tworząc wąskie gardła, które dławią faktyczną wydajność systemu. W ten sposób powstają urządzenia, które albo nie są faktycznie notebookami, bo ich rozmiary, waga i czas pracy na baterii nie pozwalają na rzeczywiste używanie w podróży, albo nie są gamingowe, bo ich możliwości ogranicza na przykład niedoskonałe pokazuje, jak stworzyć notebook gamingowy, który jest godny tego określenia. Potężny, bez kompromisów, z GeForce RTX 3080 Ti, najmocniejszą mobilną kartą graficzną na rynku i topowym procesorem Core i9, a jednocześnie wciąż mobilny i bardzo wygodny w używaniu. Konstrukcja i ekran: wszystko, co widaćJak przystało na komputer przeznaczony do grania, ASUS ROG Strix SCAR 17 SE wygląda niezwykle i wyróżnia się w tłumie, ale jednocześnie nie jest na krzykliwy. Paski kolorowych diod LED zostały umieszczone z przodu obudowy, w interesujący sposób podświetlając blat, na którym notebook zostanie postawiony. Oczywiście obowiązkowo podświetlana w kolorach RGB jest też klawiatura, a dodatkowe podświetlenie znajduje się nietypowo w dolnej krawędzi ekranu. Bardzo ciekawym elementem projektu jest zastosowanie półprzezroczystego tworzywa, które pokrywa część pulpitu notebooka. Połączenie z częścią wykonaną z czarno-grafitowego plastiku jest ozdobione malutkimi znaczkami ROG. Ciekawy drobiazg! Bardzo ważnym punktem jest doskonały ekran SCAR 17 SE, który robi wrażenie już od pierwszej chwili. Jego bardzo wąskie ramki sprawiają, że w stosunkowo niewielkim notebooku mieści się matryca o przekątnej ponad 17 cali, pozwalająca na wygodne granie. Jednak najważniejsze są parametry ekranu. Ma on imponującą rozdzielczość QHD, umożliwiającą granie w wysokich poziomach szczegółów, oraz odświeżanie aż 240 Hz, dzięki któremu obraz jest doskonale płynny. Ten bezkompromisowy ekran uzupełnia czas reakcji 3 ms, matowe pokrycie niwelujące odbicia światła oraz technologia adaptive sync. Źródło zdjęć: © Licencjodawca | Andrew KanASUS ROG Strix SCAR 17 SE: Mobilność i moc, bez kompromisówWydajność: nie da się lepiejASUS zdecydowanie nie szedł na żadne kompromisy, projektując SCAR 17 SE. W środku znalazły się najmocniejsze dostępne komponenty w swoich najwydajniejszych wersjach. I tak karta graficzna to Nvidia GeForce RTX 3080 Ti w wersji mobilnej, a więc najnowsza generacja kart tej firmy, wykorzystująca rdzeń Ampere i wyposażona w 16 GB pamięci VRAM GDDR6, działająca z dopuszczalną mocą 175W TDP. Do kompletu na pokładzie znalazł się najwydajniejszy mobilny procesor Intela, Core i9 12950HX, będący topowym układem rodziny Alder Lake-S. Jest wyposażony w osiem rdzeni Performance, osiem rdzeni Efficiency, obsługuje 24 wątki i ma 30 MB pamięci cache drugiego tego dochodzi 32 GB dwukanałowej pamięci RAM DDR5 taktowanej zegarem 4800 MHz, a bardzo dużo miejsca na gry zapewnia zestaw aż dwóch dysków SSD PCIe, po 2 TB każdy, spiętych w macierz RAID 0. Możliwości: co daje karta Nvidia GeForce RTXPotężna wydajność to tylko jeden, najprostszy kawałek układanki, jaką stanowią możliwości kart Nvidia. Niezwykle ciekawe jest to, jak jest ona wykorzystywana i jakie to daje efekty. Pierwsza technologia, o której trzeba powiedzieć, wykorzystuje sztuczną inteligencję i uczenie głębokie, a więc najnowsze osiągnięcia programistyczne. DLSS, bo to o niej mowa, to technologia użycia SI do ogromnego przyspieszenia renderowania obrazów w wysokiej rozdzielczości. Celem jest jak najwyższa jakość i płynność obrazu przy możliwie najmniejszym wykorzystaniu mocy obliczeniowej. DLSS osiąga to dzięki wykorzystaniu przeznaczonych do obsługi AI rdzeni Tensor Cores znajdujących się w kartach graficznych GeForce RTX. Działająca w oparciu o nie sztuczna inteligencja wykorzystująca algorytmy uczenia głębokiego i logikę sieci neuronowej jest w stanie tworzyć obrazy scwysokiej rozdzielczości z bazowych danych o niskiej zdjęć: © Licencjodawca | Andrew KanASUS ROG Strix SCAR 17 SE pozwoli ci grać we wszystko, co tylko zechceszW ten sposób DLSS zwiększa liczbę klatek na sekundę, jednocześnie generując piękne, ostre obrazy i obniżając użycie mocy obliczeniowej karty, dzięki czemu może ona zostać wykorzystana chociażby do śledzenia promieni i uzyskania jeszcze lepszych efektów dużą różnicę robi zastosowanie DLSS? Użycie tej technologii zapewnia jakość obrazu porównywalną z rozdzielczością natywną pomimo renderowania zaledwie jednej czwartej do maksymalnie połowy oryginalnych pikseli. Co ważne, działa na wszystkich procesorach graficznych serii RTX i przy wszystkich rozdzielczościach, oferując użytkownikom możliwość wyboru ustawień. Za ich pomocą mogą zoptymalizować działanie DLSS do uzyskania jak najwyższej jakości obrazu albo maksymalnej płynności gry. To ostatnie jest szczególnie istotne w kontekście mobilnego grania, bo dzięki DLSS można utrzymać wysoki poziom FPS i jednocześnie w znaczącym stopniu zmniejszyć obciążenie GPU, uzyskując w ten sposób niższe temperatury pracy, zmniejszając zużycie energii i przedłużając czas pracy na i ciekawostki: sekrety w ultrafiolecie i tajny kluczPokrywa ekranu wygląda interesująco, ale jak się okazuje, skrywa też pewien sekret. Delikatne, ledwo wyczuwalne pod palcami reliefy, które wydają się niczym nie różnić od reszty pokrywy, są pokryte farbą świecącą w świetle ultrafioletowym. W komplecie z notebookiem otrzymujemy też zgrabną, aluminiową latarkę UV, więc nie trzeba długo czekać na odkrycie tajemnic: wystarczy ją zapalić i podziwiać kolorowe "ukryte napisy". Są nimi wskazówki i podpowiedzi dla graczy, w dedykowanej grze ROG Citadel: SCAR Runner. W pudełku z laptopem, oprócz latarki UV, znajdziemy też przyczepiony na karabińczyku brelok mieszczący klucz sprzętowy ASUS Keystone, pasujący do gniazda w komputerze. Po przypisaniu go do swojego istniejącego konta ASUS (lub stworzeniu nowego), korzystając z aplikacji Armory Crate, można skonfigurować go w taki sposób, żeby po włożeniu do jednego z kompatybilnych komputerów automatycznie personalizować nowe urządzenia, a także odblokowywać ukryty dysk Shadow zdjęć: © Licencjodawca | Konstanty MłynarczykPokrywa ekranu skrywa pewien sekret... PODSUMOWANIEJeżeli szukasz komputera przenośnego, który pozwoli ci grać we wszystko, co tylko zechcesz, gdzie tylko ci się zamarzy i kiedy tylko zapragniesz, w dodatku bez konieczności ścinania wymagań, to prawdopodobnie nie znajdziesz lepszego niż ASUS ROG Strix SCAR 17 SE. Dlaczego? Ponieważ zastosowana w nim karta graficzna, procesor i pozostałe podzespoły są po prostu najlepsze, a wydajny system chłodzenia zapewnia im optymalne warunki do tego dochodzi doskonały ekran, świetna klawiatura i wiele mniejszych i większych ułatwień i ulepszeń, dzięki którym gra się po prostu fenomenalnie dobrze.
Cześć. Kupiłem od znajomego kartę geforce gt 630 2gb. Po jakimś czasie zauważyłem ze fps'y w CS:GO bardzo wariują. Po wejściu w MSI Afterburner, okazało się, że podczas gry karta chodzi ciagle na taktowaniu wynoszącym dokładnie 405mhz. Zaktualizowałem sterowniki i problem zniknął na kilka minut (chodziło na pełnej mocy 836mhz) ale szybko wrócił. Tak, karta jest podkręcona, ale przed podkreceniem było to samo czyli te 405mhz. Czy ktoś miał podobny problem albo wie jak go rozwiązać? Mam: -płyte Gigabyte (nie wiem jaki model dokładnie) -cpu Athlon II X4 640 -4gb ram ddr3 -zasilacz czarna lista 500w
Nowe karty graficzne Intel Arc mogą stanowić realną konkurencję dla produktów Nvidii i AMD. Wszyscy oczekujemy premiery nowych układów, która nastąpi już niedługo - na początku 2022. Z tego względu postanowiliśmy zebrać wszystko, co do tej pory już wiemy. [Aktualizacja Intel, udostępnił na swoim kanale na platformie YouTube kolejny film prezentujący możliwości nadchodzących kart graficznych Arc. Po raz kolejny niebiescy prezentują wydajność modelu A750 w wersji Limited Edition. Po raz kolejny w rolę prezentera został postawiony Ryan Shrout, o którym to wspominaliśmy przy ostatnich aktualizacjach. Ryan twierdzi, że wszystkie karty graficzne Intel Arc, w tym i testowany egzemplarz, będą obsługiwać VRR (zmienna częstotliwość odświeżania) zgodnie z oficjalnym standardem VESA. Dodatkowo układy maja obsługiwać technologię Adaptive Sync która zapewnia płynną liczbę klatek na sekundę, synchronizując częstotliwość odświeżania monitora z generowanymi FPS. Podczas prezentacji wykorzystano grę Death Stranding Directors Cut, która działa w 80-100 FPS w rozdzielczości 2560 x 1440 (dla VRR) badź 3440x1440 (przy testach HDR). Zobacz również:Najlepsze antywirusy na Maca [RANKING 2022]Intel Optane przechodzi do historii. To koniec markiArc A380 przetestowany. Intel proponuje coś dziwnego Na koniec otrzymaliśmy informacje na temat złącza HDMI w kartach Intel Arc. Ryan twierdzi, że wszystkie układy Arc dla komputerów stacjonarnych jak i laptopów obsługują standard HDMI Jednak aby uzyskać dostęp do HDMI partnerzy mogą zintegrować układ PCON i przekonwertować wyjście DisplayPort na HDMI Obie karty graficzne Intel Arc A770 i Arc A750 Limited Edition obsługują standard HDMI dzięki temu rozwiązaniu. [Aktualizacja Co by nie mówić ostatni tydzień należał do Intela i układów ARC. Niebiescy widać starają się poprawić swój wizerunek, nadszarpnięty przez opóźnienie premiery dedykowanych kart graficznych, czy okrojoną premierę na rynku OEM w Chinach. Już na początku tygodnia Tom Petersen i Ryan Shrout, zaprezentowali działająca kartę Intel ARC A750, na kanale GamerNexus. Dodatkowo udzielili sporo dodatkowych informacji o budowie, wydajności układów ARC Alchemist. Fot. GamerNexus Fot. GamerNexus Niedługo później na platformie Youtube został umieszczony już oficjalna prezentacja karty A750, bezpośrednio na kanale Intela. Nadchodząca karta graficzna powinna osiągnąć w większości tytułów wydajność przewyższającą GeForca RTX 3060. co prawda niebiescy ograniczyli się do prezentacji wyników tylko z 5 tytułów takich jak F1 2021, Cyberpunk 2077, Control, Borderlands i Fortnite w rozdzielczości 2560x1440. Nie trudno odnieść wrażenia że dużo jednak zależy od ustawień, ponieważ w samym teście w Cyberpunk 2077, gra była testowana na detalach wysokich z wyłączonym Ray Tracingiem. Jakby tego było mało Tom Petersen i Ryan Shrout, w piątkowy wieczór gościli również podczas podcastu The Wan Show na kanale LinusTechTips. Podczas audycji po raz pierwszy została zaprezentowana karta graficzna ARC A770. Ten topowy model dla serii Alchemist podobnie jak model A750, został wyposażony w dwie wtyczki zasilające 8-pinowa i 6-pinową. Za chłodzenie modelu odpowiadają tylko dwa wentylatory. Niestety, nie została ujawniona specyfikacja karty. Jednak według wcześniejszych doniesień model ten powinien otrzymać 32 rdzenie XE oraz 16 GB pamięci GDDR6. fot. LinusTechTips fot. LinusTechTips Jednak dla nas najważniejsza jest deklaracja, która złożyli obaj wyżej wymienieni pracownicy Intela, że premiera kart graficznych Intel Arc nastąpi szybciej niż się spodziewamy. Cóż pozostaje trzymać za to kciuki [Aktualizacja Choć premiera układów Intel Arc Alchemist miała miejsce w ubiegły czwartek dopiero dziś zeszło embargo na recenzje tych jednostek. Pamiętajmy jednak że debiut układów niebieskich nastąpił tylko na rynku chińskich, oraz dotyczy jedynie modelu A380. Pierwsze recenzje skupiają się na modelu A380 Photon od GUNNIR, który jest partnerem Intela na azjatyckim runku, oraz jest jak dotąd jest jedyną autorską konstrukcją opartą na tym procesorze graficznym. Pierwsze wyniki dostarczył Shenmedounengce, który przetestował kartę na systemie opartym o procesor Intel Core i5-12400, płytą główną B660 i pamięcią DDR4. Karta została porównana z kartami graficznymi NVIDIA RTX 3050, GTX 1650 i AMD RX 6500XT oraz RX 6400. fot. Shenmedounengce (Bilibili) fot. Shenmedounengce (Bilibili) A380 oferuje pełny procesor graficzny ACM-G11 z 8 rdzeniami Xe oraz 6 GB pamięci GDDR6 komunikującej się poprzez 96-bitową magistralę . Taktowania rdzenia wynosi nawet 2,45 GHz (w trybie boost), a pamięć została skonfigurowana by osiągać przepustowość 15,5 Gbps. fot. Shenmedounengce (Bilibili) fot. Shenmedounengce (Bilibili) fot. Shenmedounengce (Bilibili) W testach syntetycznych 3DMark, układ intela jest szybszy od kart graficznych posiadających 4 GB pamięci VRAM, przegrywając tylko z RTX 3050. Dużo gorzej wygląda sytuacja gdy weźmiemy pod uwagę gry. Autor sprawdził układ w takich tytułach jak League of Legends, PUBG, GTA5, Tom Raider, Forza Horizon 5 i Red Dead Redemption II. Niestety, w tym przypadku A380 przegrywa nawet z Radeonem RX 6400 czy GTX 1650. Kolejne wyniki pochodzą z kanału Benchmark Lab, który udostępnił krótka video prezentację zarówno na portalu Bilibili jak i na Youtube. Testowa konfiguracja wykorzystywała 10-rdzeniowy procesor Intela Core i9-10900K oraz 32 GB pamięci DDR4. W tym przypadku karta Arc A380, była szybsza od GTX 1650 produkcji MSI w każdym testowanym tytule. Jak widać dużo w tym momencie zależy jak widać od ustawień oraz konfiguracji całego zestawu. Gra Achlemist A380 MSI GTX 1650 Elden Ring ust, śred, 43 40 Microsfot Flight Simulator ust, śred, 46 40 Wiedzin 3 ust, wysokie 75 65 World of Warcraft ust, max 73 70 CP2077 ust, niskie 45 41 Hitman 3 ust, śred 58 51 Read Dead Redemtion ust, śred, 56 49 God of War ust, śred, 63 56 Fortnite ust wysokie 71 65 Horizon zero dawn, ust, oryg, 56 51 Dane prezentowane w tabeli na podstawie wyników uzyskanych przez Benchmark Lab O sukcesie układów A380 zdecyduje i tak cena. Mimo że sugerowana przez Intela ma wynosić 1030 Juanów (ok. 700zł), to wstępne informacje wskazują, że będzie ostatecznie sporo wyższa. [Aktualizacja Intel ogłosił, że technologia XeSS nie zadebiutuje z mobilnymi procesorami graficznymi z serii Arc 3, które zostały wprowadzone na rynek 30 marca, ale zamiast tego wraz z seriami Arc 5 i Arc 7. Te powinny zadebiutować na początku lata (przełom maja i czerwca). Ogłoszono że w dniu premiery wsparcie otrzyma kilka tytułów AAA i zostaną one zoptymalizowane pod kątem lista gier prezentuje się następująco:„Ghostwire: Tokyo”, „Death Stranding”, „Anvil”, „Hitman III”, „GRID Legends”. Jak już wspominaliśmy w tym artykule, w przeciwieństwie do rozwiązania FSR od AMD - Intel w XeSS wykorzystuje głębokie uczenie wspieranie przez sztuczną inteligencję. Ma to umożliwić przywrócenie szczegółów w przeskalowanym obrazie gry, która jest renderowana w rozdzielczości niższej niż ta, do której jest zdolny Twój wyświetlacz. W tym celu wykorzystywane są rdzenie XMX (Xe Matrix Extensions) w układzie krzemowym,odpowiedzialnym za przyspieszanie tworzenia i trenowania sieci neuronowych w ramach głębokiego uczenia. W architekturze Xe HPG każdy rdzeń Xe otrzymuje dedykowaną jednostkę XMX — i mimo innej budowy ich działanie można porównać do rdzeni Tensor w procesorach graficznych NVIDIA RTX. [Aktualizacja Według kanału Moore's Law Is Dead, Intel przesunie premierę nowej linii dedykowanych procesorów graficznych Arc Alchemist na drugi kwartał tego roku. Pierwotny harmonogram zakładał wypuszczenie układów w pierwszej połowie 2022 roku, a za możliwą datę podawano przełom marca i kwietnia. Intel planuje opóźnić wydanie linii Arc Alchemist Graphics na drugą połowę roku, ponieważ chce dopracować swoje sterowniki. zdj. MLID/Youtube [Aktualizacja W bazie benchmarku CrossMark użytkowanik APISAK znalazł wyniki osiągnięte na laptopie wyposażonym w układ graniczny Intel Arc A370M Graphics, a swoim odkryciem podzielił się na portalu Twitter. Oprogramowanie firmy BAPCo umożliwia testowanie sprzętu niezależnie od posiadanej platformy czy systemu operacyjnego (dostępne wersje na Windows, iOS or macOS i nawet Android) i w łatwy sposób na ich porównanie. zdj. BAPCo || Twitter:APISAK Choć na podstawie osiągniętego rezultatu ciężko wskazać jak w grach spisze się układ graficzny Intela, to potwierdza, że dane chipy znajdują się już producentów i trwają już wewnętrzne testy. Wydajność konstrukcji w całości opartej o produkty Intela wypada, identycznie jak laptopa wyposażonego w układ graficzny Nvidii RTX 3060 oraz procesor i7 12 generacji. Jest to dobra wiadomość, biorąc pod uwagę, że sterownik dla platformy ARC, wciąż znajdują się w fazie testów. Według wcześniejszych doniesień premiery Inte Arc dla urządzeń mobilnych możemy spodziewać się w drugiej połowie tego roku. [Aktualizacja Użytkownik 9550pro, na swoim profilu na portalu Twitter, udostępnił slajd przedstawiający plany Intela dotyczące procesorów graficznych DG2 do laptopów. Na slajdzie zatytułowanym „Konfiguracja pamięci graficznej DG2” możemy zauważyć aż pięć różnych modeli układów przeznaczonych do laptopów. @9550pro Topowym modelem pozostaje SKU1 z 512 jednostkami wykonawczymi(EU), który zostanie sparowany z ośmioma modułami pamięci GDDR6 o łącznej pojemności 16 GB. Ta miałaby komunikować się z rdzeniem przez 256-bitową szynę z prędkością 16 Gb/s (pełna przepustowość 512 GB/s). Warto zaznaczyć że użyte moduły GDDR6 są identyczne jak mającym niedługo zadebiutować mobilnym wariancie RTX 3080 TI. Co więcej, w końcu mamy potwierdzenie słabszej wersji układu wyposażonej w 384 EU o nazwie SKU2. Ten wariant ma zostać wyposażony w 12 GB pamięci GDDR6 oraz 192-bitową szynę pamięci. Moduły zachowałyby taką samą prędkość jak w topowym modelu, co przełożyłoby się na maksymalną przepustowość wynoszącą 384 GB/s. Intel ARC Mobile „SKU3” to model oparty na 256EU z 8 GB pamięci GDDR6 i 128-bitową magistralą pamięci. Miałby również zostać wyposażony w pamięć o prędkości 16 Gb/s, co oznaczałoby , że przepustowość wynosiłaby do 256 GB/s. Wreszcie, SKU4 i SKU5, oparte na GPU DG2-128EU, oba wyposażone w 4 GB pamięci GDDR6 i 64-bitową magistralę. Prędkość pamięci byłaby ograniczona do 14 Gb/s, co oznacza, że maksymalna przepustowość osiągnęłaby 112 GB/s. Slajd ten poniekąd potwierdza możliwe konfiguracje układów Intel ARC Alchemist. Mimo że dotyczy wersji mobilnych, nie jest powiedziana że podobnych wariantów nie doczekamy się również przeznaczonych dla komputerów stacjonarnych. Wszystko wskazuje że w przypadku laptopów nie doczekamy się wariantu wyposażonego w 448 EU. [Aktualizacja Jak się okazuje, udostępniony niedawno sterownik testowy który Intel przypadkowo opublikował na oficjalnej stronie internetowej, zawiera więcej informacji niż można było przypuszczać. Zawiera on nie tylko identyfikatory niewydanego sprzętu. Jak podają redaktorzy serwisu VideoCardz, którzy otrzymali anonimową wskazówkę, pliki SYS ujawniają nazwy niepublikowanych procesorów graficznych Intel Xe-HPG, znanych jako Arc Alchemist. Sterownik zawiera dane dotyczące 4 modeli, w tym dwóch do komputerów stacjonarnych i kolejnych dwóch do urządzeń mobilnych: Intel Arc A380. Intel Arc A350. Intel Arc A370M. Intel Arc A350M. Prawdopodobnie po raz pierwszy dowiadujemy się rzeczywistych nazw nadchodzących kart graficznych od Intela, a informacje te pochodzą bezpośrednio od producenta. zdjęcie rdzeni DG2 udostępnione przez Moore’s Law is Dead Najprawdopodobniej nie jest to pełna lista modeli planowanych w serii Arc Alchemist. Poprzednie przecieki sugerowały, że może istnieć aż 5 różnych wariantów procesorów graficznych DG2, różniących się liczbą rdzeni i konfiguracją pamięci. Układy Arc A380 bazujące na rdzeniu DG2-128EU mają rzekomo oferować wydajność GeForce GTX 1650 SUPER przy taktowaniu 2,45 GHz. Model miałby być wyposażony w 6 GB pamięci GDDR6, więc prawdopodobnie nie jest to flagowa konstrukcja, która podobno ma być wyposażona w 16 GB. Karta A350 może być najtańszą konstrukcją Intela przeznaczoną do komputerów biurowych czy stacji roboczych. Model ten może oferować 96 EU i 4 GB pamięci GDDR6. Można by się domyślać, że A3XX powinien być wydajnościowym odpowiednikiem CPU Core i3. Możliwe, że planowane są również mocniejsze warianty jak A5XX, A7XX i A9XX. [Aktualizacja Intel za pomocą swojego konta na Twitterze udostępnił grafikę, na podstawie której mamy odgadnąć nazwę piątej generacji układów Alchemist. Tak mocno wybiegające w przyszłość plany świadczą o tym jak mocno firma wierzy w nowy produkt. Jak myślicie, biorąc pod uwagę nazewnictwo pochodzące z fantastyki, jak będzie nazywał się nadchodzący układ niebieskich? You’ve heard the codenames Alchemist, Battlemage, Celestial, and Druid, but what about E? What do YOU think it could be? #IntelArc Intel Graphics (@IntelGraphics) October 19, 2021 Czy Układy Arc będą “kopać” kryptowaluty ? Przy obecnych niedoborach GPU po stronie AMD i Nvidii, napędzanych częściowo przez górników kryptowalut, ludzie chcą wiedzieć, czy procesory graficzne Arc Intela napotkają podobne trudności. Biorąc pod uwagę korzenie architektury Xe HP/HPC w centrach danych (uczenie maszynowe, obliczenia o wysokiej wydajności itp.), Intel prawdopodobnie przynajmniej przyjrzał się możliwościom kart przy wydobyciu kryptowalut. Publicznie Intel dopiero ostatnio ogłosił, że nie zamierza blokować żadnych dodatkowych algorytmów. Sława te padły od Raja Koduri, głównego architekta układów graficznych niebieskich, w udzielonym ostatnio wywiadzie. Ogólnie rzecz biorąc, Xe może dobrze radzić sobie w “kopaniu”. Jednak nie moc samego układu jest w tym wypadku najważniejsza, ponieważ najpopularniejsze algorytmy wykorzystywane do wydobycia za pomocą GPU (głównie Ethash, ale także Octopus i Kawpow) swoją wydajność opierają się prawie wyłącznie na przepustowości pamięci. Na przykład najszybsze procesory graficzne Intel Arc prawdopodobnie będą korzystać z 16 GB (może 8 GB) pamięci GDDR6 z 256-bitowym interfejsem. Dałoby to podobną przepustowość jak w przypadku AMD RX 6800/6800 XT/6900 XT, a także Nvidii RTX 3060 Ti/3070. To z kolei doprowadziłoby do wydajności około 60 MH/s przy wydobyciu Ethereum. Intel prawdopodobnie nie zamierza używać szybszych ale i dużo droższych modułów GDDR6X. Nie jest jednak wykluczone, że układy ARC mogą mieć też inne funkcje, które zwiększą wydajność kopania. Karty Nvidii posiadają pamięć taktowaną 14 Gbps w RTX 3060 Ti i RTX 3070, i dzięki czemu (zanim pojawiły się modele LHR) potrafiły osiągnąć około 61-62 MH/s. AMD ma szybszą pamięć 16 Gbps, a po dostrojeniu parametrów osiągamy 65 MH/s. Realistycznie rzecz biorąc, możemy się spodziewać, że mniej więcej taki poziom osiągnie najszybszy GPU Arc. Biorąc pod uwagę, niestabilność na rynku kryptowalut oraz fakt że procesory graficzne Arc nie pojawią się nawet na początku 2022 r.,jest mało prawdopodobne, aby wydajność kopania była nadrzędnym priorytetem dla Intela w fazie projektowania układów. Ethereum jest obecnie zdecydowanie najbardziej opłacalną “monetą” do kopania z wykorzystaniem GPU. Przyjmuje się, że reprezentuje ona ponad 90% mocy GPU wykorzystywanych do kopania na świecie. W Ethereum nastąpi zmiana schematu działania. Z “dowodu pracy” (ang. Proof of Work), system przejdzie na dowód stawki (ang. Proof of Stake). Oznacza, że nie będzie już więcej możliwości wydobywania waluty z wykorzystaniem GPU. W tym wypadku budowanie GPU wokół wydobywania Ethereum byłoby złym pomysłem. W najlepszym (lub najgorszym przypadku, w zależności od perspektywy), przewidujemy, że wydajność kopania będzie z grubsza dorównywać procesorom graficznym AMD Navi 21 i Nvidia GA104. Oprogramowanie do wydobywania prawdopodobnie będzie jednak wymagało poważnych aktualizacji i poprawek sterowników, aby nawet działać poprawnie na przyszłych procesorach graficznych. Dla przykładu próby wydobycia za pomocą układu Xe DG1 kończą się niepowodzeniem. Większość oprogramowania nawet nie wykryła „zgodnego” procesora graficznego. W momencie premiery spodziewałbym się, że procesory graficzne Arc będą w podobnej sytuacji, ale będziemy musieli zobaczyć, jak sprawy ukształtują się z biegiem czasu. [Aktualizacja Po raz kolejny nowymi informacjami o kartach graficznych Intel podzielił się kanał Moore’s Law is Dead . W udostępnionym na platformie Youtube filmie zostały zaprezentowane nowe rendery prezentujące wygląd układów Arc. Referencyjna konstrukcja posiadałaby by dwa delikatnie podświetlone wentylatory oraz wzorem RTX 3000, koniec radiatora zapewniałby bezpośredni przepływ powietrza. Do zasilania będziemy potrzebować dwóch przewodów 8-pin oraz 6-pin. Taka konfiguracja pozwoliłaby na dostarczenie 225 W mocy (300 W licząc złącze PCIe) dla karty. zdj. MLID zdj. MLID zdj. MLID zdj. MLID Choć autor w filmie wspomina, że premiera układów Arc Alchemist może nastąpić w pierwszym kwartale 2022 roku, to dotyczyć ma ona układów mobilnych, a na wersje do komputerów osobistych będziemy musieli poczekać do drugiego kwartału. Jednak według Greymon55 jest to trochę za późno i premiery należało by oczekiwać wcześniej. Q2....I feel a little late.— Greymon55 (@greymon55) October 2, 2021 Wciąż nie mamy informacji jak będą nazywać się najwydajniejsze układu Alder Lake. Najnowsze doniesienia zakładają przyjęcie przez Intela jednego z dwóch schematów. Arc a512 bądź Arc a700, obie nazwy dotyczyły by tego samego układu DG2-512 GPU, ale to właśnie 2gi wariant miałby wskazywać bezpośrednią konkurencję w postaci RTX 3070, RX 6700 XT. [Aktualizacja Dzięki wywiadowi, który udzielił Raja Koduri japońskiemu serwisowi ASCII, dowiedzieliśmy się, że Intel współpracuje już z firmami zewnętrznymi w celu przygotowania nowych kart Alchemist dostępnych na premierę. Na chwilę obecną mamy potwierdzenie, że swoje wersje opracowuje ASUS, Gigabyte oraz MSI choć można się spodziewać, że do tego grona dołączą również i inni producenci. Dzięki kanałowi Moore’s Law is Dead na platformie YouTube dowiedzieliśmy się, że Intel może wypuścić aż trzy modele układów Achemist. Najmocniejszy którego wydajność miała by dorównywać RTX 3070 dysponowałby 512 rdzeniami EU pracującymi z częstotliwością powyżej 2,2 GHz oraz byłby wyposażony w 16 GB pamięci GDRR6 komunikujących się poprzez 256-bitową szynę. Drugi model miałby konkurować z RTX 3060 i dysponowałby 384 bądź 448 rdzeniami EU. Karta ta pozostaje wciąż w fazie testów i jej specyfikacja nie jest do końca określona. Intel przygotowuje również wersję budżetową kart Alchemist. Ten dysponujący 128 rdzeniami EU i pobierający zaledwie 75 W układ miałaby konkurować z GTX 1650 Super. Choć w filmie autor wspomina o wariantach 4 bądź 8 GB to na portalu Chiphell pojawiły się mocno zamazane zdjęcia pokazujące wersję wyposażoną w 6 GB pamięci. Poznaliśmy też specyfikacje nazewnictwa oraz wytyczne do których muszą stosować się producenci przy umieszczaniu informacji na opakowaniu produktu. Dzięki temu wiemy, że wszystkie układy należące do rodziny Alchemist będą nosiły nazwę Arc a#. Można przypuszczać, że Intel zostanie przy tym nazewnictwie dla wszystkich swoich kart graficznych, co na pewno ułatwi ich identyfikację. Idąc tym tropem następcy oparci na rdzeniach Battlemange nosiliby oznaczenie b#, Celestial c# oraz Druid d#. Prawdopodobnie numer modelu będzie odnosił się do ilości rdzeni EU. Karty graficzne Intel Arc – wszystko, co już wiemy Intel Arc, nowa marka na rynku kart graficznych, która ma konkurować z rozwiązaniami dostarczanymi przez Nvidia i AMD. Wszystkie szczegóły o nadchodzących układach oraz czego można się po nich spodziewać dowiedzieliśmy się za pomocą udostępnionego na stronie filmu z zapowiedzią. Nie została zorganizowana huczna konferencja jak ma to w sowim zwyczaju robić konkurencja. Pytanie brzmi, czego powinniśmy oczekiwać od tego giganta technologicznego? Czy naprawdę będzie w stanie konkurować z niezwykle popularnymi i wydajnymi kartami Nvidia serii RTX 3000 i AMD Radeon’ami RX 6000? Postanowiliśmy podsumować wszystkie najnowsze plotki i oficjalne doniesienia o układach Intel Arc. Co to jest Intel Arc? Intel Arc to nowa marka kart graficznych oraz technologii związanych generowaniem obrazu od Intela. Jak twierdzi producent, obejmie ona wiele generacji i to nie tylko sprzętu, ale także oprogramowania i usług. Intel nie podał jeszcze wszystkich szczegółów i nie wiemy dokładnie co to może oznaczać. Prawdopodobnie mogą to być rozwiązania zbliżone do tych oferowanych przez Nvidię, która nie tylko produkuje karty graficzne, ale także oprogramowanie. Usługi takie jak Nvidia Broadcast, które wykorzystuje możliwości kart graficznych czy oparty na chmurze serwis gamingowy GeForce Now to tylko dwa z licznych przykładów. Karty graficzne Intela maja obsługiwać zaawansowane funkcje , takie jak cieniowanie siatkowe, ray tracing w czasie rzeczywistym, supersampling AI i skalowanie wideo 4K. Podczas prezentacji Intel Arc, wiceprezes Roger Chandler, opisywał, „głębokie i ciągłe zaangażowanie firmy Intel na rzecz graczy i twórców na całym świecie” oraz, że zespół ciężko pracował, aby „zapewnić pierwszorzędne i bezproblemowe wrażenia, gdy produkty będą już dostępne ”. Pierwsze karty graficzne, które zostaną wydane, będą nosić nazwę kodową Alchemist, ale Intel już wyjawił też nazwy kolejnych generacji – w tym Battlemage, Celestial i Druid. Pojawią się one później, ale narrację Intela należy interpretować jako wieloletni (i prawdopodobnie wielopokoleniowy) plan rozwoju dla rynku GPU. Kiedy zostanie wydany pierwszy procesor graficzny Intel Arc? Podczas gdy Intel nie określił jeszcze potencjalnej daty premiery, jeden z przecieków w serwisie Weibo zasugerował, że układy zadebiutują podczas targów CES 2022 w styczniu. Źródło podawało, że informację uzyskało od osób z branży, zaangażowanych w produkcje. Miało to miejsce jeszcze przed oficjalnym ogłoszeniem i prezentacją Intel Arc. Zestawiając tą informację z otrzymaną datą przypadającą na pierwszy kwartał 2022, można przypuszczać, że jest ona prawdziwa. Oczywiste jest to, że nawet jeżeli karty zostaną zaprezentowane podczas targów, mogą od razu nie trafić na rynek do sprzedaży. Więcej informacji powinniśmy także otrzymać po premierze 12 generacji procesorów Core – Alder Lake. Ile będzie kosztował procesor graficzny Intel Arc? W tej chwili jest prawie niemożliwe aby przewidzieć cenę nowych urządzeń. Jest to pierwszy od dawna procesor graficzny od Intel'a ( i740 miał premierę w 1998 roku) . Z tego względu nie mamy żadnych cen, które stanowiły by punkt odniesienia. Także rynek kart graficznych jest obecnie w chaosie. Ciągły niedobór komponentów używanych przez producentów układów oznacza, że zapasy są ograniczone, a ich ceny zawyżone w porównaniu z tymi sugerowanymi przez producenta. Dobrym przykładem tutaj niech będzie RTX 3070 Nvidii czy RX 6700 XT od AMD. Obie karty, które powinny konkurować ze sobą przedziale cenowym ok. 2300 zł, w sklepach sprzedawane są w dwukrotnie wyższej cenie wynoszącej nawet 5000 zł. Jeśli Intelowi uda się w jakiś sposób obejść niedobory i przygotować wystarczającą ilość zapasów do wprowadzenia na początku przyszłego roku, będzie miał okazję do zyskania sporej części rynku dla siebie. W chwili obecnej wszystkie karty graficzne, nie zależnie od ceny wyprzedają się bardzo szybko, a niektórzy na swoje zamówienia czekają nawet po kilka miesięcy. Pojawienie się wydajnej konkurencji dostępnej w przystępnej cenie może skłonić część konsumentów do zmiany decyzji. Cóż na razie pozostaje nam czekać i trzymać kciuki. Czego można oczekiwać od karty graficznej Intel Arc Chociaż Intel potwierdził istnienie marki Intel Arc, i poinformował, że pracuje nad kilkoma procesorami graficznymi pod różnymi nazwami kodowymi, nie wiemy zbyt wiele o tym, co sobą zaoferują. Karty Intel Arc będą bazować na poprawionej mikroarchitekturze Xe-HPG, która według niebieskich powinna pomóc w bardziej wydajnym obliczaniu zaawansowanych funkcji graficznych, jak supersampling oparty na sztucznej inteligencji. Karty z serii Alchemist znane także pod nazwą Intel DG2 zbudowane są z rdzeni Xe. Każdy z nich zawiera 16 jednostek wektorujących (Vector Engine w skrócie VE - 256 bitowych) oraz 16 jednostek obliczeniowych macierzy (Matrix Engine w skrócie ME- każdy po 1024 bit). Każdy z nich wyposażony jest także w pojedynczy układ wspierający obliczenia związane ze śledzeniem promieni (Ray Tracing Unit), a ich ilość w całej karcie będzie zależała od tego z ilu rdzeni Xe składa się rdzeń. Pozwoli to na łatwą identyfikację gdy karty trafią już do sklepów. Blok składający się z 4 rdzeni Xe nazywany jest klastrem renderującym (Render Slice). Wymiana danych między nimi następuje za pomocą szyny Memory Fabric (odpowiednik pamięci cache L2). Para jednostek VE i ME często jest określana jako Execution Unit (w skrócie EU). W prezentacji Intel Architecture Day został zaprezentowany układ składający się z 8 bloków RS wyposażony w 512 EU przeznaczonych dla kart graficznych oraz jednostkę składającą się nawet 128 zmodyfikowanych rdzeni Xe - Ponte Vecchio. Jednak jest on przeznaczony do serwerów i centrów obliczeniowych. Udowadnia to jednak jaką swobodę posiada Intel w tworzeniu układów, które zapewniają odpowiednią wydajność dla każdego. Co ciekawe niebiescy nie zdecydowali się na możliwość zablokowania podkręcania układu, a funkcja ta będzie dostępna od daty premiery. Niestety do tej pory nie podzielono się z nami oficjalną prezentacją mocy obliczeniowej układów. Niektóre plotki wskazują, że najmocniejsza karta Intela ma oferować wydajność zbliżoną do RTX 3070. DG2's official competitors are 6700xt and 3070. Not bad.????— Greymon55 (@greymon55) September 7, 2021 I choć może się wydać, że jest to za mało to należy pamiętać, że to pierwsza dedykowana konstrukcja Intela od wielu lat. Wspominaliśmy wcześniej, że architektura ta pozwala łatwe skalowanie układów. I choć z marketingowego punktu widzenia posiadanie najmocniejszej karty graficznej może wydać się sensowne, to ostatnimi laty najczęściej przecież sprzedają się układy oferujące dobry stosunek wydajności do ceny i zapewne w to celuje Intel. Nigdy nie wiadomo czy w późniejszym terminie nie otrzymamy mocniejszych konstrukcji. Intel nie zdecydował się na produkcję układów w swoich fabrykach. Wszystkie karty z rodziny Alchemist będą produkowane w zakładach TSMC z wykorzystaniem 6 nm procesu litograficznego. Intel XeSS Jak już wspominaliśmy wcześniej nowe karty będą obsługiwać Super Sampling. Technologia mocno zbliżona do rozwiązania stosowanego przez Nvidię w DLSS. Umożliwia generowanie obrazu w niższej rozdzielczości i podbicie jego jakości do wyższej dzięki wykorzystaniu sieci neuronowych. Trochę więcej szczegółów na temat XeSS udzielił Karthik Vaidyanathan, główny inżynier Intela dla tej technologii w wywiadzie dla serwisu Wccftech. Przede wszystkim warto zaznaczyć, że gry wspierające rozwiązanie Intela nie będą musiały przechodzić specjalnego “treningu” z aplikacją. Z takiego rozwiązania korzysta właśnie Nvidia przy DLSS, aby gra mogła wspierać tą technologie. Wpierw musi zostać wygenerowany obraz o rozdzielczości 16K i jest on przepuszczany przez ciąg algorytmów wykorzystujących uczenie maszynowe. Dopiero po zakończeniu tego procesu rdzenie tensor w kartach Nvidii są wstanie upscalować obraz w celu uzyskania porównywalnej jakości jak przy natywnym renderowaniu. W przypadku Intela algorytm uczy się na obrazach referencyjnych z wykorzystaniem z 64 próbek na 1 pixel, w celu uzyskania jakości obrazu 64X SSAA. Intel opracowując XeSS przygotował dwa warianty: pierwszy oparty na akceleracji XMX, dostępny wyłącznie dla procesorów graficznych Intel Arc. Drugi bazujący na obliczeniach DP4a, czyli specjalnej akceleracji dot product obsługiwanej przez procesory graficzne obsługujących Microsoft Shader Model Dzięki temu możliwe będzie odpalenie XeSS także na kartach Nvidii z rdzeniami Pascal i Turing (GTX 1000 oraz RTX 2000) i AMD opartych na architekturze RDNA 1 i 2 (RX 5000 i RX 6000). Rozwiązanie DP4a jest wolniejsze od akceleracji XMX, ale i tak zapewnia szybsze generowanie klatek w porównaniu do klasycznego renderowania w natywnej rozdzielczości. To dobra wiadomość dla nas wyrzyskich, ponieważ podobnie jak AMD z FSR, XeSS nie będzie zamkniętym rozwiązaniem tylko dla jednego producenta. Oficjalnie jednak AMD nie potwierdziło publicznie chęci obsługi tej technologii. Wspomniane wcześniej API nie wymaga także osobnego programowania dla obu wariantów, a rozwiązanie XeSS jest wypełni integralne i nie tworzy osobnych interfejsów. Po zaimplementowaniu tego rozwiązania w grze dostaniemy także wybór trybu pracy, podobnie jak ma to miejsce w przypadku rozwiązań konkurencji. Priorytetem dla Intela jest możliwość zrezygnowania z z predefiniowanych ustawień na rzecz jednego który zapewni zarówno najwyższa wydajność jak i jakość obrazu nie odbiegającej natywnemu renderowaniu. Karthik potwierdził, że Intel wprowadzi w przyszłości XeSS i wraz z rozwojem technologii. Producent udostępni swoją technologię, gdy ta dojrzeje. Przejście na dystrybucję open source dla oprogramowywania super rozdzielczości opartej na sztucznej inteligencji może pomóc zwiększyć popularność XeSS i popchnąć rynek w kierunku ujednolicenia rozwiązań pomiędzy różnymi producentami, ale może być początkiem dalszej segmentacji rynku z niewielkimi zmianami między klonami XeSS. Jest to prawdopodobnie powód, dla którego Intel niechętnie otwiera swoją technologię w momencie premiery. Technologia Intel XeSS powinna zostać uruchomiona wraz z procesorami graficznymi Arc Alchemist w pierwszym kwartale 2022 r. Intel udostępni programistom pakiet XeSS SDK o zamkniętym kodzie źródłowym oparty na wersji XMX. Pakiet SDK wersji DP4a zostanie wydany do końca tego roku. To wszystko co na tę chwilę wiemy o kartach Intel Arc. Z niecierpliwością wyczekujemy nowych informacji i oczekujemy premiery układów. Nadzieja, że trzeci gracz na rynku kart graficznych zapewni lepszą dostępność, ale i przede wszystkich konkurencyjność cenową napawa optymizmem.
21:35 Karta graficzna nie wykorzystuje swojej mocy w GTA ONLINEWitam mam problem w GTA ONLINE, miesiąc temu złożyłem komputer:- Gigabyte geforce gtx 1660 super oc gaming- Intel core i5-9400F- Motherboard PRIME H310M-R 8GB RAMW GTA ONLINE moja karta graficzna pracuje w 38-60%, gdzie w fabule pracuje normalnie na 80-95%. Przez to w GTA ONLINE mam duże spadki FPS, 85-48 fps, nie wiem co się dzieje gdzie gra powinna chodzić normalnie na 80fps conajmniej. Grafikę mam ustawioną na ultra ale gdy zmieniałem na mniejsze ustawienia to nie było różnicy, proszę o szybką pomoc... 10:44 odpowiedz1 odpowiedź AIDIDPl152 PC-towiec Nie przesaxziles z AA albo trawą?W zaawansowanych ustawieniach masz coś po włączane?Te 8gb Ramu to mało dla tej gry trochę. Tu może być problem bo brat miał tak samo. Poprawiło się jak dokupił druga kość pamięci ustawił jest w dual.
karta graficzna nie wykorzystuje swojej mocy