26 czerwca 2018, Paweł Maziarz

Micron rusza z masową produkcją pamięci GDDR6

Kategoria: Komputery Podzespoły Karty graficzne, Tematyka: Micron GDDR6, Producenci: Micron

Nowe układy zaoferują wyższą wydajność, niższe zapotrzebowanie na energię elektryczną, a w przyszłości też większą pojemność.

W minionym roku pojawiły się pierwsze konkretne zapowiedzi pamięci GDDR6. Obecnie prace nad nowymi układami są już dużo bardziej zaawansowane, a firma Micron rozpoczęła masową produkcję pierwszych modułów.

Amerykański producent rozpoczął produkcję modułów o pojemności 8 Gb (1 GB) i przepustowości 10, 12 i 14 Gb/s - znajdą one zastosowanie w branży motoryzacyjnej, sieciach, konsoltach do grania a najszybsze układy również w nowych kartach graficznych (np. nowych modelach Nvidii) i akceleratorach wysokiej wydajności. W przyszłości podobno planowane jest również wypuszczenie modułów o przepustowości nawet 18 i 20 Gb/s.

Micron GDDR5 vs GDDR6

Nowe pamięci to przede wszystkim dużo wyższa wydajność. W przypadku 384-bitowej magistrali możliwe jest uzyskanie przepustowości na poziomie 672 GB/s, podczas gdy w przypadku modułów GDDR5X jest to maksymalnie 576 GB/s, a w przypadku GDDR5 maksymalnie 432 GB/s. Oprócz tego powinniśmy się spodziewać niższego zapotrzebowania na energię elektryczną, a po dopracowaniu standardu równieżwiększej pojemności.

Micron GDDR5 vs GDDR6

Micron GDDR6

Warto dodać, że wcześniej masową produkcję pamięci GDDR6 zapowiedziały też firmy Samsung i SK Hynix. Wygląda więc na to, że nowy standard powoli zaczyna się zadomawiać w branży IT.

Źródło: ComputerBase

Komentarze

  • Foxy the Pirate, #

    Czyli jednak 1180 z 12GiB VRAM. Trochę szkoda.

  • Guczi04, #

    A po co Ci więcej? 8K dopiero za dwa lata.

  • Doctor, #

    A na cho*erę...? Lepiej niech zostaną na 4K i zamiast tego dopracują oświetlenie, odbicia, efekty cząsteczkowe itp.

    Już nie wspominając o fizyce gry i AI postaci, które choć są zadaniami typowo procesorowymi (przynajmniej obecnie), to wolałbym aby to one obciążały CPU, a nie szczególiki na modelach 3D, które mało kto zauważy.

    Ponadto, jeżeli rozdzielczością w grach będziemy wciąż pędzić do przodu, to obudzimy się w miejscu w którym co prawda mamy wyświetlacze 8K, ale poza grami nie mamy żadnych treści do wyświetlania na nich. O ile wierzę, że w przeciągu 10 lat uda się dostosować serwisy streamingowe, a być może nawet połowę kanałów satelitarnych na 4K, o tyle uważam że rozwój technologii za bardzo spowolnił aby udało się tego dokonać przy 8K.

    Zwłaszcza, że ogranicza nas przepustowość przesyłu danych i nawet obecnie, z 4K, obraz musi zostać skompresowany i mimo większej szczegółowości, traci on choćby na odwzorowaniu kolorów.


    Także moim skromnym zdaniem - zostańmy na 4K i dopracujmy je. Zapewnia ono świetne zagęszczenie pikseli, a co za tym idzie - taką szczegółowość, że 8K nie przyniesie znacznej poprawy. A przysporzy wielu kłopotów.

  • musslik, #

    no jak bez większych cyferek to się nie da :)

  • Guczi04, #

    Ale ja chce 8K z wielką nalepką na monitorze! Myślisz, że ktoś się tam będzie przejmował jakością piksela i kolorów? Ma być 8K i już, bo rynek tego wymaga.

  • taki_jeden, #

    Mnie przekonałeś! Teraz tylko jeszcze przekonaj producentów kart graficznych, telewizorów, kamer, dostawców mediów, jak i wytwórnie telewizyjne i filmowe.

  • Guczi04, #

    Nikt nikogo nie musi przekonywać. Ten łuk przemiany nastąpi i zmusi innych graczy do przejścia na 8K. Pewnie jak zawsze Apple narzuci tempo z 8K, tak jak to było z retiną i teraz od jakiegoś czasu 5K w iMacach.

  • BrumBrumBrum, #

    Tym bardziej że obecnie 4K leci sobie na granicy możliwości technicznych, za to w publicznych mediach materiały są transmitowane w jakości gorszej niż FHD.

  • Eternal1, #

    Standard GDDR5 zawitał na rynek wraz z kartami Radeon HD4870 (55nm) w 2008 roku, czyli już 10 lat temu. Dekada w świecie IT to era. Najwyższy czas na kolejną generację.

    HBM2 w sektorze PRO (i po części w mobilu)
    GDDR6 w HighEnd desktop
    GDDR5 w MidRange i niższych.

  • mutissj, #

    PCI_E 3.0 x16 da radę?

  • jeomax.co.uk, #

    A co ma piernik do wiatraka ?

  • taki_jeden, #

    A jaki jest sens życia?

  • Doctor, #

    Zdajesz sobie sprawę, że dzisiejsze karty perfekcyjnie działają na PCI_E x8? Minie wiele generacji zanim PCI_E 3.0 x16 przestanie wystarczać, a wówczas będzie już dostępny standard 4.0 i znowu większa przepustowość.

  • kitamo, #

    czyli miałem racje :) ps5 z GDDR 6 :)

  • chotnik2, #

    To raczej produkcja na 11X0.
    PS5 pewnie ze względu na koszty będzie miało GDDR, a jeżeli by użyli GPU zielonych to już na 100%.

  • Finear, #

    nie użyją, ps5 to ryzen+vega/navi
    raczej navi z gddr6

  • chotnik2, #

    Tata pracuje w Sonym, że takie przecieki masz?

  • Finear, #

    wystarczy mieć mózg żeby wiedzieć ze tak będzie

    nie ma innego logicznego rozwiazania

Dodaj komentarz

Dodawanie komentarzy tylko w wersji dla PC. Już wkrótce wersja mobilna.

Nie przegap

Szanowny Czytelniku.

Aby dalej móc dostarczać Ci materiały redakcyjne i udostępniać nasze usługi, pozostając w zgodzie z zasadami RODO, potrzebujemy również zgody na ewentualne dopasowywanie treści marketingowych do Twojego zachowania. Dbamy o Twoją prywatność. Nie zwiększamy zakresu naszych uprawnień. Twoje dane są u nas bezpieczne, a zgodę możesz wycofać w każdej chwili na podstronie polityka prywatności. Dowiedz się więcej.