Update den 2. november:
Ifølge en ny kilde, lyder det til at Nvidia har tænkt sig at udskyde lanceringen fra den 17. november, til den 2. december.
Denne formodede udskydelse kunne ske på baggrund af mangel på grafikkortene, hvilket vi allerede har set med RTX 3090, 3080 og 3070. Rygtet er dog ikke blevet bekræftet.
Kilde: Videocardz
Oprindelig artikel:
For bare et par dage lækkede de formodet specifikationer for GeForce RTX 3060 Ti. Dette er et nyt GA104-baseret GeForce RTX 30-serie grafikkort, der skal indtage markedssegmentet under 400 USD, og nu ser det ud til, at vi også har en lanceringsdato.
Ifølge MyDrivers.com (via Videocardz) lanceres det GA104-baserede RTX 3060 Ti den 17. november. Vi har også hørt det samme fra vores kilder. Mere specifikt, er dette et embargoliftdatoen.
NVIDIA RTX 3060 Ti vil blive annonceret den 17. november
NVIDIA GeForce RTX 3060 Ti har GA104-200 GPU med 4864 CUDA-kerner og 8 GB GDDR6-hukommelse, der er clocket ved 14 Gbps. Busbåndbredden vil være 256 bit for en samlet båndbredde på 448 GB / s båndbredde. Da kortet vil kræve mindre strøm, formodes TBP at ligge omkring 180W med referencedesignet. Dette er en 5W stigning i forhold til RTX 2070 ved 175W og i tråd med, hvad vi forventer, af Samsung 8nm-processens energieffektivitet.
Husk, at årsagen til, at NVIDIAs RTX 3090- og RTX 3080-kort ikke skaleres lineært i ydelse, skyldes flaskehalse ved game-engines og binære filer, der ikke er designet til at håndtere så mange kerner.
Vi ved, at hardware- og driverstakken skaleres lineært på grund af benchmark-ydeevnen for disse kort i software som vRAY og Octane - som er designet til at håndtere en enorm mængde grafik-performance. Dette betyder, at når du skalerer kerner ned, reduceres ydelsen ikke lineært. Faktisk forventes det, at RTX 3060 Ti slår RTX 2080 clock-to-clock!
AMD lancerede sin RDNA2-serie den 28. oktober, og det kan være en af grundene til, at NVIDIA først har besluttet at lancere den Ti-baserede variant. Med 3080 og 3090 kort, der stadig meldes udsolgt, er gamerne sultne efter at få fat i en næste generations GPU.
Source & Image credit:
NVIDIA, Videocardz