Ahora es otra época: Con cores por montones y mas cache que RAM de mi primera compu, y overclock dinámico que ya te llega de forma stock a 4.5ghz. (sin mencionar las unidades de almacenamiento que Leen a 3000MBps y Rams de 3.0Ghz
no, discrepo un poco, porque el software que corremos hoy es mucho mas demandante que hace 15-10 anios.
Será que aún se logran estas ganancias sustanciales de rendimiento con estos procesadores TOP? o son marginales.
si y no. gamers nexus tiene un par de videos bien interesantes sobre porque es que los ryzen no ganan mucho con ponerles un OC fijo, lo mas basico es que los ryzen se hacen OC ellos solos y se regulan para no gastar demasiada corriente/no pasarse de las temps ideales.
el proceso de binning tambien es mas complicado hoy que hace 10 anios, por ejemplo, ahora los ryzen pasan por un proceso que identifica cuales cores son mas rapidos y los marcan para que el thread scheduler de windows los use de acuerdo a su velocidad.
otro factor es el hecho de que la arquitectura de los rizen, incluso a 7nm no funcionan pasando de los 4.5 ghz. lo mismo con los Intel de decima generacion. casi que de fabrica ya van con todo lo que el silicio puede dar.
lo interesante es que todavia podes rascar mas velocidad pero sin cambiarle la velocidad al CPU sino que tuneando el Infinity Fabric y los timings de las memorias.
Lo menciono porque también dices que da weba hacer overclock?
no es que de hueva, es que en terminos de velocidad del core no hay de donde rascar porque ya el cpu hace un trabajo mas que aceptable overclockeandose el solo.
Siendo filosófico hoy hasta un celular gama media tiene un gran poder de procesamiento y no necesitas realmente mas performance que lo que el sistema te da.
hmm no, no estoy de acuerdo porque hace diez anios no tenias LCDs a 144-240 hz ni tampoco juegos tan inimaginablemente pesados para ese entonces. es decir, la potencia es acorde a los tiempos.
Cuanto te costó esa tarjeta y procesador goomba?
la tarjeta de video + el cpu + 16 gb extra de ram me salieron en un poco menos de 1000$
Y es normal que caliente tanto o hay algo para bajar la temperatura?
supongo que estas hablando de la radeon? fijate que si, es normal que el Junction temp sea alto, es mas hace una o dos generaciones ni siquiera se media eso, la temperatura del gpu que ves en las herramientas es la temperatura al borde del chip no en el centro. y el chip se auto regula si se sale de los parametros establecidos, cuando esta topado corre a 2.2 ghz pero puede bajar hasta 1800 mhz si la temperatura se mantiene alta, si no te sentis comodo con la temperatura pre establecida, siempre le podes poner limite a la potencia que consume. aparte de eso el software tiene una onda que se llama radeon chill, que basicamente es que le limitas la velocidad a la tarjeta para que no pase de cierta cantidad de frames sin necesidad de activar Vsync, eso efectivamente reduce la temperatura y la velocidad. y claro, siempre podes activar vsync a 60hz o algo por el estilo. o si tenes el billete, comprarle un radiador a la tarjeta.
Decis que venis de una 1060 y me imagino que usabas el freesync de tu monitor para usar el gsync de la grafica.
La pregunta es si hay un cambio notorio en el uso nativo del freesync de la gráfica con el monitor?
puesss.... si, a veces la 1060 parpadeaba con freesync (no muy seguido pero un par de veces lo vi)
lo que si me gusta mucho es el manejo de multimonitor que tienen las radeon, cuando encendia el TV por ejemplo o cambiaba alguna configuracion en alguna de mis pantallas, todas parpadeaban y con esta, es bien vergon, apago las pantallas o les cambio algo y las demas como si nada.
otra cosa es que el manejo del HDMI es mejor, antes, cuando tenia conectado el tv pero apagado, el dispositivo de audio del tv siempre aparecia, ahora con radeon cuando apago la tv tambien se va el dispositivo de audio, que es como deberia ser.
Vale la pena la gráfica para sacrificar el RTX y el dlss 2.0 que ofrece nvidia?
fijate que en este tema estoy de acuerdo con Steve de Hardware Unboxed, raytracing ahorita es bien poco utilizado y no es un cambio substancial (aunque la mara de Digital Foundry casi que se masturba con esa onda) y para cuando realmente haya el vergo de juegos que usen raytracing la velocidad de las geforce de esta generacion van a ser demasiado lentas de todos modos, put@ man si hay juegos que como a 40 fps corren con RT encendido aun con una RTX 2070 Super. ahorita que DirectX va a soportar oficialmente raytracing, de aqui a unos cinco anios no me sorprenderia que haya una buena cantidad de juegos ya listos y nuevas tarjetas mas baratas que corran RT igual o mejor que la generacion actual al mismo (o menor) precio.
con DLSS 2 si ahuevos es mas complejo que el Radeon sharpening, supuestamente usa AI para hacer reconstruccion de imagen, mientras que las radeon solo es un filtro (bastante bueno, pero sigue siendo solo un filtro) el costo de velocidad de DLSS es mas alto que el de radeon image sharpening (que es casi gratis) pero si, es mejor. aun asi no justifica la diferencia de costos (la 2070 Super es 100$ mas cara que la 5700XT) por un minimo de mejora de calidad... nel.