Autor Tema: Intel: Los GPU no son 100 veces más rapidos, son sólo 14 veces. (HOY SI ENTERAN)  (Leído 10160 veces)

0 Usuarios y 7 Visitantes están viendo este tema.

Desconectado g00mba

  • The Communiter-
  • *
  • Mensajes: 14587
  • SOMOS LEGION
    • ALABADO SEA MONESVOL


lolz no había leido este tema XD si la inteligencia de este cipote le creciera como su altanería ya estubiera en la nasa XD lastima que parece ser una relacion inversa de altaneria-inteligencia XD

no hay peor ciego que el que no quiere ver, dos paginas traducidas en google lee de hardware y ya se cree ingeniero en sistemas y electrónico XD

Desconectado Necrolancer

  • The Communiter-
  • *
  • Mensajes: 4881
  • I made an ocean to take me away.


lolz no había leido este tema XD si la inteligencia de este cipote le creciera como su altanería ya estubiera en la nasa XD lastima que parece ser una relacion inversa de altaneria-inteligencia XD

no hay peor ciego que el que no quiere ver, dos paginas traducidas en google lee de hardware y ya se cree ingeniero en sistemas y electrónico XD

puya ese image macro se mira chistoso pero si lo miras desde el punto de vista no antropomorfico verias que es un gato agonizando y no riendose, espero que haya estado estirandose para bostezar...

Con respecto al gpu vs cpu, yo estoy esperando a que haya una integracion mas activa por parte del gpu, imaginense winrar con 128 hilos al mismo tiempo, te sacaria una compresion de gigas en segundos...
CORE I5 8400|ASUS TUF B360M-PLUS GAMING |HYNIX 2X8GB DDR4@2666| CORSAIR H50 COOLER | MSI RX 480 ARMOR OC 8GB

Desconectado salvadoresc

  • Global Moderator
  • The Communiter-
  • *
  • Mensajes: 11652
  • Adobe Certified Expert en ACISEAPRENDE
    • Foro de Diseno - Pixeles al Desnudo
Que más datos queres que una serie de imagenes formadas por 2D y 3D a un a una serie de datos formados por 0 y 1 XD.
aca tocaste mi tema, y dejame decirte que andas totalmente equivocado ya mx te hizo referencia respecto a lo ridiculo que tiene lo que dijiste pero por si acaso no te quedo claro o para evitar que otras personas puedan a llegar a creer que algo de lo que dijiste pueda ser verdad

los graficos y TODO lo que ves en una computadora esta en unos y ceros  te recomiendo que busques el articulo que escribi de profundidad de color en las imagenes eso probablemente te ayude a darte cuenta de tu error.
Awaken my child, and embrace the glory that is your birthright. Know that I am the Overmind; the eternal will of the Swarm.

haycoctelesamor.com

Desconectado mxgxw

  • Global Moderator
  • The Communiter-
  • *
  • Mensajes: 5665
  • Starlet - 999cc
    • mxgxw
aca tocaste mi tema, y dejame decirte que andas totalmente equivocado ya mx te hizo referencia respecto a lo ridiculo que tiene lo que dijiste pero por si acaso no te quedo claro o para evitar que otras personas puedan a llegar a creer que algo de lo que dijiste pueda ser verdad

los graficos y TODO lo que ves en una computadora esta en unos y ceros  te recomiendo que busques el articulo que escribi de profundidad de color en las imagenes eso probablemente te ayude a darte cuenta de tu error.

Abonando a la conversación. Creo que aquí el muchacho Clive esta un poco confundido de como se procesan los datos en un GPU.

Realmente TODOS los datos en una computadora se guardan como 1s y 0s, esto será así hasta que se desarrolle la computación cuantica. Pero actualmente desde la calculadora de bolsillo más sencilla hasta la ultima máquina Top-End guarda dentro de si los datos en forma de 1s y 0s.

Las tarjetas gráficas poseen funciones que permiten guardar y procesar fácilmente información acerca de geometrias, texturas y fuentes de luz, además implementan en hardware funciones "comunes" utilizadas para la codificacion/decodificación de audio y video. Esto sumado a una interface de programación adecuada (OpenGL o DirectX) te permite "trabajar" con datos que reprentan figuras geométricas e imágenes en 2D o 3D (como dice Clive). Sin embargo, estos datos siguen siendo 1s y 0s... que "estrategias" de almacenamiento y procesamiento se ocupe para procesar rápida y eficientemente estas representaciones de datos es los que diferencia a cada fabricante.

Muchas de las funciones matemáticas que son generalmente utilizadas para trabajar imágenes en 3D implican operaciones de matrices que trabajan con una gran cantidad de datos a la vez, las GPU están diseñadas realizar este tipo de trabajos.

Ahora... alguien pensó.. Bueno ¿Que tal si utilizo este gran poder de procesamiento... para trabajar por ejemplo... con una base de datos enoorme? O que tal si ocupo esta rapidez para trabajar grandes cantidades de datos para realizar calculos físicos. Y ahí es donde nace el termino acuñado como GPGPU (General-Purpose computation on GPU).

Obviamente para aplicaciones que trabajan con grandes cantidades de datos y/o son altamente paralelizables puede que sea más eficiente que el CPU delegue la tarea al GPU. Por ejemplo... la decodificación de un archivo de video.

¿Por qué entonces mejor no usamos un GPU en vez de un CPU? Simple... porque la mayoría de tareas que ejecuta la computadora no trabajan con grandes cantidades de datos, ni son demasiado paralelizables. La mayoría de procesos que controlan dispositivos de E/S trabajan en base a estimulos y el estado de la aplicación depende de los datos que se vayan leyendo ingresando. Los microprocesadores actuales son especiales ya que estan diseñados para trabajar con muchos saltos en el codigo y decisiones (o branchs). Los procesadores actuales incluso cuentan con prediccion de saltos que los que hacen es intentar de "adivinar" (dicho rapido y mal) cual sera la siguiente condicion de un programa para permitir a los procesos ejecutarse más rápido.

Mi opinión personal es que los micros del futuro incluiran varios nucleos para procesamiento general e igualmente poseeran nucleos para el procesamiento gráfico y multimedia. Intel ya ha sacado un par de estos micros para las laptops.

No falta mucho para que AMD saque algo así como un CPU Gamer que ya incluya un nucleo GPU dentro de sí. Esto ha de tener preocupadísima a la gente de Nvidia porque como dije reduciria considerablemente la latencia entre GPU-CPU y si tienes en el mismo chip el controlador de RAM, tenes un poder de procesamiento y gráficos muchísimo más potente que teniendo a la GPU separada del CPU por el bus de datos.

Como les dije antes.... El problema actual con el GPGPU es el cuello de botella causado por enviar los datos desde la memoria hasta el GPU via bus de sistema.
« Última Modificación: julio 18, 2010, 05:58:00 pm por mxgxw »


Desconectado JED57

  • -^- Elite Silver -^-
  • The Communiter-
  • *
  • Mensajes: 5808
Lo que actualmente ha hecho INTEL es poner el GPU y CPU en un mismo empaque, pero en nucleos separados. AMD todavia esta trabajando en un nucleo integrado, el tan esperado FUSION.



Con lo del cuello de botella, si me suena un poco extra;o, antes quiza con el FSB, que se coportia ancho de banda con la memoria. Pero nunca he leido ni por cerca que el PCI express sea cuello de botella.

Desconectado mxgxw

  • Global Moderator
  • The Communiter-
  • *
  • Mensajes: 5665
  • Starlet - 999cc
    • mxgxw
Lo que actualmente ha hecho INTEL es poner el GPU y CPU en un mismo empaque, pero en nucleos separados. AMD todavia esta trabajando en un nucleo integrado, el tan esperado FUSION.



Con lo del cuello de botella, si me suena un poco extra;o, antes quiza con el FSB, que se coportia ancho de banda con la memoria. Pero nunca he leido ni por cerca que el PCI express sea cuello de botella.

Nombre JED. Con cuello de botella me refiero a que no podes comparar tiempos de acceso [Chip]-[bus de datos]-[Chip] contra los que se dan dentro del mismo chip. La comunicación sobre el bus de datos siempre será más lenta. Justamente esa es la razon porque se inventó el "caché" en los microprocesadores, para reducir el tiempo de acceso a memoria y esa es la misma razon porque se incluye el controlador de memoria dentro del mismo procesador.

Si revisas la evolución de los microprocesadores, la miniaturización ha permitido incorporar en el CPU diferentes chips que antes eran externos. El primer ejemplo de esto fué la ALU (Unidad Aritmetico-Logica). La GPU va por el mismo camino :)
« Última Modificación: julio 18, 2010, 06:37:18 pm por mxgxw »


Desconectado JED57

  • -^- Elite Silver -^-
  • The Communiter-
  • *
  • Mensajes: 5808
Ah ok, si estaba algo confundido a lo que te referias, solo como dato curioso FERMI tiene 768KB de cache L2.

Curiosamente destinado para aplicaciones GPGPU, pues segun tengo entendido no tiene ningún tipo de utilización en el ambiente grafico.

Desconectado Clive Barker

  • The Communiter-
  • *
  • Mensajes: 4892
  • A Deeper Silence ever-
    • HightPerfomance (Ventas)


lolz no había leido este tema XD si la inteligencia de este cipote le creciera como su altanería ya estubiera en la nasa XD lastima que parece ser una relacion inversa de altaneria-inteligencia XD

no hay peor ciego que el que no quiere ver, dos paginas traducidas en google lee de hardware y ya se cree ingeniero en sistemas y electrónico XD

Lee el reporte de Intel. Y luego deci algo sano, estuviste como 5 años con el mismo sistema. Y pensar que tu ironia me superara lol

aca tocaste mi tema, y dejame decirte que andas totalmente equivocado ya mx te hizo referencia respecto a lo ridiculo que tiene lo que dijiste pero por si acaso no te quedo claro o para evitar que otras personas puedan a llegar a creer que algo de lo que dijiste pueda ser verdad

los graficos y TODO lo que ves en una computadora esta en unos y ceros  te recomiendo que busques el articulo que escribi de profundidad de color en las imagenes eso probablemente te ayude a darte cuenta de tu error.

Yo uso tengo el HW. Vos busca un articulo, además jamás o contadas veces pido ayuda. Yo resulvo mis problemas.. y/o no solo leo, compro y lo uso.

Sigo diciendo lo que el articulo explica y apoyo. Entonces Intel se equivoco?-

Aqui vamos a un grafiquito. Que ChileHardware puso hace rato. Donde comparaba micros de menos de $100 hasta $1000 y la tasa de FPS apenas variaba.

Me da risa algunos. Pareciera que andan tan perdidos, que piensan que yo me conmovere de su ignorancia. Por sigan asi.. creyendo que un CPU es más potente que un GPU. Sigan asi.. no se preoupen por mi. Yo tengo años.. en esto. Para que ustedes me frusten esta dificil.

Desconectado mxgxw

  • Global Moderator
  • The Communiter-
  • *
  • Mensajes: 5665
  • Starlet - 999cc
    • mxgxw
Lee el reporte de Intel. Y luego deci algo sano, estuviste como 5 años con el mismo sistema. Y pensar que tu ironia me superara lol

Yo uso tengo el HW. Vos busca un articulo, además jamás o contadas veces pido ayuda. Yo resulvo mis problemas.. y/o no solo leo, compro y lo uso.

Sigo diciendo lo que el articulo explica y apoyo. Entonces Intel se equivoco?-

Aqui vamos a un grafiquito. Que ChileHardware puso hace rato. Donde comparaba micros de menos de $100 hasta $1000 y la tasa de FPS apenas variaba.

Me da risa algunos. Pareciera que andan tan perdidos, que piensan que yo me conmovere de su ignorancia. Por sigan asi.. creyendo que un CPU es más potente que un GPU. Sigan asi.. no se preoupen por mi. Yo tengo años.. en esto. Para que ustedes me frusten esta dificil.


:facepalm: El motor de un bus tiene mas Hp que el motor de tu honda. Es mas potente sí.... te pregunto.. ¿Te vas a comprar un bus entonces? fkajddjfkfjf

Solo para que duermas feliz. Sí un GPU es mas potente que un CPU....... (en algunas tareas). XD


Desconectado Clive Barker

  • The Communiter-
  • *
  • Mensajes: 4892
  • A Deeper Silence ever-
    • HightPerfomance (Ventas)
:facepalm: El motor de un bus tiene mas Hp que el motor de tu honda. Es mas potente sí.... te pregunto.. ¿Te vas a comprar un bus entonces? fkajddjfkfjf

Solo para que duermas feliz. Sí un GPU es mas potente que un CPU....... (en algunas tareas). XD

Me da igual lo que piensen. Si piensan que CPU por si solo mueve un Game como Crysis pues XD.. pero si creen que una VGA recatable aun con PV 4 lo movera pues los felicito porque alli se ve que es más podersa o hace mas un GPU que un VERGA de micro sin un GPU descente.

Off Topic:
Mi Hondita no es made in China.. No compares busetas de la quinta Shit XD.. con un motor 100% japones. Si un bus tiene más HP, pero tienes menos maniobralidad, gastan más gas, solo se suben ladrones, mareros, putas, etc. En mi carro solo yo, mi puto cigarro y mis putas lol. Como que no hay comparación PARA QUE DURMAS bien vere si cambio temperalmente mi display. Para que veas que SPAM más hablas lol. Hay que darles a los periquitos.. no hayan que sacarme lol.

Desconectado mxgxw

  • Global Moderator
  • The Communiter-
  • *
  • Mensajes: 5665
  • Starlet - 999cc
    • mxgxw
Me da igual lo que piensen. Si piensan que CPU por si solo mueve un Game como Crysis pues XD.. pero si creen que una VGA recatable aun con PV 4 lo movera pues los felicito porque alli se ve que es más podersa o hace mas un GPU que un VERGA de micro sin un GPU descente.

Off Topic:
Mi Hondita no es made in China.. No compares busetas de la quinta Shit XD.. con un motor 100% japones. Si un bus tiene más HP, pero tienes menos maniobralidad, gastan más gas, solo se suben ladrones, mareros, putas, etc. En mi carro solo yo, mi puto cigarro y mis putas lol. Como que no hay comparación PARA QUE DURMAS bien vere si cambio temperalmente mi display. Para que veas que SPAM más hablas lol. Hay que darles a los periquitos.. no hayan que sacarme lol.


Bien dicen.... que la ignorancia es necia y atrevida.


Desconectado Caz

  • The Communiter-
  • *
  • Mensajes: 4818
  • Linux no es difícil, es diferente... sudo rm -rf /

Off Topic:
Mi Hondita no es made in China.. No compares busetas de la quinta Shit XD.. con un motor 100% japones. Si un bus tiene más HP, pero tienes menos maniobralidad, gastan más gas, solo se suben ladrones, mareros, putas, etc. En mi carro solo yo, mi puto cigarro y mis putas lol. Como que no hay comparación PARA QUE DURMAS bien vere si cambio temperalmente mi display. Para que veas que SPAM más hablas lol. Hay que darles a los periquitos.. no hayan que sacarme lol.


 :shock:

Clive :

Si hablas procura q sea mejor q el silencio ... te estan haciendo pedazos ,poniendote ejemplos claros y asi seguis sin entender ...



Hace dias lei esto en blog de metal y aplica mucho en la vida en general
  :thumbsup:

Citar
¨El metal es como la religión, cuando hables, muchos te odiarán, y otros te seguirán ciegamente, ambos están equivocados. Las verdades absolutas en el metal como en la música y en el arte son sólo discutibles entre personas calificadas, tal como lo hacen los científicos sobre la ciencia y los arquitectos sobre la construcción. Los demás pueden hundirse en su ignorancia y mofarse de sus pseudoconocimientos en el lodo de su soberbia inflada en la masa. Hablar es gratis, ofender es aun más fácil, reconocer la propia ignorancia es para los sabios. Bien dicha la frase: ¨Sólo se que no se nada¨. Quizás algun día sepan de lo que hablan y al menos sin el coraje y la modestia para retractarse simplemente se callen. Como bien dijo Marty Friedman, hoy lo quiero aplicar a todo lo que salga no sólo de un instrumento, sino de tu boca y tu alma: "Si vas a tocar algo procura que sea mejor que el silencio".
« Última Modificación: julio 18, 2010, 07:47:22 pm por Caz »

Desconectado vlad

  • Global Moderator
  • The Communiter-
  • *
  • Mensajes: 6351
    • Qualium.net
Creo que es mas facil entenderlo desde usando frases cortas:

1. La GPU tiene un gran volumen de procesamiento simultaneo, muy util y eficaz para las tareas que realiza (transformacion de texturas/calculo de primitivas de dibujo), sin embargo si se tratara de procesar una sola secuencia de comandos este seria mas lento que un CPU porque no podria paralelizar su funcionamiento. El GPU de la PS3 apenas tiene un clock de 550Mhz, asi que seria imposible decir que sustituir un CPU Core i7 con un chipset GPU del PS3 para correr un OS resultara en algo "100 veces mas rapido".

2. La CPU tiene mayores frecuencias de operacion y esta optimizado para procesar lo mas rapido posible un solo flujo de datos, sin embargo si tratara de transformar una matriz gigante de datos (osea, una imagen) seria mas lento porque no puede realizar el proceso simultaneamente.


En el maximo resumen posible: ni el GPU esta capacitado para lo que hace el CPU, ni viceversa.

Si un GPU fuera en todos los ambitos, mucho mas rapido que un CPU, hace tiempos que hubieran desaparecido estos ultimos.

DoggyDog

  • Visitante
Aqui vamos a un grafiquito. Que ChileHardware puso hace rato. Donde comparaba micros de menos de $100 hasta $1000 y la tasa de FPS apenas variaba.

Me da risa algunos. Pareciera que andan tan perdidos, que piensan que yo me conmovere de su ignorancia. Por sigan asi.. creyendo que un CPU es más potente que un GPU. Sigan asi.. no se preoupen por mi. Yo tengo años.. en esto. Para que ustedes me frusten esta dificil.

Yo digo que Clive tiene razón.

Para que gastar más?


Clive! botá tu intel y pasate a nuestras AMD de 200 pesos lol. Si al final la diferencia no es nada entre procesadores, mucho menos entre estas 2 marcas! entonces.. para q regalaré $200 más?

y en vez de las nuevas ATI y nuevos Nvidia, mejor los de generación anterior, no?

Desconectado Clive Barker

  • The Communiter-
  • *
  • Mensajes: 4892
  • A Deeper Silence ever-
    • HightPerfomance (Ventas)
OK.! yo se que eh revolucionado el mundo de HW esta comunidad pero si con esto no entienden será imposible:

[youtube]fKK933KK6Gg[/youtube]

Señores, amigos, moderadores y visitantes. Por favor aprendan conmigo lol.. no me sigan la contra que no llegaran muy lejos.

Si no saben inglés no es mi culpa. lol AH AH Grande Clive!! Hoy si entendi joder.. :rofl: