Autor Tema: Intel: Los GPU no son 100 veces más rapidos, son sólo 14 veces. (HOY SI ENTERAN)  (Leído 10154 veces)

0 Usuarios y 2 Visitantes están viendo este tema.

Desconectado Clive Barker

  • The Communiter-
  • *
  • Mensajes: 4892
  • A Deeper Silence ever-
    • HightPerfomance (Ventas)
Esto lo leí hace varias semanas. Y me dio risa, como unos dicen prefiero gastar el doble en un CPU a gastar en GPU. Bueno esa lógica no sirve, y la verdad es que como ya lo dije un sistema balanceado es la mejor inversión pero en cuestión de rendimiento el GPU rinde más y tiene un papel más dinámico en una PC que un CPU- Bueno esto va en contestación al amigo Observado lol. Lea papa, aqui estoy para enseñar. 

Citar
Es un día muy raro en el mundo de la tecnología, cuando una compañía competidora con stands en una importante conferencia declara que nuestra tecnología es sólo hasta 14 veces más rápida que el de ellos. De hecho en los 26 años que estoy en esta industria, no puedo recordar que una empresa promueva benchmarks comparativos en orden de magnitud de lentitud.
Luego de esos comentarios iniciales los de Nvidia nuevamente reafirman su “mito” mostrando una tabla donde muestran incrementos ya no de 100 veces superiores, sino incrementos de hasta 300 veces superiores a los CPU.

Lo que originó una nueva respuesta de Intel:

Esos resultados corresponden a pequeños segmentos, los que representan sólo una fracción de todo el trabajo que realiza una aplicación real. Como se ve en el documento la superioridad de los GPU es a menudo exagerada.

Procesadores de propósito general como Intel Core i7 o Intel Xeon son las mejores opciones para la gran mayoría de aplicaciones, ya sean cliente, servidor, o para el mercado HPC. Esto se debe al conocido modelo de la arquitectura de programación de Intel, herramientas maduras de desarrollo de software, y el desempeño más sólido en una amplia gama de cargas de trabajo y no sólo algunos núcleos de aplicación.

Si bien es posible programar un procesador gráfico para calcular procesos no gráficos, el rendimiento óptimo se logra típicamente sólo con una alta cantidad de optimización a mano, requiriendo lenguajes gráficos similares a programación de shaders DirectX o OpenGL o lenguajes no estándares de la industria. Para que las aplicaciones HPC que se benefician de un nivel extremadamente alto de paralelismo, la arquitectura Intel MIC (Larrabee) será una buena opción ya que soporta las herramientas y bibliotecas estándar en lenguajes de alto nivel como C / C + +, FORTRAN, OpenMP, MPI, entre muchas otros estándares.


FUENTES:
Código: [Seleccionar]
http://www.techeye.net/hardware/nvidia-gloats-over-intel-gpu-speed-concession

http://www.tgdaily.com/hardware-features/50329-is-nvidias-geforce-14x-faster-than-intels-core-i7

http://portal.acm.org/citation.cfm?id=1816021&coll=GUIDE&dl=GUIDE&CFID=94608761&CFTOKEN=50783980&ret=1#Fulltext
« Última Modificación: julio 18, 2010, 08:01:40 pm por Clive Barker »

Desconectado Jarthur

  • -*-Miembro Eterno-*-
  • The Communiter-
  • *****
  • Mensajes: 5706
  • SVC Old Member.
Yo no veo aplicaciones para los mortales que corran mejor en la gpu que en el cpu. Talvez si me he dado cuenta, pero de bolados asi especializados.

La unica aplicacion que uso y que supuestamente acelera por gpu es VLC. Pero no le hayo la gran diferencia.
Tech Chat SV Community.

Desconectado mmxx

  • MiembrosReales
  • *
  • Mensajes: 38
pues hay varias aplicaciones como el CoreAvc q accelera los videos la diferencia esta en los cuadros o fps  (depende del video tambien 25-60) q al hacer otras actividades en la pc los fps del video no son constantes en el caso del cpu el Adobe Flash 10.1 tiene acceleracion por gpu

un claro ejemplo q al desactivar la accelaracion por hardware por ratos se ve lento

http://www.toyota.com/vehicles/minisite/newprius

tabiem e utizado esta maravillosa aplicacion "Elcomsoft Wireless Security Auditor" sirver para conseguir un password wpa2  depues de capturar un paqute "handshake" lo hace en cuestion en minutos al contrario q la cpu dias

http://www.elcomsoft.com/ewsa.html
 
en fin son varias las aplicaciones 
Aristóteles envenenado, Jesús crucificado, Gandhi asesinado, ellos recordados eternamente. El maestro tenia la mente tan equilibrad que para no vivir eternamente se suicido...               Te creo capaz de todo mal por eso te exijo el bien-.Nietzsch

Desconectado carlos

  • Sv Full Member
  • *
  • Mensajes: 732
  • je ahuevooo
bueno si nVidia dice que sus procesadores son mas rapidos que los de intel entonces que se meta al mercado de CPUs.

Desconectado juanca

  • The Communiter-
  • *
  • Mensajes: 1112
Otro cuento chino. Los gpu son buenos para lo que los han hecho: Graficos.

Ahora las compañias tratan de vender la idea de que se pueden usar los GPU para algo mas que graficos. Cierto, mas que todo en matematicas y tareas que ya estan optimizadas en los GPU y que en CPU toma mas instrucciones para realizar.

Pero lo de el uso multiple de los GPU no es nuevo, recordemos los chips TI TIGA o los IBM 8514A que eran CPU aparte para procesos de video y que se programaban sus funciones por software.

Los de intel cuando aparecio el bus PCI salieron con esa loquera de NHP (native host processing). Dejarle las funciones al chip Lentium para procesar audio y video. Lo unico que han quedado son algunos modems bajeritos que aun funcionan de esa manera, ya que se desmejoraba terriblemente el desempeño.

Tus derechos comienzan donde terminan tus responsabilidades......

Desconectado Clive Barker

  • The Communiter-
  • *
  • Mensajes: 4892
  • A Deeper Silence ever-
    • HightPerfomance (Ventas)
Otro cuento chino. Los gpu son buenos para lo que los han hecho: Graficos.

Mmm Esa declaración no llega ni a fabula. Aparentemente el GPU solo hace gráficas, pero la función en un sistema también es liberar funciones de la mobo que esto se traduce en desactivar funciones de video integrado, liberar ram cuando esta activada la integrada, etc. No se trata de su "única" función de generar gráficos sino que en una solo función, es capaz de generar más procesos que el CPU. Ese es el punto, el proceso de genarar video es mucho más complejo de lo que piesan. Y decir que un GPU es más rápido que un CPU es decir, que para ciertas cantidad de procesos el GPU agrupa y define con mayor rapidez y calidad que el CPU.

Desconectado mxgxw

  • Global Moderator
  • The Communiter-
  • *
  • Mensajes: 5665
  • Starlet - 999cc
    • mxgxw
Otro cuento chino. Los gpu son buenos para lo que los han hecho: Graficos.

Ahora las compañias tratan de vender la idea de que se pueden usar los GPU para algo mas que graficos. Cierto, mas que todo en matematicas y tareas que ya estan optimizadas en los GPU y que en CPU toma mas instrucciones para realizar.

Pero lo de el uso multiple de los GPU no es nuevo, recordemos los chips TI TIGA o los IBM 8514A que eran CPU aparte para procesos de video y que se programaban sus funciones por software.

Los de intel cuando aparecio el bus PCI salieron con esa loquera de NHP (native host processing). Dejarle las funciones al chip Lentium para procesar audio y video. Lo unico que han quedado son algunos modems bajeritos que aun funcionan de esa manera, ya que se desmejoraba terriblemente el desempeño.



x2 Esque realmente los GPU son más rápidos que los CPU en ciertas tareas. Por ejemplo, si un programa trabaja con una gran cantidad de datos y el proceso se puede realizar de forma paralela entonces es un buen candidato para correrse en la GPU.

Ejemplos: Graficos 3D, procesamiento multimedia, operaciones sobre grandes bases de datos, procesamiento de datos de manera distribuida.

Ahora... si queres utilizar un GPU para hacer tareas generales te vas a llevar la sorpresa de que son más lentos que un CPU. Ya que no estan diseñados para manejar de manera optima todos los saltos y bifurcaciones en el codigo que tiene que manejar un CPU.

Ademas hay que recordar que un CPU tiene funciones especialmente diseñadas para que el sistema operativo haga buen uso de la memoria y las entradas y salidas del sistema. Cosas que no maneja un GPU.

Otro punto es el ancho de banda disponible. Para que los datos puedan ser procesados en la GPU tienen que copiarse a la memoria de la GPU y tenes un cuello de botella llamado PCI-e.

Ahora...... la evolución del CPU ha ido desde un procesador completamente general que ha ido incluyendo diferentes componentes que antes eran externos. Por ejemplo primero se añadió un coprocesador matemático (que era un chip aparte); luego se añadieron modulos para trabajo de puntos flotantes, modulos de procesamiento multimedia, modulos de acceso a memoria etc, etc.

Tanto Intel como AMD estan siguiendo con esa tradición y tienen planificado hacer CPUs que incluyan dentro de si las unidades de GPU. Así como los micros de las consolas que tienen uno o dos cores de procesamiento general y otra de procesamiento vectorial. En el futuro no se extrañen de ver procesadores que tengan 4 cores que sean CPU y un par que sean GPU.

¿Por qué meter el GPU dentro del mismo micro? Pues porque así reduces increiblemente el tiempo de acceso a memoria y te permite mover los datos directamente entre CPU-GPU.

Ya van a ver!! No crean que AMD Compró ATI por gusto :)


Desconectado mxgxw

  • Global Moderator
  • The Communiter-
  • *
  • Mensajes: 5665
  • Starlet - 999cc
    • mxgxw
Mmm Esa declaración no llega ni a fabula. Aparentemente el GPU solo hace gráficas, pero la función en un sistema también es liberar funciones de la mobo que esto se traduce en desactivar funciones de video integrado, liberar ram cuando esta activada la integrada, etc. No se trata de su "única" función de generar gráficos sino que en una solo función, es capaz de generar más procesos que el CPU. Ese es el punto, el proceso de genarar video es mucho más complejo de lo que piesan. Y decir que un GPU es más rápido que un CPU es decir, que para ciertas cantidad de procesos el GPU agrupa y define con mayor rapidez y calidad que el CPU.

Lamento decirte que no mi querido saltamontes. No es que un GPU genere más procesos, sino que puede procesar más datos de manera paralela. Esto es una gran cosa cuando tenes que calcular las posiciones de 1280x1600 pixeles, o cuando tenes que calcular las velocidades de 10000000 de particulas independientes que se mueven por pantalla.

Sin embargo, esto te sirve de poco o nada cuado tenes instrucciones secuenciales que se ejecutan una despues de otra. O en otras palabras. Si intentaras correr un OS completo uncamente en una GPU, te darias cuanta que tardaría muchiiiiiisimo mas que en un CPU de gama baja... ¿Por qué? Porque muchas de las instrucciones son secuenciales y no se pueden paralelizar.

No es lo mismo paralelizar procesos (para eso estan los CPU multi-core) que paralelizar el procesamiento de datos.


Te recomiendo leas los artículos de Ars Technica acerca de la arquitectura de procesadores... Son muy bonitos, muy detallados y muy fáciles de entender:

http://arstechnica.com/cpu/index.html

Así conoces un poco más de como funciona lo de la "microarquitectura" y de como se han ido fusionando diferentes modulos externos al CPU moderno.
« Última Modificación: julio 18, 2010, 10:04:07 am por mxgxw »


Desconectado Clive Barker

  • The Communiter-
  • *
  • Mensajes: 4892
  • A Deeper Silence ever-
    • HightPerfomance (Ventas)
Lamento decirte que no mi querido saltamontes. No es que un GPU genere más procesos, sino que puede procesar más datos de manera paralela. Esto es una gran cosa cuando tenes que calcular las posiciones de 1280x1600 pixeles, o cuando tenes que calcular las velocidades de 10000000 de particulas independientes que se mueven por pantalla.

Sin embargo, esto te sirve de poco o nada cuado tenes instrucciones secuenciales que se ejecutan una despues de otra. O en otras palabras. Si intentaras correr un OS completo uncamente en una GPU, te darias cuanta que tardaría muchiiiiiisimo mas que en un CPU de gama baja... ¿Por qué? Porque muchas de las instrucciones son secuenciales y no se pueden paralelizar.

No es lo mismo paralelizar procesos (para eso estan los CPU multi-core) que paralelizar el procesamiento de datos.



Que más datos queres que una serie de imagenes formadas por 2D y 3D a un a una serie de datos formados por 0 y 1 XD. Apesar que los gráifcos se generan esos mismos patrones. Los procesos de crear video es muchismimo más complejo. Este Mx a puro Wiki.. me quiere ganar lol. Saben que dentro del calo popular mejor dicho, los que crearon Doom la primera versión que el verdadero comienzo de los games fue creado en "2D y medio" asi lo llamaron sus creadores. Porque era imposible crear (en ese tiempo, por la falta de PROCESAMIENTO DE VIDEO) generar el 3D que creara sombras, alt, ancho y fondo. Lo que hicieron fue crear moldes de diferentes tamaños para simular ese pequeño cambio en figuras o moustruos que simularan el "entrelazado en video". En otras palabras.. caemos a algo el CPU es más potente lol-

Desconectado mxgxw

  • Global Moderator
  • The Communiter-
  • *
  • Mensajes: 5665
  • Starlet - 999cc
    • mxgxw
Que más datos queres que una serie de imagenes formadas por 2D y 3D a un a una serie de datos formados por 0 y 1 XD. Apesar que los gráifcos se generan esos mismos patrones. Los procesos de crear video es muchismimo más complejo. Este Mx a puro Wiki.. me quiere ganar lol. Saben que dentro del calo popular mejor dicho, los que crearon Doom la primera versión que el verdadero comienzo de los games fue creado en "2D y medio" asi lo llamaron sus creadores. Porque era imposible crear (en ese tiempo, por la falta de PROCESAMIENTO DE VIDEO) generar el 3D que creara sombras, alt, ancho y fondo. Lo que hicieron fue crear moldes de diferentes tamaños para simular ese pequeño cambio en figuras o moustruos que simularan el "entrelazado en video". En otras palabras.. caemos a algo el CPU es más potente lol-


Clive. te cuento que en la U los de computación llevamos una materia que se llama microprocesadores. Que es donde vemos todos estos detalles de los diferentes tipos de procesadores, interconexiones entre los mismos, diferentes tipos de acceso a memoria. Historía del desarrollo de los microprocesadores.

Te podría recomendar tambien un libro de arquitectura de microprocesadores, pero te pego los articulos de arstechnica para que COMPRENDAS la base teorica de una manera más sencilla que teniendo que agarrar un libro de 200 páginas que se que no vas a leer.

Podes hacer una busqueda rápida en google para ver si encontras mis post en otro foro o en alguna wiki.

Mientras tanto te recomiendo leas este artículo donde explican a detalle y de una manera sencilla como trabaja un microprocesador:

http://arstechnica.com/paedia/c/cpu/part-1/cpu1-1.html

Te voy a hacer una analogia de carros: Imaginate tenes un camion de volteo.... y un porsche GT3, ambos tienen motores que andan por los 400-450hp. Pero imaginate que tenes que trasladar una camionada de tierra de un lado a otro de san salvador. ¿Que sera más eficiente? Llevar saco por saco en el GT3 y hacer 40 viajes... o meter todo de una vez en el camion de volteo y hacer un solo viaje. O lo contrario... si queres llegar rapido de un lado a otro de san salvador.. ¿Que agarras el GT3 o el camion de volteo?

Como veras lo que pasa es que estan diseñados para tareas diferentes.. Lo mismo pasa con el CPU y el GPU. No es lo mismo abrir office que codificar un video en H.264


Desconectado Clive Barker

  • The Communiter-
  • *
  • Mensajes: 4892
  • A Deeper Silence ever-
    • HightPerfomance (Ventas)
Clive. te cuento que en la U los de computación llevamos una materia que se llama microprocesadores. Que es donde vemos todos estos detalles de los diferentes tipos de procesadores, interconexiones entre los mismos, diferentes tipos de acceso a memoria. Historía del desarrollo de los microprocesadores.

Te podría recomendar tambien un libro de arquitectura de microprocesadores, pero te pego los articulos de arstechnica para que COMPRENDAS la base teorica de una manera más sencilla que teniendo que agarrar un libro de 200 páginas que se que no vas a leer.

Podes hacer una busqueda rápida en google para ver si encontras mis post en otro foro o en alguna wiki.

Mientras tanto te recomiendo leas este artículo donde explican a detalle y de una manera sencilla como trabaja un microprocesador:

http://arstechnica.com/paedia/c/cpu/part-1/cpu1-1.html

Te voy a hacer una analogia de carros: Imaginate tenes un camion de volteo.... y un porsche GT3, ambos tienen motores que andan por los 400-450hp. Pero imaginate que tenes que trasladar una camionada de tierra de un lado a otro de san salvador. ¿Que sera más eficiente? Llevar saco por saco en el GT3 y hacer 40 viajes... o meter todo de una vez en el camion de volteo y hacer un solo viaje. O lo contrario... si queres llegar rapido de un lado a otro de san salvador.. ¿Que agarras el GT3 o el camion de volteo?

Como veras lo que pasa es que estan diseñados para tareas diferentes.. Lo mismo pasa con el CPU y el GPU. No es lo mismo abrir office que codificar un video en H.264

Vamos por partes. Primero este es un proyecto de investigación, lastimisamente ya no se puede bajar pero allí están los links. Segundo lo que apoyo y siempre eh creido lo comprueban con un estudio del mismo Intel. Para desmentir lo que Nvidia dijo (ambos enemigos lol) Me estás diciendo entonces entonces que Intel se equivoco y que el CPU es más potente lol?.. No me digas que si porque muero de la risa.

Por cierto la mejor práctica de HW es tener usarlo y aprender de el. Las Universidades del país dan lastima.. lol enseñar el pasado pero no enseñar a como entender el futuro de la computación. Es como aprender del pasado y dejar el futuro al pasado XD.

Desconectado mxgxw

  • Global Moderator
  • The Communiter-
  • *
  • Mensajes: 5665
  • Starlet - 999cc
    • mxgxw
Vamos por partes. Primero este es un proyecto de investigación, lastimisamente ya no se puede bajar pero allí están los links. Segundo lo que apoyo y siempre eh creido lo comprueban con un estudio del mismo Intel. Para desmentir lo que Nvidia dijo (ambos enemigos lol) Me estás diciendo entonces entonces que Intel se equivoco y que el CPU es más potente lol?.. No me digas que si porque muero de la risa.

Por cierto la mejor práctica de HW es tener usarlo y aprender de el. Las Universidades del país dan lastima.. lol enseñar el pasado pero no enseñar a como entender el futuro de la computación. Es como aprender del pasado y dejar el futuro al pasado XD.


:facepalm: Que yo sepa en ninguna universidad del país te prohiben investigar o leerte un buen libro acerca de arquitectura de hardware y microprocesadores. Que por cierto en internet con poquito de paciencia se encuentran muchísimos!!!

Tal vez nunca nos pongamos a diseñar nuestro propio micro, pero al que es curioso nada le impide leer e investigar mas. Lástimosamente creo que vos no queres leer ni lo más básico que esta muy fácilmente explicado en los artículos de ars technica.. Y vos sabes lo que dicen, cada quien llega hasta a donde quiere llegar ;)


Desconectado mxgxw

  • Global Moderator
  • The Communiter-
  • *
  • Mensajes: 5665
  • Starlet - 999cc
    • mxgxw
Que más datos queres que una serie de imagenes formadas por 2D y 3D a un a una serie de datos formados por 0 y 1 XD. Apesar que los gráifcos se generan esos mismos patrones. Los procesos de crear video es muchismimo más complejo. Este Mx a puro Wiki.. me quiere ganar lol. Saben que dentro del calo popular mejor dicho, los que crearon Doom la primera versión que el verdadero comienzo de los games fue creado en "2D y medio" asi lo llamaron sus creadores. Porque era imposible crear (en ese tiempo, por la falta de PROCESAMIENTO DE VIDEO) generar el 3D que creara sombras, alt, ancho y fondo. Lo que hicieron fue crear moldes de diferentes tamaños para simular ese pequeño cambio en figuras o moustruos que simularan el "entrelazado en video". En otras palabras.. caemos a algo el CPU es más potente lol-


JJAJAJAJAJAJAJAJAJAJA No había leido con detenimiento eso XD Uta clive, disculpame, no me había fijado que la memoria de las computadoras había avanzado tanto que los datos ya no se guardan como 0 y 1 sino como objetos tridimensionales.. XD HAHAHAHA Me imagino que el proximo avance será que también van a poder guardar liquidos, la velocidad del viento y la gravedad.

Como diria Residente Calle 13: Nombre papito.. si pa' tirarme a mi hay que estudiar!! XD


Desconectado Jarthur

  • -*-Miembro Eterno-*-
  • The Communiter-
  • *****
  • Mensajes: 5706
  • SVC Old Member.
yo siento que esta naciendo una relacion jarawa-yoker. Juuuummmmm


se siente el amor en el aire.  JOS JOS JOS JOS JOS
Tech Chat SV Community.

Desconectado obser7er

  • The Communiter-
  • *
  • Mensajes: 4728
  • ferg(at)pcpimpz.com
    • PcPimpz Gamer Store - sucursal SVC
Te voy a hacer una analogia de carros: Imaginate tenes un camion de volteo.... y un porsche GT3, ambos tienen motores que andan por los 400-450hp. Pero imaginate que tenes que trasladar una camionada de tierra de un lado a otro de san salvador. ¿Que sera más eficiente? Llevar saco por saco en el GT3 y hacer 40 viajes... o meter todo de una vez en el camion de volteo y hacer un solo viaje. O lo contrario... si queres llegar rapido de un lado a otro de san salvador.. ¿Que agarras el GT3 o el camion de volteo?

Mandó a decir Clive que prefiere hacer los 100 viajes él mismo, en su Civic SI XD

Con Clive es por gusto discutir ni con dibujitos entiende.
info: ferg(at)pcpimpz.com
Newegg|TigerDirect|Amazon|Directron|DELL-USATODO NUEVO Y SELLADO - Mandar a traer HW no es más barato pero es lo mejor!