El Intel Core i7-2600K re-probado, contra Ryzen 7 1800X y Core i7-8700K

En 2011, Intel lanzó una nueva serie de procesadores basada en lo que se conoce como la arquitectura Sandy Bridge, hasta la fecha mucha gente todavía se encuentra en una plataforma que utiliza dicho procesador. Se puede recordar que el Core i5-2500K gusto en muchas revisiones, y del Core i7 2600K se habían referido al procesador como algo que se acerca a la perfección. El consumo de energía era encantador, se ajustaba bien, tenía las frecuencias de reloj predeterminadas adecuadas y los núcleos cuádruples eran el objetivo.

Desde que se lanzó Sandy Bridge, muchas cosas han cambiado. Intel, sin embargo, se mantuvo en un ritmo de cuatro núcleos mainstream muy estable, aumentando lentamente las frecuencias de los relojes y los pequeños cambios en la arquitectura. Los cambios en la plataforma también generaron muchas diferencias, la introducción de líneas PCIe más rápidas y tecnologías como USB 3.x, Thunderbolt, SATA3 y más recientemente M.2. Las SSD cambiaron el panorama de la PC para siempre. Sin embargo, Intel siempre se adhirió a su diseño de cuatro núcleos, fue solo debido al lanzamiento de Ryzen el año pasado que Intel se alejó de su dominio de cuatro núcleos, por el simple hecho de que no había una razón real para hacer transición a seis y más núcleos (en el segmento convencional y no HEDT)

Hasta la fecha, muchos … en serio, muchos de nuestros lectores todavía usan una plataforma basada en Sandy Bridge o algo similar. Esa plataforma todavía ofrece suficiente rendimiento en el procesador para la mayoría de las tareas, sin embargo, está envejeciendo bastante rápido debido a los cambios de la plataforma.

Pensamos que sería divertido tomar ese procesador de siete años, actualizarlo con el paquete de pruebas de software Guru3D 2018, pero también arrancar un par de juegos y luego compararlo con el Ryzen 7 1800X y el procesador Coffee Lake de 8va 8700K.

Un poco de historia
Sandy Bridge fue la primera generación de procesadores para el socket 1155 y compartió una gran cantidad de innovaciones, incluyendo un diseño IGP y de bus de anillo. Hasta la fecha, el diseño del bus de anillo utiliza procesadores de hasta-pero que no incluyen Skylake-X de gama alta que se movían hacia su estructura de malla. Hagamos los pasos y cambios de nombre entre arquitecturas, ya que ha habido siete pasos:

Sandy Bridge era una arquitectura completamente nueva. El rendimiento general del procesador nos dejó boquiabiertos a todos y dentro del chip, fusionados profundamente allí, vimos esta nueva cosa, una GPU integrada con el doble de rendimiento que la última generación que vimos de los procesadores Clarkdale. Fue una mejora en el segmento de gama baja. Sin embargo, había más, notamos una nueva extensión de conjunto de instrucciones AVX y también detectamos un motor Turbo actualizado que permite un rendimiento por núcleo mucho más eficiente y frecuencias de reloj. Finalmente, el consumo de energía fue otro factor que se abordó. Junto con Sandy bridge llegaron los nuevos chipsets de la motherboard, diez en total, cinco de ellos para procesadores de escritorio, a saber, el P67, H67, Q65, Q67 y B65. El chipset P67 estaba dirigido a usuarios finales entusiastas y de rendimiento, lo que permite ajustes y funciones de rendimiento.

La arquitectura
Los procesadores Clarkdale anteriores tenían una GPU de 45nm y un núcleo de CPU de 32 nm colocado en un paquete de chips, en la arquitectura de Sandy Bridge se unió y fusionó estas dos partes en un chip basado en un nodo de fabricación de 32nm. SB (Sandy Bridge) Los procesadores basados ​​en Core i5 e i7 tienen cuatro núcleos de CPU físicos (ejecución), cada uno con capacidad para un hiper-hilo (lo que hace que 4 núcleos físicos tengan subprocesos en 8 núcleos lógicos ). Sandy Bridge presenta Intel Turbo Boost que se ha desarrollado aún más y ahora está en la revisión 2.0.

Tabla donde puedes observar todas las especificaciones y precios principales en el momento del lanzamiento.

La memoria caché de Sandy Bridge consta de un caché de datos L1 de 32 KB, caché de instrucciones de 32 KB (= 64 KB L1) y luego detectamos un caché L2 de 256 KB por núcleo. Luego hay una caché L3 que se comparte entre los núcleos de la CPU, que es de 8 MB en total para los procesadores Core i7 2600 y de 6 MB para Core i5 2500. La caché L3 se encuentra en la forma física de un bus de anillo. Por lo tanto, la memoria caché L3 puede ser utilizada por los núcleos del procesador y también por el núcleo de gráficos. Todo esto todavía suena muy familiar, ¿eh?

Imágenes de CPU-Z
Aquí tenemos capturas de pantalla de CPU-Z del procesador y la placa base que usamos hoy, echemos un vistazo




El consumo de energía
En estado INACTIVO, una PC (placa base/procesador/memoria/SSD/GTX 1080) consume aproximadamente 45 vatios. Este número depende y variará según la placa base (ICs/controladores agregados/wifi/Bluetooth) y PSU (eficiencia). Tenga en cuenta que medimos toda la PC, no solo el consumo de energía del procesador. Su PC promedio puede diferir de nuestros números si agrega unidades ópticas, discos duros, tarjetas de sonido, etc.

Las mediciones de consumo de energía difieren según la PC y la configuración. Sus componentes conectados utilizan energía, pero la placa base también puede tener IC adicionales instalados, como un controlador de audio, chips de terceros, controladores de red, controladores SATA adicionales, controladores USB adicionales, y más. Todas estas partes consumen energía, por lo que estos resultados son una indicación subjetiva. A continuación, enfatizamos todos los núcleos de la CPU al 100% y, por lo tanto, mostramos el consumo máximo de potencia. A menos que transcodifique video con el software correcto, su consumo de energía promedio será mucho menor.

Pero como puede ver, el consumo de energía permaneció igual, sin embargo, el 8700K es un procesador de seis núcleos, ¡el Ryzen 7 1800X tiene ocho de ellos!

Todavía corre bien, las temperaturas de esfuerzo/carga son moderadas, en la lineas de ~50 C en el sensor del paquete. Estos, por supuesto, son resultados predeterminados y no ajustados y basados ​​en Wprime en una ejecución de 1024M. El procesador está inactivo a aproximadamente 30 grados C. Utilizamos un disipador Noctua Heatpipe.

Hardware y software utilizados
Ahora comenzamos la parte de referencia de este artículo, pero primero, permítame mostrarle el sistema de prueba más el software utilizado.

 

  • Mainboard: H67H2-M Black Deluxe (Micro ATX)
  • Procesador: Intel Core i7 2600K (Sandy Bridge)

 

 

  • Tarjetas gráficas: GeForce GTX 1080
  • Memoria: 4×4 GB DDR3 a 1333 MHz
  • Fuente de alimentación: Corsair certificada 1200X Platinum AX1200i
  • Monitor: Dell 3007WFP – QHD hasta 2560×1600. Monitor nativo 4K UHD ASUS PQ321 a 3840 x 2160

 

Software relacionado con SO

 

  • Windows 10 (últimos parches y actualizaciones instalados)
  • DirectX 9/10/11/12 último runtime
  • Nvidia GeForce driver 391.05

 

Suite de referencia de software

 

  • SiSoft Sandra
  • Aida
  • 3DMark FireStrike (DX11)
  • 3DMark Time Spy (DX12)
  • Handbrake
  • CineBench 15
  • Corona Benchmark
  • VEGAS Pro 14
  • CPU-Z
  • FryRender
  • Tomb Raider DX12 (2016)
  • Hitman (2016)
  • Shadow of Mordor
  • Ghost Recon: Wildlands

 

Una palabra sobre “FPS”
¿Qué estamos buscando en el juego, en cuanto al rendimiento? En primer lugar, obviamente, Guru3D tiende a pensar que todos los juegos deben jugarse con la mejor calidad de imagen posible (IQ). Sin embargo, hay un dilema: el cociente intelectual a menudo interfiere con el rendimiento de una tarjeta gráfica. Medimos esto en FPS, la cantidad de fotogramas que puede generar una tarjeta gráfica por segundo, cuanto más alta sea, más fluidez tendrá su juego.

Los cuadros por segundo (FPS) de un juego son un promedio medido de una serie de pruebas. Esa prueba es a menudo una demo de tiempo, una parte grabada del juego que es una representación 1:1 del juego real y su experiencia de juego. Después de forzar la misma configuración de calidad de imagen; esta vez, la demostración se usa para todas las tarjetas gráficas de modo que la medición real sea tan objetiva como sea posible.
60 FPS: el mejor juego posible

Entonces, si una tarjeta gráfica apenas logra menos de 30 FPS, entonces el juego no es muy jugable, queremos evitarlo a toda costa.
Con 30 FPS hasta aproximadamente 40 FPS, podrás jugar el juego con un pequeño tartamudeo en ciertas partes gráficamente intensas. En general, fue una experiencia muy agradable. Haga coincidir la mejor resolución posible con este resultado y obtendrá la mejor calidad de imagen frente a la resolución, ojalá que ambos estén lo más altos posible.
Cuando una tarjeta gráfica está haciendo 60 FPS en promedio o más, entonces puedes estar seguro de que el juego probablemente se jugará sin problemas en todos los puntos del juego, activando cada posible configuración de calidad en el juego.
Más de 100 FPS? O tienes una tarjeta gráfica SUPER o un juego muy antiguo.

Configuración del monitor
Antes de jugar, configurar los niveles de brillo y contraste de su monitor es muy importante. Me di cuenta recientemente de que muchos de ustedes han configurado su monitor incorrectamente. Cómo sabemos esto? Porque recibimos un par de correos electrónicos que de vez en cuando nos dicen que un lector no puede distinguir entre los cuadros de referencia (colores) en nuestras revisiones. Nos dimos cuenta, si eso sucede, su monitor no está configurado correctamente.

Mirando el gráfico de arriba, ¿qué estás buscando?
Barra superior: este patrón de prueba simple está espaciado uniformemente de 0 a 255 niveles de brillo, sin perfil incrustado. Si su monitor está configurado correctamente, debe poder distinguir cada paso , y cada paso debe ser visualmente distinto de sus vecinos en la misma cantidad. Además, las diferencias de escalón del extremo oscuro deben ser aproximadamente las mismas que las diferencias de paso del extremo luminoso. Finalmente, el primer paso debe ser completamente negro.
Los tres bloques inferiores: el cuadro de la izquierda es una caja negra con una pequeña caja en el centro, un tono más oscuro que negro. La caja del medio es un cuadrado alineado con un cuadrado gris central. La caja blanca de la extrema derecha tiene una caja “gris” más pequeña que apenas debe ser visible.

Debería poder distinguir todas las pequeñas diferencias, solo entonces el monitor se configura correctamente con el contraste y la saturación.

Rendimiento del procesador: CineBench 15
Estamos usando CineBench 15, ya que esta versión más nueva tiene la opción de medir subprocesos individuales. Además de eso, el software de renderizado de R11.5 a R15, la nueva versión ahora admite sistemas con hasta 256 hilos. El rendimiento de los procesadores y las tarjetas gráficas se determina, como de costumbre, en función de las escenas en 3D. Una selección de resultados de pruebas permite una clasificación aproximada del beneficio de su propio sistema. Para la prueba de CPU hay una escena con alrededor de 280,000 polígonos utilizados, mientras que la prueba de GPU basada en OpenGL viene con alrededor de un millón de polígonos, texturas de alta resolución y varios efectos. Los resultados se emitirán en puntos finales (CPU) y fps (GPU). Según los desarrolladores, el software ha sido “ampliamente optimizado para explotar el nuevo hardware tanto como sea posible”. Los resultados, como era de esperar, no son comparables con los de versiones anteriores. Notará que aún necesitamos agregar una cantidad de procesadores, todo a su debido tiempo. Notarás que el perfil de núcleo único pinta una imagen completamente diferente aquí.

A lo largo de la revisión, compararemos consistentemente el Core i7 2600K con el Core i7 8700K y el Ryzen 7 1800X. Obviamente, estos tienen diferentes configuraciones de núcleo y frecuencia, sin embargo, comparamos el pasado con los procesos emblemáticos principales actualmente disponibles.

Instrucciones por ciclo (IPC)
Este es el único CB15 ejecutado con los núcleos todos bloqueados (fijos) a 3500 MHz. Que de este modo da como resultado una sola medición a la misma frecuencia de reloj.

CPU-Z Internal Benchmark
CPU-Z se actualizó recientemente con un benchmark relativamente rápido, pero seriamente apropiado. Decidí incluir los resultados, ya que ofrece algo que puedes replicar fácilmente y probar en casa. Luego, para eso, en realidad es una medida de rendimiento bastante buena para probar el rendimiento de la CPU RAW, el rendimiento se mide tanto por núcleo como por rendimiento de núcleo multi-threaded. Ofrece una manera rápida y fácil para ver rápidamente el rendimiento SMT de subproceso único y multihilo.

De/Compression – 7-Zip Multi-hilos
En este segmento de los benchmarks, analizaremos las aplicaciones de software de compresión. Usaremos 7-ZIP y veremos tanto el rendimiento de compresión como el de descompresión. 7-Zip es un archivador multi-threading, esto se muestra muy bien especialmente en descompresión.

Google Chrome – Mozilla Kraken
Añadimos este punto de referencia, ya que es una cosa subestimada, es lo que hacemos todo el tiempo en la PC, por lo tanto, estamos introduciendo una prueba de rendimiento del navegador adecuada. El punto de referencia del navegador Mozilla Kraken aplica múltiples cálculos complejos basados ​​en javascripts. Esto le proporcionará una buena visión general del rendimiento del navegador. Probamos con la última versión de Google Chrome.

FryRender
FryRender es un marco de evaluación comparativa para todos, no solo para usuarios de 3D; cualquier persona, desde integradores de hardware o revisores de hardware hasta gamers acérrimos. Desde su concepción, FryRender ha sido diseñado con el objetivo de ser el motor de má musculo en su categoría. Como resultado, y después de varios años de intenso desarrollo, el núcleo de FryRender no permite desperdiciar un solo ciclo de CPU. Sus rutinas han sido escritas para ser eficiente en caché y para aprovechar al máximo las nuevas capacidades de multithreading presentes en las arquitecturas de CPU modernas. Siendo una aplicación muy optimizada y extremadamente intensiva en matemáticas (principalmente en coma flotante) que hace un uso muy eficiente de la memoria caché del sistema, creemos que FryRender es la herramienta casi perfecta para medir “cuánta potencia bruta computacional” es una computadora capaz de entregar.

Corona Ray
Esta herramienta es muy fácil de usar, simplemente guarde, extraiga y ejecute el archivo descargable desde su sitio y comenzará y automáticamente obtendrá resultados al final que luego podremos usar para comparar el rendimiento entre las CPU. Los sistemas de grado de estación de trabajo con hasta 72 subprocesos de CPU se pueden utilizar en este punto de referencia, lo que significa que se hizo teniendo en cuenta el subprocesamiento pesado, por lo que es adecuado para probar CPU con recuentos de CPU pequeños y grandes. Recientemente comenzamos a usar esta prueba, los resultados se acumularán con el tiempo. Claramente le gusta más núcleos de CPU e hilos.

Transcodificación de video
La transcodificación de video es adecuada para sistemas que tienen más núcleos de CPU. La codificación / transcodificación al formato x.264 es una de las tareas más intensivas que puede realizar un procesador. En esta prueba, codificamos un archivo fuente 4K Ultra HD hacia un contenedor 1080p30 MKV. Este software es bueno para la evaluación comparativa de la CPU y la memoria. Sin embargo, estamos probando el rendimiento del procesador bruto en este momento. El número que se muestra es el número de fotogramas representados por segundo promediado en el proceso de codificación. Cuanto mayor es el número, más rápido es el rendimiento.

Creación de video – Vegas PRO
Agregamos un nuevo título de software al paquete de referencia, Magix Vegas Pro. Este software profesional de edición de video Vegas Pro es un paquete de software de edición de video para edición no lineal. Originalmente desarrollado como editor de audio, eventualmente se convirtió en un NLE para video y audio de la versión 2.0. Vegas presenta edición multipista en tiempo real de audio y video en pistas ilimitadas, secuenciación de video independiente de la resolución, efectos complejos y herramientas de composición, soporte de audio de 24 bits / 192 kHz, soporte de efectos de complemento VST y DirectX y mezcla de sonido envolvente Dolby Digital . Hasta la versión 10, Vegas Pro se ejecuta en Windows 7, Windows 8 y Windows 10 y tiene varios subprocesos. Para nuestra sesión de referencia, damos salida hacia XAVC S Long 3840×2160 – 59.94p, una codificación muy pesada. La codificación asistida con tarjeta de video está desactivada. Esta es una prueba del mundo real, no sintética, y se basa en nuestro propio contenido y preferencias. Tomamos una grabación de dos minutos del juego, agregamos una pista de audio. El contenido se crea con esa nueva pista de audio mezclada y aplicando dos filtros de mejora de video fp32 para contraste y nitidez.

WPrime
La herramienta que los overclockers desean tanto para determinar el rendimiento y la estabilidad. En esta prueba, maximizamos el número de subprocesos correspondientes al procesador y calculamos 1024M de primo. Este software es un programa de computadora que calcula un número determinado de raíces cuadradas usando el método de Newton para estimar funciones, verificando los resultados al cuadrarlos que comparándolos con los números originales.

3DMark Time Spy CPU
3DMark Vantage se centra en las dos áreas más críticas para el rendimiento de los juegos: la CPU y la GPU. Con el surgimiento de configuraciones multi-paquete y multi-núcleo tanto en la CPU como en la GPU, la escala de rendimiento de estas áreas se ha ampliado, y los efectos visuales y de juego que estas configuraciones hacen posible son, en consecuencia, muy variados. Esto hace que cubrir todo el espectro de los juegos en 3D sea una tarea difícil. 3DMark Vantage tiene una prueba de CPU independiente. Es multi-core y multi-threading consciente. También veremos la puntuación general en el segmento de juego de este artículo.

Memoria del sistema de rendimiento: prueba de lectura de memoria
Una de las cosas que dio pasos tremendos hacia delante es la memoria DDR y su frecuencia. El Core i7 2600K hace uso de la memoria DDR3, el nuestro tiene una capacidad @ 1333 MHz. Si bien tratamos de aplicar 2000 MHz, la PC no arranca. Mucho ha cambiado bien Simplemente compare parte del rendimiento de la memoria DDR3 y DDR4 de hoy, de regreso al hardware 2011.



USB 3.0
A continuación, está una unidad flash Plextor EX1 USB 3.1 Gen 2 con la plataforma probada de hoy. Es uno de los sticks más rápidos disponibles en el mercado y hace que el USB 2.0 a 25~30 MB/seg parezca bastante pálido en comparación. Ese es el rendimiento máximo para la memoria USB.

Las plataformas Sandy Bridge en ese momento ofrecían USB 3, a menudo a través de un proveedor de terceros (chip controlador adicional). Como puede ver, el enlace de la placa base está limitado a 250 MB/s, eso no está nada mal para algo de 2011.

Rendimiento SATA de 6 Gbps
A continuación, mostramos el rendimiento de SATA3 6 Gbps (BIOS en modo AHCI) con un SATA3 SSD (Crucial MX500 1TB). Aquí estamos usando una conexión SATA3 directamente al procesador.

Y sí, no estaba seguro, pero ya teníamos SATA3 en 2011 (!), Y todavía no nos hemos movido hacia SATA4 de alguna manera.

Juegos – GeForce GTX 1080 – Rise of the Tomb Raider (2016)
El juego comienza con un pequeño campamento en Siberia, donde Lara está mirando las enormes montañas que los esperan. Jonah le dice que los demás ya no los acompañarán más que él. La escalada pronto se convierte en un desafío, con Lara casi cayendo a su muerte. Cuando Lara llega a la cima, ve las ruinas de Kitezh desde lejos, pero la tormenta golpea la montaña y las separa.

Esta prueba en particular tiene habilitado lo siguiente:
DX12
Modo de muy alta calidad
FXAA/HBAO+ habilitado
16x AF habilitado
Pure Hair Normal (on)
Teselación

Nuestros puntajes son tasas de fotogramas promedio, por lo que debe tener en cuenta un margen para un FPS más bajo en todo momento. Como tal, decimos 40 FPS en su resolución de monitor preferida para este juego debe ser su mínimo, mientras que 60 FPS (cuadros por segundo) pueden considerarse óptimos. Optamos por la GeForce GTX 1080, ya que realmente requiere un procesador rápido para poder mantenerse al día con esa potencia bruta.

Creo que Full HD es la resolución más representable, con Core i7 2600K en mente emparejado con GeForce GTX 1080. De arriba a abajo, las diferencias son realmente sustanciales (27%), sin embargo, para una PC que data del año 2011, Honestamente, ¿no puedes quejarte tampoco?
.

En 2560×1440, la GPU se convierte en el cuello de botella, por supuesto. Menos cuadros procesados ​​es menos trabajo para la CPU, puede mantenerse lo suficientemente bien.

Rendimiento – Juegos – GeForce GTX 1080 – Ghost Recon: Wildlands (2017)
Ghost Recon Wildlands de Tom Clancy es un videojuego de disparos tácticos de mundo abierto desarrollado por Ubisoft Paris. Es la décima entrega de la franquicia Ghost Recon de Tom Clancy y es el primer juego Ghost Recon que presenta un entorno mundial abierto.

El juego se aleja del escenario futurista presentado en el Guerrero Avanzado Ghost Recon de Tom Clancy y en su lugar presenta un entorno similar al Ghost Recon original de Tom Clancy. Ubisoft lo describió como uno de los juegos de mundo abierto más grande que jamás hayan publicado, con el mundo del juego que incluye una amplia variedad de entornos, como montañas, bosques, desiertos y salinas.

Wildlands es un título pesado para la GPU. Como tal, cualquier sobrecarga de la CPU será menos notable. La diferecnia a baja resolucion puede lleagr al 41%, en FullHD se mantine en un 12%.

Rendimiento – Juegos: Deus Ex: Humanity Divided
Deus Ex: Mankind Divided es un videojuego de rol de acción con temas de cyberpunk desarrollado por Eidos Montreal y publicado por Square Enix. Ambientada dos años después de Human Revolution, Mankind Divided presenta el regreso de Adam Jensen del juego anterior, Deus Ex: Human Revolution, con nueva tecnología y aumentos corporales.

Probamos con DX12. Deus Ex: Mankind Divided tiene un benchmark incorporado, escondido en el menú Extras. Tiene aproximadamente 90 segundos de duración, pero hacemos una evaluación comparativa. Si te enfocas rápidamente en 1280×720, las medidas de diferencia son seriamente masivas al 78%

Incluso a 1920×1080, puede ver claramente cuán rápido una PC moderna supera los 2600K.

Rendimiento – Juegos: DOTA 2 (DX11)
En aras de la brevedad, juego masivo multijugador en línea a 1920×1080, DOTA 2. Mientras que la mayoría de las veces los jugadores corren solos, matando a creeps y héroes por igual, el peor de los casos en un juego de Dota 2 suele ser un juego grande. escalar lucha de equipo. Esta lucha empuja la CPU y la GPU al máximo: cantidades masivas de modelos de héroes, sombreros, partículas y hechizos volando alrededor y bajando la tasa de fotogramas. Utilizamos un archivo de demostración suficiente para coincidir con 3061101068 , el primer juego de BO5 Grand Finals de Elimination Mode 3.0 entre Evil Geniuses y DC (anteriormente Onyx). Hay cargas de trabajo más pesadas disponibles, pero esta es una escena muy intensa y dado que EM3 fue un torneo Moonduck, no hay ningún daño al usarlo. Rendimos en DX11.

Para DOTA 2, solo una resolución. El juego, como ya discutimos en el pasado, es extremadamente susceptible a los cambios de CPU y memoria cuando el juego se encuentra en un entorno limitado de CPU. El juego rápido de renderización se probó prácticamente en configuraciones de calidad media (gráficos integrados). Por lo tanto, las diferencias son visibles y mensurables, a lo grande.

Rendimiento – Juegos: Middle Earth: Shadow of War, GPU integrada de calidad media (DX11)
Tierra Media: Shadow of War (DX11) en configuraciones de calidad ultra. Como puede ver, incluso en más configuraciones rigurosas de GPU, las diferencias son fácilmente visibles a la resolución más baja.

La realidad también sigue siendo que si está mejor balanceada la GPU o usa una configuración de calidad de imagen adecuada, el Core i7 2600 aún puede producir números adecuados.

Rendimiento – Juegos – GeForce GTX 1080 – 3DMark FireStrike
3DMark incluye todo lo que necesita para comparar su hardware. Con tres nuevas pruebas, puede realizar pruebas de todo, desde teléfonos inteligentes y tabletas, hasta notebooks y PC hogareñas, pasando por los escritorios de juego de alta gama y multi-GPU. Y no es solo para Windows. Con 3DMark puedes comparar tus puntajes con dispositivos Android e iOS también. Aquí (a continuación) están los resultados de 3DMark FireStrike. FireStrike es el producto de referencia DirectX 11 diseñado para PC de juegos de alto rendimiento.

Rendimiento – Juegos: 3DMark Time Spy
3DMark incluye todo lo que necesita para comparar su hardware. Sin embargo, Time Spy es mucho más dependiente de la GPU. Pero sigue siendo un título muy representativo en relación con el rendimiento de los juegos de PC.

Conclusión
Sorprendentemente, el Core i7 2600K todavía puede mantenerse razonablemente bien, ¡no está mal para algo de 2011! Obviamente, está siendo aniquilado por los dos procesadores de núcleo más populares, las infraestructuras más rápidas y demás. El 2600K realmente es un procesador capaz, Windows 10 funcionó bien (siempre que le dé suficiente memoria del sistema), el rendimiento de almacenamiento estuvo bien y sus cargas de trabajo diarias, si no demasiado complicadas, funcionan bien también en los cuatro núcleos. Cuando hacemos un acercamiento un poco, el IPC ciertamente es menor de lo que se ofrece en estos días. Pero de nuevo, no está mal. Un Core i7 2600K overclockeado aún podría ofrecer muchos impulsos. Nuestra placa madre H67 se negó a modificar cualquier cosa por cierto. Intentaremos actualizar este artículo con los resultados de OC ya que estamos tratando de obtener una placa base P67 / Z69 para realizar más pruebas. Entonces, a partir de su uso diario, el sistema aún es suficiente, y estoy haciendo hincapié en lo suficiente, ya que una nueva PC Ryzen o Core i5 / 7 ciertamente se siente más rápida en general.

Juegos
Los juegos, sin embargo, fueron un tema interesante. Aquí la realidad es simple: el 2600K se queda sin jugo en situaciones de límite de la CPU, como bajas resoluciones. El hecho es que, sin embargo, a 1080P todavía tiene suficiente empuje para entregar números bastante decentes en cualquier cosa por debajo de una GTX 1080, quiero decir no muy grande, pero sin duda lo suficientemente decente. Cuando sacamos la GPU de la ecuación y observamos únicamente el rendimiento de 720P, aquí puede ver y medir un efecto bastante dramático en el que Sandy Bridge cojea. Pero recordemos siempre, un cuello de botella GPU es mucho más evidente que un cuello de botella de la CPU.
El consumo de energía

Lo que es bastante interesante de ver es que los consumos de energía Sandy Bridge 2600K fueron aproximadamente iguales a las plataformas de hoy. Curiosamente, lo comparamos con un procesador de 6 y 8 núcleos. Así que una cosa es un hecho, la eficiencia energética se inició en grande, ya que un Ryzen 7 1800X mucho más rápido con 8 núcleos usa ‘aproximadamente’ la misma cantidad de energía que una configuración H67/2600K de 2011.

Memoria
La diferencia en el ancho de banda de la memoria que viene de DDR3 hacia DDR4 es tremendamente grande, impactante realmente con casi el doble de números. Si bien el ancho de banda de la memoria no importa demasiado en una plataforma Intel, es la suma de todas las mejoras las que marcan la diferencia. DDR3 en ese momento era 1333 MHz, con kits que se ejecutan hasta-2000 MHz si la placa base era adecuada. En estos días 3200 MHz es la norma y las últimas plataformas ya pueden lidiar con velocidades de memoria de más de 4200 MHz, cosas realmente locas.

Ultimas palabras
Esta pequeña y divertida reseña deriva del hecho de que muchos de ustedes en los foros a menudo debaten cuellos de botella en la CPU, y se refieren al hecho de que todavía están jugando juegos en una PC anticuada, como la que se muestra hoy. Ya en los días, el Core i7 2600K era un producto muy bueno, un procesador potente y tremendamente rápido. Siete años después, quería responder a esa simple pregunta: ¿es un procesador Coffee Lake o AMD Ryzen 7 una actualización digna de Sandy Bridge? Mi respuesta es inequívoca sí, todas las pequeñas mejoras se suman, IPS, ancho de banda de memoria, ranuras PCIe más rápidas, frecuencias de reloj y demás hacen que una PC moderna oponga mucho más a lo que Sandy Bridge 2600K tiene para ofrecer. También tengo que decir que la CPU todavía es muy capaz. En este año, 2018, obviamente también se beneficiará de más núcleos por aproximadamente la misma cantidad de energía utilizada, todas estas cosas combinadas se suman. Las pruebas de CPU muestran que las cargas de trabajo de un único subproceso son suficientemente adecuadas. El Core i7 2600K aún hará el trabajo y funciona bien para los juegos, pero en ese umbral de lo que puede considerar aceptable. Para muchos, sin embargo, los juegos de PC se han convertido en algo costoso. Los precios de la GPU son altos, los precios NAND son altos (pero se están estabilizando) y los precios de la memoria son altos (pero también se estabilizan). Al final, una actualización puede valer la pena. Para los juegos, sin embargo, su cuello de botella más grande siempre sigue siendo una GPU. Para las cargas de trabajo relacionadas con la CPU, bueno, ya has visto los números. Una cosa queda por decir si usted compró un Core i7 2600K en aquellos días, probablemente haya sido la mejor inversión para una PC que podría haber hecho.

Los mejores adaptadores WiFi USB

Un adaptador Wi-Fi USB es un dispositivo útil que puede ayudarlo a mejorar su conexión Wi-Fi. Actualmente, todas las computadoras portátiles y muchas computadoras de escritorio tienen un adaptador inalámbrico integrado a través de una tarjeta mini PCIe, pero los adaptadores inalámbricos con los que se envían la mayoría de las computadoras generalmente están detrás de la curva actual, generalmente una generación o más. Aquí es donde un adaptador de Wi-Fi USB es útil: para actualizar la capacidad de conexión en red inalámbrica de la computadora portátil con una simple solución plug-and-play.

Para esta guía, hemos recopilado el último hardware de varios fabricantes y los hemos seguido paso a paso. Probamos el rendimiento utilizando el software NetPerf a tres distancias tanto en la frecuencia de 2,4 GHz como en la de 5 GHz.

El mejor adaptador de Wi-Fi de tamaño completo:Trendnet TEW-809UB

+Velocidades AC1900
+Velocidades más rápidas en cinco de las seis pruebas de rendimiento
+Cuatro antenas posicionales
+Fuerte rendimiento a mayor distancia
-Demasiado voluminoso para uso de viaje
-No se puede enchufar directamente en un puerto USB
-No es compatible con MU-MIMO

Hay nano adaptadores en el extremo más pequeño de la escala, y en el extremo opuesto está el Trendnet TEW-809UB . Este dispositivo de red lanza la portabilidad por la ventana, para velocidades más rápidas de AC1900 (N600, AC1300) y antenas serias. Puedes contarlos ya que hay no menos de cuatro antenas externas, todas posicionables con una fuerza de 5 dBi cada una. También tiene un solo LED azul. El dispositivo no se puede enchufar directamente a un puerto USB y requiere un cable de extensión. Este adaptador está diseñado para un escritorio, y no para viajar con un ultrabook, ya que se parece más a un enrutador que a un adaptador a primera vista.

Solo se proporciona un controlador, pero no hay software. Por el contrario, Windows tiene el control de las funciones de red. Este adaptador Trendnet no es compatible con MU-MIMO, pero sí admite Beamforming.

El mejor adaptador Wi-Fi Nano USB: Linksys WUSB6100M

+Talla pequeña
+Admite MU-MIMO
+Tecnología de formación de haces (Beamforming)
-Velocidades más lentas a 2.4 GHz (N150)

El Linksys WUSB6100M es llamado “micro” por la gente de Linksys, y es bastante pequeño. Ofrece velocidades AC600, de N150 y AC433 Mbps. Incluso con el tamaño diminuto, es compatible con la última tecnología para adaptadores inalámbricos, incluidos MU-MIMO y Beamforming.

Recomendamos el Linksys WUSB6100M como nuestra elección para el mejor adaptador nano USB Wi-Fi. Este pequeño dispositivo equilibra su pequeño tamaño con un alcance y un rendimiento superiores al decente. Mientras que la especificación AC600 limita los puntajes de 2.4 GHz, las velocidades en 5 GHz, incluso en las pruebas de mayor distancia, traen a casa el triunfo del rendimiento en tres de las seis pruebas para esta categoría de adaptador cada vez más competitiva. Las pruebas de distancia más largas para este adaptador son aún más impresionantes cuando las compara con su competencia de clase que se queda corta en las pruebas de conexión inalámbrica.

El mejor Adapater Inalámbrico USB: Edimax EW-7833UAC

+Antena desplegable
+Dominio en pruebas de rendimiento
+Fácil instalación
+Precio pagable
-Fue vencido por su competencia en ambas pruebas lejanas

El Edimax EW-7833UAC es la actualización de nuestra selección previa de adaptador Edimax, el EW-7822UAC. Si bien muchos adaptadores convencionales son suficientes con las especificaciones AC1200, este Edimax EW-7833UAC lo lleva a una categoría superior con velocidades AC1750 (N450, AC1300). La instalación fue simple, con Windows 10 administrando la configuración. Si bien tiene un tamaño similar al de otros adaptadores convencionales, presenta inteligentemente una pequeña pieza desplegable que contiene tres antenas para aumentar el alcance y el rendimiento, junto con soporte para ambas tecnologías, MU-MIMO y Beamforming.

El mejor adaptador USB Wi-Fi de bajo presupuesto: Trendnet TEW-805UB

+Barato
+Velocidades respetables de AC1200
+Rango decente
+Superficie texturizada
-Velocidades menores que las líderes en su clase

Si bien muchos de nosotros queremos conducir un Porsche o un Ferrari, muchos de nosotros terminamos manejando Honda Civics o Toyota Corollas debido a restricciones presupuestarias. Para aquellos que quieren gangas de un adaptador inalámbrico USB, recomendamos el Trendnet TEW-805UB , el hermanito de nuestra mejor elección de adaptador de tamaño completo, el Trendnet TEW-809UB.
Qué buscar en un adaptador Wi-Fi USB y cómo probamos

Estándares Wi-Fi
Dentro del estándar 802.11ac, hay muchas velocidades admitidas. Se basan en la velocidad máxima teórica combinada de las frecuencias de 2.4 GHz y 5 GHz, redondeadas según sea necesario. Por ejemplo, AC1200 tiene una velocidad en 2.4GHz de 300Mbps y una velocidad en 5GHz de 867Mbps, que suma a 1167 y se redondea a AC1200. Aquí hay un cuadro de las clasificaciones de velocidad actuales:

Cabe señalar que en los estándares más rápidos, AC3200 y AC5300, esto se basa en el ancho de banda total enviado a través de tres conexiones: una de 2.4GHz y dos de 5GHz. Un solo cliente nunca recibirá ese ancho de banda. Si bien esto no es una limitación significativa, sí representa una cierta cantidad de exageración del fabricante. En un enrutador AC5300, por ejemplo, dicen “ofrece velocidades de Wi-Fi más rápidas de hasta 5300 Mbps”, pero no se señala que es velocidad agregada, y los clientes más rápidos que pudimos encontrar para probar son AC1900 que se complementan en menos de las velocidades teóricas AC1300.

MU-MIMO
Los últimos enrutadores llamados ‘Wave 2’ son compatibles con MU-MIMO. Esto significa usuario múltiple, entrada múltiple, salida múltiple. Mientras que 802.11n MIMO se limitó a un único cliente, MU-MIMO se puede usar en cuatro clientes simultáneos. Aprovecha el fenómeno de la onda de radio de propagación multitrayecto. Mediante este proceso, la transmisión de datos se vuelve más eficiente ya que se desperdicia menos ancho de banda, y las transmisiones simultáneas pueden ocurrir a través de múltiples canales.

El factor limitante es que hay pocos clientes que admitan MU-MIMO en este momento. Sin embargo, en la vanguardia, algunos adaptadores de Wi-Fi USB lo admiten, proporcionando una vía para actualizar a un rendimiento mejorado. En nuestras pruebas previas , MU-MIMO en un cliente mejoró el rendimiento en un serio 134% en comparación con las velocidades que no son MU-MIMO.

Beamforming
Mientras que la formación de haces debutó con el estándar 802.11n, se limitó significativamente al requerir que el enrutador y el cliente pertenezcan al mismo fabricante. Con 802.11ac, la formación de haz es parte del estándar, proporcionando compatibilidad entre diferentes fabricantes.

Esta tecnología permite que el enrutador enfoque la transmisión del flujo de datos más directamente al cliente, en lugar de transmitir de manera equitativa en todas las direcciones. Esto aumenta la intensidad de la señal hacia donde se necesita, con menos interferencia. Si bien esto es ahora un estándar, todavía hay implementaciones patentadas de formación de haces como Beamforming+ de Netgear o AC Smartbeam de D-Link, que prometen velocidades incluso más rápidas cuando tanto el enrutador como el cliente son ambos del mismo fabricante.

USB 2.0 vs 3.0
Los adaptadores antiguos interactúan con la computadora a través del conector USB 2.0 anterior. Este estándar ubicuo, pero ahora de envejecimiento, tiene un rendimiento teórico máximo de 480 megabits por segundo (mbps) (equivalente a 60 megabytes por segundo [Mbps]). Esto todavía es bastante rápido, pero con los adaptadores más rápidos de la actualidad, con una buena señal para un enrutador de alta gama, puede convertirse en un cuello de botella para el rendimiento de la red.

Es mejor usar un adaptador con la interfaz USB 3.0 más actual, como lo hacen la mayoría de los modelos actuales. Este sabor más rápido de USB ofrece un rendimiento de 5 gigabits por segundo (gbps), que es igual a 640 Mbps. Con el conector más rápido, las velocidades de red se pueden maximizar.

Tipos de antena
Cada adaptador Wi-Fi USB tiene una antena. Sin embargo, hay muchos enfoques para este componente esencial. Algunos adaptadores tienen una antena interna, o incluso múltiples antenas internas, todas en un formato compacto. Para una señal más fuerte, el tamaño puede marcar la diferencia, y una antena externa más grande puede ayudar a aumentar la potencia de la señal. En áreas de congestión, una antena direccional también puede ser útil, mientras que la mayoría de estos adaptadores tienen una antena omnidireccional que transmite en todas las direcciones.

Muchos adaptadores imprimen sus antenas directamente en la placa de circuito. Este es un enfoque simplificado, que preserva las líneas esbeltas del adaptador. El inconveniente es que las antenas son vulnerables a la interferencia eléctrica de otros circuitos en la proximidad de la placa. Un enfoque alternativo es tener la antena del adaptador desplegable para alejarse de la interferencia electrónica, pero capaz de compactarse para su almacenamiento y transporte.

Software
Varios adaptadores se envían con diferentes paquetes de software. Algunos fabricantes toman el enfoque barebones, con el único software incluido como controlador para que el sistema operativo utilice el adaptador. Aunque minimalista en teoría, esto tiene su mérito ya que Windows hace un muy buen trabajo en la actualidad administrando las conexiones inalámbricas (a diferencia de algunas versiones anteriores de Windows como XP que fueron más que mediocres en esta tarea esencial).

El enfoque alternativo es que un adaptador USB Wi-Fi se envíe con un paquete de software completo. Si bien esto puede traer algunas características adicionales, la desventaja es que en algunas implementaciones, esto puede terminar interfiriendo con la configuración inalámbrica integrada y convertirse en una aplicación inflada que no ofrece nada más de lo que Windows puede hacer de forma nativa.

Tipos de adaptador
Los adaptadores Wi-Fi USB vienen en varios factores de forma de varios tamaños, cada uno de ellos es más ideal para ciertos escenarios de casos de uso. En el extremo más pequeño de la escala, hay nano adaptadores. Aunque generalmente es más lento, un adaptador nano tiene menos protuberancia, y es ideal para un portátil más pequeño que realiza tareas de desplazamiento.

Yendo al extremo opuesto, están los adaptadores grandes. Esto sería un obstáculo desde el punto de vista de la portabilidad con una computadora portátil, pero funcionaría bien con una computadora de escritorio (o computadora de escritorio de reemplazo) que necesitara una conexión inalámbrica. Tienen antenas de alta ganancia y ofrecen los estándares inalámbricos más rápidos.

En el medio, están los adaptadores de tamaño estándar, que son aproximadamente del tamaño de una unidad flash USB tradicional. Equilibran velocidad y la potencia de la señal dentro de un paquete de tamaño razonable que mantiene la portabilidad.

Otros accesorios
En algunos casos, se trata de los accesorios. Considere el “paquete total” con extras como un cable de extensión USB o una base de acoplamiento. Si bien estos apenas hacen o rompen la compra, definitivamente puede mejorar el factor de usabilidad para el adaptador inalámbrico.

Cómo probamos los adaptadores Wi-Fi USB
La prueba se realizó para rendimiento con el software NetPerf. Se utiliza una computadora de escritorio con un puerto Gigabit Ethernet (10/100/1000) para enviar los datos a través de una conexión alámbrica al enrutador. Se realizaron tres ejecuciones de prueba en cada adaptador inalámbrico en cada una de las frecuencias de 2.4 GHz y 5 GHz, a tres distancias: cercana, lejana y marginal, con el mayor rendimiento de cada parámetro informado. El enrutador utilizado es el Asus AC1900P, nuestra elección para el mejor enrutador de juegos de presupuesto. El rendimiento se prueba a una distancia “cercana” de 8′(2.4 m) con línea de visión directa, y también a una distancia “lejana” de 30′ (9.1 m) con un piso y una pared obstruidos en el camino, así como conductos de metal interviniendo. Para esta revisión, agregamos pruebas en una ubicación Wi-Fi “marginal”, sin conectar un extensor para hacer que la conexión inalámbrica sea más desafiante para el adaptador inalámbrico y para prueba sus antenas.

Resultados de las pruebas

Otros probados

Asus USB-AC68
El adaptador Asus USB-AC68 presenta un novedoso diseño plegable que incorpora antenas duales. Incluye una conexión USB 3.0, el estándar AC1900, Asus AiRadar Beamforming y MU-MIMO a través de un diseño de antena 3×4. Los resultados son un tanto confusos ya que este adaptador Asus está retrasado en las pruebas de 2.4 GHz en ambas distancias. Si bien las pruebas de 5 GHz son más fuertes, todavía no fue la más rápida ni a la distancia cercana ni a la lejana. El Asus USB-AC68 tiene muchas críticas positivas en Amazon.

D-Link DWA-171
El D-Link DWA-171, presenta velocidades AC600, pero como ha estado en el mercado desde 2013, no es compatible con Beamforming o MU-MIMO. En las pruebas de rendimiento, el D-Link DWA-171 tiene velocidades sólidas en las distancias más cercanas, particularmente en la frecuencia de 2.4 GHz. Sin embargo, este modelo tuvo un rendimiento bastante lento en la prueba marginal de 2.4 GHz de tan solo 13.6 Mbps que muestra la debilidad del diseño anterior. El valor real del DWA-171 se pone de manifiesto cuando calculamos el precio, lo que hace que este modelo sea un fuerte contendiente para una selección de presupuesto.

D-Link DWA-192
El D-Link DWA-192 debutó en CES 2015, y fue nuestra elección previa para el mejor adaptador inalámbrico general. Se conecta al puerto USB 3.0 a través de un cable de extensión, lo que hace que este adaptador sea más adecuado para el uso de escritorio, y un tramo para usar con un portátil. Este modelo D-Link fue el primer adaptador Wi-Fi USB AC1900 en el mercado. Las antenas, un total de tres, son todas internas, por lo que es menos probable que sean derribadas en un escritorio. También es compatible con beamforming y Advanced AC SmartBeam, una versión patentada de beamforming para enrutadores D-Link.

El rendimiento de este DWA-192 sigue siendo sólido cuando se prueba en las frecuencias inalámbricas de 2,4 GHz y 5 GHz. El diseño de la antena 3×3 demostró su mérito en las pruebas de cerca y lejana, por lo que el D-Link DWA-192 es ideal para conexiones inalámbricas más desafiantes donde la intensidad de la señal del enrutador es más débil. Este adaptador también se destacó con velocidades de producción rápidas en la prueba de frecuencia de 5 GHz a 210.8 Mbps, que en realidad supera nuestra selección de Trendnet a esta distancia del enrutador.

Edimax EW7822ULC
El Edimax EW7822ULC sorprendentemente tiene velocidades AC1200 en un dispositivo súper pequeño. En las pruebas de corto alcance, las velocidades también fueron líderes en ambas frecuencias, con una velocidad de 5 GHz de 279 Mbps realmente impresionante para un adaptador de cualquier tamaño, y mucho menos este pequeño alevín.

Hay dos problemas que nos impiden recomendar este adaptador. La primera es que las velocidades en la posición inalámbrica marginal fueron bastante lentas, y en la prueba de 2,4 GHz, se midió nuestro rendimiento más lento, e incluso otro adaptador Edimax del mismo tamaño fue literalmente 10 veces más rápido. El segundo problema es que este adaptador se puso muy caliente en las pruebas, y ningún otro adaptador obtuvo nada parecido a esta temperatura alta, que reproducimos en repeticiones.

Trendnet TEW-804UB
El Trendnet TEW-804UB fue una ganga anterior para un adaptador AC600 más pequeño. Comparando las velocidades de rendimiento, sigue siendo respetable, aunque no teníamos una unidad para probar en las nuevas pruebas inalámbricas de franjas. Ya no está disponible como un nuevo producto en Amazon, y con los modelos más nuevos disponibles, recomendamos que los compradores los busquen.

Edimax EW-7811Un
La Edimax EW-7811Un tiene el tamaño realmente compacto, ya que apenas sobresale de un puerto USB, y realmente no se puede hacer más pequeña a pesar del LED azul solitario. Sin embargo, el estándar inalámbrico al que se adhiere es el N150, así que no espere que gane ninguna carrera de velocidad. Dicho esto, en las pruebas, a pesar de su pequeño tamaño, la señal se mantiene, y las velocidades son al menos pasables a 51.5 Mbps en la prueba de cierre de 2.4 GHz, y 44.7 Mbps en la prueba de distancia. Diablos, cuando le lanzamos la prueba inalámbrica adicional preguntándonos si realmente podría mantener la conexión inalámbrica, era incluso pasable a 38.8 Mbps a pesar de la configuración de antena pequeña. Para un adaptador básico, baratos, este Edimax se ajusta a la perfección. Solo por un poco más, la mayoría de los usuarios estarán mejor con un adaptador que ofrece conectividad de 5 GHz.

Linksys WUSB6300
El Linksys WUSB6300 es un adaptador de tamaño estándar que admite velocidades AC1200. Resultó fácil de instalar, estable en las pruebas y no tenía fallas reales en el uso. El problema con este adaptador es que se arrastró en las velocidades de rendimiento en comparación con nuestras otras selecciones recomendadas. Además, el precio en la calle hace que sea más caro que nuestras selecciones de presupuesto para esta categoría.

Netgear A6210
El Netgear A6210 es otro ejemplo de cuán competitivo se ha vuelto este segmento. También presenta velocidades AC1200 y una antena abatible. Fue estable a lo largo de nuestras pruebas después de una instalación fácil. Su precio en la calle hace que sea bastante asequible, pero sus velocidades más lentas de 2.4 GHz en todos los ámbitos, especialmente en la ubicación marginal, le impide ganar nuestra recomendación.

Pruebas futuras
Se espera que los próximos productos adaptadores USB Wi-Fi incorporen MU-MIMO, así como velocidades más rápidas, como AC1900 y AC2600. Además, busque productos que funcionen con WiGig, el estándar 802.11ad que se espera ofrezca velocidades de 4 a 7 Gbps utilizando la frecuencia más alta de 60 GHz.

¿La gran escasez de tarjetas gráficas terminó finalmente ?

A principios de enero, le informamos que era un momento terrible para comprar una tarjeta gráfica, incluso cuando podía encontrar la GPU que deseaba, los precios duplicaban o incluso más elos precios originales de lanzamiento. El breve resumen es que las criptomonedas tuvieron un aumento masivo en su valuación en la segunda mitad de 2017, las ganancias de la minería aumentaron, y todo, desde los modestos RX560 y GTX1050 hasta el rendimiento extremo GTX1080 Ti y RX Vega 64, se agotaron.

Hemos sentido el dolor de la escasez de tarjetas gráficas durante los últimos tres meses, pero afortunadamente ese dolor finalmente parece llegar a su fin. Durante la última semana, hemos visto el stock de GPU de Founders Edition en Nvidia.com ir y venir varias veces, vendiendo en el MSRP oficial. Las tarjetas personalizadas también están apareciendo, con los modelos overclockeados en fábrica con un pequeño precio premium sobre los modelos de stock. Hemos visto el EVGA GTX1070Ti FTW y RX580 de 4 GB a precios MSRP, aunque se agotan.

Entonces, ¿ahora es el momento adecuado para comprar una tarjeta gráfica? La respuesta es rotunda … tal vez. En primer lugar, debe estar en el mercado para una nueva GPU, lo que significa que está construyendo una nueva PC o actualizando. Si estás en el último campamento, asegúrate de estar actualizando por una necesidad o al menos un deseo fuerte. Como he demostrado en nuestros artículos de análisis de rendimiento , incluso los últimos juegos se pueden ejecutar en tarjetas gráficas bastante modestas, y mientras que es posible que pierdas algunos aspectos visuales relevante a baja calidad, ne calidad media se ven bien en la mayoría de los juegos. Es posible que 30 fps no sean tan fluidos como 60 fps o más, pero aún se puede jugar.

¿Por qué esperar? Porque las piezas más nuevas están a la vuelta de la esquina. Todo indica que Nvidia lanzará su arquitectura de gráficos de próxima generación (ya sea que termine llamándose Volta, Ampere o Turing) antes de fin de año. La arquitectura Pascal que impulsa todas las GPU de la serie 10 tiene ahora dos años, e históricamente cada arquitectura nueva mejora el rendimiento en un 30-50 por ciento. La mejor suposición ahora es que las nuevas GPU aparecen alrededor de agosto, quizás en julio como muy pronto o en octubre como máximo. Si tiene una tarjeta que ya funciona lo suficientemente bien para sus necesidades, esperar siempre la próxima generación es siempre un buen consejo.

Si está construyendo una PC nueva, nuestro consejo cambia. Una PC nueva sin una tarjeta gráfica no es una PC para juegos, o al menos no es muy potente, y cuando esté listo para construir una plataforma, probablemente debería comenzar. Las CPU Ryzen de segunda generación de AMD recién lanzadas, junto con las placas madre X470, e Intel acaban de completar su línea de procesadores Coffee Lake y conjuntos de chips de la serie 300. Esperamos más CPUs adicionales más adelante en el año, tal vez incluso un Coffee Lake de 8 núcleos, y las placas base Z390 podrían aparecer en junio.

Sin embargo, la carrera de la CPU se ha vuelto feroz, y para el juego es probable que no vea una gran diferencia en el rendimiento entre un Core i5-8400, Ryzen 5 2600X, Ryzen 7 2700X, Core i7-8700K o cualquier pieza futura de 8 núcleos salir de Intel. Esto es especialmente cierto si juega juegos en 1440p y/o usa una tarjeta gráfica en el nivel GTX 1070 o inferior. Eso cubre a la mayoría de las personas, así que adelante y construye una nueva PC y no te preocupes demasiado.

Si está listo para comprar una nueva tarjeta gráfica, es útil saber si es una buena oferta o no. Para ayudar, he creado la siguiente lista, con enlaces a los mejores precios actuales que puedo encontrar (en los EE. UU.), Junto con el MSRP original. Si bien sería increíble pagar menos dinero, en este punto estoy contento con cualquier cosa cercana al MSRP. Examinaré varias GPU de Nvidia y AMD, ordenadas de menor a mayor rendimiento. He incluido un rango de precio objetivo, y en la mayoría de los casos esperaría hasta que pueda encontrar una tarjeta en el extremo inferior de ese rango.

En cuanto a todo el espectro de rendimiento, la GTX1070Ti representa el mejor valor general. Las tarjetas de gama media son las que probablemente interesen a las personas, no todos pueden justificar gastar tanto en una tarjeta gráfica, pero mientras que la GTX1060 es más económica, se vende aproximadamente un 25% más que su MSRP original. El 1070 Ti es más caro, pero las tarjetas menos costosas son solo un 13 por ciento más que el precio de lanzamiento. La GTX 1070 tiene un precio de solo un 9% más que el precio de lanzamiento original de la Edición de Fundadores, pero en realidad es un 29% más que el MSRP base para las tarjetas personalizadas.

Los RX570 y 580 de AMD siguen estando en desventaja de precios, con la 570 de 4GB vendiendo un 54% más que el precio de lanzamiento oficial (que tuvo una vida muy corta). El RX570 8GB y el RX580 4GB también tienen un precio un 50 por ciento más que en el lanzamiento, y el RX580 8GB es un poco mejor a un precio de 43% cripto inflado. Si eres fanático de las GPU de AMD, desafortunadamente, te recomiendo que no realices compras por el momento, ya que siguen siendo muy caros.

Los GTX1080 y 1080Ti de gama alta, y los Vega 56 y 64, también son tarjetas que yo pasaría de comprar en este momento. Esperamos ver algo más rápido en los próximos meses, por lo que gastar tanto o más hoy no es una ganga en absoluto. La GTX 1080 vuelve a su precio de lanzamiento original al menos, pero Nvidia bajó el precio cuando lanzó la versión de 1080 Ti, por lo que es un 20 por ciento más que la de MSRP. La 1080Ti, por otro lado, sigue siendo más difícil de encontrar a precios razonables, llegando al 35 por ciento (o más) de lo que lo hizo en el lanzamiento.

Lo mismo ocurre con las dos tarjetas de Vega, con la Vega 56 con un precio de casi un 60 por ciento por encima del precio ‘oficial’ (no es que realmente viéramos a Vega 56 en el precio de lanzamiento). Y por último, pero no por ello menos importante, Vega 64 obtiene la dudosa distinción de ser el peor valor con un margen de beneficio del 80 por ciento sobre el MSRP nominal. Incluso si vamos con los precios de lanzamiento más altos de ‘paquetes’ (conjuntos con juegos y otras cositas) para las tarjetas de Vega, los dos modelos se venden por 30-50 por ciento por encima de MSRP.

¿Deberías comprar una GPU en este momento?
Desafortunadamente, los precios en la mayoría de las tarjetas gráficas todavía están inflados. Normalmente, con las GPU que tienen más de un año de antigüedad (que la mayoría de ellas son), veríamos los precios muy por debajo del MSRP original. A largo plazo, no puedo imaginar que la demanda de GPU se mantenga, y la dificultad autoajustable de la minería de criptomoneda ha reducido, al menos por el momento, la demanda de ese sector. Eso no significa que la minería no afectará los precios de GPU nuevamente en el futuro, pero predecir cuándo o si sucederá, es difícil.

Hay rumores de que la nueva arquitectura de Nvidia se lanzará a precios más altos que nunca para las piezas de halo, por lo que la futura GTX 2080 podría costar mas que la 1080ti a salida u otra cantidad obscena. Soy escéptico de que eso suceda, sin embargo, y ciertamente no creo que la mayoría de los jugadores gastarían tanto. Fuera de los juegos 4k, que ni siquiera es necesario, la GTX 1070 y la 1070 Ti ya manejan los últimos juegos. Lo más probable es que pronto veamos que una GTX 2080 ofrece rendimiento GTX 1080Ti a un precio cercano a xxx, o la GTX2070 equivaldrá a una 1080, y la GTX2080 sería un 25% más rápida y costará un 50% más.

Mientras tanto, AMD se ha mantenido en silencio en lo que a gráficos se refiere. No creo que sea demasiado duro decir que Vega fue una decepción, con un rendimiento generalmente inferior al 1070/1080 existente de Nvidia, mayores requisitos de potencia y precios más altos. Navi podría finalmente deshacerse de GCN para una arquitectura mejorada que pueda alcanzar a Nvidia, pero no espero ver tarjetas gráficas Navi hasta 2019. Si no quieres comprar una GPU Nvidia, lo único que debes hacer ahora es esperar para que los precios de las Radeon RX vuelvan a la normalidad.

La buena noticia es que los precios ahora están al menos en un rango razonable, y si la tendencia actual continúa, deberíamos ver tarjetas vendiendo en MSRP dentro del próximo mes. Si ha estado luchando para justificar la actualización a una GPU más rápida desde Navidad, estos son los mejores precios que hemos visto desde principios de enero. Con suerte, mayo será aún mejor.

The Witcher, la serie, llegaría a Netflix en 2020

La celebración del evento de Netflix el pasado viernes en Roma ha traído como sorpresa diversos detalles sobre la serie de The Witcher que está planeado aterrizar en Netflix. La productora y guionista encargada de este proyecto, Lauren S. Hissrich, hizo eco de todas las novedades en un hilo a través de su cuenta oficial de Twitter.

Entre los detalles más importantes a destacar quedan la fecha aproximada de llegada de esta serie, que en un principio se retrasaría hasta el 2020, distando bastante de los rumores que la situaban en este mismo año. Y es que, siendo uno de los proyectos más ambiciosos de Netflix, se barajaba la posibilidad de que la compañía estuviese tratando de ocupar el hueco que dejará el final de Juego de Tronos tras la emisión de su última temporada en verano.

Por otro lado, también se ha hablado de la longitud de la serie, que se centraría en tan sólo 8 capítulos de aproximadamente una hora de duración. “OCHO EPISODIOS. ¡Sí! Lo sé, lo sé, pueden no pareceros suficientes, pero creativamente, es la decisión correcta. Los episodios pueden ser justos, llenos de acción, ricos en personajes e historia, y sin retrasos en el medio de la temporada.” declaró Lauren en uno de sus twits.

Basándose en las novelas que inspiraron la trilogía de juegos triple A de The Witcher, hace ya unas semanas la productora habló acerca de haber terminado de escribir el guión del episodio piloto. Sin embargo, el estado actual de este proyecto la ha llevado a declarar que este guión necesitará cambios y retoques en pos de continuar con el resto de capítulos de la serie. Lo que sí que no cambiará es el hecho de que la serie se rodará en exteriores de europa occidental, y buscando mantener un toque eslavo.

Anteriormente Hissrich ya dió una lista de los personajes que podríamos esperar ver en la serie de Netflix, junto con una pequeña descripción de los mismos. Nombres como Yennefer, Triss Merigold o Ciri, acompañarán en esta serie a Geralt y su inseparable corcel Sardinilla. Aunque todavía se desconocen muchos detalles sobre cómo se llevará a cabo esta adaptación, sí se sabe ya que la serie contará con el apoyo y asesoramiento de Andrzej Sapkowski, autor de las novelas originales de The Witcher.

Fuente | cubava.cu

Filtrado el diseño definitivo del Galaxy S9

Forbes ha revelado en exclusiva el diseño definitivo del Galaxy S9, un terminal tope de gama que Samsung presentará en algún momento del próximo mes de febrero y que según las últimas informaciones estará disponible a partir de marzo.

Esta fecha de presentación y de lanzamiento cuadra con la del Galaxy S7 pero no con la del Galaxy S8, ya que éste fue anunciado en marzo y lanzado en abril. Sin embargo ese retraso tuvo una justificación obvia, y es que Samsung necesitó más tiempo para completar pruebas adicionales aplicadas al nuevo diseño de dicho terminal.

Volviendo al diseño definitivo del Galaxy S9 no hay sorpresas, ya que como podemos ver en el render que encabeza la noticia dicho terminal tiene un aspecto casi idéntico al del Galaxy S8, lo que confirma ese continuísmo que habíamos comentado en noticias anteriores.

Aunque a simple vista parezca que no hay cambios lo cierto es que si miramos con cuidado se aprecian algunos. El más evidente es el cambio de posición del lector de huellas dactilares, que pasa a estar justo debajo de la cámara trasera y no en el lateral de la misma.

El segundo y menos evidente es una pequeña reducción de los bordes superior e inferior, aunque no es tan marcada como apuntaban algunos rumores y por tanto no marca una gran diferencia frente a la generación actual.

Antes de terminar os dejamos un resumen con las especificaciones de los Galaxy S9 y Galaxy S9+:

Galaxy S9:

  • Pantalla AMOLED de 5,65 pulgadas con formato 18:9 y resolución QHD+.
  • SoC Snapdragon 845 (algunos mercados) Exynos 9810 (modelo internacional).
  • 4 GB o 6 GB de RAM.
  • 64 GB/128 GB de capacidad de almacenamiento ampliable.
  • Cámara trasera de 12 MP y frontal de 8 MP.
  • Batería de 3.100 mAh.
  • Lector de huellas, escáner 3D de iris y resistencia al agua.
  • Android O como sistema operativo.

Galaxy S9+:

  • Pantalla AMOLED de 6,2 pulgadas con formato 18:9 y resolución QHD+.
  • SoC Snapdragon 845 (algunos mercados) Exynos 9810 (modelo internacional).
  • 4 GB o 6 GB de RAM.
  • 64 GB/128 GB de capacidad de almacenamiento ampliable.
  • Doble cámara trasera de 12 MP con zoom óptico 2x y frontal de 8 MP.
  • Batería de 3.100 mAh.
  • Lector de huellas, escáner 3D de iris y resistencia al agua.
  • Android O como sistema operativo.

Fuente | cubava.cu

Filtrado el Samsung Galaxy J2 (2018), especificaciones

Gracias a una completa filtración hemos podido conocer al detalle el Galaxy J2 (2018), un terminal de gama baja que llegará al mercado en las próximas semanas y que tendrá como objetivo principal Rusia y otros mercados emergentes.

A nivel de diseño y de acabados el Galaxy J2 (2018) es un terminal muy sencillo, ya que está rematado en plástico y conserva esas líneas tan redondeadas que han caracterizado a la gama baja de Samsung casi desde sus inicios.

Pasando a las especificaciones nos encontramos con una relación de componentes equilibrada que confirma que estamos ante un modelo económico:

  • Pantalla de 5 pulgadas de tipo Super AMOLED con resolución de 940 x 560 píxeles.
  • SoC Snapdragon 425 con CPU de cuatro núcleos.
  • GPU Adreno 308.
  • 1,5 GB de RAM.
  • Cámaras de 8 MP y 5 MP.
  • Batería de 2.600 mAh.
  • Doble SIM.
  • Android 7.1.1 como sistema operativo.
  • 16 GB de capacidad de almacenamiento.

Como vemos es un terminal bien planteado que sin embargo mantiene una mala costumbre de Samsung, dotar a este tipo de smartphones de 1,5 GB de memoria RAM en lugar de ir directamente a por los 2 GB.

Puede parecer poco importante pero Android es un sistema operativo que depende de la memoria RAM para ofrecer un funcionamiento verdaderamente bueno, y el nivel óptimo se consigue a partir de los 2 GB de memoria RAM.

Fuente | cubava.cu

Nuestros lectores hablan: ¿Qué tipo de teclado utilizas?

El teclado es uno de los accesorios más importantes de cualquier PC y también uno de los que más posibilidades de configuración presenta, ya que actualmente existen muchas variedades tanto por calidad de construcción como por formato, tamaño, tecnología y precio.

Haciendo una diferenciación a nivel general podemos distinguir entre teclados basados en sistemas de membrana y aquellos que utilizan sistemas mecánicos. Los primeros suelen ser más delgados, ligeros y silenciosos, y sus teclas se pueden colocar a una altura más baja.

Son más económicos que las soluciones mecánicas pero también tienen una vida útil inferior (alrededor de 5 millones de pulsaciones por tecla).

Por contra los teclados mecánicos utilizan un sistema de interruptores que hace que las teclas tengan una longitud mayor y son más ruidosos y caros, pero a cambio transmiten una sensación única con cada pulsación y tienen una vida útil media de 50 millones de pulsaciones por tecla.

Algunos fabricantes como Razer han comercializado soluciones híbridas como el Ornata Chroma, que utiliza un sistema de membrana mecánica y busca ofrecer un punto intermedio entre ambos mundos.

No es mala idea, pero el problema es que el precio ha sido muy elevado, tanto que por lo que cuestan es posible comprar un teclado mecánico de primer nivel siempre que miremos otras marcas.

Fuente | cubava.cu

Llega la noche más larga del año: ¿Qué es el solsticio de invierno?

El solsticio de invierno del 2017 se producirá este jueves, momento en el que el sol esté sobre el trópico de Capricornio. La estación finalizará el 20 de marzo del 2018 con el inicio de la primavera, por lo que durará 88 días y 23 horas, según cálculos del Observatorio Astronómico Nacional (Instituto Geográfico Nacional, IGN).

¿Qué significa solsticio?

Como sucede con muchos de los conceptos meteorológicos y astronómicos, debemos acudir al latín. Solsticio tiene su raíz en la palabra solstitium, que significa sol quieto. En el caso del invierno, corresponde al día en el que sol alcanza menor altura. En verano sucede todo lo contrario. Este comportamiento es inverso en ambos hemisferios, de manera que el planeta, a lo largo del año, disfruta de dos solsticios de verano, y dos solsticios de invierno.

¿Por qué cada año sucede a una hora distinta?

En la escuela nos enseñaron que la tierra tarda un año en dar una vuelta al sol. Pues bien: es mentira. O no es del todo exacto. Tarda 365 días y algo más de seis horas. Por eso el solsticio nunca llega a la misma hora. Los años bisiestos vinieron a compensar algo esta desviación, pero ni así se consigue clavar el momento exacto.

¿Cuántas horas de luz tendremos?

Según recuerda el observatorio, el día del solsticio de invierno corresponde al de menos horas de luz del año. Alrededor de esta fecha se encuentran el día en que el Sol sale más tarde y aquel en que se pone más pronto. En Madrid, por ejemplo, el 21 de diciembre tendrá nueve horas y 17 minutos de luz, cuando el día más largo de este año, que es el 21 de junio, tuvo 15 horas y tres minutos de luz.

Un hecho circunstancial no relacionado con el inicio de las estaciones se da también en esta época: el día del perihelio, es decir, el día en que el Sol y la Tierra están más cercanos entre sí. Es esta mayor proximidad al Sol, tal y como indica el IGN, la causa de que la Tierra se mueva más rápidamente a lo largo de su órbita elíptica durante el invierno (según la conocida como segunda ley de Kepler). Es por ello que esta estación sea la de menor duración. En esta ocasión, el máximo acercamiento se dará el próximo día 3 de enero del 2018, siendo la distancia de algo más de 147 millones de kilómetros, unos cinco millones de kilómetros menos que en el momento de afelio o de mayor distancia (6 de julio de 2018).

¿Qué tiempo nos espera?

El invierno será, según la Agencia Estatal de Meteorología (Aemet), probablemente más cálido de lo normal, tras un otoño que ha sido el más seco del presente siglo y el tercer desde 1965. Los 11 primeros meses del 2017 han sido los más cálidos en España en los últimos 52 años, con una temperatura media de 17 grados. Ana Casals, portavoz de este organismo, ha vaticinado que este será el año más cálido en nuestro país desde que existen registros. A pesar de que venimos de tiempos secos, la Aemet estima que los tres primeros meses del 2018 “podrían ser algo más lluviosos de lo habitual”, sobre todo en el tercio oeste, mientras que marzo tendrá “un tinte más seco”.

¿Qué fenómenos astronómicos depara el invierno?

Durante el invierno, el cielo matutino estará dominado por Marte, Júpiter y Saturno, y el vespertino por Urano, al que se unirá Venus a mediados de febrero. En la noche del 31 de enero habrá un eclipse total de Luna que será visible en Asia, Australia, el Pacífico y Norteamérica, pero no en España. Tampoco aquí se podrá apreciar el eclipse parcial de Sol que tendrá lugar el 15 de febrero, que sí será visible en la Antártida, Argentina y Chile.

La primera luna llena del invierno se dará el 2 de enero del 2018. Las otras se registrarán el 31 de enero y el 2 de marzo de 2018. El invierno también dejará lluvias de meteoros. La primera de esta estación y, por tanto, del año, será la de las Cuadrántidas, cuyo máximo pico de actividad se da hacia el 3 de enero, y se podrá ver sin necesidad de telescopios.

¿Nos afecta el invierno de alguna manera?

Sí afecta, sí… Las personas sensibles a los cambios de temperatura serán propensas a sufrir más dolores de cabeza. La hipótesis, según algunos estudios, los cambios circulatorios en los vasos sanguíneos. El invierno también se asocia con la depresión, con el denominado trastorno afectivo estacional. Se explica por varias razones: la ausencia de luz solar. Puede causar ausencia de apetito, fatiga, somnolencia, irritabilidad o pérdida del deseo sexual. Lo bueno del invierno, sin embargo, es que después llega la primavera.

Fuente | cubadebate.cu

Valoraciones y rendimiento de tarjetas gráficas. Parte 2. (2017 y más atrás)

Saludos lectores. Hoy les traemos varias gráficas comparativas de rendimiento de tarjetas gráficas. En este artículo recopilatorio nos movemos un poco más atrás de la última vez, hasta algunos modelos de las series Radeon HD7000 de AMD y las GeForce 600 de NVIDIA. Con estos datos, los del artículo anterior y los de los próximos, esperamos ayudar a los lectores a hacer compras informadas.

Nos gustaría recordar a los lectores que entre 2012 y 2015, AMD y NVIDIA se mantuvieron fabricando chips con una tecnología de 28 nanómetros, al demorar las factorías de TMSC y GloblaFoundries primero pasar y luego producir con calidad chips en un nodo más integrado y en menor escala. Así AMD y NVIDIA se vieron obligados a optimizar sus GPUs todo lo posible y sacar rendimiento de ligeras modificaciones en las arquitecturas, además de ligeras subidas de la velocidad de reloj al mejorar los procesos de fabricación dentro de un mismo nodo. Hasta 2016, con la salida de los primeros GPUs en 14-16 nanómetros y transistores FinFET.

Esto nos hace tener en cuenta que entre las series 7000, 200 y 300 de AMD varias GPUs comparten la misma arquitectura básica (GCN 1.0 a 1.2), con pequeñas optimizaciones, cada GPU subsiguiente algo más rápido y eficiente. Por ejemplos de la HD7850 a la R9 270 a la R7 370, todas son en su base el mismo núcleo, pero en procesos de fabricación mejorados que permiten escalar algo los relojes y controlar mejor el consumo energético y temperaturas. Incluso en este caso se debe prestar atención, pues la R7 370 es ligeramente más lenta que la R9 270 a la que “sustituye”. Los cambios mayores en las GPUs de estas generaciones anteriores están entre las versiones GCN 1.2 y GCN 1.3 (R9 285, R9 380/380x, Fury, Fury X) donde introdujeron varias tecnologías de aumento de eficiencia. Luego dieron un amplio salto en las 1.4 (GCN generación 4) en 2016, en la serie  RX 400. Desde entonces han lanzado una serie de “refrescamiento” con las RX 500, una optimización de la serie 400 con velocidades de reloj ligeramente más rápida, y las nuevas RX Vega con arquitectura GCN de 5ta generación.

El caso de NVIDIA es similar, aunque los chips tengan diferentes nombres en su arquitectura base son muy similares. De la serie 600 a la 700 los cambios fueron mayormente en tecnologías de optimización de cómputo, caché, acceso a memoria y consumo energético. Con respecto a los renombrados, por ejemplo, la GTX 760Ti no es más que la GTX670 con otro nombre. De la serie 700 (Maxwell gen1) a 900 (Maxwell gen2) la mayor parte de los cambios son a nivel de software y su soporte en hardware. Luego con Pascal se introdujeron varias nuevas tecnologías, aparte de una mayor eficiencia y velocidades de reloj mayores. Recientemente presentaron la primera tarjeta “general” basada en Volta, en la forma de la GTX Titan V, orientada fundamentalemte al cómputo y desarrollos de inteligencia artifical, además de gráficos, pues previamente solo existian modulos Volta (GV100) dedicados a sistemas de supercómputo. Esta tarjeta es la más potente en existencia.

Por último, recordar también que, en las categorías inferiores, es decir, las tarjetas de gama baja, ambos fabricantes reutilizan chips de generaciones e incluso arquitecturas anteriores. Esto se debe tener muy presente al comprar una tarjeta de gama baja, pues se puede estar gastando en tecnología mucho más atrasada de lo que se pueda pensar. Uno de los peores casos conocidos es una variante de las GT530, GT630 y GT730 que no son más que una GT430 varias veces renombrada, con todo lo que ello implica.

Un punto que a veces se desconsidera son las capacidades adicionales que cada fabricante incluye y potencia entre generaciones. Nos referimos a los módulos de procesamiento de video y audio, salidas de video más potenciadas o control de la señal. AMD y NVIDIA soportan en hardware distintos niveles de codificación/decodificación/post-procesamiento de video H264, H265 y VP9 hasta 8K. Estas posibilidades del hardware permiten realizar los procesos con bajo uso de recursos de CPU y de manera más eficiente computacional y energéticamente. AMD aporta desde 2013 capacidades de procesamiento digital acelerado de audio 3D en algunas GPUs (y algunos APU) a través de su tecnología TrueAudio. Con respecto a las salidas de video, actualmente ambos fabricantes soportan HDMI 2.0b y DisplayPort 1.4 lo que entrega un máximo de 8K a 30Hz o 4K a 120HZ y 10bits de color. Sobre todas estas especificidades veremos en próximos artículos.

Primero veamos que nos dicen los expertos de Anandtech. Todos sus datos en las pruebas mostradas son con los modelos de referencia, es decir, con las velocidades de reloj de GPU y memoria definidas por AMD y NVIDIA, a menos que se especifique un modelo de un integrador por su nombre.

Ahora veamos una amplia lista de resultados de pruebas de rendimiento en 26 juegos distintos de una variedad de tarjetas, realizadas por el sitio El Chapuzas Informático. Similarmente a las gráficas de Anantech, los modelos en que no se especifica el nombre del integrador (EVGA, XFX, Zotac, etc) son modelos de referencia. Estos datos son de fines del año 2016.

Los juegos y sus configuraciones son
• Alien Isolation (1920 x 1080 – Max. – Si – Anis.x16 – SMAA T1x)
• Assassins Creed Syndicate (1920 x 1080 – High – SSAO – FXAA)
• Batman Arkham Origins (1920 x 1080 – MSAA 8x – DX11 – PhysX Off)
• Call of Duty: Ghosts (1920 x 1080 – Extra – HBAO+ – MSAAx4)
• Call of Duty: Advanced Warfare (1920 x 1080 – Alta – HBAO+ – SMAA T2x)
• Call of Duty: Black Ops III (1920 x 1080 – Extra – FXAA)
• Crysis 3 (1920 x 1080 – Ultra)
• Dark Souls III (1920 x 1080 – Ultra)
• DiRT Rally (1920 x 1080 – Ultra – 4xMSAA)
• Fallout 4 (1920 x 1080 – Ultra – FXAA)
• FarCry4 (1920 x 1080 – Ultra)
• GTA V (1920 x 1080 – MSAAx4 – Ultra)
• Homefront: The Revolution (1920 x 1080 – Ultra – FXAA)
• Lords of the Fallen (1920 x 1080 – Muy Alto)
• Metro Redux (1920 x 1080 – Very High – SSAA – AF 16X – Normal – VH – PhysX)
• Plants Vs Zombies – Garden Warfare (1920 x 1080 – Ultra)
• Plants Vs Zombies – Garden Warfare 2 (1920 x 1080 – Ultra)
• Rise of Tomb Raider (1920 x 1080 – Ultra – DX11/DX12)
• Ryse (1920 x 1080 – Ultra)
• Shadow of Mordor (1920 x 1080 – Ultra)
• Sniper Elite III (1920 x 1080 – Ultra – Anis.x16 – AA Alto)
• The Division (1920 x 1080 – Alta)
• The Witcher 3 (1920 x 1080 – Ultra)
• Thief (1920 x 1080 – Muy Alta – Anis. X8)
• Tomb Raider 2013 (1920 x 1080 – Perfil Ultimate)
• Total War Rome II Emperor Edition (1920 x 1080 – Ultra)

En el próximo artículo, y para completar el año, tendremos una sola tabla de rendimientos relativos, desde la 1080ti, descendiendo hasta llegar a los gráficos integrados de Intel HD Graphics 3000, generada a partir de decenas de miles de pruebas compiladas por el sitio UserBenchmark.

En futuros artículos pasaremos a sintetizar resultados de consumo (y fuente recomendada) y temperatura.

El CEO de Intel dice que asumirán más riesgos para mejorar

En una reciente nota enviada a los trabajadores el CEO de Intel, Brian Kzarnich, ha confirmado que necesitan asumir más riesgos para seguir creciendo y mejorando como empresa, un enfoque que francamente nos parece acertado.

El CEO de Intel lo tiene claro:

“Memoria, FPGA, IOT (Internet de las Cosas), inteligencia artificial, conducción autónoma. Cualquier cosa que produzca datos, cualquier cosa que requiera mucha informática, nuestra visión es que debemos estar presentes”.

Esto significa que Intel quiere seguir diversificando su área de negocio yexpandir su presencia a aquellos sectores que representan una gran oportunidad tanto a corto como a largo plazo. En este sentido no hay duda de que la conducción autónoma, la Internet de las Cosas y a inteligencia artificial (unida al aprendizaje profundo) son los tres mercados con mayor potencial que existen actualmente.

Otro detalle importante que podemos sacar de la nota que ha enviado Brian Kzarnich a los trabajadores de Intel es que la compañía ha conseguido reducir tanto su dependencia del PC que ha llegado casi al “50/50”, es decir que sólo un 50% de sus ingresos provienen de dicho mercado y el resto ha sido diversificado a otros sectores.

El gigante del chip se mantiene como uno de los mayores gigantes dentro del sector tecnológico y evidentemente es algo más que un fabricante de microprocesadores de consumo, pero con la competencia creciente desde varios frentes (AMD en CPUs profesionales y de consumo así como NVIDIA en soluciones para inteligencia artificial y conducción autónoma) obligará a los de Santa Clara a afrontar nuevos retos y riesgos para mantenerse en lo más alto.

Fuente | cubava.cu