Quantcast
Channel: Ordenadores: Noticias, análisis y novedades de hardware en PC y Mac - Xataka
Viewing all 3032 articles
Browse latest View live

ASML es el auténtico coloso de los chips: prevé un 2023 fabuloso mientras los demás se aprietan el cinturón

$
0
0

ASML es el auténtico coloso de los chips: prevé un 2023 fabuloso mientras los demás se aprietan el cinturón

ASML está por encima del bien y el mal. Esta compañía de Países Bajos acaba de dar a conocer los resultados económicos que ha obtenido durante el último trimestre de 2022, y son extraordinarios. Sus ingresos durante este periodo han alcanzado los 6.400 millones de euros, y, curiosamente, 3.400 de esos millones proceden de la venta de equipos de fotolitografía de ultravioleta extremo (UVE).

Lo sorprendente no es que a la mayor compañía de tecnología europea le vaya bien; lo que resulta asombroso es que le vaya tan bien en un contexto en el que los demás actores de la industria de los semiconductores están empezando a precipitarse cuesta abajo y sin frenos. A finales del pasado mes de octubre Pat Gelsinger, el director general de Intel, se mostró preocupado debido a la incertidumbre que ya se está cerniendo sobre el mercado de los chips.

Por otro lado Dave Reeder, que es el máximo responsable financiero de GlobalFoundries, ya está percibiendo con claridad un descenso de la demanda de semiconductores, por lo que prevé que durante la primera mitad de 2023 esta tendencia comience a tener un impacto tangible sobre la salud financiera de los fabricantes de chips. Las expectativas de sus otros competidores también son poco halagüeñas a corto plazo. Y, mientras tanto, ASML va a lo suyo. Avanza a toda velocidad y sin distracciones.

El secreto de ASML es, en realidad, un secreto a voces

Las razones que explican a qué se debe el descenso de la demanda de chips con el que ya están lidiando los fabricantes de semiconductores son esencialmente las mismas que esgrimió Pat Gelsinger a finales de octubre en la entrevista que concedió a The Wall Street Journal: la recesión económica, la inflación y el incremento de los costes de la energía. De hecho, estos son esencialmente los mismos motivos que están sumiendo al mercado del PC en un pozo sin fondo.

ASML asegura que durante 2023 sus ventas netas crecerán al menos un 25% comparadas con las de 2022

Dadas las circunstancias ¿cómo es posible que ASML esté alcanzando un nivel de facturación récord? Pero hay algo que todavía resulta más impactante: en el informe financiero que esta empresa ha hecho público hoy mismo anticipa que, según sus previsiones, en 2023 sus ventas netas crecerán al menos un 25% comparadas con las que ha obtenido en 2022. De hecho, durante el primer trimestre de este año espera alcanzar un volumen de facturación de entre 6.100 y 6.500 millones de euros. Es brutal.

La buenísima salud de esta compañía queda explicada por la naturaleza de su negocio. Y es que, en realidad, ASML no es un fabricante de chips; produce los equipos de fotolitografía que emplean los fabricantes de semiconductores para poner a punto sus circuitos integrados. Además, si nos ceñimos a los equipos de litografía de ultravioleta extremo, no tiene competencia. Canon y Nikon, que eran sus principales competidores, abandonaron hace años el desarrollo de estas máquinas debido a su descomunal complejidad y coste.

La ausencia de competencia y el rol crítico que tienen los equipos que produce para sus clientes, entre los que se encuentran TSMC, Intel y Samsung, han provocado no solo que ASML venda todo lo que fabrica; pese a sus considerables recursos no puede dar respuesta a toda la demanda que tiene. Esta declaración de Peter Wennink, que es su director general, pone esta realidad sobre la mesa: "La demanda continúa siendo más alta de lo que podemos asumir". Esto sí es tener una salud de hierro.

Imagen de portada: ASML

Más información: ASML


El renovado Mac Pro con chip M2 sigue sin llegar. A estas alturas, quizás lo mejor sería matarlo

$
0
0

El renovado Mac Pro con chip M2 sigue sin llegar. A estas alturas, quizás lo mejor sería matarlo

62.648 euros. Eso es lo que costaba la configuración más potente del Mac Pro que Apple ponía al fin a la venta en diciembre de 2019. Aquel equipo, basado aún en procesadores Intel, tenía un precio enorme incluso en su versión base (5.999 euros en lanzamiento), pero al menos ofrecía algo poco usual en los equipos de este fabricante: la capacidad de intercambiar fácilmente sus componentes internos.

Este equipo se ha acabado convirtiendo en un tema escabroso. Cuando Apple anunció los chips M1, lo hizo con la promesa de que en dos años completaría la transición de todos sus equipos a estos nuevos chips. Han pasado más de tres y el Mac Pro es el único que no se ha renovado. Y lo peor de todo es que a estas alturas quizás ya no tenga sentido hacerlo.

Rumore, rumore

En Cupertino parece que de hecho tenían un nuevo Mac Pro preparado —probablemente basado en el chip M1 Ultra— desde hace tiempo, pero decidieron esperar a un teórico chip M2 Extreme.

Parece que aquellas intenciones se quedaron solo en eso: rumores más recientes indican que Apple cancelaba esos planes porque ese chip y esa configuración eran demasiado especiales hasta para Apple.

Pongamos que no pasa nada. Que da igual que al final no vayan a sacar un modelo con el hipotético M2 Extreme. Da igual. Contar con una versión con los (también hipotéticos) M2 Ultra sería interesante, y de hecho se habla de que ese chip tendrá 24 núcleos en su CPU y 76 en su GPU, además de una memoria unificada de 192 GB.

Esa configuración es desde luego destacable, pero lo importante del Mac Pro ni siquiera era eso. O al menos, no era "solo" lo más importante. Ese equipo era la gran baza para quienes buscaban otra ventaja de estos equipos: su capacidad de expansión.

En los Mac Pro actuales es posible cambiar memoria, almacenamiento o utilizar cualquiera de los ocho slots PCIe para conectar nuevos periféricos como tarjetas gráficas al equipo. Se esperaba que el renovado Mac Pro conservase (a pesar de los diseños conceptuales) al menos parte de esa modularidad, pero todo apunta a que las opciones serán mínimas.

De hecho, Mark Gurman, analista en Bloomberg, apuntaba estos días a cómo esos Mac Pro no contarían con la capacidad de cambiar de tarjeta gráfica. Ya era evidente que no sería posible ampliar la memoria debido a que esta es unificada y está integrada en los chips de Apple, pero es que ahora ni siquiera parece que vaya a poderse ampliar el equipo en el futuro con GPUs más potentes.

Eso deja a estos Mac Pro con —al menos en teoría— una sola posibilidad para ser ampliados: la de su sistema de almacenamiento, que sí podremos ampliar. "La gran diferencia entre el Mac Pro y el Mac Studio además del salto del M1 Ultra al M2 Ultra", explicaba en otro tuit, "debería ser más rendimiento gracias a mayor espacio para la refrigeración".

La pregunta, claro, es si eso es suficiente.

El Mac Pro se ha quedado definitivamente atrás

El tiempo pasa muy rápido en tecnología, y los vertiginosos avances hacen que equipos que en el lanzamiento parecían prodigiosos queden especialmente perjudicados por los cambios.

Geekbench

Es lo que le ha ocurrido al Mac Pro de 2019, que no ha envejecido demasiado bien. Lo demuestra una sencilla comparación con el Mac mini M2 en su versión básica que acaba de lanzarse.

Al compararlo con el Mac Pro en la prueba Geekbench 5 (Mac mini, Mac Pro, Mac Studio) el resultado es cruel: el Mac mini M2 dobla el rendimiento en la prueba de un único núcleo, pero también logra un incremento de casi el 27% en rendimiento multinúcleo.

Mejor ni mencionamos la eficiencia, pero es que la cosa es aún más dolorosa cuando uno mira la etiqueta de precio: que el Mac mini de 719 euros supere en rendimiento a un equipo que se sigue vendiendo en Apple por la friolera de 6.499 euros (sin ruedas) es terrible. Y lo es precisamente porque Apple sigue vendiendo el viejo Mac Pro a ese precio.

Las comparaciones pueden ser más odiosas si lo que buscamos es más rendimiento multinúcleo: el Mac Studio de partida cuenta con unos M1 Ultra que en rendimiento mononúcleo son algo peores que los M2, pero que ganan la partida en la otra prueba por su mayor número de núcleos. De hecho, aplastan a estos otros dos equipos con holgura por un precio que resulta hasta razonable si lo comparamos con el del Mac Pro.

¿Tiene sentido un Mac Pro a estas alturas?

La respuesta a esa pregunta es delicada. Lo cierto es que la aparición de los Mac Studio ha hecho que la respuesta sea difícil, ya que estos equipos dan un rendimiento fabuloso incluso para los usuarios más exigentes.

Macpro3

El Mac Pro ya era un producto de nicho, pero es que ese segmento ya ha sido muy bien cubierto con estos Mac Studio, y precisamente estos equipos podrían ser utilizados para ser actualizados a esos teóricos M2 Ultra. Sería la evolución natural de estos modelos, y eso haría básicamente redundante un Mac Pro con un M2 Ultra.

La propuesta de Gurman, que afirmaba que el Mac Pro permitiría más rendimiento al tener mayor tamaño y más margen de maniobra con la refrigeración, no casa muy bien con el hecho de que el Mac Studio no tiene problemas en refrigerar el M1 Ultra. No parece que el teórico M2 Ultra fuera especialmente distinto en este ámbito: ¿necesita Apple un Mac Pro solo para poder refrigerar este chip?

La cosa se pone aún más complicada, porque ese teórico Mac Pro con el M2 Ultra "canibalizaría" al Mac Studio con el M1 Ultra. A no ser que el precio y el rendimiento del Mac Pro sean exageradamente distintos, este equipo parece no tener demasiadas razones para entrar en escena. Ahora, claro, queda por ver qué acaba decidiendo Apple.

Por cierto, tenemos otra pregunta para el Sr. Cook. ¿Qué fue de los iMac Pro? ¿No tienen también estos equipos una renovación más que pendiente? Los iMac actuales son decentes, sí, pero la pantalla de 24 pulgadas se queda corta para según que escenarios. Un 27" con un buen M2 Pro o un M2 Max parecen una propuesta lógica para este 2023.

Echar la zancadilla a China en la industria de los chips es un arma de doble filo. Occidente lo está pagando

$
0
0

Echar la zancadilla a China en la industria de los chips es un arma de doble filo. Occidente lo está pagando

Los fabricantes de semiconductores están sumidos en un momento delicado. Algunos de ellos han realizado durante los últimos dos años inversiones muy fuertes en nuevas plantas de fabricación con el propósito de dar una respuesta sólida a la creciente demanda global de circuitos integrados. Los tres pesos pesados de esta industria, TSMC, Intel y Samsung, son algunos de ellos.

En circunstancias favorables probablemente estas empresas recuperarían esta inversión en poco tiempo, pero no están ni mucho menos al margen de la delicada coyuntura política y geoestratética actual. Para las grandes potencias la industria de los chips es estratégica debido al profundo impacto que tiene en su economía, y también a que está íntimamente ligada a su desarrollo tecnológico. Y actualmente Occidente tiene la sartén bien agarrada por el mango.

Estados Unidos, a la cabeza de la alianza Occidental, está haciendo todo lo que está en su mano para evitar que los equipos de fotolitografía más avanzados que fabrica ASML, los de ultravioleta extremo (UVE), caigan en las manos de China. Actualmente estas máquinas de litografía están siendo utilizadas por TSMC, Intel y Samsung, pero están fuera del alcance de las compañías chinas de semiconductores, como SMIC o Hua Hong Semiconductor.

No obstante, esta estrategia tiene un coste importante, y lo están asumiendo, sobre todo, los fabricantes de chips occidentales. De hecho, cuando el Gobierno estadounidense aprobó la imposición de sanciones dirigidas directamente a la industria china de los chips la cotización en la Bolsa de varios fabricantes de semiconductores occidentales se redujo de un día para otro en 240.000 millones de dólares. Hoy el panorama que se cierne sobre esta industria es sombrío, y SIA (Semiconductor Industry Association), que es la organización que representa los intereses de los fabricantes de chips estadounidenses, se ha mojado.

SIA avisa: el bolsillo de las empresas estadounidenses ya se está resintiendo

El mercado chino actúa como una fuente de ingresos fundamental para muchas compañías occidentales vinculadas a la industria de los semiconductores. Las sanciones impuestas por el Gobierno estadounidense no impiden únicamente a ASML vender sus equipos de litografía más avanzados a las empresas chinas; también afectan a los fabricantes de obleas, a los diseñadores de chips y a las empresas que producen otras herramientas que también participan en la producción de circuitos integrados.

Esta declaración de SIA pone el dedo en la herida:

"Las compañías estadounidenses de semiconductores están sumidas en un ciclo virtuoso de innovación que les obliga a realizar grandes inversiones en investigación y desarrollo, así como a acceder al mercado global. Históricamente los fabricantes de semiconductores estadounidenses han invertido de forma sostenida alrededor de una quinta parte de sus ingresos en investigación y desarrollo, que es una de las mayores cuotas soportadas por cualquier industria."

No obstante, este es solo el punto de partida de esta organización. En su declaración justo a continuación expone varias medidas que, según las compañías de semiconductores de Estados Unidos, deberían ser aceptadas por el Departamento de Comercio para evitar que su bolsillo salga aún peor parado debido a la imposibilidad de desarrollar buena parte de su actividad comercial en China. En cualquier caso, las empresas estadounidenses no son las únicas que están sometidas a las tensiones entre Estados Unidos y China; las europeas también lo están.

Como hemos visto ASML, que es de Países Bajos, no puede vender sus equipos de fotolitografía más avanzados en China. Aun así, esta compañía asegura que sus ingresos a corto y medio plazo están garantizados gracias, precisamente, al desarrollo de los equipos avanzados que está suministrando a los fabricantes de chips occidentales que están poniendo a punto nuevas plantas. Sin embargo, podemos estar seguros de que otras empresas europeas más pequeñas, al igual que las estadounidenses, están sufriendo como consecuencia de las sanciones impuestas a China. Veremos cómo evoluciona este conflicto, pero con toda seguridad la tensión no va a relajarse a corto plazo.

Imagen de portada: ASML

Más información: SIA

Medion Erazer Beast X40: una bestia de portátil gaming con una RTX 4090 y refrigeración líquida opcional para los más exigentes

$
0
0

Medion Erazer Beast X40: una bestia de portátil gaming con una RTX 4090 y refrigeración líquida opcional para los más exigentes

Medion acaba de actualizar su gama de portátiles gaming. El fabricante alemán, que busca ganarse a los usuarios con un interesante equilibrio entre calidad y precio, ha presentado este lunes el Erazer Beast X40, una propuesta que destaca por su potencia gráfica y refrigeración líquida opcional.

Estamos frente a una propuesta ambiciosa que no solo intenta elevar sus especificaciones al siguiente nivel para satisfacer las necesidades de los jugadores más exigentes, sino que también es un portátil cuyas dimensiones generosas no pasan desapercibidas. Veamos las características de lo nuevo de la marca.

Ficha técnica del Medion Erazer Beast X40


Medion Erazer Beast X40

PANTALLA

Panel QHD+ de 17 pulgadas

Tasa de refresco de hasta 240 Hz

Soporte para G-SYNC

procesador

Intel Core i9-13900HX de 13.ª generación

GPU

NVIDIA GeForce RTX 4090

memoria

32 GB DDR5 (4800 MHz)

ALMACENAMIENTO

Hasta 2 TB PCIe Gen 4x4 SSD

conectividad

2x USB 3.2 Gen 1 Type A
1x USB 3.2 Gen 2 Type A
1x Thunderbolt™ 4 port Type C
1x HDMI™ 2.1
1x LAN (RJ-45)
1 x ranura SD de tamaño completo
1x Audio-Combo
1x Mic-In
1x DC-In
1x conexión doble de refrigeración por agua
1x Kensington Lock

SONIDO Y WEBCAM

Tecnología de audio Nahimic by SteelSeries

batería

-

otros

Refrigeración líquida (opcional)

dimensiones y peso

383 mm x 33 mm x 272 mm

2.862 g

sistema operativo

Windows 11 home

precio

Desde 3.499 euros

Enorme, potente, robusto

El nuevo Medion Erazer Beast X40 es sinónimo de un importante despliegue de hardware. Esto se traduce en un enorme portátil de con una pantalla de 17 pulgadas capaz de ofrecer resolución QHD+ (3216 x 1440 puntos) y una tasa de refresco de hasta 240 Hz. Además, el panel soporta NVidia G-Sync.

Debajo del capó nos encontramos con lo más nuevo de Intel. Estamos hablando del Core i9-13900HX de 13.ª generación  de 24 núcleos. El corazón del ordenador está acompañado de 32 GB de memoria RAM DDR5 a 4800 MHz, una pieza clave para ejecutar determinados juegos pesados.

Otra de las características destacadas de este portátiles tiene que ver con el apartado gráfico. Ya lo decíamos a principio de este año, las NVIDIA GeForce RTX 4000 estaban a punto de llegar. Finalmente, el despliegue está ocurriendo, y el Erazer Beast X40 es uno de los protagonistas.

Medion Erazer Beastc X40 2

El equipo del fabricante alemán incorpora en su interior una RTX 4090 (TDP máximo de 175 W). Se trata de una propuesta que recoge los beneficios de la arquitectura Ada Lovelace, la mejora de rendimiento de DLSS 3 y las ventaja de la 16 GB GDDR6 de memoria para ofrecer una buena experiencia gaming.

Cabe señalar que este modelo de portátil también cuenta con una segunda versión un poco menos ambiciosa en cuanto a gráficos. Los usuarios podrán gastar algo menos de dinero (3.499 euros) por un Erazer Beast X40 con una GeForce RTX4080 con 12 GB de memoria de vídeo.

Medion dice que el hardware mantiene su temperatura bajo control gracias a un sistema de refrigeración de metal líquido, una alternativa que técnicamente es una evolución de la pasta térmica tradicional. Asimismo, ofrece una alternativa opcional para los usuarios más exigentes de este portátil.

Medion Erazer Beastc X40 14

Ya sabemos que a mayor potencia, mayor temperatura y el ordenador establece ciertos límites para proteger a los componentes internos. En este sentido, para desbloquear entre un 10 y un 15% adicional de rendimiento en juegos será necesario contar con un sistema de refrigeración líquida.

El sistema, que deberá adquirirse por separado, se conecta a la parte trasera del portátil a través de una tubería especial que hace circular el líquido. Este accesorio nos ofrecerá la posibilidad de jugar con ese plus de rendimiento, pero el precio a pagar será tener una especie de torre independiente no demasiado discreta a un lado del equipo.

Si hablamos del diseño, pese a tratarse de un ordenador gaming, sus líneas son sobrias y, como mencionamos al principio, se percibe enorme y pesado. A nivel de teclado nos encontramos con una solución mecánica Cherry ‘Ultra Low Profile’ con luminosidad en diferentes niveles.

Nuestro compañero Miguel López ha estado en la presentación de Medion en París y ha tenido la oportunidad de probar el portátil. Nos dice que esta elección por parte del fabricante es prometedora, pero percibe que la sensación mecánica del teclado es total, siendo este poco silencioso al presionar las teclas

Precio y disponibilidad del nuevo Medion Erazer Beast X40

El nuevo portátil Medion Erazer Beast X40 estará disponible a partir del 10 de febrero. La versión con la RTX 4080 costará 3.499 euros. Por su parte, la versión con la RTX 4090 se conseguirá por 4.499 euros

Los entusiastas de los videojuegos que requieran más potencia, podrán comprar el kit de refrigeración líquida a partir de la misma fecha. El mismo tendrá un precio de 243 euros.

Imágenes: Fotografías propias | Medion

En Xataka: La GeForce RTX 4090 ha puesto a NVIDIA en otro nivel: AMD peleará contra su segunda tarjeta más potente

AMD tiene preparada una nueva arma para sus GPU. Su objetivo es muy sencillo: batir a NVIDIA

$
0
0

AMD tiene preparada una nueva arma para sus GPU. Su objetivo es muy sencillo: batir a NVIDIA

Los próximos microprocesadores de la familia Ryzen 7000 de AMD no tardarán mucho en llegar a las tiendas. El pasado 5 de enero Lisa Su, la directora general de esta compañía, anunció oficialmente los chips Ryzen 9 7950X3D, 7900X3D y Ryzen 7 7800X3D, y pocas horas después de la presentación la página oficial de esta compañía recogió que estas CPU estarán disponibles durante el mes de febrero.

La característica más interesante de estos procesadores es que comparten la tecnología 3D V-Cache, una innovación que hace posible el apilado de chiplets, de manera que en vez de colocarse uno al lado del otro se emplazan uno encima del otro. De esta forma es posible incrementar notablemente la capacidad de la memoria caché de nivel 3, y, además, la latencia de este subsistema se reduce.

Durante nuestro análisis del procesador Ryzen 7 5800X3D, que por el momento es la única CPU de consumo ya disponible que implementa esta tecnología, descubrimos que, como afirma AMD, esta estrategia tiene un impacto beneficioso en el rendimiento con juegos. La posibilidad de integrar esta tecnología en las GPU, y no solo en las CPU, está encima de la mesa desde el principio, y tenemos una pista sólida que nos invita a pensar que esta marca planea dar este paso para ayudar a sus próximas Radeon 7000 a lidiar con las GeForce RTX 40 de NVIDIA.

Las Radeon 7000 también pueden sacar partido a la tecnología 3D V-Cache

De una cosa no cabe duda: sobre el papel el rendimiento de las tarjetas gráficas de AMD también puede mejorar al incrementar la capacidad del subsistema de caché de la GPU y reducir su latencia. A priori no podemos saber si este impacto beneficioso se percibiría con claridad a cualquier resolución, pero es posible, aunque solo es una conjetura, que su impacto sea mayor a medida que se incrementa la resolución.

En cualquier caso, todavía no hemos indagado en el motivo por el que es razonable aceptar que AMD tiene en mente integrar la tecnología 3D V-Cache en sus GPU. Tom Wassick, que es un ingeniero con un conocimiento muy profundo de las tecnologías utilizadas actualmente en el empaquetado de los semiconductores, ha inspeccionado el núcleo de una GPU Radeon RX 7900 XT con un dispositivo de visión por infrarrojos, y ha encontrado algo inesperado:

Este técnico se ha topado de bruces con los mismos puntos de interconexión utilizados por AMD en la CPU Ryzen 7 5800X3D para apilar el chiplet L3 Die (L3D) que contiene los 64 MB adicionales que se suman a los 32 MB de caché L3 integrados en el CCD de esta CPU. Es muy extraño que esta marca haya decidido incorporar en sus nuevas GPU esta interfaz de conexión si no tuviese en mente utilizarla en algún momento. Y, como hemos visto, la posibilidad de integrar esta tecnología en sus procesadores gráficos tiene sentido.

Por otro lado, desde hace varias semanas suena con insistencia que AMD lanzará nuevas versiones de algunas de sus tarjetas gráficas equipadas con la tecnología 3D V-Cache, por lo que el hallazgo de Tom Wassick de alguna forma da consistencia a una posibilidad que ahora es más tangible que nunca. Veremos qué sucede, pero no cabe duda de que cualquier mejora que tenga un impacto perceptible en el rendimiento de nuestras tarjetas gráficas es bienvenida siempre y cuando, eso sí, no las encarezca mucho más y las ponga aún más lejos de nuestro alcance de lo que ya lo están.

El veto de Estados Unidos no funciona: China sigue utilizando chips de Intel y NVIDIA en su programa nuclear

$
0
0

El veto de Estados Unidos no funciona: China sigue utilizando chips de Intel y NVIDIA en su programa nuclear

La lista negra de Estados Unidos no deja margen a la más mínima ambigüedad: a la industria militar china y las organizaciones involucradas en el desarrollo de su programa nuclear no se les pueden vender semiconductores fabricados con tecnologías de origen estadounidense. Esta prohibición viene de lejos. A diferencia de las sanciones impuestas a Huawei, que son mucho más recientes, algunos centros de investigación chinos llevan en la lista negra más de dos décadas.

La Academia China de Ingeniería Física (conocida como CAEP por su acrónimo en inglés), que es una pieza fundamental en el programa nuclear de este país, entró en ella en 1997. En la práctica esto significa que Estados Unidos está haciendo todo lo posible para que no caigan en manos de esta y otras organizaciones los microprocesadores de origen estadounidense que necesitan para desarrollar su investigación. Y, sin embargo, según The Wall Street Journal, hay registros que revelan que después de 2020 esta institución se ha hecho con chips de Intel y NVIDIA.

Los centros de investigación en los que se desarrolla armamento, y especialmente aquellos involucrados en la puesta a punto de armas nucleares, necesitan procesadores muy potentes para llevar a cabo simulaciones. Tanto CAEP como cualquier otra institución, sea china o no, que persigue desarrollar bombas atómicas los emplea, entre otras cosas, para estudiar la dinámica de fluidos que está íntimamente ligada a los efectos devastadores de estas armas. Y, al parecer, a pesar de los esfuerzos de Estados Unidos, estos chips están al alcance de China.

Estados Unidos tiene un problema con el mercado paralelo: no puede controlarlo

China tiene sus propios microprocesadores de alta integración. Y los utiliza para aplicaciones militares. A mediados del pasado mes de agosto la compañía china Biren Technology anunció que tiene lista su GPU BR104, que tiene una capacidad de cálculo FP32 de nada menos que 128 TFLOPS. Y hace apenas un mes el fabricante de procesadores chino Loongson completó la fase de validación de su chip 3D5000, una CPU de 32 núcleos que es capaz de trabajar por encima de los 2 GHz. Su próximo paso será poner a punto un chip de 64 núcleos que, al igual que este último, estará implementado con chiplets.

CAEP ha publicado durante la última década al menos 34 artículos científicos en cuya elaboración han participado circuitos integrados de origen estadounidense

La capacidad que tiene China de desarrollar sus propios microprocesadores avanzados está fuera de toda duda, pero los embargos de la alianza occidental liderada por Estados Unidos ponen fuera del alcance de sus principales fabricantes de semiconductores, entre los que se encuentran SMIC y Hua Hong Semiconductor, los equipos de fotolitografía más sofisticados. Y sin ellos sus circuitos integrados no pueden rivalizar con los más avanzados que están produciendo actualmente TSMC, Intel y Samsung, que sí tienen acceso a las máquinas de fotolitografía de ultravioleta extremo de ASML.

En esta coyuntura parece razonable concluir que los centros de investigación chinos que están especializados en el desarrollo de armamento necesitan los mejores microprocesadores disponibles actualmente para llevar a cabo sus simulaciones, y los están consiguiendo. No obstante, no son chips de origen chino. Sorprendentemente CAEP ha publicado durante la última década al menos 34 artículos científicos en cuya elaboración han participado circuitos integrados de origen estadounidense. Y, de acuerdo con los expertos consultados por The Wall Street Journal, siete de esos artículos están involucrados directamente en el desarrollo o el mantenimiento del arsenal nuclear chino. Así están las cosas.

Lo más impactante es que, al parecer, a China no le está costando lo más mínimo conseguir los chips que necesita. De hecho, en los siete artículos científicos que he mencionado en el párrafo anterior CAEP ha utilizado procesadores Xeon Gold de Intel y chips gráficos GeForce RTX de NVIDIA que actualmente pueden adquirirse sin dificultad en la tienda on-line china Taobao. Un ejecutivo de NVIDIA se ha pronunciado alegando que por mucho cuidado que tengan sus GPU de propósito general están disponibles masivamente en el mercado de consumo. Es evidente que es así. Y también que es prácticamente imposible evitar que las industrias armamentísticas china y rusa se hagan con estos chips.

Imagen de portada: Voice of America

Más información: The Wall Street Journal

Los nuevos Samsung Galaxy Book3 son muy delgados, pero no renuncian a lo mejor de Intel y NVIDIA

$
0
0

Los nuevos Samsung Galaxy Book3 son muy delgados, pero no renuncian a lo mejor de Intel y NVIDIA

Samsung ha aprovechado su evento Unpacked 2023 para presentar no solo la nueva familia de móviles Galaxy S23 —con un S23 Ultra espectacular y que nos ha encantado en nuestras primeras impresiones—, sino también para mostrar sus nuevos ultraportátiles, los Samsung Galaxy Book3. Llegan en cuatro variantes: Pro 14, Pro 16, Pro 360 y el verdadero referente de la familia: el Samsung Galaxy Book3 Ultra.

Este último modelo es el buque insignia de la firma, y con razón: el equipo presume de contar con unos componentes dignos de cualquier portátil gaming, pero lo hace sin traicionar el diseño estilizado de un ultraportátil que engaña: es mucho más potente de lo que aparenta.

Ficha técnica de los Samsung Galaxy Book3


Galaxy Book3 Pro 14

Galaxy Book3 Pro 16

Galaxy Book3 360

Galaxy Book3 Pro 360

Galaxy book3 Ultra

Pantalla

Dynamic AMOLED 14 pulgadas

2.880 x 1.800 px

16:10, 500 nits, 120 Hz

Dynamic AMOLED 16 pulgadas

2.880 x 1.800 px

16:10, 500 nits, 120 Hz

Dynamic AMOLED 13,3 / 15,6" pulgadas

Full HD

16:9

120% DCI-P3

Dynamic AMOLED 16 pulgadas

2.880 x 1.800 px

16:10, 500 nits, 120 Hz

Dynamic AMOLED 16 pulgadas

2.880 x 1.800 px

16:10, 500 nits, 120 Hz

Procesador

Intel Core i5 13ª Gen

Intel Core i7 13ª Gen

Intel Core i5 13ª Gen

Intel Core i7 13ª Gen

Intel Core i5 13ª Gen

Intel Core i5 13ª Gen

Intel Core i7 13ª Gen

Intel Core i5 13ª Gen

Intel Core i7 13ª Gen

Tarjeta gráfica

Intel Iris Xe

Intel Iris Xe

Intel Iris Xe

Intel Iris Xe

Intel Iris Xe

NVIDIA GeForce RTX 4050

NVIDIA GeForce RTX 4070

Memoria

8 / 16 / 32 GB LPDDR5

8 / 16 / 32 GB LPDDR5

16 GB LPDDR5

8 / 16 / 32 GB LPDDR5

16 / 32 GB LPDDR5

Almacenamiento

256 GB / 512 GB / 1 TB SSD PCIe 4.0

256 GB / 512 GB / 1 TB SSD PCIe 4.0

512 GB SSD PCIe 4.0

256 GB / 512 GB / 1 TB SSD PCIe 4.0

512 GB / 1 TB SSD PCIe 4.0

Ranura para unidad adicional

Conectividad

Wi-Fi 6E

Bluetooth 5.1

Wi-Fi 6E

Bluetooth 5.1

Wi-Fi 6E

Bluetooth 5.1

Wi-Fi 6E

Bluetooth 5.1

Wi-Fi 6E

Bluetooth 5.1

Puertos

2 x USB-C (Thunderbolt 4)

1 x USB-A (USB 3.2 Gen 2)

1 x HDMI 1.4

1 x minijack 3,5 mm

Lector microSD

2 x USB-C (Thunderbolt 4)

1 x USB-A (USB 3.2 Gen 2)

1 x HDMI 1.4

1 x minijack 3,5 mm

Lector microSD

2 x USB-C (Thunderbolt 4)

1 x USB-A (USB 3.2 Gen 2)

1 x HDMI 1.4

1 x minijack 3,5 mm

Lector microSD

2 x USB-C (Thunderbolt 4)

1 x USB-A (USB 3.2 Gen 2)

1 x HDMI 1.4

1 x minijack 3,5 mm

Lector microSD

2 x USB-C (Thunderbolt 4)

1 x USB-A (USB 3.2 Gen 2)

1 x HDMI 1.4

1 x minijack 3,5 mm

Lector microSD

Audio

4 altavoces AKG (5 W x 2, 2 W x 2), Dolby Atmos

4 altavoces AKG (5 W x 2, 2 W x 2), Dolby Atmos

4 altavoces AKG (5 W x 2, 2 W x 2), Dolby Atmos

4 altavoces AKG (5 W x 2, 2 W x 2), Dolby Atmos

4 altavoces AKG (5 W x 2, 2 W x 2), Dolby Atmos

Webcam

1080p

Micrófono dual

1080p

Micrófono dual

1080p

Micrófono dual

1080p

Micrófono dual

1080p

Micrófono dual

Batería

63 Wh

Adaptador universal de 65 W USB-C

76 Wh

Adaptador universal de 65 W USB-C

N.d.

76 Wh

Adaptador universal de 65 W USB-C

76 Wh

Adaptador universal de 65 W USB-C

Dimensiones y peso

312,3 x 223,8 x 11,3 mm

1,17 kg

355,4 x 250,4 x 12,5 mm

1,56 kg

12,9 mm de grosor / 1,16 kg (13,3")

13,7 mm de grosor / 1,46 kg (15,6")

355,4 x 252,2 x 12,8 mm

1,66 - 1,71 kg (5G)

355,4 x 250,4 x 16,5 mm

1,79 kg

Sistema Operativo

Windows 11

Windows 11

Windows 11

Windows 11

Windows 11

Otros

N.d.

N.d.

S Pen

S Pen

N.d.

Precio

Desde 1.799 euros

Desde 1.899 euros

Desde 1.399 euros

Desde 1.999 euros

N.d.


Una familia muy completa (y delgada)

Samsung ha querido aquí plantear opciones para todos los gustos. Los Samsung Galaxy Book3 Pro 14 y Pro 16 se diferencian esencialmente en la diagonal de su pantalla: el modelo de 16 pulgadas permite que podamos contar con teclado numérico, pero en ambos casos los delgados marcos utilizados en la pantalla hacen que las dimensiones de estos equipos estén realmente contenidas.

Book3 7

Estos dos modelos son especialmente delgados y livianos, y de hecho el Galaxy Book3 Pro de 14 pulgadas presume de un grosor de tan solo 11,3 mm y un peso de partida de ,17 kg mientras que el modelo Pro 16 es lógicamente algo más grueso y pesado: cuenta con un grosor de 12,5 mm —de nuevo, muy destacable— y llega a los 1,56 kg.

Más sorprendente es la elección de panel del modelo convertible: el Galaxy Book3 Pro 360 es un modelo de gran formato por su panel de 16 pulgadas. Las especificaciones son idénticas a las del modelo Pro 16, con la sensible diferencia de que su pantalla es táctil y su bisagra permite que se abata casi 360 grados.

Este modelo es ligeramente más grueso y pesado que la versión no convertible. Sin embargo sigue siendo realmente delgado (12,8 mm) y su peso asciende a 1,66 kg en la versión estándar y a 1,71 kg si elegimos la versión con el módulo de conectividad 5G.

Book3 8

Hay además versiones más asequibles y modestas de los convertibles: los Galaxy Book3 360 (a secas, sin el "Pro") están disponibles en variantes de 13,3 y 15,6" y cuentan con pantallas FullHD, procesador Intel Core i5 de 13ª generación, 16 GB de RAM y SSD de 512 GB. Como sus hermanos mayores, la pantalla es táctil y compatible con el S Pen.

En casi todos los casos —salvo estos últimos Book3 360— tenemos paneles AMOLED en formato 16:10 con resolución de 2.880 x 1.800 píxeles, procesadores  Intel Core de 13ª generación (serie P) y gráficas integradas Intel Iris Xe Gen12 que serán totalmente solventes en casi todos los escenarios, pero que desde luego no serán ideales si lo que queremos es jugar a videojuegos exigentes.

La oferta de puertos de conexión es decente, y es de agradecer que además de los dos puertos USB-C con interfaz Thunderbolt 3 sigamos contando con un puerto USB-A con interfaz USB 3.2 Gen 2. Es una lástima que los dos puertos USB-C estén en el mismo lateral, algo que condiciona la conexión al cable de carga, que hace uso de esos puertos.

Contamos además con un puerto HDMI de tamaño completo (aunque tan solo en su versión 1.4), un conector de minijack de 3,5 mm y, eso sí, un bienvenido lector de tarjetas Micro SD.

Book3 9

Las baterías van desde los 63 Wh del modelo de 14 pulgadas a los 76 Wh de los modelos de 16 pulgadas. El adaptador de carga hace uso del citado puerto USB-C y tiene una potencia de 65 W. La experiencia multimedia se completa con la webcam 1080p, un sistema dual de micrófono y un conjunto de cuatro altavoces AKG (dos principales, dos tweeters) con soporte Dolby Atmos.

La bestia solo podía apellidarse “Ultra”

El gran referente de esta renovada familia es el Samsung Galaxy Book3 Ultra, un ultraportátil que presume de un diseño elegante y, desde luego, denso. En sus 16,5 mm de grosor y, 1,79 kg de peso se encierra un buen montón de tecnología de última generación.

Book3 4

Para empezar, contamos con un panel OLED de 16 pulgadas en formato 16:10, con resolución de 2.880 x 1.800 píxeles y que soporta una frecuencia de refresco de 120 Hz.

La certificación HDR 500 es también una garantía tanto a la hora de reproducir contenidos como a la hora de jugar, y es que este equipo es una llamativa opción para gamers. El audio está cubierto de forma notable con cuatro altavoces AKG con soporte Dolby Atmos.

Book3 2

Lo es no solo por sus opciones de procesadores (Core i7-13700H y Core i9-13900H, mucho más potentes que los de la serie P usados en el resto de la familia), sino por poder contar con gráficas dedicadas de última generación. En concreto, las NVIDIA RTX 4050 y las aún más poderosas NVIDIA RTX 4070.

A esos componentes se les suman los 16 o 32 GB de memoria RAM LPDDR5 y una unidad SSD M.2 NVMe PCIe 4.0 de hasta 1 TB. Podremos expandir ese almacenamiento con una segunda unidad SSD M.2, siendo esta otra de las diferencias con el resto de la familia. La conectividad inalámbrica está asegurada con el soporte de Wi-Fi 6E y Bluetooth 5.1.

Book3 6

La oferta de puertos de conexión es idéntica a la de sus hermanos, y en este caso también contamos con una batería de 76 Wh, que es muy decente para escenarios de trabajo pero que quedará condicionada si elegimos los modelos con las gráficas dedicadas de NVIDIA, que lógicamente comprometerán la duración de esas baterías si jugamos a juegos exigentes.

Disponibilidad y versiones de los Samsung Galaxy Book3

La disponibilidad de los nuevos portátiles se iniciará el 17 de febrero, aunque ya están disponibles en precompra. Los precios de los Samsung Galaxy Book3 son los siguientes para los modelos disponibles en España inicialmente:

  • Galaxy Book3 360 (13,3", i5, 16/512 GB, Intel Iris Xe): 1.399 euros.
  • Galaxy Book3 360 (15,6", i7, 16/512 GB, Intel Iris Xe): 1.599 euros.
  • Galaxy Book3 Pro 360 (16", i7, 16/512 GB, Intel Iris Xe): 1.999 euros.
  • Galaxy Book3 Pro 14 (i7, 16/512 GB, Intel Iris Xe): 1.799 euros.
  • Galaxy Book3 Pro 16 (i7, 16/512 GB, Intel Iris Xe): 1.899 euros.
  • Galaxy Book3 Pro 16 (i7, 16 GB/1 TB, Intel Iris Xe): 2.099 euros.

El Samsung Galaxy Book3 Ultra estará disponible a partir del 22 de febrero, pero de momento no tenemos datos sobre su precio de partida en España.

ASUS Zenbook 17 Fold OLED, análisis: no lo llames portátil con pantalla OLED sino pantalla OLED portátil

$
0
0

ASUS Zenbook 17 Fold OLED, análisis: no lo llames portátil con pantalla OLED sino pantalla OLED portátil

Con una gama de ultrabooks y equipos gaming ya muy consolidada, ASUS lleva unos años dedicando parte de sus esfuerzos en factores de forma diferentes e incluso muy originales para sus portátiles. Ahí tenemos los Zephyrus Duo o los más recientes ROG Flow Z13.

El ASUS Zenbook 17 Fold OLED es otro nuevo intento por llevar el concepto de portátil "plegable" a un nicho que todavía no se sabe muy bien cuál es. De entrada su "todo pantalla" plegable con tecnología OLED no deja a nadie indiferente. Pero, ¿qué tal ha sido trabajar con este ASUS Zenbook 17 Fold OLED durante unas semanas?

Ficha técnica del ASUS Zenbook 17 Fold OLED


ASUS Zenbook 17 Fold OLED

dimensiones y peso

Desplegado: 378,5 x 287,6 x 8,7~11.7 mm
Plegado: 287,6 x 189,3 x 17,4~31,9mm

1,7 kilogramos

pantalla

fOLED de 17,3 pulgadas

Formato 4:3

Resolución 2.560 x 1.920 píxeles

500 nits (HDR brillo máximo)

Tiempo de respuesta: 0,2 ms

DCI-P3: 100%

Contraste: 1.000.000:1

VESA HDR True Black 500

Táctil (opcional)

Dolby Vision

Plegable

procesador

Intel Core i7-1250U (12M de caché, hasta 4.7 GHz, 2P+8E núcleos)

GRÁFICOS

Intel Iris Xe

MEMORIA RAM

16 GB LPDDR5

ALMACENAMIENTO

1 TB SSD M.2 NVMe PCIe 4.0

batería

75 Whr

conectividad

WiFi 6E

Bluetooth 5.0

conexiones

2x Thunderbolt 4

1x combo audio 3,5 mm

sonido

Tecnología de amplificación inteligente

Dolby Atmos
Altavoz incorporado
Matriz de micrófonos incorporada
Harman Kardon (prémium)
Compatible con el reconocimiento de voz de Cortana y de Alexa

sistema operativo

Windows 11 Home

Opcional: Windows 11 Pro para empresa

otros

Cámara 5 MP con función IR (Windows Hello)

Estándar MIL-STD 810H

precio

3.499 euros

Zenbook 17 Fold OLED UX9702AA-MD007W


Una pantalla, un portátil ... quién sabe

Lo complejo del concepto detrás del ASUS Zenbook 17 Fold OLED nos estalla nada más tener que abrir la caja. O más bien volver a colocar cada parte en su lugar original.

Asus Zenbook 17 Fold Oled Xataka Review Recurso Biblnioteca
Sí, en esta imagen hay un portátil de ASUS

Al igual que ocurre con el propio dispositivo, la caja que lo contiene es casi un puzzle, un engranaje de elementos no muy básico de encajar de nuevo.

Si bien el concepto del ASUS Zenbook 17 Fold OLED es complejo, su punto de partida no puede ser más simple: una gran pantalla OLED plegable para llevar en la mochila

Sin embargo, la base de este ¿convertible? de ASUS es mucho más simple: una pantalla. O más bien una gran pantalla que podemos plegar para que podamos transportarla a cualquier sitio con total comodidad. Luego uno ya decide cómo quiere usarla.

El concepto no es completamente nuevo. El Lenovo X1 Fold que analizamos en 2021 es bastante similar.

Asus Zenbook 17 Fold Oled Xataka Review Sistema De Cierre
El sistema de plegado está muy conseguido

El ASUS Zenbook 17 Fold ofrece un acabado muy bien pensado y de gama alta. El precio y los materiales/detalles lo atestiguan desde el primer momento.

La base del sistema es su pantalla, la cual se pliega completamente por la mitad aunque sin llegar a quedar completamente pegada una cara con la otra. Queda ligeramente doblado por el centro como si en un libro introdujéramos un lápiz en la zona del lomo.

Asus Zenbook 17 Fold Oled Xataka Review 1
Incluso sin el teclado que podemos colocar entre las dos partes de la pantalla, el cierre del ASUS Zenbook 17 Fold OLED no es completo

Este sistema de cierre permite que podamos transportar el plegable con el teclado inalámbrico en su interior sin que el grosor aumente.

Este ASUS Zenbook 17 Fold OLED no es un dispositivo delgado precisamente pues en su parte de la bisagra alcanza los 1.3 centímetros que incluso a la vista parecen más. Tampoco, y pese a ser compacto, es un dispositivo ligero pues roza los 2 kg. Pero resulta bastante compacto y el hecho de que el teclado pueda ir entre los dos pliegues de la pantalla es un acierto.

Asus Zenbook 17 Fold Oled Xataka Review Portada

La construcción es cuidada en tanto que incluye detalles que simulan la piel y conforman un refuerzo de la doblez del equipo, a la vez que una de las zonas añadidas sobre el chasis del equipo (de acabado metálico) hace las veces de stand para que el ASUS Zenbook 17 Fold OLED despliegue su principal motivo de compra: una pantalla OLED de 17.3 pulgadas.

Aunque ése el que me parece modo de uso más interesante para este plegable de ASUS, la bisagra continua admite cualquier tipo de posición para la pantalla, incluso la de un formato de portátil clásico donde ya podremos añadir el teclado bluetooth en la mitad de pantalla y que se convierta así en un ultrabook de diagonal equivalente a unas 12 pulgadas.

Asus Zenbook 17 Fold Oled Xataka Review Portada 1
El uso más potente de este portátil plegable nos descubre una pantalla OLED de 17 pulgadas solo para nosotros

El teclado incluido ya hemos indicado que ha sido dimensionado para que pueda llevarse entre la pantalla al transportarlo así como colocarse de manera física sobre la mitad del equipo y que éste se convierta en un ultrabook al uso.

El sistema de agarre es magnético, con fuerza suficiente para que se mantenga en su sitio sin problema alguno. Cuenta con su propia batería y como hemos indicado, se conecta vía bluetooth (hay que acordarse de encenderlo con su correspondiente interruptor). Nos hubiera gustado una integración directa con conector propietario pero en general no nos ha dado problemas de conectividad ni de funcionamiento.

El tipo de teclado que de serie podemos añadirle a este ASUS Zenbook 17 Fold OLED nos vuelve a recordar lo cerca que está del formato tablet

El recorrido de las teclas, de 1.4 mm, es suficiente. Resulta cómodo para escribir aunque queda lejos de un teclado físico clásico básicamente por lo delgado y ligero que es, por lo que ofrece poca rigidez global. Piensa más en un accesorio como el que podemos colocarle a un tablet.

Asus Zenbook 17 Fold Oled Xataka Review Diseno Stand
Una de las zonas que simulan la piel actúa a modo de stand regulable

Lo que echamos mucho de menos es que no sea un teclado con retroiluminación cuando cuesta más de 3000 euros el producto.

El touchpad, con su limitación lógica por tamaño, cumple con su función de una manera bastante decente, siendo preciso en los desplazamientos y cómodo para hacer clic.

Asus Zenbook 17 Fold Oled Xataka Review Touchpad

Conectividad muy limitada

El factor de forma especial de este ASUS Zenbook 17 Fold altera sustancialmente el apartado de conectividad, que se ve muy mermado para lo que estamos acostumbrados en un portátil.

La conectividad es uno de los apartados que más se sacrifican en pro de un factor de forma tan diferente a la vez que polivalente

En este plegable de ASUS disponemos de dos puertos USB-C Thunderbolt 4. Ambos admiten la carga del dispositivo y se encuentran situados en el frontal y un lateral del equipo.

Asus Zenbook 17 Fold Oled Xataka Review Detalle Conectividad

En ese lateral derecho contamos además con el conector de audio combinado de 3.5 mm y el botón de encendido, además de un LED de estado de la batería. En la caja viene un adaptador USB-C a USB-A para poder conectar diferentes periféricos en caso de necesitarlo.

Una pantalla OLED enorme portátil

El ASUS Zenbook 17 Fold OLED, como adelantamos en el titular del análisis, queda lejos de ser un portátil con pantalla OLED. Por su precio y prestaciones, no debes considerarlo como tal o tendrías que optar por otras alternativas.

Asus Zenbook 17 Fold Oled Xataka Review Pantalla Desplegada

El verdadero valor de este dispositivo es su potencia como pantalla OLED enorme a la que podemos conectar cualquier teclado inalámbrico para disfrutar de un portátil bastante potente.

Ocupa lo que un portátil de 12 pulgadas pero al desplegarlo, el ASUS Zenbook 17 Fold OLED es un fabuloso y potente portátil con pantalla de 17 pulgadas

El ASUS Zenbook 17 Fold OLED, si consideramos este formato de todo pantalla, nos ofrece una diagonal de 17.3 pulgadas con relación de aspecto 4:3 y resolución de 2560x1920 píxeles. Es un panel OLED lógicamente, el cual nos da lo mejor a nivel de contraste así como de brillo, contando con 500 nits de brillo máximo.

Asus Zenbook 17 Fold Oled Xataka Review Pantalla

Su tiempo de respuesta de 0.2 segundos, el soporte HDR True Black, la validación PANTONE y la cobertura del 100% del espacio de color DCI-P3 nos dejan claro sobre el papel algo que también hemos podido comprobar en la realidad: la calidad de imagen que obtenemos. Es especialmente relevante en el contraste, la muy buena calibración de fábrica y el alto brillo de la pantalla.

Pese a parecer un equipo todo-pantalla, la relación cuerpo/pantalla es del 87%, y los marcos no llegan a desaparecer. Además, la tasa se refresco es una muy esencial: 60 Hz.

Aun siendo un panel táctil, no ofrece la fiabilidad ni comodidad de uso de una pantalla táctil rígida al uso

Dada la tecnología de panel plegable, el tacto y visualización de la pantalla del ASUS Zenbook 17 Fold OLED no es idéntico al de otro panel de cualquier pantalla clásica.

Captura De Pantalla 2023 01 26 191834

La visualización incluye más reflejos, especialmente en la parte central donde se produce el plegado del panel. Asimismo, la tecnología táctil tampoco responde ni mucho menos como en un tablet pero tampoco con la fiabilidad y seguridad de una pantalla táctil al uso. Además, no da la impresión de que el uso como tablet con escritura a mano vaya a ser igual. De serie, este portátil no incluye lápiz, algo que se entiende mejor ahora.

Dentro de las opciones de la suite de gestión del equipo de ASUS hay bastantes opciones para escoger entre los diferentes perfiles de color y modos de visualización, además de contar con ayudas para evitar el quemado del panel.

Bien armado a nivel multimedia

Dado que uno de los usos que más podríamos dar a este ASUS Zenbook 17 Fold OLED sería el de gran pantalla multimedia, el apartado sonoro no se ha descuidado.

El sonido del ASUS Zenbook 17 Fold OLED, formado por 4 altavoces, se asemeja mucho más al de un tablet de gama alta que al del segmento de los portátiles

Contamos con cuatro altavoces situados en las esquinas del dispositivo y cuatro micrófonos con sistema de cancelación de ruido cortesía de la AI, todo ello bajo la firma de harman/kardon. El sistema multimedia se ve completado con la webcam, cuya resolución es de 5 MP, incluyendo compatibilidad con identificación de rostros por IR. El resultado, sin ser llamativo, cumple con el propósito del equipo, que encajó muy bien como elemento de videoconferencias.

Asus Zenbook 17 Fold Oled Xataka Review Webcam

ASUS incluye numerosas ayudas para mejorar la experiencia con la webcam, no tanto a nivel de calidad sino de ayudas como el desenfoque de fondo, la corrección de la mirada o el seguimiento activo de nuestro rostro.

Captura De Pantalla 2023 01 25 042449

El sonido de los altavoces nos ha convencido plenamente habida cuenta del equipo del que estamos hablando. Tenemos potencia más que suficiente y correcta presencia de graves.

Interior de portátil serio

Aunque parezca un producto diferente por su factor de forma o manera de ser usado, el ASUS Zenbook 17 Fold OLED tiene todo el carácter y potencia de un portátil al uso.

Asus Zenbook 17 Fold Oled Xataka Review Pantalla 2

El modelo que hemos analizado contaba con un procesador Intel Core i7-1250U acompañado de 16 GB de memoria RAM LPDDR5 (solo existe esta opción y está soldada en placa) y un SSD M.2 NVMe PCIe 4.0 de 1 TB con un gran rendimiento, como podemos observar en la prueba con CrystaldiskMark a la que siempre sometemos a los portátil a prueba en Xataka.

Captura De Pantalla 2023 01 25 041726

El procesador es un modelo de la generación Alder Lake con 10 núcleos (dos de ellos de potencia y el resto de eficiencia) y gráficos integrados Iris Xe. Esa conbinación nos da agilidad para trabajar en tareas incluso de edición de vídeo o fotografía pero no a nivel profesional.  En Firestrike de 3DBench, por ejemplo, no alcanzamos los 4000 puntos. Jugar, lo justo y necesario, es decir, de manera muy ocasional y siempre a títulos discretos.

Captura De Pantalla 2023 01 25 045514

En las pruebas de rendimiento, realizadas siempre con el perfil de funcionamiento más potente disponible en el equipo, nos dejó más de 2600 puntos en el test CineBench R20 y 5800/1616 puntos en las pruebas multicore y singlecore respectivamente en la versión R23 del mismo test.

Excelente trabajo del sistema de refrigeración para permitir un uso sin molestias del equipo en cualquier configuración

En funcionamiento, el equipo ha resultado completamente silencioso, con un muy ligero ruido de ventiladores cuando las tareas eran de lo más exigentes.  Desde el centro de control MyASUS podemos escoger qué tipo de modo de funcionamiento de los ventiladores elegir en cada momento y de esta manera encontrar el mejor equilibrio entre ruido y rendimiento.

Captura De Pantalla 2023 01 25 042254

La refrigeración actúa de manera eficiente, algo que resultaba muy crítico en un dispositivo de estas características.

Asus Zenbook 17 Fold Oled Xataka Review Sonido

El ASUS Zenbook 17 Fold OLED cuenta con una batería de 75 WHrs. Con ella hemos podido casi completar jornadas de trabajo real de alrededor de 6-7 horas, siempre cuidando mucho el brillo de la pantalla y sin abusar del uso como todo pantalla de 17 pulgadas. La carga, con adaptador incluido de 65 W, es especialmente lenta.

ASUS Zenbook 17 Fold OLED, la opinión y nota de Xataka

Con un precio de 3.499 euros, hacerse con un ASUS Zenbook 17 Fold OLED es un gran ejercicio de autoconvencimiento. No es un producto que defraude en absoluto sino más bien lo contrario: cumple con lo que promete y además de una manera más que correcta.

Ahí tenemos su gran valor, una pantalla brillante OLED que podemos usar como panel de 12 y poco pulgadas a unas impresionantes 17 pulgadas. Y todo con el tamaño (que no grosor ni peso) de un ultrabook.

Asus Zenbook 17 Fold Oled Xataka Review Teclado Separado

También cumple a nivel de rendimiento, autonomía e incluso teclado, pese a sus mejoras posibles. Pero la duda sobre la zona del pliegue, que reduce la precisión global del panel táctil, y el alto coste de este producto tan diferente colocan a este ASUS Zenbook 17 Fold OLED como uno de esos productos que siempre recordaremos como únicos. En todos los sentidos.

8,4

Diseño 9,25
Pantalla 8,5
Rendimiento 8
Teclado/Touchpad 7,5
Software 8,75
Autonomía 8,25

A favor

  • Las posibilidades de su factor de forma
  • Pantalla OLED de gran nivel
  • El concepto tan diferente no penaliza su rendimiento ni batería

En contra

  • El precio
  • Nuestras dudas sobre el comportamiento de la zona de pliegue a largo plazo
  • Conectividad muy limitada


Zenbook 17 Fold OLED UX9702AA-MD007W


Hay un desafío en computación cuántica del que pocos hablan y resolverlo es tan complejo que parece magia

$
0
0

Hay un desafío en computación cuántica del que pocos hablan y resolverlo es tan complejo que parece magia

Cuando indagamos en los retos que los científicos están intentando resolver para contribuir al desarrollo de los ordenadores cuánticos solemos dar vueltas siempre a las mismas ideas. Poner a punto cúbits de más calidad, más robustos, es fundamental, por supuesto. También lo es implementar un sistema de corrección de errores que nos garantice que los resultados que nos entregan los ordenadores cuánticos son correctos. Y es imprescindible elaborar nuevos algoritmos cuánticos que nos permitan enfrentarnos a más problemas.

Sin embargo, hay un desafío que con frecuencia pasa desapercibido, y en el que, afortunadamente, los científicos que están investigando en el ámbito de la computación cuántica también están dando pasos hacia delante muy importantes: el control de los cúbits. La estrategia utilizada para manipular la información procesada en un ordenador cuántico es crucial porque delimita qué podemos hacer con él, y también condiciona su eficiencia. En este ámbito tenemos una buena noticia: unos investigadores de la Universidad de Rochester, en Estados Unidos, han dado con un mecanismo de control de los cúbits muy prometedor.

Este mecanismo de control del espín propone cambiar las reglas del juego

En otros artículos hemos explicado con bastante detalle cuáles son los principios de funcionamiento de los ordenadores cuánticos, pero antes de seguir adelante merece la pena que hagamos un repaso muy breve de algunos conceptos. La unidad de información mínima que maneja un ordenador cuántico es el cúbit, una denominación que procede de la contracción del término 'bit cuántico'. Curiosamente, los cúbits, a diferencia de los bits, no tienen un único valor en un momento dado; tienen una combinación de los estados cero y uno simultáneamente.

El espín es una propiedad intrínseca de las partículas elementales derivada de su momento de rotación angular

No obstante, no hay un único tipo de cúbits. Una tecnología que está bastante desarrollada son las trampas de iones, que utilizan átomos ionizados, y, por tanto, con una carga eléctrica global no neutra que permite mantenerlos aislados y confinados en el interior de un campo electromagnético. Algunos grupos de investigación están trabajando en otras tecnologías que también son muy prometedoras, como los iones implantados en macromoléculas o los átomos neutros. Eso sí, una de las estrategias mejor afianzadas son los cúbits superconductores de silicio, en los que trabajan, entre otras empresas, Intel, IBM o Google.

El mecanismo utilizado habitualmente para manipular la transferencia de información en este último tipo de cúbits consiste en controlar el espín de los electrones. Sí, parece magia. Es impactante que los científicos hayan conseguido actuar con precisión sobre algo que a priori resulta tan intangible como es el espín de una partícula. Pero sí, saben cómo hacerlo. No es necesario que definamos con mucha precisión qué es el espín para no complicar demasiado este artículo; nos basta saber que es una propiedad intrínseca de las partículas elementales, al igual que la carga eléctrica, derivada de su momento de rotación angular.

Sigamos adelante. El método utilizado habitualmente para controlar el espín de los electrones se conoce como ESR (Electron Spin Resonance), y consiste, a grandes rasgos, en exponer los cúbits a campos magnéticos de radiofrecuencia oscilantes. El problema es que esta estrategia se enfrenta al desafío que conlleva controlar con muchísima precisión la oscilación de los campos magnéticos en el entorno criogénico en el que es necesario preservar los cúbits para mantener su nivel de energía tan bajo como sea posible con el propósito de minimizar la decoherencia cuántica.

Estos investigadores han implementado el control de los cúbits recurriendo a un fenómeno conocido como 'acoplamiento espín-valle'

Este fenómeno se produce cuando desaparecen las condiciones necesarias para que un sistema que se encuentra en un estado cuántico entrelazado se mantenga. Una forma quizá un poco más sencilla de describirlo consiste en verlo como un sistema que deja de comportarse como dictan las reglas de la mecánica cuántica cuando se dan unas condiciones determinadas, pasando a comportarse a partir de ese instante como dictan las reglas de la física clásica. Cuando aparece la decoherencia cuántica desaparecen los efectos cuánticos. Y, por tanto, también las ventajas que acarrean en el contexto de la computación cuántica.

Los investigadores de la Universidad de Rochester que he mencionado unas líneas más arriba proponen una alternativa muy ingeniosa a esta estrategia que prescinde de la utilización de los campos electromagnéticos oscilantes. De esta forma han conseguido sortear el desafío en el que acabamos de indagar. La manera en que implementan el control de los cúbits pasa por recurrir a un fenómeno conocido como 'acoplamiento espín-valle', que, muy a grandes rasgos, se produce cuando los electrones de los cúbits de silicio transicionan entre diferentes estados de espín y valle.

Como hemos visto, el espín de un electrón describe las propiedades magnéticas de la partícula, mientras que el valle está vinculado al comportamiento espacial del electrón. En la práctica lo que estos investigadores han descubierto es que es posible controlar con mucha precisión el espín de los electrones aplicando un pulso eléctrico que tiene como propósito desencadenar el acoplamiento espín-valle a demanda. Suena complicado, y lo es, pero, tal y como explican estos científicos en el artículo que han publicado en Nature Physics, este procedimiento funciona. Y gracias a él en el futuro, en teoría, será posible controlar de forma coherente y eficaz los cúbits sin necesidad de recurrir a campos electromagnéticos oscilantes.

Imagen de portada: Universidad de Rochester - Michael Osadciw

Más información: Nature Physics | Universidad de Rochester

Gigabyte GeForce RTX 4070 Ti, análisis: la GPU más polémica de NVIDIA es también la que encajará mejor a más usuarios

$
0
0

Gigabyte GeForce RTX 4070 Ti, análisis: la GPU más polémica de NVIDIA es también la que encajará mejor a más usuarios

En cierto modo esta tarjeta gráfica ha sido la protagonista accidental de una obra en la que debía haber intervenido como una actriz de reparto. De hecho, ha atraído hacia sí misma buena parte de la atención que en condiciones normales habrían reclamado sus dos hermanas mayores, la GeForce RTX 4090 y la RTX 4080. Del motivo os hemos hablado en otros artículos con detalle: inicialmente iba a llegar a las tiendas bajo la denominación GeForce RTX 4080 de 12 GB.

En cualquier caso, NVIDIA tomó la decisión correcta y apenas un mes después de presentar sus primeras GeForce RTX 40 anunció que finalmente no lanzaría la controvertida GeForce RTX 4080 de 12 GB. No obstante, esa tarjeta gráfica en realidad no se ha esfumado. La tenemos aquí. Es, precisamente, la GeForce RTX 4070 Ti que estamos a punto de analizar. Y sí, esta denominación comercial encaja mucho mejor con sus especificaciones. Un pequeño espóiler como aperitivo: la ambiciosa GeForce RTX 3090 Ti ya puede echarse a temblar.

Gigabyte GeForce RTX 4070 Ti: especificaciones técnicas


NVIDIA GEFORCE RTX 4070 TI

NVIDIA GEFORCE RTX 3070 TI

nvidia geforce rtx 3070

arquitectura

Ada Lovelace

Ampere

Ampere

transistores

35.800 millones

17.400 millones

17.400 millones

fotolitografía

4 nm TSMC

8 nm Samsung (tecnología de integración personalizada para NVIDIA)

8 nm Samsung (tecnología de integración personalizada para NVIDIA)

núcleos cuda

7.680

6.144

5.888

núcleos rt

60 (3ª generación)

48 (2ª generación)

46 (2ª generación)

núcleos tensor

240 (4ª generación)

192 (3ª generación)

184 (3ª generación)

unidades de cálculo (cu)

60

48

46

caché de nivel 1

128 Kbytes (por SM)

128 Kbytes (por SM)

128 Kbytes (por SM)

caché de nivel 2

48 Mbytes

4 Mbytes

4 Mbytes

frecuencia de reloj máxima

2,61 GHz

1,77 GHz

1,73 GHz

memoria dedicada

12 GB GDDR6X

8 GB GDDR6X

8 GB GDDR6

bus de memoria

192 bits

256 bits

256 bits

velocidad de transferencia de la memoria

504,2 GB/s

608 GB/s

448 GB/s

shader tflops (fp32)

40

22

20,3

operaciones de rasterización

80 ROP/s

96 ROP/s

96 ROP/s

unidades de mapas de texturas

240 TMU

192 TMU

184 TMU

tasa de texturas

626,4 Gtexeles/s

339,8 Gtexeles/s

317,4 Gtexeles/s

tasa de píxeles

208,8 Gpíxeles/s

169,9 Gpíxeles/s

165,6 Gpíxeles/s

directx 12 ultimate

interfaz pci express

PCIe 4.0

PCIe 4.0

PCIe 4.0

revisión hdmi

2.1

2.1

2.1

revisión displayport

1.4a

1.4a

1.4a

dlss 3

No

No

ranuras ocupadas

2

2

2

temperatura máxima de la gpu

90 ºC

93 ºC

93 ºC

consumo medio

226 vatios

290 vatios

220 vatios

potencia recomendada para la fuente de alimentación

700 vatios

750 vatios

650 vatios

conectores de alimentación

2 x 8 pines o 1 PCIe Gen 5 de 300 vatios o más

2 x 8 pines (incluye adaptador a 12 pines)

1 x 8 pines

precio

999,90 euros

689,89, euros

619,90 euros

Gigabyte Tarjeta gráfica GeForce RTX 4070 Ti Gaming OC 12G, 3 Ventiladores WINDFORCE, 12 GB 192 bits GDDR6X, GV-N407TGAMING OC-12GD

La arquitectura Ada Lovelace de la GeForce RTX 4070 Ti, bajo nuestra lupa

NVIDIA no se ha andado con delicadezas a la hora de comunicar qué representa para esta compañía la llegada de la arquitectura Ada Lovelace: un salto gigantesco en términos de rendimiento y eficiencia.

En cualquier caso, más allá de la apuesta por la tecnología de integración de 4 nm de TSMC en detrimento de la litografía de 8 nm de Samsung utilizada en la fabricación de los procesadores gráficos GeForce RTX 30, las nuevas GPU de NVIDIA nos entregan una nueva generación de núcleos RT y núcleos Tensor, así como más núcleos CUDA que nunca.

También llegan de la mano de frecuencias de reloj más altas e implementan tecnologías de procesado de la imagen más sofisticadas. Así se las gastan las brutales (y caras) GeForce RTX 40.

Más núcleos CUDA, y, además, llegan los núcleos RT de 3ª generación

Los núcleos CUDA se responsabilizan de llevar a cabo los cálculos complejos a los que se enfrenta una GPU para resolver, entre otras tareas, la iluminación general, el sombreado, la eliminación de los bordes dentados o la física. Estos algoritmos se benefician de una arquitectura que prioriza el paralelismo masivo, por lo que cada nueva generación de GPU de NVIDIA incorpora más núcleos CUDA.

La arquitectura de los núcleos CUDA prioriza el paralelismo masivo, de ahí que cada nueva generación de GPU de NVIDIA incorpore más unidades de este tipo

Como cabía esperar, los procesadores gráficos de la familia GeForce RTX 40 tienen muchos más núcleos de este tipo que sus predecesores. De hecho, la GPU GeForce RTX 4090 incorpora 16.384 núcleos CUDA, mientras que la GeForce RTX 3090 Ti se conforma con 10.752. La GeForce RTX 4080 tiene 9.728, por lo que la GeForce RTX 3080 Ti la supera con sus 10.240 núcleos de este tipo. Eso sí, la RTX 3080 nos propone 8.704 núcleos CUDA. La GeForce RTX 4070 Ti, por su parte, tiene 7.680 núcleos de este tipo, mientras que la RTX 3070 Ti se conforma con "solo" 6.144 núcleos CUDA.

Nvidiacuda

Los núcleos RT (Ray Tracing), por otro lado, son las unidades que se encargan expresamente de asumir una gran parte del esfuerzo de cálculo que requiere el renderizado de las imágenes mediante trazado de rayos, liberando de este estrés a otras unidades funcionales de la GPU que no son capaces de llevar a cabo este trabajo de una forma tan eficiente. Son en gran medida responsables de que las tarjetas gráficas de las series GeForce RTX 20, 30 y 40 sean capaces de ofrecernos ray tracing en tiempo real.

NVIDIA asegura que sus núcleos RT de 3ª generación duplican el rendimiento de sus predecesores al procesar las intersecciones de los triángulos

NVIDIA asegura que sus núcleos RT de 3ª generación duplican el rendimiento de sus predecesores al procesar las intersecciones de los triángulos que intervienen en el renderizado de cada fotograma. Además, estos núcleos incorporan dos nuevos motores conocidos como Opacity Micromap (OMM), o 'micromapa de opacidades', y Displaced Micro-Mesh (DMM), que podemos traducir como 'micromalla de desplazamientos'.

Dejando a un lado los detalles más complejos, el motor OMM tiene el propósito de acelerar el renderizado mediante trazado de rayos de las texturas empleadas en la vegetación, las vallas y las partículas. El procesado de estos tres elementos representa un gran esfuerzo para la GPU, y el objetivo de este motor es, precisamente, aliviarlo. Por otro lado, el motor DMM se encarga de procesar las escenas que contienen una gran complejidad geométrica para hacer posible el renderizado en tiempo real mediante trazado de rayos.

Los núcleos Tensor evolucionan: llega la 4ª generación

Al igual que los núcleos RT, los núcleos Tensor son unidades funcionales de hardware especializadas en resolver operaciones matriciales que admiten una gran paralelización, pero estos últimos han sido diseñados expresamente para ejecutar de forma eficiente las operaciones que requieren los algoritmos de aprendizaje profundo y la computación de alto rendimiento. Los núcleos Tensor ejercen un rol esencial en la tecnología DLSS (Deep Learning Super Sampling), de ahí que tengan un claro protagonismo en la reconstrucción de la imagen mediante DLSS 3.

Según NVIDIA, la 4ª iteración de estos núcleos es mucho más rápida que su predecesora, logrando multiplicar su rendimiento por cinco en determinadas circunstancias. Un apunte interesante: el motor de transformación FP8 utilizado por primera vez por esta marca en estos núcleos para llevar a cabo cálculos con números en coma flotante de 8 bits procede de la GPU H100 Tensor Core diseñada por NVIDIA expresamente para los centros de datos que trabajan con algoritmos de inteligencia artificial.

Estas dos tecnologías nos prometen marcar la diferencia en las GeForce RTX 40

El esfuerzo computacional que conlleva el renderizado en tiempo real de un fotograma mediante trazado de rayos es descomunal. Esta es la razón por la que cada nueva generación de procesadores gráficos no puede conformarse únicamente con introducir una cantidad mayor de las mismas unidades funcionales presentes en sus predecesoras.

La fuerza bruta importa, pero no es suficiente en absoluto. También es imprescindible elaborar estrategias que consigan abordar los procesos involucrados en el renderizado de una forma más inteligente. Más ingeniosa.

Las tecnologías 'Shader Execution Reordering' y 'Ada Optical Flow Accelerator' persiguen incrementar el rendimiento de la GPU abordando las tareas involucradas en el renderizado de la forma más eficiente posible

Este es el enfoque que pone sobre la mesa NVIDIA con las GPU GeForce RTX 40, y a nosotros nos parece la opción correcta. Precisamente las dos tecnologías en las que estamos a punto de indagar, conocidas como Shader Execution Reordering (SER) y Ada Optical Flow Accelerator, persiguen llevar a la práctica este propósito: incrementar el rendimiento de la GPU abordando las tareas involucradas en el renderizado que desencadenan un mayor esfuerzo computacional de la forma más eficiente posible.

Nvidiaaofa

La tecnología Shader Execution Reordering (SER) se responsabiliza de optimizar los recursos de la GPU reorganizando en tiempo real y de una manera inteligente los sombreadores (shaders), que son los programas que llevan a cabo los cálculos necesarios para resolver los atributos esenciales del fotograma que se está renderizando, como la iluminación o el color.

De alguna forma esta técnica lleva a cabo un procedimiento similar a la ejecución superescalar de las CPU, lo que, según NVIDIA, permite a la tecnología SER multiplicar por tres el rendimiento del renderizado mediante trazado de rayos, incrementando, por el camino, la cadencia de imágenes por segundo en hasta un 25%. No pinta nada mal.

Nvidiaaofa2

Por otro lado, la tecnología Ada Optical Flow Accelerator tiene el propósito de predecir qué objetos se van a desplazar entre dos fotogramas consecutivos para entregar esa información a la red neuronal convolucional involucrada en la reconstrucción de la imagen mediante DLSS 3.

Según NVIDIA esta estrategia multiplica por dos el rendimiento de la anterior implementación de la tecnología DLSS, y, a la par, mantiene intacta la calidad de imagen. De nuevo, suena muy bien, pero los usuarios tendremos que ir comprobando poco a poco si realmente esta innovación está a la altura de las expectativas que está generando.

Nvidiaaofa3

NVIDIA nos promete que las GeForce RTX 40 son más eficientes que las RTX 30

Una de las consecuencias de la adopción de la tecnología de integración de 4 nm de TSMC frente a la litografía de 8 nm utilizada por Samsung para fabricar las GPU de la familia GeForce RTX 30 consiste en que los últimos procesadores gráficos de NVIDIA deberían ser perceptiblemente más eficientes. Y sí, eso es precisamente lo que nos promete esta marca.

Según NVIDIA la temperatura máxima que alcanzan bajo estrés las GPU GeForce RTX 4090 y 4080 asciende a 90 ºC

La diapositiva que publicamos debajo de estas líneas describe la relación que existe entre la energía consumida y el rendimiento que nos entregan las GPU con arquitectura Turing, Ampere y Ada Lovelace. Y, efectivamente, esta última implementación gana por goleada a sus predecesoras. Aun así, no debemos pasar por alto las exigencias de las nuevas tarjetas gráficas de NVIDIA si nos ceñimos a su consumo eléctrico.

Según NVIDIA la temperatura máxima que alcanzan bajo estrés las GPU GeForce RTX 4090, 4080 y 4070 Ti asciende a 90 ºC, pero el consumo medio de la RTX 4090 roza los 450 vatios, mientras que la RTX 4080 coquetea con los 320 vatios, y la GeForce RTX 4070 Ti roza los 226 vatios. Por otro lado, NVIDIA sugiere que los equipos en los que va a ser instalada una RTX 4090 cuenten con una fuente de alimentación de 850 vatios o más, mientras que la RTX 4080 requiere una fuente de al menos 750 vatios. Y la RTX 4070 Ti, 700 vatios.

Nvidiaeficiencia

DLSS 3 multiplica por cuatro el rendimiento con 'ray tracing'

La técnica de reconstrucción de la imagen empleada por NVIDIA recurre al análisis en tiempo real de los fotogramas de nuestros juegos utilizando algoritmos de aprendizaje profundo. Su estrategia es similar a la que emplean otros fabricantes de hardware gráfico: la resolución de renderizado es inferior a la resolución de salida que finalmente entrega la tarjeta gráfica a nuestro monitor.

El motor gráfico renderiza las imágenes a una resolución inferior a la que esperamos obtener, y después la tecnología DLSS escala cada fotograma a la resolución final

De esta forma el estrés al que se ve sometido el procesador gráfico es menor, pero a cambio es necesario recurrir a un procedimiento que se encargue de escalar cada uno de los fotogramas desde la resolución de renderizado hasta la resolución final. Y, además, debe hacerlo de una forma eficiente porque, de lo contrario, el esfuerzo que hemos evitado en la etapa anterior podría aparecer en esta fase de la generación de las imágenes.

Esta es la fase en la que entra en acción la inteligencia artificial que ha puesto a punto NVIDIA. Y los núcleos Tensor de la GPU. El motor gráfico renderiza las imágenes a una resolución inferior a la que esperamos obtener, y después la tecnología DLSS escala cada fotograma a la resolución final aplicando una técnica de muestreo mediante aprendizaje profundo para intentar recuperar el máximo nivel de detalle posible.

Dlss3

En las imágenes que hemos utilizado para ilustrar este artículo podemos ver que el procedimiento implementado en DLSS 3 es más complejo que el utilizado por DLSS 2. De hecho, la nueva técnica de reconstrucción de la imagen de NVIDIA aprovecha la presencia de los núcleos Tensor de cuarta generación de las GPU GeForce RTX 40 para hacer posible la ejecución de un nuevo algoritmo de reconstrucción llamado Optical Multi Frame Generation.

'Optical Multi Frame Generation' analiza dos imágenes secuenciales del juego en tiempo real y calcula la información del vector que describe el movimiento de todos los objetos

En vez de abordar la reconstrucción de cada fotograma trabajando con píxeles aislados, que es lo que hace DLSS 2, esta estrategia genera fotogramas completos. Para hacerlo analiza dos imágenes secuenciales del juego en tiempo real y calcula la información del vector que describe el movimiento de todos los objetos que aparecen en esos fotogramas, pero que no son procesados por el motor del propio juego.

Nvidia Dlss3 2

Según NVIDIA esta técnica de reconstrucción de la imagen consigue multiplicar por cuatro la cadencia de imágenes por segundo que nos entrega DLSS 2. Y, lo que también es muy importante, minimiza las aberraciones y las anomalías visuales que aparecen en algunos juegos al utilizar la anterior revisión de esta estrategia de reconstrucción de la imagen.

El procesado de los fotogramas en alta resolución y los vectores de movimiento se alimentan de una red neuronal convolucional

Un apunte interesante más: el procesado de los fotogramas en alta resolución y los vectores de movimiento se alimentan, según nos explica NVIDIA, de una red neuronal convolucional que analiza toda esta información y genera en tiempo real un frame adicional por cada fotograma procesado por el motor del juego.

Para concluir, ahí va otra promesa de esta compañía: DLSS 3 puede trabajar en tándem con Unity y Unreal Engine, y durante los próximos meses llegará a más de 35 juegos. De hecho, es posible habilitar esta técnica en poco tiempo en aquellos títulos que ya implementan DLSS 2 o Streamline.

La GeForce RTX 4070 Ti de Gigabyte, en detalle

En la fotografía que publicamos debajo de estas líneas podemos ver que el diseño de esta tarjeta gráfica ensamblada por Gigabyte es muy diferente del diseño de referencia que nos propone NVIDIA en sus tarjetas Founders Edition. Honestamente, yo prefiero la estética y el acabado de estas últimas, pero esto no significa en absoluto que la tarjeta que estamos analizando no esté a la altura. No tiene un acabado tan lujoso como las Founders Edition, pero no está nada mal.

Los tres ventiladores de 100 mm que podemos ver en la fotografía son los responsables de que la GPU, los chips de memoria y los VRM estén siempre por debajo de su umbral máximo de temperatura. Curiosamente, el ventilador central gira en un sentido y los laterales en el otro con un propósito: minimizar las turbulencias e incrementar la presión para optimizar la transferencia de energía térmica mediante convección desde el disipador hacia el aire. Un detalle curioso: Gigabyte nos promete que estos ventiladores están lubricados con grafeno.

Geforcertx4070ti Diseno1

Esta tarjeta gráfica incorpora tres salidas DisplayPort 1.4a ideales para instalaciones multimonitor, y, al igual que las RTX 30, también tiene una salida HDMI que implementa la norma 2.1 y que nos permite enviar la señal de vídeo a un televisor (lo ideal es que también sea compatible con este estándar para poder sacar partido a las prestaciones vinculadas a él).

Geforcertx4070ti Diseno2

El conector de alimentación de esta tarjeta gráfica es idéntico a la interfaz 12VHPWR que nos proponen las GeForce RTX 4090 y 4080. Gigabyte ha colocado junto a él un diodo LED que emite destellos luminosos si se produce una interrupción del suministro eléctrico o cualquier otra anomalía. Hay otras formas de resolver las notificaciones que están dirigidas al usuario, pero esta estrategia es ingeniosa, y, lo que es más importante, cumple su cometido estupendamente.

Geforcertx4070ti Diseno3

En la siguiente fotografía de detalle podemos ver la lámina de metal (back plate) que actúa como base de esta tarjeta gráfica. Su función más importante es proteger la placa de circuito impreso incrementando la rigidez estructural de la tarjeta, pero, además, contribuye al intercambio de energía térmica con el aire mediante convección. Y, como podéis ver, es bastante bonita.

Geforcertx4070ti Diseno4

Esta bestia rivaliza con el modelo insignia de NVIDIA en la generación anterior

La configuración de la plataforma de pruebas que hemos utilizado para evaluar el rendimiento de esta tarjeta gráfica es la siguiente: microprocesador AMD Ryzen 9 5950X con 16 núcleos (32 hilos de ejecución); dos módulos de memoria Corsair Dominator Platinum DDR4-3600 con una capacidad conjunta de 16 GB y una latencia de 18-19-19-39; una placa base ASUS ROG Crosshair VIII Hero con chipset AMD X570; una unidad SSD Samsung 970 EVO Plus con interfaz NVMe M.2 y una capacidad de 500 GB; y, por último, un sistema de refrigeración por aire para la CPU Corsair A500 con ventilador de rodamientos por levitación magnética.

Todas las pruebas las hemos ejecutado con la máxima calidad gráfica implementada en cada juego o test y habilitando la API DirectX 12 en aquellos títulos en los que está disponible

Otro elemento muy importante de nuestra plataforma de análisis es el monitor que hemos utilizado en nuestras pruebas: un ROG Strix XG27UQ de ASUS equipado con un panel LCD IPS de 27 pulgadas con resolución 4K UHD y capaz de trabajar a una frecuencia de refresco máxima de 144 Hz. Esta veterana pantalla es una pieza habitual en nuestros análisis y nos permite sacar todo el jugo a cualquier tarjeta gráfica de última generación.

Todas las pruebas las hemos ejecutado con la máxima calidad gráfica implementada en cada juego o test y habilitando la API DirectX 12 en aquellos títulos en los que está disponible. El modo de reconstrucción de la imagen que hemos seleccionado tanto en las tarjetas gráficas de NVIDIA como en las de AMD en aquellos juegos que implementan esta tecnología es el que prioriza el rendimiento. Y, por último, las herramientas que hemos utilizado para recoger los datos son FrameView, de NVIDIA; OCAT, de AMD; y FRAPS. Las tres están disponibles gratuitamente.

No podemos seguir adelante sin detenernos un momento para echar un vistazo a la fuente de alimentación a la que hemos encomendado la tarea de saciar a la GeForce RTX 4070 Ti. Durante nuestras pruebas hemos utilizado una fuente Corsair HX1500i modular con una capacidad de entrega de potencia máxima de 1.500 vatios y unas prestaciones acordes a la tarjeta gráfica que estamos analizando. De hecho, durante las decenas de horas que han durado nuestras pruebas esta fuente de alimentación se ha comportado de una manera completamente estable. Además, es sorprendentemente silenciosa.

Fuentecorsair

Arrancamos con el test 'Time Spy' de 3DMark. Y aquí llega la primera sorpresa agradable: la GeForce RTX 4070 Ti queda por debajo de la RTX 4080, como cabía esperar, pero rinde ligeramente más que la GeForce RTX 3090 Ti, que es la tarjeta gráfica más potente de la generación anterior. No está nada mal si tenemos presente que la RTX 4070 Ti está destinada a un espectro de usuarios más amplio.

En la prueba dedicada a la tecnología DLSS de 3DMark la GeForce RTX 4070 Ti vuelve a salir bien parada. Y es que al recurrir a la reconstrucción de la imagen empleando esta técnica supera con claridad, de nuevo, a la RTX 3090 Ti tanto a 1440p como a 2160p. Y, sorprendentemente, si prescindimos de DLSS ambas tarjetas gráficas arrojan un rendimiento esencialmente idéntico.

En 'Microsoft Flight Simulator' la GeForce RTX 4070 Ti aguanta el tipo perfectamente a cualquier resolución si recurrimos a la tecnología DLSS 3. De hecho, a 2160p y con la calidad gráfica al máximo nos entrega en estas condiciones una cadencia media de 100 FPS. ¿Qué sucede si prescindimos de la reconstrucción de la imagen mediante DLSS 3? Como cabe esperar, la cadencia de imágenes se reduce mucho, pero, aun así, esta tarjeta gráfica sostiene una tasa media de unos 50 FPS a cualquier resolución.

El motor gráfico de 'Cyberpunk 2077' es extraordinariamente exigente, pero la reconstrucción de la imagen mediante DLSS 3 ayuda a esta tarjeta gráfica a lidiar con este juego incluso a 2160p. A esta resolución la GeForce RTX 4070 Ti nos entrega una cadencia media de 84 FPS. Si decidimos prescindir de esta técnica podremos jugar a 1080p sin problema, y a 1440p con ciertas garantías, pero no a 2160p. Ni siquiera se siente cómoda con este juego a esta última resolución y sin DLSS 3 la brutal GeForce RTX 4090.

En la siguiente gráfica podemos ver que el rendimiento que nos entrega la GeForce RTX 4070 Ti cuando habilitamos la tecnología DLSS 3 en 'A Plague Tale: Requiem' es fabuloso. Incluso a 2160p. De hecho, a esta última resolución arroja una cadencia media de casi 130 FPS. Una vez más, la RTX 4070 Ti es más lenta que la RTX 4080, pero también es perceptiblemente más rápida que la RTX 3090 Ti a 1080p y 1440p.

En 'F1 22', una vez más, la GeForce RTX 4070 Ti se siente como pez en el agua. Con la tecnología DLSS 3 habilitada nos entrega unas tasas de imágenes por segundo espectaculares incluso a 2160p, pero este título es perfectamente jugable sin recurrir a esta técnica de reconstrucción de la imagen mediante inteligencia artificial. De hecho, en estas condiciones a 2160p nos entrega una cadencia media de 60 FPS. Y, una vez más, supera a la RTX 3090 Ti en todos los escenarios de prueba.

En 'Doom Eternal' tenemos más de lo mismo. La GeForce RTX 4070 Ti rinde de maravilla a cualquier resolución y con el trazado de rayos activado, aunque no debemos pasar por alto que el motor gráfico de este juego está muy bien optimizado. Si nos ceñimos a la particular pugna que mantiene la tarjeta gráfica que estamos analizando con la RTX 3090 Ti podemos darnos cuenta de que esta última pierde frente a la RTX 4070 Ti a 1080p y 1440p, aunque vence, por poco, a 2160p.

En 'Control' esta tarjeta gráfica se siente cómoda a 1080p y 1440p, pero sufre a 2160p. A esta última resolución y con el trazado de rayos activado la tasa de imágenes cae por debajo de los 40 FPS. Curiosamente, en este juego la RTX 3090 Ti se impone a la RTX 4070 Ti tanto a 1440p como a 2160p, aunque las tarjetas gráficas con GPU de NVIDIA que mejor rinden en este título son, como cabe esperar, las GeForce RTX 4090 y 4080.

'Death Stranding' pone encima de la mesa la fuerza bruta que tiene esta tarjeta gráfica sin necesidad de recurrir a la tecnología DLSS. A 1080p y 1440p se codea de tú a tú con la GeForce RTX 4090 y la RTX 4080, y a 2160p tanto estas dos últimas soluciones gráficas como la Radeon RX 7900 XTX y la RTX 3090 Ti rinden mejor. Aun así, la RTX 4070 Ti a esta resolución y sin DLSS nos entrega casi 120 FPS sólidos como una roca.

'Final Fantasy XV', a pesar de su veteranía, sigue siendo un hueso duro de roer. Aun así, la RTX 4070 Ti se siente bastante cómoda con el motor gráfico de este juego. De lo contrario no sería capaz de entregarnos casi 90 FPS estables a 2160p. Curiosamente a 1080p y 1440p es un poco más rápida que la RTX 3090 Ti, aunque a 2160p esta última tarjeta gráfica logra imponerse.

La siguiente gráfica no deja lugar a dudas: las tarjetas de última generación se calientan mucho menos que sus predecesoras. La RTX 4070 Ti disipa casi la misma energía en forma de calor que la RTX 4080 cuando ambas son sometidas al mismo estrés, y la Radeon RX 7900 XTX y la GeForce RTX 4090 se mueven en la misma órbita. Es evidente que en este terreno la fotolitografía utilizada en la fabricación de estas GPU juega a su favor.

Para medir el nivel de ruido máximo emitido por cada tarjeta gráfica bajo estrés utilizamos nuestro sonómetro Velleman DVM805. El sistema de refrigeración que ha puesto a punto Gigabyte con el propósito de mantener la GPU, los chips de memoria y los VRM de la RTX 4070 Ti por debajo de su umbral máximo de temperatura es razonablemente poco ruidoso.

De hecho, solo la GeForce RTX 3080 Ti es más silenciosa. Las demás soluciones gráficas que hemos analizado durante los últimos meses, con la única excepción de la Radeon RX 6800 XT, son perceptiblemente más ruidosas, aunque en este ámbito la peor posicionada es la Radeon RX 7900 XTX debido a que bajo estrés alcanza un nivel de presión sonora de 76 dB.

Gigabyte GeForce RTX 4070 Ti: la opinión de Xataka

Lo confieso: después de analizar las GeForce RTX 4090 y 4080, que son más ambiciosas, me sumergí en el análisis de la RTX 4070 Ti con menos entusiasmo que cuando probé las otras dos RTX 40. Sin embargo, después de convivir con la solución gráfica que protagoniza este artículo durante varias semanas, y de estrujarla al máximo, mis sensaciones son muy positivas. Y lo son ante todo por una razón: me parece la propuesta más equilibrada de NVIDIA si nos ceñimos a las tarjetas de última generación.

La RTX 4070 Ti se siente muy cómoda tanto a 1080p como a 1440p con cualquier juego

Las pruebas no dejan lugar a dudas: la RTX 4070 Ti se siente muy cómoda tanto a 1080p como a 1440p con cualquier juego, y si recurrimos a la reconstrucción de la imagen habilitando la tecnología DLSS 3 en aquellos juegos que lo permiten, también rinde de maravilla a 2160p. De hecho, algunos títulos incluso son perfectamente jugables a esta última resolución sin necesidad de activar la reconstrucción de la imagen mediante inteligencia artificial.

Si a todo esto sumamos que esta tarjeta gráfica es razonablemente silenciosa, y también que bajo estrés máximo no se calienta excesivamente, no cabe duda de que merece la pena tenerla en cuenta. Eso sí, no es barata. Ninguna solución gráfica de última generación lo es, pero al menos actualmente podemos hacernos con la RTX 4070 Ti sin dificultad pagando un precio muy cercano al fijado oficialmente por NVIDIA. Hace poco esto era imposible. Algo es algo.

Gigabyte Tarjeta gráfica GeForce RTX 4070 Ti Gaming OC 12G, 3 Ventiladores WINDFORCE, 12 GB 192 bits GDDR6X, GV-N407TGAMING OC-12GD

Esta tarjeta gráfica ha sido cedida para este análisis por NVIDIA. Puedes consultar nuestra política de relaciones con las empresas.

Más información: NVIDIA

China se mide de tú a tú con Occidente: ya tiene listo su primer ordenador cuántico comercial

$
0
0

China se mide de tú a tú con Occidente: ya tiene listo su primer ordenador cuántico comercial

IBM levantó la veda en enero de 2019. Durante el CES de ese año presentó ante las miradas atónitas de todos los que seguíamos su anuncio en directo el Q System One, el primer ordenador cuántico comercial. Hasta ese momento tanto esta compañía como Intel, Honeywell o Google, y puede que alguna más, tenían prototipos de ordenadores cuánticos para investigación, pero la llegada de una máquina con vocación comercial lo cambió todo.

Y lo hizo por una razón: puso encima de la mesa la posibilidad de utilizar un ordenador cuántico para contribuir a la búsqueda de la solución de un problema del mundo real. Aun así, incluso hoy, y ya han pasado cuatro años, la prudencia nos invita a moderar nuestras expectativas. Los ordenadores cuánticos disponibles, incluso aquellos con vocación comercial, no son otra cosa que prototipos con carencias, por lo que su contribución real todavía no está clara.

Las compañías que he mencionado hasta ahora son estadounidenses, pero es importante que no pasemos por alto que en el ámbito de la computación cuántica hay otros países que tienen mucho que decir más allá de Estados Unidos. Y China es uno de ellos. De hecho, en diciembre de 2020 un grupo de investigadores de la Universidad de Ciencia y Tecnología de China y la Universidad Tsinghua de Pekín alcanzó la supremacía cuántica. Pero esto no es todo. Este país está realizando aportaciones teóricas muy relevantes, y acaba de alcanzar un nuevo hito.

Wuyuan: el primer ordenador cuántico comercial chino ya está listo

Origin Quantum, que es la empresa que ha puesto a punto este ordenador cuántico, asegura que su tecnología es el resultado de su esfuerzo en investigación y desarrollo, por lo que posee la propiedad intelectual y los derechos de su hardware cuántico. Puede parecer evidente, pero es importante que no lo pasemos por alto porque la independencia de esta compañía respalda de alguna forma el esfuerzo que está realizando China para afianzarse como lo que ya es: una potencia en el ámbito de la computación cuántica.

Wuyuan tiene 24 cúbits superconductores, y, aunque acaba de ver la luz, en realidad está listo desde hace más de un año

En cualquier caso, Wuyuan, que es el nombre comercial de este ordenador cuántico, es una máquina de 24 cúbits superconductores. A mediados del pasado mes de noviembre IBM presentó Osprey, un procesador cuántico de nada menos que 433 cúbits, por lo que los 24 cúbits de Wuyuan a priori saben a poco. No obstante, es importante que pongamos estas cifras en perspectiva para identificar con precisión qué representa realmente la llegada de este ordenador cuántico chino.

Q System One, la primera máquina cuántica comercial de IBM, llegó con 20 cúbits, pero, en realidad, esta compañía en aquel momento ya tenía prototipos de ordenadores cuánticos más avanzados que, eso sí, no estaban disponibles comercialmente. Sobre el papel Wuyuan está al menos a la altura de esta máquina de IBM. Además, el diario South China Morning Post, que es la publicación que ha recogido el lanzamiento de Origin Quantum, asegura que el primer prototipo de Wuyuan está disponible desde hace más de un año, por lo que es probable que este ordenador cuántico no sea actualmente la máquina más avanzada que tiene esta empresa.

Sea como sea Guo Guoping, que es el fundador de Origin Quantum, defiende que su tecnología entregará beneficios reales a la sociedad en un plazo de tres o, a lo sumo, cinco años. Como declaración de intenciones no está nada mal. Ya veremos si antes de que acabe esta década el hardware cuántico de IBM, Origin Quantum, Honeywell, o el de cualquier otra empresa, realmente consigue resolver algún problema del mundo real y con aplicaciones prácticas que queda fuera del alcance de los superordenadores clásicos que tenemos actualmente. Ojalá sea así. Mientras tanto merece la pena mantenerse a la expectativa.

Imagen de portada: Origin Quantum

Vía: SCMP

Sobredimensionar la fuente de alimentación de un PC: explicamos si es una buena idea o algo completamente innecesario

$
0
0

Sobredimensionar la fuente de alimentación de un PC: explicamos si es una buena idea o algo completamente innecesario

La fuente de alimentación es un componente muy importante de nuestros ordenadores. Siempre lo ha sido, pero ahora es, si cabe, más crucial que nunca. Y lo es porque los microprocesadores y los procesadores gráficos son cada vez más exigentes si nos ceñimos a la energía que necesitan para entregarnos su mejor rendimiento. Al fin y al cabo sobre ella recae la responsabilidad de transformar la corriente alterna que recibe de la red eléctrica en la corriente continua con la que trabajan los componentes de nuestro equipo.

No obstante, esto no es lo único que hace. También debe ser capaz de regular el voltaje con mucha precisión para proporcionar a cada uno de ellos una señal completamente estable y libre del más mínimo ruido eléctrico. Y no lo tiene fácil. Nuestra infraestructura eléctrica es un medio muy agresivo que no solo se ve expuesto a las perturbaciones que acarrea el transporte de la energía desde las centrales de generación hasta nuestras casas; cada uno de los electrodomésticos y equipos electrónicos que conectamos inyecta ruido en la red.

Lidiar con todo esto no es fácil, por lo que no merece la pena escatimar con la parte del presupuesto de nuestro PC que dedicamos a la fuente de alimentación. Aun así, su precio no siempre está respaldado por componentes de calidad, por lo que es una buena idea consultar la opinión de los usuarios y los análisis de los medios especializados antes de elegir nuestra fuente. Lo más importante es que este componente lleve a cabo su función primordial con la máxima eficacia posible.

Sobredimensionar la fuente de alimentación tiene sentido. Muchísimo sentido

Una parte de la energía que la fuente de alimentación toma de la red eléctrica se disipa en forma de calor como resultado del trabajo que lleva a cabo el circuito eléctrico que se encarga de la conversión de la corriente alterna en continua y de la regulación del voltaje. Este comportamiento nos da una pista clara acerca de la forma en que debemos calcular su potencia: la fuente de nuestro PC debe estar sobredimensionada.

Si el consumo conjunto de todos los componentes de nuestro PC bajo máximo estrés es, por ejemplo, 520 vatios, no debemos conformarnos con una fuente con una potencia de salida máxima de 550 vatios porque es muy probable que no dé la talla y nos juegue una mala pasada.

La eficiencia de las fuentes de alimentación no es fija; fluctúa a medida que varía la carga a la que las sometemos. La mayor parte de las fuentes alcanza su región de máxima eficiencia con una carga que oscila entre el 30 y el 70%, por lo que lo ideal es que los consumos típico y máximo de nuestro equipo queden confinados dentro de este rango de potencias de salida.

La mayor parte de las fuentes alcanza su región de máxima eficiencia con una carga que oscila entre el 30 y el 70%

No es fácil conseguir la información que necesitamos para llevar a cabo estos cálculos, por lo que os recomendamos que además de consultar los consumos que anuncian los fabricantes de los componentes de vuestro PC recurráis a los análisis de los medios especializados para conseguir cifras lo más certeras posible.

Una vez que hemos calculado el consumo máximo conjunto de los componentes de nuestro PC podemos hacer una operación muy sencilla que nos va a sugerir cuál podría ser la capacidad máxima de entrega de potencia de nuestra fuente de alimentación:

Potencia de la fuente = (Consumo máximo de nuestro equipo x 100) / 70

Si seguimos adelante con nuestro ejemplo y asumimos que los componentes de nuestro PC consumen bajo máximo estrés alrededor de 520 vatios el cálculo sería el siguiente:

Potencia de la fuente = (520 vatios x 100) / 70 = 742,85 vatios

En principio una fuente de alimentación de 750 vatios debería ser más que suficiente para garantizar un suministro estable de energía a todos los componentes de nuestro PC. Y, además, la fuente debería trabajar la mayor parte del tiempo dentro de la región de máxima eficiencia.

Como es lógico nuestro ordenador no va a estar sometido todo el tiempo a la máxima carga posible, por lo que es importante alinear el consumo máximo que hemos calculado con el límite superior de la región de máxima eficiencia de la fuente. En cualquier caso, este método no es infalible. Solo es un procedimiento orientativo y sencillo que a nosotros nos funciona bien, y creemos que a vosotros también puede resultaros útil.

La eficiencia de las fuentes de alimentación, explicada

Una fuente de alimentación tendrá una eficiencia del 100% si es capaz de entregar a su salida toda la energía eléctrica que toma de la red. Sin pérdida de ningún tipo. Desafortunadamente esto no es posible debido a que, como hemos visto, el circuito eléctrico que se responsabiliza de llevar a cabo la conversión de la corriente alterna en continua y de la regulación del voltaje provoca que una parte de la energía se disipe en forma de calor. Aun así, no todas las fuentes tienen la misma eficiencia. Algunas consiguen llevar a cabo el trabajo que les encomendamos con más eficiencia que otras, y la certificación 80 PLUS puede ayudarnos a identificarlas.

Esta etiqueta nació en 2004 como una propuesta de la consultora Ecos Consulting, aunque la organización que expide esta certificación y se encarga de poner a prueba las fuentes de alimentación es el laboratorio estadounidense EPRI. Los fabricantes de fuentes no están obligados a someter a sus productos a esta prueba, pero a muchos les interesa conseguir la certificación 80 PLUS porque saben que algunos usuarios la buscamos. Y, como es lógico, ayuda a vender fuentes de alimentación.

Lo interesante es que esta certificación nos indica cuál es la eficiencia de una fuente cuando se ve sometida a una carga del 10%, 20%, 50% y 100%. Y dependiendo del resultado que arroje en la prueba obtendrá una etiqueta 80 PLUS u otra. Esta tabla resume la eficiencia que debe entregar una fuente de alimentación para conseguir una de las etiquetas de esta certificación:

CERTIFICACIÓN

CARGA DEL 10%

CARGA DEL 20%

CARGA DEL 50%

CARGA DEL 100%

80 PLUS

No disponible

82%

85%

82%

80 plus bronce

No disponible

85%

88%

85%

80 plus plata

No disponible

87%

90%

87%

80 plus oro

No disponible

90%

92%

89%

80 plus platino

No disponible

92%

94%

90%

80 plus titanio

90%

94%

96%

94%

Como podemos ver en la tabla, las fuentes de alimentación que consiguen la etiqueta 80 PLUS ORO son más eficientes que las que tienen la certificación 80 PLUS BRONCE. Y las 80 PLUS TITANIO nos prometen una eficiencia aún más alta que las ORO. Eso sí, todas ellas deben tener una eficiencia mínima del 80%.

La metodología de pruebas utilizada por EPRI para expedir estas etiquetas ha sido puesta en duda porque, según algunos medios críticos, la temperatura a la que se llevan a cabo los tests no refleja fielmente las condiciones de trabajo reales de las fuentes de alimentación en el interior de nuestros ordenadores. Y es posible que tengan razón. Aun así, por el momento esta certificación es la herramienta más fiable que tenemos a la hora de valorar la eficiencia de las fuentes, por lo que, en nuestra opinión, merece la pena tenerla en cuenta.

Intel está lejísimos de NVIDIA y AMD en materia de GPU. Ahora prepara un volantazo para remediarlo

$
0
0

Intel está lejísimos de NVIDIA y AMD en materia de GPU. Ahora prepara un volantazo para remediarlo

Intel no se rinde fácilmente. Si echamos la vista atrás por un instante y observamos con objetividad la historia de esta compañía comprobaremos que ha logrado sobreponerse a los traspiés que ha dado. Porque sí, los ha dado, y algunos de ellos en su momento la colocaron en el punto de mira de los usuarios. A bote pronto me viene a la memoria el famoso y polémico error de la unidad de coma flotante de las primeras versiones del procesador Pentium, pero ha cometido otros deslices.

Aún es pronto para describir como un fracaso el regreso de la compañía liderada por Pat Gelsinger al mercado de las tarjetas gráficas dedicadas, pero, aun así, parece razonable concluir que no le está yendo tan bien como cabía esperar en un principio. Es evidente que era muy poco probable que lograse colocar en las tiendas una solución gráfica capaz de competir con lo mejor que tienen actualmente NVIDIA y AMD, pero tenemos motivos para prever que a medio plazo su objetivo es competir de tú a tú con estas empresas en el ámbito de las tarjetas gráficas para equipos de sobremesa.

Intel ha aprendido una lección, y asegura que la pondrá en práctica

Tom Petersen, que es un reputado ingeniero de Intel que trabajó en las filas de NVIDIA durante casi una década y media, ha confirmado a Hardwareluxx que su equipo ha aprendido una lección muy valiosa durante la puesta a punto y el lanzamiento de los procesadores gráficos Arc Xe (Alchemist) que le permitirá afrontar con más garantías el de las GPU Arc Xe2 (Battlemage). Su calendario actual refleja que su próxima generación de procesadores gráficos llegará en 2024, así que cabe la posibilidad de que en menos de doce meses algunas de estas GPU ya estén listas.

La próxima familia de procesadores gráficos de Intel tendrá solo dos variantes: Xe2 LPG y Xe2 HPG

De las palabras de Petersen se desprende que los responsables de la división de Intel que se encarga del diseño de los procesadores gráficos consideran que fue un error diversificar tanto la microarquitectura de la primera hornada de GPU Arc. Su propósito era adaptar las características de estos procesadores gráficos a las máquinas con las que iban a convivir, como los ordenadores portátiles, los equipos de sobremesa o las estaciones de trabajo, pero esta diversificación, al parecer, introdujo una complejidad en las fases de análisis y validación que podían haberse ahorrado.

Según Petersen están utilizando una estrategia diferente durante el desarrollo de las GPU Arc Xe2 (Battlemage), y consiste, sencillamente, en segmentar menos su microarquitectura. De alguna forma esta filosofía equivale a abarcar menos con el propósito de refinar más lo que tienes entre manos. Parece razonable. Sea como sea la próxima familia de procesadores gráficos de Intel tendrá solo dos variantes y no cuatro, que es lo que habían previsto inicialmente con la familia Arc Xe: Xe2 LPG y Xe2 HPG. Esto será todo.

Después de Battlemage (Xe2) llegarán Celestial (Xe3) y Druid (Xe Next Architecture), y presumiblemente estas dos últimas iteraciones de GPU también se beneficiarán de todo lo que Intel está aprendiendo mientras recorre este camino. Confiemos en que esta nueva estrategia permita a esta marca entregar a los usuarios un producto más competitivo y con unos controladores a la altura. De una cosa podemos estar seguros: para los consumidores sería una gran noticia que Intel consiga competir de tú a tú en este segmento de mercado con NVIDIA y AMD. No va a tenerlo fácil, pero una mayor competencia siempre nos favorece a nosotros, los usuarios.

Vía: Hardwareluxx

Este ordenador cuántico chino de bajo coste no se parece nada a los demás ordenadores cuánticos: quiere parecer un PC

$
0
0

Este ordenador cuántico chino de bajo coste no se parece nada a los demás ordenadores cuánticos: quiere parecer un PC

Los prototipos de ordenadores cuánticos que tienen IBM, Intel, Google, IonQ o Honeywell, que son cinco de las compañías que están apostando con más contundencia por esta tecnología, no se parecen lo más mínimo a un PC. Los cúbits superconductores y los de iones atrapados, que son las dos tecnologías más avanzadas actualmente, necesitan operar en un entorno controlado y en unas condiciones muy exigentes. De lo contrario no llevarán a cabo su propósito.

La morfología de los ordenadores cuánticos con cúbits superconductores en particular está condicionada por la necesidad de poner a punto un sistema de refrigeración que permita a su procesador cuántico trabajar a una temperatura de unos 20 milikelvin, que son aproximadamente -273 grados centígrados. Y sí, es imprescindible que operen con el mayor grado de aislamiento del entorno posible y a una temperatura tan asombrosamente baja.

Este mínimo nivel de energía les permite dilatar el tiempo durante el que se mantienen los estados cuánticos del sistema, y, a la par, también postergar el momento en el que aparece la decoherencia cuántica. Los estados cuánticos se mantienen durante un lapso limitado, y este tiempo es, precisamente, el que tenemos para llevar a cabo operaciones lógicas cuánticas con los cúbits de nuestro ordenador. Una vez superado aparece la decoherencia y desaparecen los efectos cuánticos, por lo que el ordenador cuántico pasa a comportarse como un ordenador clásico.

Sorprendentemente el equipo que podéis ver en la imagen de portada de este artículo es un ordenador cuántico. No es un PC, pero es evidente que lo parece. Y no es una casualidad. Lo fabrica la empresa china SpinQ y tiene tres cúbits de tipo NMR (Nuclear Magnetic Resonance). Mide 610 x 330 x 560 mm y pesa 44 kg, por lo que aunque es un poco más voluminoso y más pesado que un PC convencional podemos colocarlo sin problema en nuestro escritorio. Sin embargo, esta no es su finalidad. Los ordenadores cuánticos, por sencillos que sean, no compiten con los PC.

Qué es y qué no es el ordenador cuántico Triangulum de SpinQ

Antes de seguir adelante merece la pena que nos detengamos para repasar algo importante: a los ordenadores cuánticos no se les da bien resolver el mismo abanico de problemas al que podemos enfrentarnos utilizando un superordenador clásico. Los científicos están convencidos de que los ordenadores cuánticos plenamente funcionales que si todo sigue su curso llegarán en el futuro serán muy buenos resolviendo solo una porción de esos problemas.

Los cúbits de SpinQ están implementados aprovechando la posibilidad de medir los estados de espín de ciertos átomos de una molécula

Se les dará bien la simulación de sistemas cuánticos, como pequeñas moléculas, macromoléculas o materiales. Y también los problemas de optimización que persiguen trabajar con un coste que queremos minimizar. O los de física estocástica, que aprovechan la naturaleza aleatoria del hardware cuántico para simular, precisamente, procesos aleatorios. Sin embargo, nada nos indica que vayan a resultarnos útiles para ofimática o creación de contenidos. Ni siquiera para otras tareas más "serias", como el trabajo con bases de datos o el procesamiento de grandes cantidades de información.

Todo esto nos invita a preguntarnos cómo ha conseguido SpinQ poner a punto un ordenador cuántico tan compacto. Y también para qué sirve. La primera clave nos la dan sus cúbits que, a diferencia de los que utilizan IBM, Google o Intel, no son superconductores; están implementados aprovechando la posibilidad de medir los estados de espín de ciertos átomos de una molécula utilizando técnicas de resonancia magnética nuclear (NMR). Un apunte breve: el espín es una propiedad intrínseca de las partículas elementales, al igual que la carga eléctrica, derivada de su momento de rotación angular.

Esta estrategia ha permitido a esta compañía china poner a punto unos cúbits razonablemente sencillos, que, además, pueden operar en unas condiciones ambientales relativamente poco exigentes. Es una tecnología madura que se conoce desde hace más de dos décadas. De hecho, el ordenador cuántico que ejecutó por primera vez el algoritmo cuántico de factorización de números Shor la utilizó. Esto sucedió en 2001. Sin embargo, estos cúbits son muy sensibles al ruido, por lo que esta técnica no es la apropiada para poner a punto procesadores cuánticos con muchos cúbits.

Los cúbits NMR son más sencillos que los superconductores o los de iones atrapados, por lo que ponerlos a punto es más barato

Otra ventaja de los cúbits NMR consiste en que son mucho más sencillos que los cúbits superconductores o los de iones atrapados, por lo que ponerlos a punto es más barato. SpinQ asegura en su página web que sus ordenadores cuánticos Gemini y Gemini-Mini, ambos de dos cúbits, y Triangulum que, como hemos visto, tiene tres cúbits, son equipos cuánticos de bajo coste. Tiene sentido que sean mucho más baratos que los ordenadores cuánticos con cúbits superconductores de IBM o Google, y también que los ordenadores con trampas de iones de Honeywell o IonQ. Aun así, son mucho más caros que nuestros PC. De hecho, Triangulum, el más avanzado de estos ordenadores cuánticos compactos, cuesta aproximadamente 56.000 euros.

Hay una pregunta en la que todavía no hemos indagado: ¿para qué sirven estos ordenadores cuánticos "económicos" y compactos? SpinQ propone utilizarlos para formar a estudiantes interesados en la computación cuántica, y también para abordar algunos problemas científicos sencillos. Dos y tres cúbits no dan para mucho, por lo que es evidente que este hardware cuántico tiene un ámbito de aplicación muy limitado.

En el terreno de la investigación son mucho más interesantes los ordenadores con cúbits superconductores de IBM, Intel o Google, que tienen varias decenas de cúbits (cientos incluso si nos ceñimos a IBM), pero, aun así, en el ámbito de la docencia los equipos de SpinQ tienen sentido. De hecho, algunos de sus clientes son universidades diseminadas por todo el planeta.

Más información: SpinQ

AMD Radeon RX 7900 XT, análisis: haber nacido a la sombra de la versión XTX no impide a esta GPU ser una bestia

$
0
0

AMD Radeon RX 7900 XT, análisis: haber nacido a la sombra de la versión XTX no impide a esta GPU ser una bestia

Esta tarjeta gráfica tiene al enemigo dentro de su propia casa. AMD la presentó junto a la más ambiciosa Radeon RX 7900 XTX, que no es otra cosa que una versión hipervitaminada de la XT que vamos a poner a prueba en este análisis. Y en estas circunstancias es comprensible que muchos usuarios prestásemos más atención a la que sobre el papel es la más potente de las dos. Aun así, nos interesa no pasar por alto que ambas son soluciones de gama alta, y, sobre todo, que la XTX es habitualmente entre 150 y 250 euros más cara que la XT.

Esta situación coloca a los jugadores que tienen en mente hacerse con una de las nuevas tarjetas gráficas de AMD frente a una decisión delicada: ¿merece la pena afrontar ese desembolso adicional tomando como referencia la diferencia de rendimiento entre estas dos soluciones gráficas? Esta es una de las preguntas a las que daremos respuesta en este análisis, pero ahí va un pequeño espóiler para ir abriendo boca: la Radeon RX 7900 XT rinde mejor de lo que nos sugieren sus especificaciones si las comparamos con las de la XTX.

AMD Radeon RX 7900 XT: especificaciones técnicas


RAdeon rx 7900 xtx

radeon rx 7900 xt

microarquitectura

RDNA 3

RDNA 3

transistores

58.000 millones

58.000 millones

fotolitografía

TSMC 5 nm (GCD) y 6 nm (MCD)

TSMC 5 nm (GCD) y 6 nm (MCD)

memoria vram

24 GB GDDR6

20 GB GDDR6

unidades de cálculo

96

84

aceleradores de rayos

96

84

procesadores de transmisión

6.144

5.376

motores de sombreado

6

6

unidades de texturas

384

336

unidades rop

192

192

frecuencia de reloj

2.300 MHz

2.000 MHz

frecuencia de reloj máxima

2.500 MHz

2.400 MHz

rendimiento fp32

61 TFLOPS

52 TFLOPS

velocidad máxima de relleno de píxeles

480 GP/s

460 GP/s

velocidad máxima de relleno de texturas

960 GT/s

810 GT/s

caché infinity

96 MB

80 MB

bus de memoria

384 bits

320 bits

velocidad efectiva de la memoria

20 Gbps

20 Gbps

ancho de banda de la memoria

Hasta 960 GB/s

Hasta 800 GB/s

displayport

2.1

2.1

hdmi

2.1

2.1

USB

Tipo C

Tipo C

consumo típico

355 vatios

315 vatios

fuente de alimentación recomendada

800 vatios

750 vatios

longitud de la tarjeta gráfica

287 mm

276 mm

número de ranuras

2,5

2,5

conectores de alimentación

2 x 8 pines

2 x 8 pines

precio

1.249,91 euros

994,90 euros

SAPPHIRE AMD Radeon™ RX 7900 XT Gaming Graphics Card 20GB GDDR6 HDMI / Dual DP / USB-C

Indagamos en la microarquitectura RDNA 3

Para abrir boca merece la pena que indaguemos en la que sin duda es una de las características más interesantes de las GPU Radeon RX 7000: los chiplets. Y es que estos son los primeros procesadores gráficos de consumo que apuestan por distribuir su lógica en varios circuitos integrados físicamente independientes, aunque, lógicamente, están interconectados mediante enlaces de alto rendimiento.

Esta estrategia sobre el papel permite a AMD optimizar el diseño físico de sus nuevas GPU con el propósito de incrementar el rendimiento por milímetro cuadrado de oblea de silicio. Además, no todos los chiplets tienen por qué estar fabricados empleando la misma fotolitografía, de manera que cada uno de ellos se puede producir utilizando la tecnología de integración que encaja mejor con su cometido y que permite balancear su coste.

El motor gráfico se conoce como GCD, aglutina la lógica esencial de la GPU y está fabricado en el nodo de 5 nm de TSMC

En la diapositiva que publicamos debajo de estas líneas podemos ver que las GPU Radeon RX 7000 incorporan siete chiplets. El motor gráfico se conoce como GCD (Graphics Compute Die), aglutina la lógica esencial de la GPU y está fabricado en el nodo de 5 nm de TSMC. Por otro lado, la memoria caché o MCD (Memory Cache Die) está distribuida en los otros seis chiplets, y se produce empleando la fotolitografía de 6 nm de TSMC.

Esto significa, sencillamente, que estas GPU utilizan "solo" dos tipos de chiplets. No obstante, dentro del MCD no reside solo la caché de nivel 3 (a la que AMD llama Infinity Cache); con ella cohabitan los controladores de 2 x 32 bits vinculados a la administración de la memoria GDDR6. Un apunte importante: la distribución de esta caché en varios chiplets permite a AMD escalarla fácilmente. De hecho, la GPU Radeon RX 7900 XTX, que es la que podemos ver en la diapositiva, incorpora seis MCD activos, mientras que la Radeon RX 7900 XT tiene cinco unidades activas.

Rdna3 1

La siguiente diapositiva recoge algunas de las características más interesantes del procesador gráfico más avanzado que tiene AMD ahora mismo: el Radeon RX 7900 XTX. Su rendimiento máximo teórico al llevar a cabo operaciones FP32 asciende a 61 TFLOPS, el GCD y los MCD están conectados mediante enlaces capaces de alcanzar una velocidad de transferencia de 5,3 TB/s, y, además, esta GPU trabaja codo con codo con un mapa VRAM de 24 GB de tipo GDDR6. Un apunte más: este chip aglutina 58.000 millones de transistores.

Rdna3 2

Vamos ahora con la que sin duda es una de las grandes promesas que nos hace AMD de la mano de la introducción de la microarquitectura RDNA 3: las GPU que la utilizan nos entregan, en teoría, un incremento del rendimiento por vatio del 54% frente a sus predecesoras con microarquitectura RDNA 2. Esta optimización es posible gracias tanto a la implementación de la arquitectura como a los procesos fotolitográficos empleados en la fabricación de la GPU.

Rdna3 3

Como veremos más adelante, hay varias diferencias importantes entre algunas unidades funcionales de la GPU Radeon RX 7900 XTX y la ligeramente más modesta 7900 XT, pero hay otro apartado en el que estas tarjetas gráficas difieren: su memoria VRAM. La RX 7900 XTX incorpora 24 GB de tipo GDDR6, mientras que la RX 7900 XT apuesta por 20 GB GDDR6. A priori ambos subsistemas de memoria tienen la capacidad necesaria para lidiar con la resolución 2160p en los juegos de última hornada, y también para rendir bien en un escenario de creación de contenidos.

Rdna3 4

Como hemos comprobado más arriba, la utilización de chiplets permite a AMD decantarse por la litografía idónea para cada uno de ellos. El GCD es el más complejo, por lo que, a pesar de estar fabricado en el nodo de 5 nm, tiene una superficie de 300 mm². Los MCD están producidos en el nodo de 6 nm, como hemos visto, y cada uno de ellos tiene una superficie de 37 mm².

Rdna3 5

La caché de nivel 3 encapsulada en las GPU Radeon RX 7000 no es idéntica a la que incorporan los procesadores gráficos RDNA 2. Esta memoria Infinity Cache de segunda generación trabaja codo con codo con el controlador de memoria de 64 bits (2 x 32 bits) del que hemos hablado brevemente más arriba, y, según AMD, el enlace de alto rendimiento que la comunica con la memoria GDDR6 multiplica por hasta 2,7 la productividad del enlace implementado en la microarquitectura RDNA 2.

Rdna3 6

La unidad funcional básica de los procesadores gráficos de AMD son las unidades de computación o CU. Podemos contemplarlas como los pequeños ladrillos con los que está construida la GPU, de manera que el rendimiento del procesador gráfico depende en gran medida del trabajo que es capaz de llevar a cabo cada una de estas pequeñas unidades funcionales. En RDNA 3 todas las CU tienen una misma estructura y son fácilmente escalables. De hecho, como veremos más adelante, las GPU Radeon 7900 XTX y XT difieren en el número de estas unidades que incorporan.

Rdna3 7

La siguiente diapositiva nos invita a indagar en el interior de estas diminutas CU. Curiosamente, gracias al desarrollo de la fotolitografía incorporan un 165% más transistores por mm² que sus predecesoras en la microarquitectura RDNA 2. Este incremento nos permite intuir que su complejidad es también notablemente mayor. Un apunte importante: cada CU incorpora bloques funcionales específicos que han sido implementados para intervenir en la ejecución de los algoritmos de inteligencia artificial y trazado de rayos.

Rdna3 8

Una de las características más relevantes de los procesadores stream integrados en el interior de cada CU consiste en que son capaces de expedir en cada unidad de tiempo el doble de instrucciones que sus predecesores integrados en las CU de RDNA 2. Sobre el papel esta mejora de la microarquitectura debería tener un impacto muy profundo en el rendimiento de estas unidades, lo que nos recuerda que la productividad de la GPU no está condicionada únicamente por la frecuencia de reloj a la que trabaja o el número de CU que incorpora; la forma en que están implementadas estas unidades funcionales importa. Y mucho.

Rdna3 9

Cada CU integra dos unidades funcionales especializadas en la ejecución de las instrucciones utilizadas en los algoritmos de inteligencia artificial. En esta revisión de las CU los ingenieros de AMD han implementado nuevas instrucciones, y, además, según esta marca el rendimiento de cada acelerador de inteligencia artificial es hasta 2,7 veces más alto que el de las unidades equiparables de las CU de RDNA 2.

Rdna3 10

Al igual que los nuevos aceleradores de inteligencia artificial, las unidades funcionales de cada CU especializadas en la ejecución del código vinculado al trazado de rayos también pueden lidiar con nuevas instrucciones. Según AMD los aceleradores RT de segunda generación de sus nuevas CU nos entregan un rendimiento hasta un 50% más alto que sus predecesores, una característica muy importante que persigue ayudarles a rivalizar con el renderizado con trazado de rayos de las GeForce RTX 40.

Rdna3 11

Una baza de las nuevas tarjetas gráficas de AMD con la que no cuentan las GeForce RTX 40 de NVIDIA consiste en que, como hemos visto, las salidas de vídeo DisplayPort de las Radeon RX 7000 implementan la norma 2.1. Esta especificación permite a este enlace alcanzar una velocidad de transferencia de hasta 54 Gbps, así como trabajar con una profundidad de color de 12 bits por canal. Pero esto no es todo. También puede transportar señales 4K de hasta 480 Hz y 8K de hasta 165 Hz.

Rdna3 12

Un inciso antes de seguir adelante. En una GPU el front end tiene una responsabilidad diferente a la del back end o motor de ejecución. Muy a grandes rasgos y sin entrar en detalles complicados este último se encarga de ejecutar las instrucciones, mientras que el front end se responsabiliza de recogerlas desde la memoria caché y de decodificarlas para que posteriormente puedan ser procesadas por el motor de ejecución.

Una peculiaridad de los procesadores gráficos Radeon RX 7000 es que en ellos su front end no tiene por qué operar a la misma frecuencia de reloj a la que trabajan los sombreadores del back end. El primero puede operar a una frecuencia de hasta 2,5 GHz (es un 15% más alta que la del front end de RDNA 2), y el segundo a 2,3 GHz. Esta diferenciación permite a la GPU ahorrar energía, por lo que condiciona su rendimiento por vatio.

Rdna3 13

Con frecuencia los entusiastas del hardware gráfico damos a los teraflops de una GPU más importancia de la que realmente tienen. Al fin y al cabo solo es un dato más del conjunto de características que describe el rendimiento de un procesador gráfico. En cualquier caso, ahí va un dato para saciar nuestro apetito: la GPU Radeon RX 7900 XTX nos entrega un máximo de 61 TFLOPS en operaciones FP32, una cifra muy superior a los 23,65 TFLOPS del procesador gráfico Radeon RX 6950 XT basado en la arquitectura RDNA 2.

Rdna3 14

El diseño de referencia de la Radeon RX 7900 XT, bajo nuestra lupa

Al igual que la versión XTX, esta tarjeta gráfica es mucho más impactante cuando la tienes delante, en vivo, que cuando la ves en una colección de fotografías como las que hemos tomado para ilustrar este artículo. El diseño que nos propone AMD es elegante y sobrio, pero lo que a mí más me ha llamado la atención es su construcción. Y es que el recinto en el que está confinada la placa de circuito impreso es muy sólido, algo, por otro lado, exigible a un componente por el que esta marca nos pide una cifra cercana a los 1.000 euros.

Aunque es grande, esta solución gráfica no es tan voluminosa como las GeForce RTX 4090 y 4080 de NVIDIA. También es un poco más compacta que la Radeon RX 7900 XTX. Tiene una longitud de 276 mm y ocupa en el interior de nuestro PC dos ranuras y media, aunque, curiosamente, el PCB es relativamente compacto. Estas dimensiones responden al disipador que los ingenieros de AMD han decidido introducir junto a los tres ventiladores de 80 mm de diámetro con el propósito de garantizar que la GPU, los chips de memoria y los módulos reguladores de voltaje no superarán bajo estrés máximo su límite térmico.

Amdradeonrx7900xt Diseno1

En la siguiente fotografía de detalle podemos ver qué salidas de vídeo nos propone AMD en esta generación de tarjetas gráficas. Al igual que las Radeon RX 6000, esta RX 7900 XT incorpora una salida HDMI que implementa la norma 2.1. También tiene un puerto en formato USB-C y dos salidas DisplayPort, aunque no responden a la especificación 1.4; implementan la norma 2.1. En este artículo os explicamos con detalle qué mejoras nos propone esta revisión de esta interfaz.

Amdradeonrx7900xt Diseno2

AMD ha adoptado una estrategia más conservadora que NVIDIA a la hora de poner a punto la interfaz que nos permite alimentar sus nuevas tarjetas gráficas. Y es que tanto esta Radeon RX 7900 XT como la versión XTX recurren a dos conectores convencionales de 8 pines, lo que les permite convivir con un abanico muy amplio de fuentes de alimentación siempre que, eso sí, tengan una entrega de potencia coherente con el consumo total del equipo. AMD nos sugiere que la fuente sea de al menos 750 vatios.

Amdradeonrx7900xt Diseno3

No es la GPU más potente, pero no le intimidan los juegos a 2160p

La configuración de la plataforma de pruebas que hemos utilizado para evaluar el rendimiento de esta tarjeta gráfica es la siguiente: microprocesador AMD Ryzen 9 5950X con 16 núcleos (32 hilos de ejecución); dos módulos de memoria Corsair Dominator Platinum DDR4-3600 con una capacidad conjunta de 16 GB y una latencia de 18-19-19-39; una placa base ASUS ROG Crosshair VIII Hero con chipset AMD X570; una unidad SSD Samsung 970 EVO Plus con interfaz NVMe M.2 y una capacidad de 500 GB; y, por último, un sistema de refrigeración por aire para la CPU Corsair A500 con ventilador de rodamientos por levitación magnética.

Todas las pruebas las hemos ejecutado con la máxima calidad gráfica implementada en cada juego o test y habilitando la API DirectX 12 en aquellos títulos en los que está disponible

Otro elemento muy importante de nuestra plataforma de análisis es el monitor que hemos utilizado en nuestras pruebas: un ROG Strix XG27UQ de ASUS equipado con un panel LCD IPS de 27 pulgadas con resolución 4K UHD y capaz de trabajar a una frecuencia de refresco máxima de 144 Hz. Esta veterana pantalla es una pieza habitual en nuestros análisis y nos permite sacar todo el jugo a cualquier tarjeta gráfica de última generación.

Todas las pruebas las hemos ejecutado con la máxima calidad gráfica implementada en cada juego o test y habilitando la API DirectX 12 en aquellos títulos en los que está disponible. El modo de reconstrucción de la imagen que hemos seleccionado tanto en las tarjetas gráficas de NVIDIA como en las de AMD en aquellos juegos que implementan esta tecnología es el que prioriza el rendimiento. Y, por último, las herramientas que hemos utilizado para recoger los datos son FrameView, de NVIDIA; OCAT, de AMD; y FRAPS. Las tres están disponibles gratuitamente.

No podemos seguir adelante sin detenernos un momento para echar un vistazo a la fuente de alimentación a la que hemos encomendado la tarea de saciar a la Radeon RX 7900 XT. Durante nuestras pruebas hemos utilizado una fuente Corsair HX1500i modular con una capacidad de entrega de potencia máxima de 1.500 vatios y unas prestaciones acordes a la tarjeta gráfica que estamos analizando. De hecho, durante las decenas de horas que han durado nuestras pruebas esta fuente de alimentación se ha comportado de una manera completamente estable. Además, es sorprendentemente silenciosa.

Corsairhx1500

En el test 'Time Spy' de 3DMark la Radeon RX 7900 XT ha quedado justo en la posición en la que podíamos prever que se colocaría: por debajo de la Radeon RX 7900 XTX y entre medias de la GeForce RTX 4080 y la GeForce RTX 4070 Ti. Nos interesa no pasar por alto que, precisamente, si nos ceñimos a su precio su competidora directa en el porfolio de NVIDIA es la RTX 4070 Ti. Este primer punto se lo anota la tarjeta gráfica de AMD.

En 'Cyberpunk 2077' la RX 7900 XT ha sufrido. A 1080p se siente relativamente cómoda, pero a 1440p y 2160p lo ideal es recurrir a la reconstrucción de la imagen empleando la tecnología FSR 2.1. De lo contrario la cadencia de imágenes por segundo se verá penalizada seriamente y nuestra experiencia se resentirá. En este juego rinde perceptiblemente mejor la GeForce RTX 4070 Ti.

En 'Wolfenstein: Youngblood', sin embargo, la Radeon RX 7900 XT se siente como pez en el agua. De hecho, rinde solo un poco menos que la versión XTX a todas las resoluciones. Aun así, a 2160p supera con claridad una cadencia sostenida de 200 FPS, por lo que este título es perfectamente disfrutable a cualquier resolución y con la máxima calidad gráfica posible si utilizamos esta GPU.

Aunque en 'Doom Eternal' la superan buena parte de sus competidoras, la Radeon RX 7900 XT rinde a las mil maravillas. De hecho, a 2160p nos entrega unos sólidos 119 FPS. Eso sí, no podemos pasar por alto que el motor gráfico de este juego está muy bien optimizado, por lo que todas las GPU de última generación deberían sentirse cómodas con él. De nuevo, este punto se lo lleva la GeForce RTX 4070 Ti.

'Control' es, como siempre, un hueso duro de roer. Con el trazado de rayos activado la Radeon RX 7900 XT se mueve como pez en el agua a 1080p y 1440p, pero lo pasa mal a 2160p. Eso sí, su rival directa, la GeForce RTX 4070 Ti, nos entrega a esta última resolución prácticamente el mismo rendimiento, por lo que es evidente que este título consigue exprimir hasta la última gota de jugo a estas dos GPU.

En 'Death Stranding' sucede algo parecido a lo que hemos visto en 'Doom Eternal'. El motor gráfico de este juego está bien optimizado, y, aunque las GPU de última generación no nos entregan con él un rendimiento tan alto como en el título de id Software, rinden de maravilla. A 2160p la Radeon RX 7900 XT coquetea con los 140 FPS. No está pero que nada mal. A esta resolución la GeForce RTX 4070 Ti, sin embargo, se queda unos 20 FPS por debajo.

A pesar de su veteranía, el motor gráfico de 'Final Fantasy XV' sigue siendo duro de pelar. Aun así, la Radeon RX 7900 XT ha estado a la altura. De hecho, su rendimiento rivaliza con el de tarjetas gráficas más caras. En cualquier caso, curiosamente, la Radeon RX 7900 XT y la GeForce RTX 4070 Ti nos entregan prácticamente la misma cadencia de imágenes por segundo a todas las resoluciones. Por una vez lo justo es declarar un empate entre estas dos GPU.

Vamos ahora con nuestras pruebas de medición de la temperatura. Bajo exactamente la misma carga de trabajo la Radeon RX 7900 XT se calienta menos que la XTX, y solo arroja 1 ºC más que la GeForce RTX 4070 Ti. Un apunte interesante, aunque esperado: estas dos tarjetas gráficas, al igual que sus compañeras de generación, disipan menos energía en forma de calor frente al mismo estrés que las GPU de la anterior generación.

Para medir el nivel de ruido máximo emitido por cada tarjeta gráfica bajo estrés utilizamos nuestro sonómetro Velleman DVM805. Como podemos ver, la Radeon RX 7900 XT es perceptiblemente más ruidosa bajo estrés máximo que las soluciones gráficas con las que la hemos enfrentado. Solo la XTX es todavía más ruidosa. Aun así, no es un problema si cuando jugamos utilizamos auriculares, o bien unas cajas acústicas capaces de entregarnos un nivel de presión sonora razonable.

AMD Radeon RX 7900 XT: la opinión de Xataka

Es un hecho: las tarjetas gráficas son actualmente mucho más caras que las soluciones de la misma categoría con las que los usuarios podíamos hacernos hace varias generaciones. La Radeon RX 7900 XT a la que hemos dedicado este análisis es ahora mismo la segunda tarjeta gráfica más potente de AMD. Solo la supera la versión XTX, que, dicho sea de paso, es, como he mencionado en el primer párrafo de este artículo, entre 150 y 250 euros más cara. Aun así, si queremos hacernos con la RX 7900 XT tendremos que gastarnos aproximadamente 1.000 euros.

La XT rinde globalmente menos que la XTX, pero nos permite disfrutar con garantías la mayor parte de los juegos a 2160p

Es mucho dinero, de eso no cabe duda. En cualquier caso, suponiendo que nos liamos la manta a la cabeza y decidimos desembolsar esa cantidad, ¿merece la pena gastar un poco más e ir a por la XTX? Si nuestro presupuesto está muy ajustado y llegar a esos 1.000 euros nos va a obligar a hacer algún sacrificio, no. No la merece. La XT rinde globalmente menos que la XTX, es evidente, pero, aun así, nos permite disfrutar con garantías la mayor parte de los juegos a 2160p y con la mayor calidad de imagen posible.

Eso sí, si el dinero no es un problema y podemos gastar más, la XTX es una mejor opción. Y también lo son las GeForce RTX 4080 y 4090 de NVIDIA. La GeForce RTX 4070 Ti, que es su rival directa, rinde mejor que la XT en algunos juegos, aunque en otros ambas GPU van a la par. En mi opinión la RTX 4070 Ti es más atractiva que la XT si queremos sacar partido a la reconstrucción de la imagen mediante DLSS 3. De lo contrario la Radeon RX 7900 XT es una opción que merece la pena tener muy en cuenta. La pelota queda ahora en el tejado del hardware gráfico de gama media, que, sin lugar a dudas, está a punto de llegar.

SAPPHIRE AMD Radeon™ RX 7900 XT Gaming Graphics Card 20GB GDDR6 HDMI / Dual DP / USB-C

Esta tarjeta gráfica ha sido cedida para este análisis por AMD. Puedes consultar nuestra política de relaciones con las empresas.

Más información: AMD


Las CPU con arquitectura híbrida no van a ceder un solo palmo de terreno. AMD probablemente ha tomado nota

$
0
0

Las CPU con arquitectura híbrida no van a ceder un solo palmo de terreno. AMD probablemente ha tomado nota

Los microprocesadores con arquitectura híbrida han llegado para quedarse. De eso no cabe la menor duda. Apple primero, e Intel después, han apostado por ellos con contundencia en sus últimas generaciones de CPU, pero, en realidad, esta estrategia de diseño no es reciente. Y, desde luego, no ha sido concebida originalmente por ninguna de estas compañías.

De hecho, los usuarios estamos en cierta medida familiarizados con ella al menos desde la llegada de los chips con arquitectura big.LITTLE de ARM que podemos encontrar en nuestros teléfonos móviles. Sea como sea hay una marca que todavía no ha dado este salto: AMD. Sus últimos procesadores para equipos de sobremesa y portátiles, los Ryzen 7000, están implementados sobre la microarquitectura Zen 4. Y en ella todos los núcleos son idénticos.

Esta es, precisamente, la señal de identidad de las arquitecturas híbridas: defienden la convivencia de dos tipos de núcleos diferentes. Unos, los de alto rendimiento, lidian con los procesos que requieren ser ejecutados con la mínima latencia posible, mientras que los otros, los de alta eficiencia, priorizan el mínimo gasto de energía. Hasta ahora AMD no ha seguido este camino, pero empiezan a aparecer pistas que nos invitan a prever que con Zen 5 su estrategia cambiará.

Nuestra apuesta: AMD también tendrá su propia arquitectura híbrida en breve

Los primeros procesadores de AMD con microarquitectura Zen 5 llegarán en 2024, y de fabricarlos se encargará, como de costumbre, TSMC. Utilizará sus nodos de 3 y 4 nm, y algunos de estos chips apostarán por la misma tecnología 3D V-Cache que podemos encontrar actualmente en el Ryzen 7 5800X3D y los inminentes Ryzen 9 7950X3D, 7900X3D y Ryzen 7 7800X3D. Todo esto es oficial, así que podemos darlo por hecho.

Las primeras CPU de AMD con microarquitectura Zen 5 llegarán en 2024, y de fabricarlas se encargará, como de costumbre, TSMC

Sin embargo, esto no es lo único que sabemos de las próximas CPU de esta marca. A mediados del pasado mes de junio AMD dio a conocer algunas características de su microarquitectura Zen 5, y, a priori, nos propondrá lo que los usuarios podemos esperar: un rendimiento más alto y una mayor eficiencia. Esto no es noticia. Es lo que toca. Sin embargo, están haciéndose eco durante los últimos meses filtraciones que aseguran que, entre líneas, esta compañía nos está anticipando que Zen 5 será una arquitectura híbrida.

Amdzen5

¿Tiene sentido? Sí, por supuesto que lo tiene. Los procesadores Ryzen 5000 y 7000 tienen un rendimiento por vatio interesante gracias a las optimizaciones introducidas en su microarquitectura por los ingenieros de AMD. Y, sobre todo, debido a las litografías con las que los fabrica TSMC. Pero Intel está acelerando el paso. Por el momento no tiene una litografía tan avanzada como la de los mejores nodos de TSMC, pero Pat Gelsinger ha prometido que su compañía tendrá los mejores transistores y la tecnología de integración más avanzada del mundo en 2025. Y, si lo cumple, liderará en rendimiento por vatio. Ambición, desde luego, no le falta.

Si AMD quiere soportar esta posible embestida de Intel, y, si finalmente llegase a producirse, competir con las máximas garantías, tendrá que dar un paso firme hacia delante. Y poner a punto una microarquitectura híbrida que destile las muchas bazas sólidas que tienen las últimas revisiones de Zen y las refine con el propósito de implementar dos tipos de núcleos diferentes (alta productividad y alta eficiencia) es, en mi opinión, la estrategia correcta. Veremos si finalmente sigue este camino. Pase lo que pase podemos estar seguros de una cosa: a los entusiastas de los microprocesadores nos esperan tiempos emocionantes.

Llevo casi 30 años montando mi PC a la medida y para mí no hay vuelta atrás: no volveré a comprar un equipo de marca

$
0
0

Llevo casi 30 años montando mi PC a la medida y para mí no hay vuelta atrás: no volveré a comprar un equipo de marca

Tuve mi primer PC a principios de los 90, aunque ese no fue mi primer ordenador. Mi primer contacto con la informática personal llegó gracias al Spectrum con 48 KB de memoria principal (el primer modelo con teclas de plástico y no de goma) que mis padres me regalaron por mi cumpleaños en 1985. Qué buenísimos recuerdos tengo de aquel pequeño y modesto ordenador. Y también del siguiente, un Atari ST 520 FM.

Después llegó el PC. Lo compré en una pequeña tienda de informática del centro de Madrid. Era uno de aquellos equipos clónicos que tanto proliferaron durante la década de los 90, y lo compré montado. Tenía un procesador 80486 DX2 a 66 MHz de Intel y 4 MB de RAM. En aquel momento configurar y montar un PC desde cero quedaba fuera de mi alcance, pero poco después de comprarlo decidí hacerme con una tarjeta de sonido Sound Blaster 16 de Creative.

A pesar de mi inexperiencia, instalarla en el interior de mi PC no parecía difícil, así que me armé de valor para abrirlo. Todo fue bien. Sin embargo, lo realmente importante para mí no fue haber instalado correctamente aquella tarjeta de sonido; por el camino descubrí que la arquitectura de un PC no era tan compleja como imaginaba, así que enseguida decidí dar otro paso hacia delante y amplié su memoria principal. Ya no había vuelta atrás.

Diseñar y montar tu propio PC a la medida tiene (para mí) muchas ventajas

Aquel fue el primer y el último PC que compré montado. Dos años después había aprendido lo suficiente para atreverme a configurar y montar yo mismo mi siguiente ordenador, así que me puse con ello, y llegó mi primer descubrimiento: no era nada engorroso. Todo lo contrario. Disfruté muchísimo eligiendo cada pieza, montándolo e instalando el sistema operativo y todo el software desde cero. Y, por el camino, aprendí mucho. A pesar de que desde entonces han pasado ya casi tres décadas, esto no ha cambiado. Sigo disfrutando mucho todo este proceso.

Montar a la medida tu propio PC tiene varias ventajas frente a comprar un equipo previamente montado

Honestamente, he perdido la cuenta de la cantidad de equipos que he montado desde entonces. Muchos de ellos fueron para mí, pero también he montado algunos para familiares y amigos, y durante varios meses trabajé montándolos en una pequeña tienda de informática para pagarme los estudios. Más allá de lo placentera que me parece esta experiencia desde que eliges los componentes hasta que afinas hasta el último detalle de la BIOS y el sistema operativo, creo que montar a la medida tu propio PC tiene varias ventajas frente a comprar un equipo previamente montado, especialmente si es de marca.

La más evidente es que te ofrece la oportunidad de elegir cada pieza. Cada componente. Creo que merece la pena indagar para encontrar la marca y el modelo que mejor encajan con las prestaciones que aspiramos a alcanzar y el presupuesto que tenemos. Además, conocerlo al dedillo nos permite reaccionar con agilidad si surge algún problema. Cuando configuras y pones a punto tu propio PC puedes identificar con relativa facilidad el origen de un fallo, y ese es el primer paso necesario para resolverlo con éxito.

Por otro lado, como es evidente, esta opción pone en nuestras manos la oportunidad de adaptar su hardware con mucha precisión a nuestras necesidades. Y también a nuestro presupuesto. De hecho, si somos cuidadosos también podemos ahorrar algo de dinero si comparamos su coste con el precio que tiene un PC montado con una configuración similar. Para mí estas ventajas marcan la diferencia.

Por supuesto, hay equipos montados de muy buena calidad que nos permiten ahorrarnos el tiempo y el esfuerzo que es necesario invertir en la puesta a punto de un PC desde cero. Para muchas personas este es el camino a seguir, y es una opción absolutamente válida y respetable. Pero no es la mía. Yo seguiré montando mi propio PC a la medida de mis necesidades y presupuesto, como he hecho desde mediados de los 90.

Imagen de portada: Roberto Nickson

Estos tres países están despuntando como alternativa a Taiwán en la industria de los chips ante la amenaza de China

$
0
0

Estos tres países están despuntando como alternativa a Taiwán en la industria de los chips ante la amenaza de China

El clima de tensión que existe actualmente entre China, Taiwán y Estados Unidos mantiene a la industria de los semiconductores al borde de un abismo. De hecho, ningún otro mercado se vería tan afectado de forma directa como el de los chips si finalmente estos tres países llegasen a las manos (Estados Unidos ha mostrado en muchas ocasiones su apoyo incondicional a Taiwán si China lo atacase).

Este conflicto es muy serio. Tanto, de hecho, que a principios del pasado mes de agosto Mark Liu, el director general de TSMC, declaró que si finalmente China decide invadir Taiwán la compañía que dirige paralizaría inmediatamente sus fábricas. No obstante, este ejecutivo también vaticinó que el mundo quedaría expuesto a problemas mucho mayores que el colapso del mercado de los semiconductores debido al impacto que tendría este conflicto en el orden mundial.

Muchas compañías de tecnología han mostrado su preocupación bien de forma directa, bien a través de las decisiones que están tomando. Sin ir más lejos Apple, AMD y NVIDIA, que son tres de los mejores clientes de TSMC, están respaldando la construcción de la planta que esta última compañía está poniendo a punto en Arizona (Estados Unidos). Y no cabe duda de que su muy probable apoyo económico ha influido en la decisión de multiplicar casi por cuatro su inversión inicial en esta fábrica.

La industria de los chips necesita forzosamente reforzar su presencia en Asia

Actualmente los tres mayores fabricantes de semiconductores están poniendo a punto nuevas plantas en Estados Unidos. La fábrica que TSMC tendrá en Arizona iniciará la producción en 2024, pero Intel también está construyendo dos nuevas fábricas en Ocotillo (Arizona). Y Samsung una más en Taylor (Texas). Incluso GlobalFoundries, que es el quinto mayor fabricante de chips del planeta, está enfrascado en el despliegue de una nueva planta en el estado de Nueva York.

La mejor opción es buscar alternativas a Taiwán en el continente asiático, países con unos costes más bajos

Es evidente que los mayores fabricantes de semiconductores están reforzando su presencia en Estados Unidos debido a que es el país en el que reside buena parte de sus clientes, pero esta es solo una solución parcial a esta crisis. Si el conflicto entre China y Taiwán se agudizase y finalmente llegasen a las manos incrementar la producción en Estados Unidos no logrará compensar todo lo que TSMC y UMC dejarían de fabricar en Taiwán. Al menos no podrá hacerlo a corto y medio plazo.

Además, hay un problema adicional que no debemos pasar por alto: los costes de producción en Estados Unidos son muy altos. Y esta circunstancia puede provocar que estas compañías pierdan competitividad. Dada esta coyuntura la mejor opción es buscar alternativas a Taiwán en el continente asiático, a ser posible en países con unos costes incluso más bajos que los de este último país. Y los fabricantes de semiconductores lo saben mejor que nadie.

De hecho, poco a poco están adquiriendo protagonismo tres países asiáticos que en mayor o menor medida ya están involucrados en esta industria: Singapur, Malasia y Vietnam. Los tres tienen un grado de desarrollo industrial y social adecuado para que los fabricantes de circuitos integrados refuercen su presencia en ellos, pero tienen por delante un desafío: consolidar la infraestructura que requiere esta industria para intensificar su actividad. Además, no debemos pasar por alto que la puesta a punto de una nueva fábrica de chips raramente puede completarse en menos de cinco años.

En cualquier caso, parece que algunos fabricantes de chips ya se están moviendo en esta dirección. Y es que, según Reuters, Intel está barajando la posibilidad de invertir 1.000 millones de dólares o más en la planta de empaquetado y verificación de chips que ya tiene en Vietnam. No obstante, al parecer finalmente podría derivar esta inversión a Singapur o Malasia, que, como acabamos de ver, también están despuntando en este terreno. Pase lo que pase de una cosa podemos estar seguros: China y Taiwán han perdido su atractivo para los fabricantes de semiconductores.

Imagen de portada: TSMC

Más información: Reuters

MacBook Pro M2 Max (2023), análisis: siguiendo más que nunca la estela de los iPhone

$
0
0

MacBook Pro M2 Max (2023), análisis: siguiendo más que nunca la estela de los iPhone

Aunque con Apple nunca se sabe, tras el paso al mundo M2 del MacBook Air que se produjo el año pasado, este 2023 tocaba poder entrar a fondo en el rendimiento de esa misma familia de procesadores de la propia Apple pero en un modelo de la gama profesional.

Y aquí tenemos pues el nuevo MacBook Pro de 16 pulgadas gestionado por los chips M2 Pro y M2 Max. Mismo diseño y características que los modelos de la generación anterior a excepción de la mejora a nivel de chips. Quizás sea hora de pasar a denominarlos al estilo de los iPhone.

Ficha técnica del MacBook Pro 16 pulgadas M2 Max


MacBook Pro 16"

Pantalla

Liquid Retina XDR

16,2 pulgadas, 3.456 x 2.234 píxeles (254 ppp)

1.600 nits de brillo máximo

Contraste 1.000.000:1

Tecnología ProMotion 120 Hz

Procesador

Chip M2 Pro de Apple

(CPU de 12 núcleos, GPU de 19 núcleos, 200 GB/s de ancho de banda de memoria)

Chip M2 Max de Apple

(CPU de 12 núcleos, GPU de 38 núcleos, 400 GB/s de ancho de banda de memoria)

Memoria

16/32/64/96 GB de memoria unificada

ALMACENAMIENTO

2/4/8 TB

Puertos

3 x USB-C (TB4)

1 x HDMI

1 x MagSafe 3

Lector de tarjetas SDXC

Puerto de auriculares

Conectividad

Wi-Fi 6E

BT 5.3

Webcam

FaceTime HD a 1080p

Audio

Seis altavoces

Audio espacial

Tres micrófonos

Dimensiones y peso

355,7 x 248,1 x 16,8 mm

2,15 kg (M2 Pro), 2,16 kg (M2 Max)

Batería

100 Wh

Adaptador USB-C de 140 W

Cable de USB-C a MagSafe3

Carga rápida

Sistema operativo

macOS Ventura

Precio

Desde 3.049 euros

Apple 2023 MacBook Pro con Chip M2 Pro con CPU de Doce núcleos y GPU de diecinueve núcleos: Liquid Retina XDR de 16,2 Pulgadas, 16GB de Memoria unificada, 512 GB de Almacenamiento SSD,Gris Espacial


Un Mac 100% Mac (y 100% iPhone)

Tras el considerable cambio que supuso el estreno de los procesadores de Apple en sus equipos de la familia Pro (y que luego adoptaron los modelos Air el año pasado), del diseño del nuevo MacBook Pro de 16 pulgadas con M2 Pro y Max no podemos añadir demasiado.

Con el diseño ya igualado entre el MacBook Pro y el MacBook Air, la diferencia entre modelos ya casi se limita exclusivamente a la diagonal de pantalla a primera vista. Sí, como en los iPhone

El formato se basa en las líneas rectas, acabados exquisitos y un buen equilibrio entre diagonal de pantalla y dimensiones. No es un portátil compacto y su peso de 2.15 kg es muy aceptable para el beneficio que tiene trabajar  delante de una pantalla tan grande en cualquier sitio.

Macbook Pro M2 Max 2023 Xataka Review Diseno Brillo

En el apartado de diseño solo podemos hablar de una novedad reseñable. Y no es tanto física como de especificaciones de los puertos.

El nuevo MacBook Pro 16 pulgadas M2 Pro y Max ofrecen tres puertos Thunderbolt 4 (hasta 40 Gb/s), dos en el lateral izquierdo y uno en el derecho. En esa parte derecha comparte sitio con la ranura para tarjetas SDXC y el puerto HDMI 2.1.

Macbook Pro M2 Max 2023 Xataka Review Puertos Hdmi

Precisamente en el puerto HDMI encontramos esa única novedad de la que hablábamos. Se trata de un puerto que ahora admite el uso de pantallas con resolución 8K (60 Hz) y 4K (240 Hz), con lo que actualiza sus prestaciones de cara a quienes necesitan esta flexibilidad a la hora de trabajar con monitores externos.

Macbook Pro M2 Max 2023 Xataka Review Conectividad

Ya en el lateral izquierdo, encontramos además el puerto Magsafe 3 para la carga y la toma de auriculares de 3.5 mm, que se resiste a desaparecer de este equipo.

La conectividad inalámbrica es otra de las mejoras que obtenemos al pasarnos a un MacBook Pro 16 pulgadas con los nuevos chips M2 Pro y Max. Incorporan WiFi 6E y Bluetooth 5.3.

Sigue el espectáculo de la pantalla

El MacBook Pro de 16 pulgadas con M2 Pro y Max conserva el excelente hacer a nivel de pantalla. Para mí, la combinación de rendimiento con la diagonal de pantalla de 16 pulgadas sigue siendo el punto fuerte de este equipo.

Es cierto que la resolución se mantiene en 3456x2234 píxeles, lo que le da para alcanzar una densidad de 254 ppp, pero es más que suficiente y se ve claramente compensada respecto a paneles 4K por su calidad.

Macbook Pro M2 Max 2023 Xataka Review Diseno

Estamos de nuevo ante una pantalla con tecnología Liquida Retina XDR y panel de tipo miniLED compuesto por más de 2.500 zonas para un total de más de 10.000 puntos de luz individuales de tipo LED.

Lo mejor de la pantalla del MacBook Pro de 16 pulgadas es que la experiencia no se queda en la ficha técnica ni los números sino que la podemos experimentar en la realidad

Destaca el brillo, sostenido de 1000 nits y máximo de hasta 1600 nits, y el contraste, de 1.000.000:1. Esto es una gran beneficio para trabajar en entornos muy luminosos sin que los reflejos supongan un inconveniente. Además, la pantalla cubre la totalidad de la gama cromática P3 y cuenta con tecnología True Tone.

Macbook Pro M2 Max 2023 Xataka Review Portada

No falta tampoco la tecnología ProMotion con frecuencia adaptativa de hasta 120 Hz. Sigue con algo de margen de mejora a la hora de ofrecer la misma experiencia en todas las situaciones, tanto del sistema como de aplicaciones, pero es un "must" que debemos buscar ya en todos los equipos de cierto nivel y precio.

Pero más allá de los nombres y cifras, la pantalla del MacBook Pro de 16 pulgadas es una garantía de calidad, fidelidad y magnífica experiencia de uso.

Sonido y cámara web de altos vuelos

El corte más profesional del MacBook Pro de 16 pulgadas, además de en la calidad de la pantalla, es fácilmente apreciable en otros apartados como el del sonido. Como indicaba antes, el precio que se paga hay que verlo reflejado en muchos detalles. Y por suerte, el sonido es uno de ellos.

El MacBook Pro de 16 pulgadas cuenta con seis altavoces estéreo de alta fidelidad que incluyen refuerzo de graves muy destacado y tecnología Dolby Atmos para el sonido envolvente. La experiencia ofrece fidelidad y mucha potencia sin distorsión alguna. Es realmente satisfactorio.

Macbook Pro M2 Max 2023 Xataka Review Sonido

Cuando usamos los auriculares inalámbricos de Apple obtenemos audio espacial. En cuanto a los micrófonos, son tres en total y suponen un perfecto complemento de la cámara FaceTime, que se mantiene en una resolución 1080p, una de las grandes alegrías que ya disfrutamos probando el modelo de la generación anterior.

De momento habrá que esperar otra generación a la llegada de Face ID  un Macbook

La cámara se mantiene en el notch que ya no causa tanta controversia pues al fin y al cabo, uno acaba olvidándose de él en muy poco tiempo. De lo que no podemos olvidarnos es de la ausencia de FaceID en este equipo que parecía llamado a por fin estrenar esta utilísima funcionalidad.

Macbook Pro M2 Max 2023 Xataka Review Notch

Para la identificación biométrica seguimos pues dependiendo de nuestra huella, cuyo lector está integrada en el botón de encendido, situado en el teclado. Es rápido, fiable y está muy bien integrado en el teclado.

Macbook Pro M2 Max 2023 Xataka Review Boton Encendido

La experiencia con el teclado Magic Keyboard también ha resultado plenamente satisfactoria y sin sorpresas. Tras los experimentos con gaseosa, el mecanismo de tijera con teclas de perfil bajo y corto recorrido da el resultado esperado, siendo un tecleo muy silencioso en uso y cómodo para largas sesiones de escritura.

La experiencia con el teclado y el trackpad del MacBook Pro de 16 pulgadas es de las que marcan diferencias en el mercado

Es por supuesto retroiluminado (son sensor de luz ambiental) con una excelente visibilidad reforzada por el mismo tono de la base que el de las teclas.

Macbook Pro M2 Max 2023 Xataka Review Teclado

El trackpad, enorme y con tecnología Force Touch, nos ofrece total control de gestos y movimientos, con una breve inversión de tiempo para poder sacarle todo el partido en macOS, especialmente en las diferentes presiones que podemos ejercer sobre su superficie.

Más potencia bajo control

Como hemos ido desarrollando a lo largo de este análisis del MacBook Pro de 16 pulgadas, su razón de ser no se ve pero se siente. No podía ser menos al contar con los procesadores propios de Apple más potentes hasta la fecha.

La teoría que desarrolla Apple en las especificaciones de estos nuevos chips habla de mejoras que afectan tanto a la CPU como la GPU. En el caso del chip M2 Pro, estamos ante un salto al doble de de transistores respecto al M2. Hay opciones del chip M2 Pro con CPU de 10 o 12 núcleos y GPU de 16 o 19 núcleos.

Con la familias de chips M2 de Apple ya no sirve con escoger entre Pro y Max. Las opciones se diversifican y complican con tantas variables a tener en cuenta

Este procesador "de entrada" ofrece hasta 200 GB/s de ancho de banda de memoria, pudiendo contar con hasta 32 GB de memoria unificada.

Si pasamos a la estrella de la película, el M2 Max está disponible tanto para la versión de 14 pulgadas como la de 16 pulgadas del MacBook Pro, pero no son exactamente el mismo.

Macbook Pro M2 Max 2023 Xataka Review Rendimiento Pantalla

En el caso del modelo más completo, que es el que hemos analizado en Xataka para la diagonal de 16 pulgadas, el chip M2 Max cuenta con una CPU de 12 núcleos (8 de rendimiento y 4 de eficiencia), GPU de 38 núcleos, Neural Engine de 16 núcleos y 400 GB/s de ancho de banda de memoria.

La configuración de memoria base es de 32 GB, aunque el modelo que hemos analizado contaba con 64 GB. El equipo admite hasta 96 GB. En cuando a la memoria interna, nuestra unidad equipaba un SSD de 2 TB pero podría ampliarse hasta los 8 TB. Como es habitual en Apple, las ampliaciones suponen un sobreprecio importante a tener en cuenta hasta alcanzar una cifra superior a la de los 7.000 euros.

El rendimiento de esta unidad SSD cumple de sobra, pero de nuevo nos tememos que hay que mirar con lupa qué configuración escogemos para obtener el máximo rendimiento por lo que pagamos.

Captura De Pantalla 2023 02 07 A Las 16 42 09

Si nos referimos ya a la potencia mejorada que promete el nuevo M2 Max, las cifras lo respaldan completamente. Tenemos incrementos de rendimiento en todos los marcadores de nuestros test habituales.

En Cinebench R23, por ejemplo, pasamos de los 1529 y 12308 puntos en las pruebas Single y Multi Core respectivamente realizadas con el MacBook Pro de 16 pulgadas con M1 Max a los más de 1600 y 14700 puntos del modelo de este año.

Captura De Pantalla 2023 02 07 A Las 17 12 25

En GeekBench también subimos de 1767 y 12400 a más de 1900 y 15100 puntos con el nuevo M2 Max montado en este nuevo MacBook Pro de 16 pulgadas.

En el apartado gráfico, que es donde más deberíamos notar el incremento de potencia de la GPU del modelo M2 Max, la prueba 3DMark Wild Life Extreme nos dejó algo menos de 19400 puntos mientras que con GFXBench 5.0 Metal rozamos los 120 fps incluso en las pruebas más exigentes.

Captura De Pantalla 2023 02 07 A Las 17 41 35

Rendimiento sin concesiones (ni ruido)

Tras pasar las pruebas sintéticas habituales que nos ayudan en Xataka a comparar equipos de manera aséptica, el nulo ruido de funcionamiento y el control total del calor generado en el equipo nos causó mucho estupor. ¿Era real ese comportamiento?

Además de mas pruebas de estrés para comprobar si había caída de rendimiento tras varias horas pasando test, iniciamos una batería de pruebas con programas comerciales tanto de fotografía como de edición de vídeo, con Davinci Resolve a la cabeza.

Macbook Pro M2 Max 2023 Xataka Review Apps Recurso

El trabajo con software profesional se realiza con fluidez máxima y sensación en todo momento de agilidad e inmediatez. A destacar de nuevo algo de lo que casi nadie puede presumir: el mantenimiento del rendimiento independientemente de que lo hagamos conectados a la corriente o tirando de la batería.

Con las pruebas gráficas más exigentes ya sí que pudimos comprobar que este Macbook Pro de 16 pulgadas lleva refrigeración activa, pero el ruido es tan contenido que no podemos dejar de remarcarlo. Además, es bastante puntual y no demasiado sostenido, al menos en nuestra experiencia.

Gracias chips M

Aunque la adopción de sus propios chips para sus equipos portátiles reúne un enorme compendio de motivos, entre ellos rendimiento, control y gestión de tiempos en los lanzamientos de nuevos modelos, el acercamiento de la autonomía de los MacBook al segmento de teléfonos y tablets es para mi un motivo todavía más importante para según qué usuarios.

Este nuevo MacBook Pro de 16 pulgadas con chip M2 Max no trae consigo una revolución a nivel de autonomía porque la base del mismo equipo con los primeros procesadores M de Apple ya era excelente.

Si a la enorme pantalla le sumamos una batería asombrosa para un portátil de esta potencia bruta, sobran las palabras sobre el Macbook Pro con M2 Max

En este nuevo modelo tenemos una batería a la que Apple le da un par de horas de autonomía extra en entornos ideales y reproducción de vídeo. En nuestras pruebas, en escenarios más reales de uso, conseguimos mejorar las cifras del modelo de la generación anterior y disfrutamos de una media de más de 14 horas de uso real del equipo, las cuales pudimos incluso alargar siendo más contenido en el tipo de aplicaciones o brillo de la pantalla.

Macbook Pro M2 Max 2023 Xataka Review Diseno General

Para la carga de la batería podemos optar por el conector Magsafe y el adaptador de 140 W que viene de serie (carga el 50% en poco más de media hora), o recurrir a cualquiera de los 3 puertos USB-C que admiten también la carga del equipo aunque con menos eficiencia.

Macbook Pro M2 Max (2023), la opinión y nota de Xataka

En el titular de este análisis dejábamos caer que este Macbook Pro M2 Max de 2023 nos recordaba cada vez más a un iPhone. No estamos locos. Se trata más bien de la idea detrás de una renovación habitual de menos empaque, centrada casi exclusivamente en el interior y programada en base a la salida de nuevos procesadores por parte de Apple.

Sobre esta base, la reflexión respecto a este nuevo Macbook Pro es similar a la que solemos acabar llegando con los teléfonos de Apple: si vienes de la generación anterior el salto no es tan importante como para invertir en ello (salvo que quieras y puedas, lógicamente) pero si te has decidido a que tu próximo portátil sea de Apple y tus tareas van más allá de las de un usuario de a pie, el Macbook Pro de 16 pulgadas te ofrece mucho de lo que necesitas.

Potencia, autonomía, diseño, calidad de pantalla  ... todo se encuentra al máximo nivel posible dentro del catálogo de Apple ... y casi toda la competencia. Pero también lo es el precio y las siempre peculiaridades de la conectividad o decisiones de diseño.

9,5

Diseño 9
Pantalla 9,75
Rendimiento 9,75
Teclado/Trackpad 9,5
Software 9
Autonomía 9,75

A favor

  • Rendimiento excelente incluso tirando de la batería
  • Autonomía sin igual en el mercado
  • Calidad de la pantalla

En contra

  • Precio alto si no eres un profesional
  • Ninguna novedad más allá de los nuevos procesadores
  • Sin Face ID todavía


Apple 2023 MacBook Pro con Chip M2 Pro con CPU de Doce núcleos y GPU de diecinueve núcleos: Liquid Retina XDR de 16,2 Pulgadas, 16GB de Memoria unificada, 512 GB de Almacenamiento SSD,Gris Espacial

IBM saca músculo ante todos: presenta su propio supercomputador en la nube dedicado a la inteligencia artificial

$
0
0

IBM saca músculo ante todos: presenta su propio supercomputador en la nube dedicado a la inteligencia artificial

Vivimos en un mundo en el que cada vez más compañías se involucran en el campo de la inteligencia artificial (IA). Desde Meta hasta Microsoft y Tesla, todas han invertido millones de dólares en crear sus propios sistemas de cálculo de alto rendimiento siguiendo los modelos de la supercomputación tradicional. Pero IBM, que tiene vasta experiencia en el sector, ha decidido apostar por una solución diferente.

En lugar de montar un supercomputador en una ubicación determinada, con todo el esfuerzo que esto conllevaría, IBM pensó en desarrollar una infraestructura flexible que se pudiera implementar en cualquiera de sus centros de datos repartidos alrededor del mundo a través de la nube. Este sistema híbrido llamado “Vela” ya es una realidad. De hecho, ha estado funcionando discretamente desde mayo del año pasado.

¿Virtualización y alto rendimiento?

De primeras, la idea de utilizar la virtualización para entrenar los modelos de inteligencia artificial cada vez más complejos que existen puede que no resulte demasiado convincente o efectivo. Sabemos que el hecho de no ejecutar de forma nativa el software, por lo general, se traduce en una pérdida de rendimiento. Y, ¿cómo se permite perder rendimiento donde cada margen de capacidad de cálculo es un importante recurso?

Desde IBM señalan que después de mucho tiempo de investigación han conseguido reducir la sobrecarga de la virtualización a aproximadamente el 5%. Estos valores, según la compañía, si se los contrasta con la versatilidad de la solución se encuentran dentro de los parámetros aceptables. Una de las ventajas es la de utilizar infraestructura existente y de asignar recursos rápidamente a través de software.

Vela Ibm 1

La idea, sobre el papel, resulta realmente tentadora. El gigante estadounidense ahora tiene la capacidad de disponer de su capacidad de cálculo de manera flexible. Precisamente, esta primera configuración de Vela parece bestial. Desconocemos la cantidad exacta de nodos que forman parte de la configuración que están utilizando en IBM Research, pero sí sabemos cómo está conformado cada uno. Veamos.

Ibm 23

Cada nodo tiene dos procesadores Intel Xenon de 2ª generación, 1,5 TB de DRAM, cuatro unidades NVMe de 3,2 TB y ocho GPUs NVIDIA A100 de 80 GB. Además, Vela se beneficia de las soluciones escalables de NVLink y NVSwitch, es decir, de una interconexión directa entre GPU que escala la entrada/salida (IO) de varias GPU para ofrecer comunicación total a velocidad NVLink completa dentro de un solo nodo y entre nodos.

Los creadores del famoso sistema Watson dicen que se han propuesto “reducir el tiempo para construir e implementar modelos de IA de clase mundial”. Ahora esperan seguir haciendo avances en este campo y creando “nuevas oportunidades para la innovación”. Eso sí, de momento, Vela será un recurso exclusivo para los investigadores de IBM Research. Ya veremos que tienen entre manos.

Imágenes: (IBM: 1, 2)

En Xataka: Frontier, el nuevo supercomputador más potente del mundo, ha alcanzado un hito: romper la barrera de la exaescala

Viewing all 3032 articles
Browse latest View live