Inicio Google Google lanza el Pixel 6 y 6 Pro con procesador Tensor

Google lanza el Pixel 6 y 6 Pro con procesador Tensor

0

Y si ayer fue el día de Apple y sus nuevos procesadores hoy es el de Google con la presentación oficial del Pixel 6, el 6 Pro y su SOC Tensor que venían prometiendo hace meses.

Estamos hablando de un teléfono que mejora notablemente las falencias de los Pixel 5, que no sólo promete el uso de Machine Learning sino que realmente lo aplica y con un precio mucho más accesible que otros equipos de similares características y performance que optaron por los precios “premium”.

El Pixel 6 viene en dos versiones que se diferencian en pantalla, almacenamiento y cámara pero donde todo el resto es similar.

El procesador, del cual hablaré más abajo, cuenta con ocho núcleos en una configuración diferente, dos Cortex X1 a 2.8GHz, dos Cortex A76 a 2.25Ghz y cuatro Cortex A55 a 1.8GHz fabricado en un proceso de 5nm (similar al M1/A15 de Apple), el GPU es un Mali G78 MP20 con bastante mayor capacidad que los anteriores.

Las pantallas son de 6.4″ a 90Hz y 2400×1080 OLED en el caso del Pixel 6 y una de 6.7″ con refresco de 120Hz, 3120×1440, LTPO OLED para el Pixel 6 Pro.

El almacenamiento va de 128GB a 256GB en el normal y hasta 512GB en el Pro, con UFS 3.1, la memoria RAM es de 8GB y 12GB respectivamente.

La conectividad es Wi-Fi 6E, Bluetooth 5.2, GPS, NFC, 5G mmWave & Sub-6 GHz con el Pro sumando UWB. Las baterías son de 4600mAh y 5000mAh.

Las cámaras son de 50MP (principal), 12MP wide, con autofoco laser, OIS, sensor de espectro y refresco, y el Pro suma una con telephoto de 48MP y 4X de zoom óptico.

El precio es más que interesante y los hace totalmente accesibles para el hardware que ofrecen, USD 599 y USD 899 para las versiones menores de ambos modelos, muy por debajo de Samsung en este caso.

Google Tensor

El procesador es también algo llamativo en este caso, el Google Tensor ya deja en claro en su nombre que le quieren meter IA a todo porque TensorFlow es la marca utilizada por Google para sus sistemas de machine learning.

Dónde aplica aquí? Pues bien, en versiones anteriores no cambiaba mucho pero ahora la idea es aprovecharlo al máximo con varios usos, uno es el reconocimiento de voz rápido en el mismo equipo, muy útil para llamadas en espera donde te contesta una máquina, es capaz de armar menúes de opciones mientras reconce la voz.

Otro caso de uso es la cámara, en la de fotos en el Pixel 5 ya se aprovechaba esto tomando varias fotos en un instante para conformar una final con uso de ML en vez de promedios simples, ahora hace eso mismo… con video 4K a 60fps y sin recalentar. Es decir, el mismo tratamiento visual a un video en la máxima calidad.

Remover objetos o personas que se te cruzan en una foto? Listo, traducción inmediata, y así.

Internamente para el procesador eligieron una configuración distinta de núcleos, el uso de X1 para alta demanda, los A76 para lo normal pero todavía fuerte y los A55 para tareas más mundanas es una config no tan usual considerando que se suelen instalar dos grupos de núcleos solamente.

Pero más allá de eso no es precisamente innovador, no hay nada especial allí salvo el proceso de 5nm que le permite a Google usar el A76 para cargas que estaban pensadas para el más nuevo A78 y aun así consumir menos energía.

Lo importante aquí es cómo ha cambiado el paradigma donde antes las empresas adquirían CPUs para ahora ser las que lo definan y manden a fabricar. Apple vs. Google van en ese camino y no me extrañaría ver a Microsoft apuntando en ese sentido ya que los tres son los principales vendedores de sistemas operativos del mundo (sí, Amazon tiene su silicio, pero nadie usa un teléfono de Amazon ni una PC de ellos y las tablet Fire no cuentan :P).

Artículo anteriorExplicando el M1 Pro y el M1 Max de Apple
Artículo siguienteHynix ya tiene los primeros chips de memoria HBM3 de 24GB
TG Founder, editor principal y redactor incansable, tecnófilo y space lover, blogger y vlogger, no ingeniero, sólo autodidacta

Dejá una respuesta