Amazon Fire TV

Publicado por Fabio Baccaglioni el 02/04/2014 a las 13:19 (2632)
Adáptate o morirás y Amazon dijo "bueno". El Fire TV no es un soft, no estan lanzando un servicio, estan lanzando toda una consola con Android por USD 99.



Pequeñita, con un Quad Core (Krait 300, a 1.7GHz de Qualcomm), audio 7.1, GPU Adreno 320 y 2GB de RAM, la Amazon Fire TV tratará de entrar a un mercado algo... difícil, más considerando que no hay un estandar definido, desde WD TV, Apple TV, Roku, Smart TVs por todos lados, Chromecast y quien sabe qué más en la larga lista, robar una porción fuerte de este mercado es difícil.

Con una interfaz gráfica bien cargada de imagenes del contenido, la Fire TV ofrece la tienda de videos de Amazon, según las primeras impresiones con una velocidad de carga muy rápida para los videos, basada en HTML ¡casi como Popcorn Time! Risa y con un ecosistema abierto a más apps.

Inicialmente con acceso a la tienda propia, Prime, y a Hulu sumando Netflix, Plex, Pandora, Vevo y NBA Gametime entre otros. Según aparenta por la demo hasta podrá obtener contenidos de otras redes sin mayores problemas, como de Amazon Cloud Drive.

Tiene control remoto, control por voz, ya que en el control remoto hay un micrófono, X-Ray que sirve para conectar un segundo dispositivo como segunda pantalla para data extra de lo que estas viendo, etc.

También suman juegos, con 2K, Double Fine y Ubisoft como primeros partners hasta Minecraft! con un controlador que se vende como accesorio aparte, es como una cruza entre controlador de consola y botones de Android.



Desde mi punto de vista es una jugada importante por la fuerza de ventas y distribución que es Amazon a nivel global, esto, y un buen precio, pueden apalancar la plataforma aun habiendo llegado relativamente tarde, pero es justamente el desorden y la falta de un claro contendiente lo que también le da chances a cualquier nuevo jugador.

La gente no se adaptó a los SmartTV porque son caros y su poder es tan pero tan limitado que dan vergüenza, aun cuando los nuevos modelos de Samsung tienen hasta un Exynos Quad Core adentro (ya no son débiles SmartTV), el daño está hecho y la falta de un soft que permita llegar a todos los televisores (imaginen compilar tu juego para cada distinto SmartTV y esperar que te aprueben tu app meses) ha hecho de ese negocio algo poco interesante para developers.

Habrá que ver cómo evoluciona el Fire TV y si abren algún SDK para developers o tan sólo programando para Android es suficiente.

Ya lo pueden comprar acá

Intel actualiza la MinnowBoard Max con un Atom E3800

Publicado por Fabio Baccaglioni el 01/04/2014 a las 11:41 (2595)
Para aquellos fans de Arduino que esperan más potencia Intel hace un tiempo que está experimentando con dipositivos similares para darle un uso a sus Atom de bajo consumo en formato SoC con soporte para Android 4.4 y Linux.



La MinnowBoard arranca su precio en USD 100, bastante económica y si miramos las specs en detalle es más potente que muchas computadoras que todavía sobreviven en el mercado La primera versión del año pasado costaba unos USD 200 construída por CircuitCo con respaldo de Intel. Pero este modelo nuevo tira el precio a la mitad y achica el tamaño notablemente a unos 99x74mm.

Hay varios modelos, como es de esperar, todos basados en la misma familia de E3800, el más económico, con un single core a 1.46GHz (E3815) con un TDP de 5W y 1GB de RAM, luego el Dual Core a 1.33GHz (E3825) con un TDP de 6W y 2GB de RAM, modelos de 1.46GHz (7W), 1.75GHz (8W), y el E3845 con cuatro núcleos a 1.91GHz y un TDP máximo de 10W y 4GB de RAM.

Todos son de 64-bits con un proceso de fabricación de 22nm, Intel HD4000 como GPU, memorias DDR3 y obviamente son x86 por lo que la instalación de software no requiere recompilar nada, son PCs hechas y derechas.



Lo interesante para hobbystas es obviamente la interfaz para Arduino con una interfaz de baja velocidad de 26 pines y otra expansión de alta velocidad de 60 pines para PCIe, SATA, USB y otros, el video HDMI, Gigabit Ethernet, microSD, 8MB de Flash SPI para UEFI, puerto SATA de 3Gbps, USB 3.0 y 2.0,

Comparada con la Raspberry Pi a este precio sin ninguna duda vale más la pena este tipo de boards varias veces más potentes, de hecho, como decía antes, muchas computadoras activas en el mercado son menos potentes que estas pequeñitas placas que en total no consumen más de 20 Watts y apenas requieren cooling fijo.

Más detalles en la web oficial o aquí

Apple Cyclone, el core del A7 mucho más complejo que un Krait

Publicado por Fabio Baccaglioni el 31/03/2014 a las 17:45 (2706)
Apple liberó parte del código de LLVM y esto permitió conocer en detalle varias características del procesador A7 de 64 bits que actualmente potencia al iPhone 5S.

Lo interesante es comparar con la tecnología utilizada en el A6, una de las críticas hacia el A7 el día de su lanzamiento fue que no aumentaba la cantidad de núcleos y sólo ofrecía 64 bits como diferencial, pero por dentrgo los cambios eran más notables y si bien en performance no es muy grande la diferencia, sí lo es en arquitectura.

El A7 con los núcleos Cyclone es más parecido a un Haswell de Intel que a un Krait de Qualcomm y eso es más que relevante. El tema de los 64 bits es anecdótico y con utilidad a futuro, estos cambios también pero se notará su diferencia en las generaciones inmediatamente posteriores. La razón es que un núcleo más complejo no puede utilizar un clock tan acelerado... hasta que se cambia el proceso de fabricación. Y eso es lo que se le viene a Apple para su siguiente generación al pasar al proceso de 20nm de TSMC.



En detalle un Cyclone puede procesar hasta seis hilos simultáneamente en un diseño out-of-order, el doble que los otros diseños, el buffer de reorden pasó de 45 micro-ops a 192 micro-ops necesario para poder manejarlo así, esto agrega dos ciclos más, 16 en vez de 14, pero duplicaron las unidades ALU de enteros, además de extender hasta una tercer caché con la L3.

La diferencia no se nota en los clocks actuales pero la realidad es que fácilmente un A7 con un clock más fuerte podría desplazar sin problemas a un Octa Core aun con menos núcleos, el tema es que en el proceso actual no se puede sin quemara la batería. Lo ideal será en el ciclo A8-A9 al pasar a los ya mencionados 20nm.

Apple Custom CPU Core Comparison
  Apple A6 Apple A7
CPU Codename Swift Cyclone
ARM ISA ARMv7-A (32-bit) ARMv8-A (32/64-bit)
Issue Width 3 micro-ops 6 micro-ops
Reorder Buffer Size 45 micro-ops 192 micro-ops
Branch Mispredict Penalty 14 cycles 16 cycles (14 - 19)
Integer ALUs 2 4
Load/Store Units 1 2
Load Latency 3 cycles 4 cycles
Branch Units 1 2
Indirect Branch Units 0 1
FP/NEON ALUs ? 3
L1 Cache 32KB I$ + 32KB D$ 64KB I$ + 64KB D$
L2 Cache 1MB 1MB
L3 Cache - 4MB


Por ejemplo otra limitación era lanzarlo con memorias RAM de apenas 1GB, es un procesador que podría manejar tranquilamente 16GB si quieren, pero Apple fue extremadamente conservadora en su primer versión. Si proyectamos este diseño a futuro es plausible la idea de una total independencia de la empresa de los proveedores de microprocesadores para la mayoría de sus líneas.

Es decir, no sería de extrañar ver una Apple con procesador propio y no me refiero ni a los iPhone ni iPads sino las Macbook, algo que se ve a lo lejos pero que necesita sí o sí de una performance similar a la de un Haswell para tener sentido. Al menos en la arquitectura general se parecen.

Intel, el principal "complicado" ante estas maniobras de Apple ya ha hecho algo parecido, pasar en un sólo ciclo a tres versiones con los Saltwell/Silvermont/Airmont en el rango de apenas dos años y sigue sin poder proveer a sus clientes móviles en la cantidad que lo hace Qualcomm. Apple optó por sus propios diseños, una medida nada extraña para alguien con semejante billetera, pero ¿Podrá Intel convencerla de volver? muy difícil, ahora Apple tiene el control real.

Por otra parte el cambio de proceso a 20nm cambiará notablemente las velocidades conservadoras del A7 (entre 1.3 y 1.5GHz) y lo hará más competitivo con los Exynos y Tegras, pero con estas modificaciones de arquitectura probablemente no necesite superar los 2GHz para lograr una mayor eficiencia por ciclo, y esa será una de las mayores ventajas en el largo plazo.

Via Extremetech

Olympus y dos nuevos modelos, el clásico, el todo terreno

Publicado por Fabio Baccaglioni el 31/03/2014 a las 11:29 (2777)


Olympus Stylus SH-1



Con un estabilizador de cinco ejes la SH-1 es la point-and-shoot clásica de la nueva camada de Olympus, marca con sus altibajos tratando de sobrevivir en un mercado cada vez más complicado.

No es el primer modelo con este tilo de estabilización, el anterior, la OM-D E-M5 era cámara de USD 1000, pero esta en cambio se encuentra en los USD 400, con sensor de 16MP, lente f/3-6.9 de 25-600mm (Zoom 24x).

El sensor CMOS de 16MP es BSI y cuenta con un procesador TruePic III similar al de la línea OM-D. El visor es una pantalla de 3", captura video a 1080p en 60fps y el disparo de ráfaga permite hasta 11 fotos por segundo. Cuenta con WiFi integrado y estará disponible desde Mayo.

Olympus TG-3



Y para aquellos fotógrafos que prefieren llevarla en un viaje agitado, la TG-3 con cuerpo resistente permite golpes de hasta 100Kg, sumergirla 20 metros, congelarla a -10°C y todo tipo de maltratos.

Aun siendo una "Rugged" no es limitada en capacidades como otras, sensor CMOS de 16MP, lente f/2-4.9 con 25-100mm, pantalla de 3", video a 1080p, GPS, WiFi. El precio es más que razonable a USD 350 desde Junio.



Interesante el modo super macro "microscope" para sacar fotos a 10mm de distancia.

Via Engadget 1 y 2

Sony lanza el eReader perfecto, salvo por el precio

Publicado por Fabio Baccaglioni el 28/03/2014 a las 13:05 (4307)


Formato A4 - Check
13.3" - Check
1600x1200 - Check
16 niveles de grises - Check

Va perfecto el proyecto de Sony de Digital Paper, es ideal para tipos como yo que todavía amamos el papel y poder dibujar en uno, pero el problema mayor es el precio, tantos lujos en blanco y negro deberán pagarse la friolera de 1100 dólares, una barbaridad.

El equipo permite mostrar PDFs y eBooks y lo que sea en full screen sin necesidad de zoom y con una resolución más que decente a 1600x1200, sin backlight pero que permite visualizar en toda iluminación, con 16 niveles de grises, controles touch, y stylus para input.



Se conecta por WiFi, tiene 4GB de almacenamiento y tarjeta SD además de carga por AC o USB. Pero insisto, esos 1100 USD harán imposible que el E Ink despegue, ¿hasta el Kindle llegamos? Sony, media pila, si logran hacer esto mucho más barato tendría más de un cliente potencial, así es casi nulo.

Via Engadget y Sony

Microsoft lanza Office para Android y iOS completamente gratis

Publicado por Fabio Baccaglioni el 28/03/2014 a las 00:44 (3249)


En una jugada clara por romper el "maleficio" de no tener un escenario móvil favorable Microsoft anuncia que el Office para dispositivos Android y el iPhone (no el iPad, vale aclarar), será totalmente gratuito para usuarios hogareños.

Esto implica que para abrir y editar documentos ya no hará falta una cuenta de Office 365, básicamente lo que todos los demás ofrecían empezando por Google Docs. Para aquellos que consideran imprescindible el formato de Word o Excel tienen resuelto un problema clásico en móviles y aquellos que creaban software para cubrir ese nicho la pasarán muy mal desde ahora.

Pero he aquí el truco, obviamente para poder utilizar la nueva versión para iPad sí habrá que hacerse de una suscripción de Office 365 que cuesta unos USD 99 anuales, dinero que justifica notablemente seguir usando cualquier otra opción. Es que 99 al año es una pequeña estafa por algo que por mucho menos dinero se puede hacer. ¿Una cuota por un software? es el sueño húmedo de las empresas pero existiendo opciones de "pague una sola vez y use para siempre" no le recomendaría jamás a nadie hacerlo.

Desde ya que tampoco se puede forzar el uso "hogareño" de una app que se consigue gratis en la tienda de tu móvil, pero Microsoft sabe hacer estas jugadas, mientras jamás nadie opte por una alternativa van a estar contentos, poder editar documentos de Office, que no son estándar y no respetan mucho la "apertura" de uno, es lo ideal para seguir manteniendo vivo al software que más ingresos les ha dado, el Office de escritorio.

Ahora hay que ver qué pueden ofrecer los rivales, personalmente utilizo herramientas que adopten el formato Open Document, ya hace rato que abandoné el Office de Microsoft aunque no plenamente, pero este tipo de lanzamientos gratuitos abre nuevamente la puerta para muchos.

Via Techcrunch

AMD anuncia la FirePro W9100

Publicado por Fabio Baccaglioni el 27/03/2014 a las 15:14 (2147)
Y mientras NVidia hace sus anuncios AMD no podía quedarse atrás, hoy la FirePro W9100 es la mayor placa de la marca para cómputo. Recuerden que la línea FirePro está pensada exclusivamente para Workstations y Servidores, no es para uso hogareño.



La FirePro W9100 es una actualización, la W9000 ofrece 2048 stream processors cuando la nueva 2816, lo mismo con las unidades de texturas de 128 a 176, pero hay una característica en la que se va de norma, de los 6GB soportados por la anterior la nueva utiliza 16GB de memoria GDDR5. Una bestialidad (en costos también, claro)

Esto es parte de la arquitectura GCN 1.1, mucha memoria para alimentar el GPU. Según AMD la nueva FirePro alcanza unos 5 GFLOPS en FP32 y más de 2 GFLOPS para FP64, esto sin anunciar los clocks para lograrlo, pero está claro que la relación entre FP32 y FP64 es mucho mejor en este GPU "Hawaii" que en el que se vende al consumidor, la relación pasa de 1/8 a 1/2 y es bastante diferencia, superando la relación 1/3 de NVidia GK110, obviamente, habrá que ver benchmarks reales.



La W9100 no se vende desde hoy, todavía está la W9000 en mercado y esa cuesta unos USD 4000 que seguramente bajarán y dejarán el lugar a la 9100, y considerando que las X290 se vendieron mejor entre mineros de Bitcoin no me extrañaría que alguno quiera hacerse de esta, pero una cosa es pagar USD400 por una placa y otra agregarle un cero. El mercado de esta placa es muy limitado

Detalle interesante, tiene seis salidas para video en 4K, así es, seis en simultáneo, algo que ninguna otra placa ofrece actualmente, los 16GB de VRAM tienen sentido. El equipo recomendado por AMD para este ya lo está especificando con nombre y todo, la "Ultra Workstation" necesaria con un mínimo de 32GB de RAM y procesador de 8 núcleos para que tenga sentido el uso de la W9100, usuarios de Autocad contentos.

Via Anandtech

Los planes a futuro de NVidia

Publicado por Fabio Baccaglioni el 26/03/2014 a las 14:56 (2729)
Hoy NVidia presentó en su keynote del GTC varios productos, entre ellos la bestial GTX Titan Z de 5760 cores CUDA, 12GB de VRAM con dos GPU y unos 3000USD por placa. Pero más allá de esta placa de 8 TeraFLOPS lo interesante es ver el proyecto que tienen a futuro, para 2016.

Esto es algo que ya AMD había planteado pero no había tenido suficiente recepción por parte del mercado como para continuar, en aquellos momentos con la plataforma Torrenza y el HyperTransport para conectar CPU y GPU de forma directa sin intermediar con el PCIe directamente.



Intel tiene su QPI Interconnect pero NVidia el NVLink, es verdad, si bien todas estas tecnologías se parecen son propietarias, no son como el PCIe, pero al mismo tiempo la madurez del mercado ha empezado a dejar de lado estas limitaciones que requerían los estándares y las tres empresas vuelven a sus mañas de tecnologías propietarias cuando el mercado decae, es una de las pocas formas que encuentran para abrirse camino en un mercado que está achicándose.

La nueva arquitectura de NVidia se llama Pascal y está planeada para 2016, la idea es que el CPU y el GPU tengan una latencia mucho menor conectándose directamente por el NVLink y en ese enlace se puedan conectar múltiples GPUs, en el caso de esta implementación NVidia no mata directamente al PCIe, en cambio lo utiliza junto con el NVLink manteniendo la compatibilidad.



El NVLink necesita un conector intermedio bastante complejo, el mezzanine, así que dependerá del diseño y desarrollo de los nuevos motherboards para la plataforma, lo cierto es que el objetivo de esta tecnología son las workstations o los servidores. En la presentación de hoy demostraron como usando GPUs la Universidad de Stanford logró un servidor de 18.432 cores y un consumo de 4kWatts a tan sólo 30.000USD contra un servidor estándar de Google con 16.000 cores, 600kWatts y 5 millones de costo.

Es allí donde apuntan, a abaratar costos y quedarse con el mercado de alto cómputo, pero Pascal no es un trabajo de CPU-GPU solamente, una de las características que necesitan mejorar es el uso de las memorias, para 2016 esperan poder implementar memorias 3D aumentando la densidad exponencialmente y la velocidad de acceso. No habrá un esquema de memorias separadas, se mantiene el de los GPU con sus propias memorias, pero no se ha anunciado todavía ni anchos de banda ni tipos de memoria porque esto depende de los costos que esten dispuestos a asumir los clientes.



Para entender el cambio de PCIe a NVLink, el primero ofrece apenas 16GB/seg en cada GPU porque divide los canales por cada placa conectada, si se utiliza un sólo GPU, en cambio, 250GB/s. Esto es inadecuado, todas deberían poder sostener una demanda alta. NVLink utiliza una señalización diferenciada, cada bloque contiene 8 líneas y cada una a unos 20GB/s, los enlaces pueden comunicarse entre sí entre GPUs por lo tanto aumentar el tráfico a un GPU u otro en base a la demanda.

En términos de transacciones estamos en un orden de los 20gigatransfers por segundo contra 8 máximos del PCIe 3.0, pero para conseguir esto NVidia debe acoplar los GPUs con el CPU y esto todavía no está claro cómo lo harán. Recordemos que de los tres grandes es la única empresa que no tiene procesadores x86 propios, tanto Intel como AMD podrían dar con las solución más rápido, pero NVidia tiene que reportarle a Intel o usar algo propio ¿Y eso que sería? ¿ARM? es poco probable pero... quien sabe... el CPU casi no cumple funciones en cómputo de punto flotante, hace de administrador, así que es posible.

El nuevo conector permite integrar el cooling del CPU con el del GPU, algo ideal para soluciones de servidores.

2016 queda "lejos" y entre el anuncio anterior y este "desapareció" Volta, la tecnología que habían anunciado para estos años con Pascal como reemplazo, no sabemos para donde irá NVidia pero evidentemente necesitan un golpe de efecto en una época donde los GPUs pasaron de moda en el hogar y se necesitan en el servidor.

Más detalles en Anandtech

Facebook compra Oculus Rift por 2000 millones

Publicado por Fabio Baccaglioni el 25/03/2014 a las 20:33 (3224)
Facebook compra Oculus Rift. Okey Mark, por dos milloncitos Tecnogeek es tuyo eh!



Algo sabe Mark Zuckerberg y por eso compra todo lo que puede, y eso que sabe, no tengo dudas, tiene que ver con el escenario futuro que tiene por delante Facebook. Es uno de declive y decadencia si es que no hace algo pronto y, al parecer, Zuckerberg es demasiado nerd como para dormirse en los laureles y no ha dejado de mirar los números ni un instante. Sabe que tiene que hacer algo.

Instagram, Whatsapp, y Oculus Rift ¿no nos dicen nada? por supuesto que nos dicen y mucho, Facebook con el nombre de Facebook ya no genera confianza, pero Google sigue haciéndolo, esta diferencia es alarmante, donde uno da la impresión de "anticuado" el otro sigue manteniéndose como "moderno", algo que nadie en Facebook admitiría salvo Zuckerberg, el dueño de la billetera.

El futuro de Facebook pasa por fuera de su propia plataforma y conectándola con todo lo posible, es la impresión que me dan sus compras, en vez de parecerme un salto suicida me parece todo lo opuesto, que han pensado cada una de estas maniobras de una forma genial porque su rival mayor, Google, venía comprando todo lo interesante.

Lo único triste es que la innovación siempre tenga que ser comprada y caer en manos de unos pocos, pero Facebook puede, todavía, darle un balance a este casi-super-monopolio googleano, no como buscador, pero sí concentrando varios de los nichos donde Google ha fracasado. Para mi lo de Oculus Rift fue darle a entender a Google que la realidad virtual no pasa solamente por unos anteojitos, pasa por el living de los gamers.

El que entendió esto es Sony, por algo su propio proyecto de VR apunta a la Playstation, el mundo está demasiado verde para usar unos anteojitos con Realidad Aumentada pero el gamer ya no es un bicho raro, es popular en su propia casa, es el momento de la Realidad Virtual. Para AR Google llevará la delantera, es verdad, pero nada nos indica que la sociedad esté muy predispuesta a un tipo que nos vea desde pantallas en sus ojos, es actualmente un ser antisocial y lo seguirá siendo.

Oculus Rift es uno de los mejores proyectos independientes que surgieron y atrajeron a muchos grandes developers, hasta el gran John Carmack está ahí, 2.000 millones de un pequeño kickstarter que todavía no tiene un producto masivo en la calle y apenas 75.000 pedidos para su development kit. En Julio se esperaba el lanzamiento del headset a unos 350 dólares.

A ver si se entiende, compró una empresa con un producto que todavía no se sabe si funcionará en el mercado pero con una visión bien amplia del uso que pretende darle, para empezar, dejarla funcionar independientemente para que el Oculus VR crezca en el mercado.

La compra implicó 400 millones en cash y unas 23.1 millones de acciones comunes a 69.35usd llegando a los 1600 millones restantes. Dependerá de cómo funcione el Oculus VR en el mercado para ver si valió la pena o fue un gasto, tengo la idea de que será un éxito porque hay mucha expectativa desde los gamers, mucho más que en cualquier otra época, el producto lo amerita, la cuestión psicológica ha sido superada.

Microsoft libera el código fuente de MS-DOS 1.1, Word para Windows 1.1, para el museo

Publicado por Fabio Baccaglioni el 25/03/2014 a las 16:47 (3371)


Para nostálgicos ahora podrán ver el código fuente de varias reliquias de Microsoft, primero que nada el MS-DOS 1.1 de 1982, la primera versión luego de adquirírselo a Tim Paterson en 1980 por unos pocos dólares y vendérselo a IBM por unos 25.000 con una licencia extremadamente ventajosa para Microsoft.

Es que IBM no creía que existirían clones, en cambio Bill Gates tenía bien claro que había que gobernar el sistema operativo más que el hardware y acertó. Al poco tiempo miles de clones fabricaban sus propias PCs y Microsoft se había guardado el derecho de que el MS-DOS pudiese ser instalado en todos esos equipos, IBM, que jamás creyó eso posible, no se aseguró la exclusividad.

En 1983 lograron lanzar la primera versión de MS Word, en apenas cuatro años significó el 50% de los ingresos de la compañía, en 1989 lanzaron Word para Windows 1.1, del cual hoy se puede acceder también al código.

Para tener una idea del tamaño del código, con apenas 300kb de código fuente en total y ocupando unos 12Kb de RAM el MS-DOS era realmente pequeño para los estándares actuales, bueno, tampoco hacía demasiado, era extremadamente básico.

Lamentablemente si estan muy apurados van a tener que esperar un poco porque los servidores de Computer History estan saturados de tanta gente queriendo bajarse un código fuente de más de 30 años de antigüedad que no sirve para nada pero que ¡oiga! es parte de nuestra historia.

Aquí el código del MS-DOS, aquí el del MS Word 1.1a

3710 Noticias (371 páginas, 10 por página)



Powered by
Cake Division