Innovación no innovadora. De dónde surgen las raíces de la tecnología Apple

Innovación no innovadora. De dónde surgen las raíces de la tecnología Apple
Estimado de lectura : 15 minutes

Contenido del artículo

  • Turno de noche: cómo hacerlo bien
  • True Tone: sensor de luz ambiental y software inteligente
  • Deep Fusion: ¡ponte al día y supera al Pixel!
  • Antecedentes históricos
  • Modo nocturno Modo nocturno: OK, pero ¿por qué solo para el iPhone 11?
  • Desbloqueo facial: Face ID vs. Competidores
  • No solo la cara
  • eSIM: tarjetas SIM electrónicas en lugar de físicas
  • La segunda y tercera cámara
  • Conclusión

Todos los años, en septiembre, Apple lanza una línea actualizada de iPhone, y un poco antes en el verano anunciado una actualización del sistema operativo iOS. Ni un solo anuncio está completo sin soluciones y tecnologías innovadoras y … no completamente innovadoras. La cámara triple, el modo HDR inteligente, el “modo nocturno” Night Shift, True Tone, Liquid Retina Display y mucho más se encuentra desde el escenario con fanfarrias. ¿Cuántos de estas tecnologías fueron realmente las primeras en el mercado? Tratemos de entender el ejemplo de los anuncios de la compañía en los últimos años.

Turno de noche: cómo hacerlo bien

Hoy, el modo de pantalla nocturna, en las últimas horas, desviando gradualmente la temperatura del color a tonos “cálidos”, se ha vuelto familiar. Alguien usa este modo, alguien que reproduce la reproducción del color natural, pero una cosa es importante: este modo está ahí, y está en casi todos los teléfonos inteligentes de casi todos los fabricantes.

Para los usuarios de productos Apple, este modo apareció por primera vez en 2016 con el lanzamiento de 9.3.

No, no asi. Oficialmente  para usuarios de productos Apple, este modo apareció por primera vez en marzo de 2016 con el lanzamiento de 9.3. Extraoficialmente, había una aplicación F. Lux mucho antes de eso. ¿Qué tan “largo”? En iOS, de lujo apareció en 2011, y necesitó un jailbreak para funcionar. La versión  sin jailbreak  fue lanzada en 2015; los usuarios pueden instalarlo pueden instalar en sus dispositivos. Sin embargo, en noviembre de 2015, el departamento legal de Apple obligó a los desarrolladores  a eliminar la  aplicación del acceso público, refiriéndose a las cláusulas del acuerdo que prohíbe a los desarrolladores usar API privadas. Y en marzo del próximo año, la función apareció oficialmente en iOS 9.3. ¿Innovación? Es dudoso

¿Qué pasa con otras plataformas? El modo Night Light ha aparecido en algunos dispositivos Android (de ninguna manera) en Android 7.1.1; la configuración de modo adicional estuvo disponible en Android 8. Night Light requirió oficialmente soporte para  Hardware Composer HAL 2.0  (respectivamente, solo procesadores de 64 bits, como es el caso de Apple). En las versiones beta de Android, este modo también o desapareció incluso en los dispositivos de Google. Los dispositivos de 64 bits como el Nexus 9 y Google Pixel C no recibieron el modo Night Light, un peso del hecho de que cumplieron con los requisitos.

Con el soporte Night Light, los teléfonos inteligentes y tabletas de terceros también han sido un desastre completo durante mucho tiempo. Night Light recibió algunos teléfonos inteligentes que venían con Android 6 o 7 a bordo, y algunos no. Pero los dispositivos lanzados inmediatamente con Android 8 en 2017 y más tarde, casi todos (con raras específicas) tuvieron esta oportunidad. Además, muchos fabricantes han agregado esta función a sus propios shells específicos de la versión de Android.

La tienda google play tiene muchas aplicaciones que implementan una apariencia de modo nocturno. Los usuarios de dispositivos rooteados están disponibles en f.Lux y CF.lumen. El resto puede usar uno de los muchos filtros de pantalla con todas sus restricciones en forma de colores “desvaídos”, un negro blanquecino y sin oscurecido por el filtro de la barra de estado.

Por cierto, el modo nocturno ahora está disponible en computadoras con Windows 10. A diferencia de Apple, Microsoft no bloquea la aplicación f.Lux; se puede instalar tanto desde el sitio web de los desarrolladores como desde la tienda de Microsoft.

Conclusión: Apple no fue el primero en crear el modo nocturno de la pantalla, y ni siquiera fue el primero en implementar dicho modo en iOS. Sin embargo, debido al hecho de que iOS 9.3 estuvo disponible de inmediato para todos los dispositivos móviles de la compañía, incluido el antiguo iPhone 5s (lanzado con iOS 7 a bordo), escribiremos esta oportunidad en las implementaciones correctas.

True Tone: sensor de luz ambiental y software inteligente

La función True Tone se ha convertido en una especie de desarrollo del modo nocturno. A diferencia del modo nocturno, que simplemente lleva las sombras al lado “cálido” con el inicio de la noche (la parte más “avanzada” es encontrar la ubicación del dispositivo y determinar el momento exacto de la puesta del sol), la tecnología El tono requiere un sensor de hardware para determinar la temperatura del color y el ajuste de la imagen para que se ajuste.

Por primera vez, la tecnología no apareció en el iPhone, sino en la tableta iPad Pro 9.7, que se puede seleccionar en marzo de 2016. Hoy True Tone funciona en todos los dispositivos Apple equipa con el sensor apropiado. La lista incluye todos los iPhones, comenzando con el iPhone 8, todas las versiones del iPad Pro, excepto el primer modelo de 2015, así como el nuevo iPad mini 5 y iPad Air (2019).

Al igual que con el modo nocturno, la tecnología True Tone tiene sus amantes y escépticos. Soy ambivalente sobre la tecnología. Por un lado, en el iPad Pro se implementa lo suficientemente suave como para no molestar. Pero en los iPhones equipados con matrices OLED, la inclusión de True Tone lleva instantáneamente la pantalla a la amarillez: probada en el iPhone X y Xs Max.

¿Qué pasa con los competidores? Algo similar sucedió en los días del Samsung Galaxy S8 (Pantalla Adaptativa, 2017). Sin embargo, según las opiniones de los usuarios, la tecnología se dejó genial solo en papel. En la vida real, solo una fuente de luz externa excepcionalmente altamente coloreada podría afectar la imagen, y el efecto en sí solo se manifiesta en algunas aplicaciones específicas (por ejemplo, en el navegador Chrome).

De hecho, el primero en implementar realmente la tecnología fue Amazon con su tableta Amazon Fire HDX 8.9 (2014). La tecnología se llamaba Dynamic Light Control; Puedes ver la demo  aquí . Es cierto, se ve genial? Aquí todo es igual que Apple posteriormente, solo dos años antes: tanto un sensor de temperatura ambiental de hardware como el controlador de pantalla correcto que utiliza registros de hardware para cambiar la configuración de la pantalla …

Apenas pude encontrar la descripción de la tecnología, aunque yo (hasta ahora) soy el propietario de la tableta Amazon Fire HDX, y las imágenes con una demostración de su trabajo son múltiples raras y se encontraron en un solo recurso. ¿Por qué todos se olvidaron de la tableta Amazon juntos, y los desarrolladores de Apple True Tone se han convertido en innovadores y pioneros? Quizás porque la tableta Amazon no ha ganado equivale a como el iPad Pro 9.7. Quizás el hecho es que el departamento de marketing de Amazon no promocionó esta característica, no específicamente sus ventajas a los usuarios. O que el modelo 2014 fue el primero y único en el que Amazon utilizó la tecnología Dynamic Light Control. O tal vez la razón es que la tecnología funcionó perfectamente en exactamente dos aplicaciones:

Tiendo a pensar en Dynamic Light Control como una extraña coincidencia que le sucedió a Amazon debido a la supervisión de alguien. Parece que Amazon ha despedido al equipo de desarrollo que implementa este modo (y creo que adivino qué compañía los contrató más tarde). Este punto de vista se confirma indirectamente por el hecho de que otra compañía estaba trabajando claramente en la implementación de la nueva versión del modo nocturno en tabletas Amazon (Blue Shade). Una implementación tan ridícula y fea del régimen nocturno que no he visto en ninguna compañía, ni antes ni después. Admira el modo nocturno Blue Shade en todo su esplendor.

Lo más interesante es que ambos modos pueden funcionar simultáneamente en Amazon Fire HDX 8.9 (2014) – Dynamic Light Control (imagen perfecta, ajuste suave, pero solo funciona en dos aplicaciones) y Blue Shade (la imagen es peor que el horror más terrible, funciona en todas partes). La diferencia es obvia.

Un modo similar al True Tone está disponible en algunos teléfonos inteligentes LG (modelos G7, G8, G8s Thinq), pero ¿quién sabe? Hecho y hecho. Pero se usa una tecnología más o menos masiva similar en las pantallas inteligentes Google Nest Hub y el teléfono inteligente Pixel 4. La tecnología se llamaba  Ecualizador ambiental . Funciona absolutamente maravilloso: la aparición de dispositivos con Ecualizador ambiental en el interior del hogar gana significativo

Conclusión: existe un diálogo Tono verdadero mucho antes de Apple, pero nadie lo pierde en serio. Apple recibe un pastel del estante para una implementación competente y un enfoque consistente. El segundo lugar es para Google por la excelente implementación de Ambient EQ en altavoces inteligentes con pantalla. Amazon no obtiene nada: la tecnología original en 2014 ha sido firmemente olvidada, incluso por el mismo pionero.

Deep Fusion: ¡ponte al día y supera al Pixel!

Durante mucho tiempo, las cámaras siguieron siendo el punto débil del iPhone. Para 2017, casi todos los competidores en Android lograron superar al iPhone en calidad fotográfica. Incluso en el momento del lanzamiento, las capacidades fotográficas del iPhone X parecían francamente pálidas en comparación con Google Pixel con su modo HDR +.

Un diálogo del modo HDR + seleccionado en los teléfonos inteligentes de Apple solo con el lanzamiento de la línea de teléfonos inteligentes 2018. Llamado  Smart HDR, el  nuevo modo solo está disponible en la última generación de Xorgraivosuna no xpograivosuna: procesamiento de fotos en el iPhone X, un peso del poderoso relleno que es muchas veces mayor que las necesidades de la fotografía computacional.

En los modelos 2018, la tecnología funciona solo en modo ZSL (Zero Shutter Lag), no tiene HDR + analógico mejorado y funciona solo con cuadros completos, y no con cuadros individuales, como lo hace Google.

En el nuevo iPhone 11 de la gama de modelos 2019, se anunciaron mejoras radicales. La tecnología recibió el nombre comercial de Deep Fusion. Desde el punto de vista del usuario, la tecnología es similar al modo HDR + sin ZSL (o modo nocturno de píxeles). El nuevo iPhone introdujo el reconocimiento de objetos y el procesamiento de píxeles en lugar de cuadro por cuadro; disparar, pegar y variadamente cuadros tarda aproximadamente un segundo. Y nuevamente, los modelos del año pasado se quedarán sin trabajo: pesar de la redundancia de los recursos informáticos (según Apple, el procesador A12 en el iPhone Xs supera el Snapdragon 855, que hace frente al procesador HDR + más que bien) anterior del iPhone sigue en la misma generación de Smart HDR. Es decir, al nivel de “más o menos decente durante el año pasado”.

¿Qué pasa con los competidores?

Por primera vez, Google anunció el volumen de la fotografía informática en 2016, dos años antes del iPhone Xs y el modo Smart HDR de Apple. Y si el modo Smart HDR es una especie de “caja negra”, cuyo trabajo solo conoce los materiales de marketing de Apple y las revisiones de terceros, entonces sabemos todo  sobre las técnicas matemáticas sobre Google HDR +.

Prácticamente todos los fabricantes emblemáticos de Android (excepto, probablemente, Sony) usan fotos informáticas de una forma u otra en sus dispositivos. Y si no lo usa, es muy posible instalar el APK modificado de Google Camera y obtener todas o casi todas las funciones de Pixel.

Para iPhone, también hay disponibles aplicaciones de terceros que prometen todos los beneficios de la fotografía informática. Setrata de Specter and Halide del mismo procesador (por cierto, se publican excelentes artículos en su blog, por ejemplo, un  análisis del modo Smart HDR ). El único problema es que funciona en comparación con la aplicación “nativa” repugnantemente, afirmar como usuario que compró las tres aplicaciones.

Antecedentes históricos

Curiosamente, el apilamiento de imágenes, que es la base de HDR + y Deep Fusion, no se utilizó por primera vez en dispositivos móviles. ¿Recuerdas los teléfonos inteligentes Lumia 950 y 950 XL lanzados en 2015? Fueron desarrollados por Microsoft, y en su interior tenían una versión móvil de Windows 10. En el modo HDR, estos teléfonos inteligentes hicieron algo muy similar a lo que luego apareció en Google e incluso más tarde en Apple, y el modo PureView era un análogo bastante decente del modo nocturno. Las fotos eran de excelente calidad; Además, la resolución de las fotografías de los teléfonos inteligentes de Microsoft no era de 12 MP, como los buques insignia modernos, sino las 20, ni los detalles ni el nivel de ruido. Por desgracia, pegar HDR no fue instantáneo en los teléfonos inteligentes Lumia: después de cada disparo, el teléfono inteligente pensó por unos segundos. Con el cese del desarrollo de su propio sistema operativo móvil, Microsoft ha abandonado el desarrollo de la aplicación de la cámara. Muy mal; en hardware moderno, combinado con una óptica de alta calidad y un sensor, podría resultar un fuerte competidor de Google, pero solo desde el punto de vista de la cámara.

Conclusión: el pastel del estante va a Google por su excelente implementación y mejora constante de la aplicación Google Camera. Puntos adicionales de Google por el hecho de las nuevas funciones de Google Camera están disponibles en píxeles más antiguos (en el marco de limitaciones de hardware comprensibles). Solo podemos decir sobre los productos de Apple que el poder tremendamente excesivo de los coprocesadores neuronales de los modelos de iPhone del año pasado permanecerá sin reclamar: sin agregar nuevas capacidades de fotografía a los modelos antiguos, y esto se debe a un límite de pera .

Modo nocturno Modo nocturno: OK, pero ¿por qué solo para el iPhone 11?

El undécimo iPhone tiene un modo de disparo nocturno. En este modo, se logra una velocidad de obturación lenta mediante una combinación inteligente de varias tomas tomadas con una velocidad de obturación lenta para que la imagen no se vea borrosa. Más exactamente, no se pegan cuadros completos, sino sus partes, lo que le permite controlar correctamente los objetos que se mueven en el cuadro. Este enfoque le permite reducir el nivel de ruido visible mientras mantiene la claridad general de la foto.

Por primera vez, el modo nocturno, que funciona según el principio previamente descrito, Google Camera en el otoño de 2017, casi un año antes que en el iPhone. No se mencionó específicamente el modelo del dispositivo, al anuncio del cual se programó el lanzamiento de la aplicación actualizada, porque el modo Night Sight estuvo disponible para  los teléfonos inteligentes anteriores de la línea  con la actualización de la línea con la actualización

¿Por qué me estoy centrando en esto? Porque ningún modelo anterior de Apple recibió ningún modo nocturno. La nueva aplicación de cámara está disponible exclusivamente en la nueva serie de iPhone 11. ¿Razón? Oficialmente, el modo nocturno aprovecha el nuevo y maravilloso procesador A13 Bionic. Estas son solo algunas diapositivas anteriores de la escena que muestran gráficos, que muestran la superioridad simplemente dominante del procesador Bionic A12 anterior sobre las artesanías Qualcomm que utiliza Google. Y si Google puede implementar el modo nocturno en los procesadores de las generaciones anteriores y anteriores, ¿qué impide que Apple lo adapte a los poderes del neuroprocesador que no se usan y están inactivos ahora? Nada personal, marketing en solitario: si quieres un modo nocturno, compra un nuevo iPhone.

Conclusión: el premio es para Google como pioneros y por el hecho de que el modo nocturno ha estado disponible en la línea anterior de teléfonos inteligentes. Un rayo de sorpresa y perplejidad fue enviado a Apple hacia la decisión del departamento de marketing.

Desbloqueo facial: Face ID vs. Competidores

Face ID fue lo más destacado del programa durante el anuncio del iPhone X en 2017. Un nuevo sistema de escáner que crea una imagen tridimensional de la cara del usuario, el nuevo coprocesador Bionic, utilizado para el aprendizaje automático cuando se desbloquea del tiempo), y la integración perfecta en iOS hace que el desbloqueo facial sea un reemplazo completo para el sensor de huellas dactilares.

Competidores? En Android, mucho antes de Face ID, era posible agregar desbloqueo facial en el subsistema Smart Lock. Menciono este sistema modificado para que los comentaristas no me acusen de omisión: el subsistema Smart Lock no puede afectar un diálogo de Face ID debido al nivel extremadamente bajo de seguridad. No sin razón, muchas políticas de seguridad prohíben completamente el uso de Smart Lock en teléfonos inteligentes con Android.

Pero los competidores no están dormidos. Después del lanzamiento del iPhone X, muchos fabricantes agregaron el sistema de desbloqueo por la cara como una característica estándar (en lugar de Smart Lock). En la gran mayoría de los casos, la seguridad de los cuentos soluciones estaba por debajo del nivel crítico: se creó una sola cámara, no se creó un modelo tridimensional, las imágenes bidimensionales simplemente se compararon. Un paso al costado fue el teléfono inteligente Xiaomi Mi 8 Pro, que tenía un par de cámaras e iluminación infrarroja.

Samsung trató de integrar algo similar en sus teléfonos inteligentes: el modo de reconocimiento de iris era una opción opcional al modo de desbloqueo facial. Sin embargo, en estos teléfonos inteligentes, el desbloqueo facial no se ha convertido en la principal y única biometría; no había necesidad de hablar sobre integración perfecta (autorización en aplicaciones).

En Google Pixel 4 y 4 XL, liberación dos años después del iPhone X, desbloqueo facial era la única forma de desbloquear el dispositivo con datos biométricos. El sistema se basa en los mismos principios que Face ID.

No solo la cara

Además del desbloqueo por rostro y huella digital, había otros métodos de autorización de usuarios en teléfonos inteligentes. Entonces, en los teléfonos inteligentes Lumia 950/950 XL, como la única opción biométrica, desbloqueo de acuerdo con el escaneo del iris. Formalmente: un análogo de Face ID. De hecho, el desbloqueo de acuerdo con el escaneo del iris resultó ser lento y poco confiable, no funcionó con anteojos, no hizo frente a la iluminación excesivamente brillante … Sí, el nivel de falsos positivos fue extremadamente; Sí, la seguridad estaba a la altura. Pero usarlo fue tan inconveniente que Microsoft abandonó este modelo.

¿Sabes quién es el dueño de la palma? Aún así, Microsoft y yo no nos referimos a la línea Lumia 950 y 950 XL. En 2015, Microsoft creó un sistema de autenticación cara a cara excelente, seguro, perfectamente depurado, que funciona de manera instantánea y confiable llamado  Windows Hello . Dos cámaras infrarrojas espaciadas a una distancia predeterminada (certificada), la iluminación infrarroja, en lugar de Secure Enclave, no es menos seguro, sino un módulo TPM 2.0 absolutamente estándar.

Funciona así: el usuario abre la tapa de la computadora portátil y ya está autorizado; simplemente desliza hacia arriba la cortina de la pantalla de bloqueo (o presiona el botón “Arriba”) para acceder al escritorio. Rápido y sin demora. Al mismo tiempo, la biometría se integra a la perfección en las aplicaciones: para ver las contraseñas almacenadas en el navegador Chrome, también es suficiente para estar frente a la cámara. En muchas computadoras portátiles (por ejemplo, HP Spectre x360), la solución ya está integrada, y para el escritorio puede comprar cualquier cámara (certificada por Windows Hello). Una cámara certificada, un controlador y un módulo TPM 2.0 son todo lo que necesita para configurar su inicio de sesión biométrico en Windows 10.

Parece, ¿qué tiene que ver Apple con eso? Todo el subsistema de Windows Hello es bastante masivo. Microsoft no está integrado en el teléfono, ya que funciona en tabletas y computadoras portátiles; tuve que crear un nuevo sistema con reconocimiento del iris. Fue Apple quien logró expresar la biometría confiable en un factor de forma en miniatura, y hacer que el reconocimiento sea instantáneo y casi invisible para el usuario debido al exceso de potencia del coprocesador neural.

Conclusión: a pesar de la existencia de cuentos sistemas mucho antes de Face ID, Apple fue el primero en hacerlo de manera realmente conveniente, rápida y confiable en un teléfono inteligente (las tabletas y las computadoras portátiles no cuentan, Microsoft tiene lama)

eSIM: tarjetas SIM electrónicas en lugar de físicas

Aquí podríamos hablar sobre el iPhone con doble SIM, pero el tema con las tarjetas SIM electrónicas me parece mucho más interesante. Fue con el advenimiento de la generación iPhone Xr / Xs / Xs Max en 2018 (y no con el advenimiento del Apple Watch que admite LTE) que los operadores móviles de todo el mundo operan agregar soporte eSIM en masa. Quizás ninguna otra compañía podría haber logrado tal efecto, y esta es una de esas cosas que benefician no solo a los usuarios de los productos de Apple, sino también a muchos otros.

Pocas personas saben que la compatibilidad con eSIM en un teléfono inteligente masivo no seleccionado en absoluto en el iPhone. El primer producto con soporte eSIM fue el Apple Watch 3 LTE, y el primer teléfono inteligente con soporte eSIM fue el Google Pixel 2, también lanzado en 2017. En ese momento, el soporte de eSIM en Pixel 2 solo estaba disponible en exclusiva rojo m de Google Fi no se ejecuta una transición masiva a eSIM por parte de usuarios u operadores móviles. Apple Watch 3 con LTE no era compatible en el momento del lanzamiento ni siquiera por todos los operadores en los Estados Unidos, sin otros países.

En octubre de 2018, menos de un mes después del lanzamiento de iPhone Xs, se anunció el soporte de eSIM en la última línea de Google Pixel 3. Ahora en los teléfonos inteligentes de Google, el soporte para tarjetas SIM electrónicas se hauelto todos los operadores que tienen soporte de eSIM.

¿Cuál es la diferencia entre Apple y Google? Si los teléfonos inteligentes iPhone Xs (y más abajo en la lista) son de doble SIM, lo que permite un tiempo de espera simultáneo para ambas tarjetas SIM (físicas y electrónicas), entonces en el Pixel 3 / XL solo se puede usar una SIM al mismo tiempo, física o electrónica. Curiosamente, las primeras versiones beta de Android dijeron a los usuarios la oportunidad de permitir el soporte simultáneo tanto para tarjetas SIM como para Pixel 3, esto indica claramente que dentro del teléfono inteligente hay bastante “doble SIM”. Por desgracia, el modo “dual SIM” no entró en ninguna versión final de Android.

Conclusión: a pesar del lanzamiento casi simultáneo del iPhone Xs y Pixel 3, Apple todavía recibe el premio principal. Fue Apple quien preparó el mercado para la aparición de eSIM en los teléfonos inteligentes (recuerdo que Apple Watch con soporte LTE salió un año antes), y fue la escala de la compañía que hizo que los operadores consideraran seriamente el névo

La segunda y tercera cámara

El primer teléfono inteligente Apple de dos cámaras fue el iPhone 7 Plus, lanzado en septiembre de 2016. En el mismo 2016, salieron varios modelos de competencia, también equipados con dos cámaras. Aquí están los modelos de Huawei (la segunda cámara, monocromática, específicos para disparar mejor en la oscuridad y para determinar la profundidad de campo), y LG G5 (la segunda cámara es de gran angular), y modelo de dispositivos chinou ‘os’ con dos cámaras. Por ejemplo, había modelos LG Optimus 3D y HTC Evo 3D (ambos en 2011), cuya cámara dual hizo posible disparar pares estéreo.
Al mismo tiempo, Apple se convirtió en una de las pocas compañías que tenían una forma honesta (óptica) para tomar fotos con un doble zoom. Muchos competidores chinos con dos cámaras (incluidos los primeros modelos Xiaomi y OnePlus) utilizarán una combinación de un pequeño zoom óptico, cortando la parte central de la imagen y la interpolación de software, lo que dio a la calidad de las imágenes ” del teléfono inteligente “. La segunda lente en el iPhone 7 Plus simplemente fue y simplemente funcionó.
El primer iPhone con tres cámaras fue el iPhone 11 Pro y Pro Max (2019). Si el iPhone 7 Plus en 2016 parecería lo suficientemente nuevo, entonces los modelos de iPhone de “tres cámaras” de 2019 parecerían una especie de concesión al mercado. Si no hay preguntas sobre un teleobjetivo estabilizado con una aproximación doble, entonces el uso de ópticas sin enfoque automático  para la cámara gran angular en el iPhone 11 Pro es desconcertante.

Conclusión: no innovación. Nadie recibe el premio principal; la idea estaba simplemente en el aire, y casi todos los fabricantes estaban involucrados en su implementación al mismo tiempo.

Conclusión

En un artículo es imposible considerar todas las innovaciones e “innovaciones” incluso en los últimos dos años. Usar  un sensor U1  para determinar la ubicación: ¿es una innovación o no? ¿Qué pasa con el Apple Pencil de primera y segunda generación? ¿Y tabletas con una pantalla con una frecuencia de actualización de 120 Hz? ¿Y las posibilidades de la realidad aumentada, que luego fueron recogidas (y abandonadas) por Google? Un reloj con una función innovadora de ECG, pero muy tarde ¿Siempre en exhibición? Todo esto es interesante y merece una consideración por separado.

Entonces, después de todo, ¿los innovadores de Apple están poniéndose al día? Como es habitual con Apple, es imposible dar una respuesta definitiva.

Muchas cosas llegaron tarde en los productos de Apple. Aquí, hay soporte para fotografía computacional en cámaras, y el modo Always On Display en relojes, y soporte para dos tarjetas SIM, y soporte para dos y luego tres cámaras, y modo de pantalla nocturna, y mucho más.

Pocas son innovaciones verdaderamente innovadoras. Aquí está el estándar eSIM, cuya extensión sin Apple lleva muchos años, y la función del electrocardiograma en el reloj, y la pantalla “recortada” “sin fin” (ahora simplemente con marcos simétricos) ahora obsoleta.

 

En la mayoría de los casos, Apple recoge la tecnología inútil y medio olvidada del suelo, la recuerda y hace que todo “funcione”, después de lo cual se asigna a los competidores el papel de ponerse al día. Un ejemplo vívido es la tecnología True Tone, que fue inventada y utilizada en una tableta de Amazon mucho antes que Apple, luego olvidada, incrustada en una tableta (iPad Pro 9.7) y replicada en una parte importante de la línea de productos de la compañía. Después de eso, los competidores adoptaron tecnología silenciosa (LG G8, G8s) o con soporte publicitario (Google Nest Hub). Otro ejemplo es la tecnología Face ID, que en su forma actual y bien depurada acaba de aparecer en Pixel 4.

AndresTorres

Deja un comentario o una pregunta, gracias por visitarme.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

A %d blogueros les gusta esto: