Novedades WWDC 2018 – ARKit 2

Lanzamiento de ARKit 2

En esta edición de la WWDC 2018, Apple ha vuelto a apostar por las nuevas tecnologías y por ello ha presentado ARKit 2, la nueva versión de su plataforma de realidad aumentada.

ARKit ofrece herramientas a los desarrolladores para que puedan crear experiencias de realidad aumentada ya sean a nivel de ocio o para aumentar su productividad.

Fue el octubre pasado cuando lanzaron ARKit y, en tan sólo unos meses, Apple ha hecho grandes avances en el campo de la realidad aumentada para los developers. Cómo se puede observar, los avances van a un ritmo muy rápido, de hecho ya es la tercera versión importante que tienen. Esta nueva versión, permite a los desarrolladores integrar experiencias persistentes asociadas a una ubicación concreta, detección de objetos y seguimiento de imágenes para crear aplicaciones basadas en esta tecnología aún más dinámicas.

Las experiencias compartidas con ARKit 2 nos ofrecen una realidad aumentada aún más interactiva, ya que permiten a varios jugadores jugar juntos o permiten a varias personas colaborar en un proyecto común, como podría ser una reforma.

Las experiencias persistentes también cambiarán la forma en la que interactuamos con nuestras apps, ya que con ellas, podremos poner objetos virtuales en el mundo real, y más adelante, volver a ellos y que sigan tal y como los habíamos dejado. Algunos ejemplos serían empezar un puzzle en la mesa o trabajar en un proyecto artístico durante varias semanas sin perder ningún avance.

ARKit 2 también permite detectar objetos 3D como juguetes y esculturas. Además permite aplicar automáticamente reflejos del mundo real en los objetos de realidad aumentada. De ese modo, convierte la experiencia de realidad aumentada en algo más realista.

Para demostrar todo el potencial y las posibilidades que nos ofrece ARKit 2, nos enseñaron el juego LEGO AR City, que utiliza prestaciones de la plataforma, como las experiencias compartidas, las experiencias persistentes y la detección de objetos 3D para dar vida a las creaciones y los personajes de LEGO.

lego AR visual engineering

ARKit 2 reconoce tu mirada

ARKit 2 es capaz de reconocer el movimiento de tus ojos. La idea es que si movemos los ojos hacia el icono que queremos seleccionar y justo parpadeamos, entraríamos a esa sección.

Ya han hecho varias demos y los resultados han sido tan sorprendentes que Apple se está planteando la opción de poder manejar el dispositivo sin la necesidad de tocar la pantalla.

Siempre se han preocupado de dar accesibilidad a aquellas personas con distintas discapacidades, buscando nuevas formas de permitir el uso del dispositivo como con el movimiento de la cabeza, pero sin duda el control por la mirada sería una gran evolución, gracias a toda la tecnología detrás del Face ID.

ARKit 2 no viene sola

A la llegada de ARKit 2 también se le suman Measure y Usdz.

Measure

Measure es una nueva app de iOS 12 que utiliza la realidad aumentada para calcular rápidamente el tamaño de los objetos reales. Es decir, puede proporcionar automáticamente las dimensiones de objetos y también puede mostrar medidas en diagonal e incluso calcular áreas. Además, permite que los usuarios hagan una foto y compartan medidas exactas desde su iPhone o iPad.

visual engineering measure

Usdz

Usdz és un nuevo formato de código abierto, que cuenta con la colaboración de los estudios Pixar. Este código está optimizado para ser compartido en apps como Mensajes, Safari, Mail, Archivos y News sin sacrificar las potentes prestaciones de gráficos y animación.

Además, gracias a Usdz, Quick Look for AR también nos permitirá colocar objetos 3D en el mundo real y evaluar cómo quedaría en un espacio determinado.

apple-usdz-arkit visual engineering

ARKit 2 y Usdz forman parte del avance de iOS 12 para developers que ya estaría disponible para los miembros del Programa de Desarrolladores de Apple. Llegará de forma oficial en otoño junto con iOS 12. Eso sí, para disfrutar de esas ventajas tendremos que tener el iPhone 6S o posterior o contar con el iPad Pro o el iPad de 5a o 6a generación.


memojis ios12 visual engineering

Novedades WWDC 2018 - iOS 12: Memojis

Otro año más, estamos muy contentos de que nuestro grupo Napptilus haya podido asistir a la WWDC 2018, el mayor evento de Apple. Por ese motivo, volvemos a introducir todas las novedades que nos han traído esta vez. En esta nueva edición, nos han presentado iOS12 en la que vendrán incorporados por primera vez los memojis y también habrá una actualización de los animojis.

Asimismo, vamos a introduciros los emojis y todas las novedades que nos han ido trayendo hasta ahora y lo que nos llegará.

Novedades en Emojipedia

Emoji (en español emoticono) es una palabra japonesa que se utiliza para designar las imágenes que son usadas para expresar una idea, emoción o sentimiento en medios de comunicación digital. Desde su inicios en los 90 hasta ahora, se han convertido en unos elementos populares y esenciales en todas las conversaciones de teléfonos inteligentes.

Aunque desde febrero la nueva y revolucionaria lista de emojis ya estaba lista y arreglada, no ha sido hasta este Junio 2018 que se han introducido los nuevos iconos de WhatsApp del año. Esto significa que Apple, entre otras empresas, ya puede personalizar y liberar estos emojis cuando quiera.

Podemos demostrar esta nueva introducción de iconos con el famoso emoji pelirrojo. Desde hacía tiempo había muchos comentarios pidiendo este icono y por fin, ha salido.

Además, también se incluyen emojis de superhéroes, pelados, rizados y una clara expansión de la fauna. En ella, encontramos hipopótamos, canguros, mapaches, cisnes, pavos reales y loros. Y esto solo es una parte. ¡Tan sólo tenemos que actualizar nuestro teléfono y encontrar que hay de nuevo!

Emojipedia ha elaborado un vídeo en el que se pueden ver todos los nuevos diseños, además de variantes de “emojis” que ya están disponibles. No se trata del diseño final que verás en tu móvil o en redes sociales, ya que cada plataforma, Twitter, Facebook, WhatsApp, Google o Microsoft lo adapta en función de su aplicación.

Según emojipedia, a finales de año todas la plataformas deberán tener estos nuevos emojis en su teclado. Este mes lo introducirá Facebook, Microsoft y EmojiOne. Entre setiembre y diciembre lo introducirá Google y Apple, y finalmente Samsung y WhatsApp quien lo hará un poco más tarde, aunque antes del año que viene.

iOS 12 y los nuevos animojis

Con la llegada del iPhone X vinieron los Animojis. Este tipo de formato, en el que convierte tu rostro en un emoji de entre los 12 disponibles, explota el poder de TrueDepth, la tecnología de reconocimiento facial en la cámara frontal del iPhone X. Los Animoji detectan y reproducen los movimientos de tu rostro, creando divertidos emojis animados, durante 10 segundo de clip, con todo y audio.

Hasta ahora, contábamos con 12 posibles Animojis, pero con la llegada del WWDC 2018 han ampliado su catálogo con un fantasma, un koala, un tigre y un tiranosaurio.

iOS 12 y la incorporación de los nuevos memojis

Como ya hemos comentado al principio, Apple anunció en la WWDC la nueva incorporación de Memojis en la nueva versión de iOS12. Estos nuevos personajes son, básicamente, Animoji que los puedes personalizar y hacer que se parezcan a ti. Eso significa que Apple permitirá que cada usuario cree su propio avatar animado a través de la cámara y pueda enviarlo a otros amigos con un mensaje de vídeo.

Desde el lugar en el que seleccionaríamos los Animoji, deslizando la fecha hacia la derecha y haciendo clic sobre el botón añadir es posible crear un Memoji personalizado desde cero. Podemos elegir corte de pelo, tu estilo, el color de la piel, detalles como lunares, accesorios, color de los ojos, editar la nariz, orejas, boca, gafas.... hasta crear una versión animada de uno mismo.

apple-memoji-visual engineering

Los Memojis podrán ser guardados como un Animoji más para utilizarlo en los mensajes de Apple o podrá servir para hacernos un selfie divertido con el avatar superpuesto. Lo malo es que no podrá ser empleado para otras aplicaciones que no sean iMessage y de momento estará disponible solo en iPhone X.

Por otra parte, tanto los Animoji como los Memoji serán ahora más expresivos al detectar gestos como los guiños y la lengua.

Más adelante os contaremos más novedades que nos trae la nueva versión iOS12.

 

Fuente: Martina Blanquera (Business development) y Laura Ares (autora blog Visual)


teamlearning cinema modern android development sesión

TEAMLEARNING CINEMA – MODERN ANDROID DEVELOPMENT (GOOGLE I/O 2018)

Retomando las formaciones de Teamlearning Cinema, entre las sesiones que ha visto nuestro equipo de Android destacamos la de "Modern Android development: Android Jetpack, Kotlin, and more" presentada por Chet Haase y Romain Guy en el famoso evento de Google I/O 2018.

En estos dos últimos años, todos los Android developers habréis visto como se han incorporado una gran cantidad de características y patrones para Android que puede resultar difícil saber exactamente cuándo utilizar las API y características existentes frente a las nuevas. Esa sesión os ayudará a comprender cómo funcionan todos juntos y, a aprender qué deben usar para crear aplicaciones de Android sólidas y modernas.

Muy interesante, ¿verdad? Aquí podéis ver la sesión:

Y por último, podéis ver todas las sesiones vistas en su formación Teamlearning Cinema aquí.


metodo lombard visual engineering

Evento "Del Design Thinking al Design Doing" - Método Lombard

Nuestra diseñadora Laura Martínez fue ayer a la conferencia "Del Design Thinking al Design Doing o cómo convertir una idea en una start-up" organizada por Experience_Lab en el Movistar Centre.

La charla fue introducida por Xavier Verdaguer (creador del Imagine) y Julie Chrysler (directora del Imagine Africa) estaba enfocada principalmente en explicar el Método Lombard de Innovación Disruptiva. Para explicar este método, contó con diferentes Dreamers (participantes de diferentes ediciones del Imagine Express). Cada uno de ellos explicó una de las fases del método Lombard poniendo como ejemplo su proyecto presentada en alguna edición del Imagine.

El Método Lombard es un proceso de aprendizaje que nace de los principios del emprendimiento y la innovación disruptiva. Fue desarrollado por el equipo de Imagine desde 2011, principalmente en Sillicon Valley. Lombard está estructurado en 4 fases: Identificar el problema,  generar valor, prototipar y comunicar la idea. La metodología ayuda a generar las actitudes que llevan a innovar como puede ser aplazar el juicio o ver los errores como parte del proceso.

El nombre del método viene de la calle Lombard de San Francisco, famosa por su pendiente y sus 8 curvas muy pronunciadas, que permiten allanar la pendiente y que de ese modo los coches puedan circular por esa calle.

1 Calle, 8 Curvas, 4 Fases, 1 sólo método.

A continuación vamos a explicar las 4 fases del Método Lombard explicada por cada uno de los Dreamers.

1. Identificar el problema

Esta fase consiste en identificar o replantear el problema, ya que uno de los grandes errores en creatividad es que enseguida nos ponemos a pensar soluciones, pero es básico volver a plantear el problema y ponerlo en duda.

Malwine Steinbok, participante del Imagine 2014 del que nació "Wesura". Su equipo del Imagine Express 2014 tenían el reto de crear un seguro que ayudara a disminuir el riesgo de siniestro. A partir de ahí vieron que realmente podría haber un problema de confianza de las aseguradoras. La solución que propusieron fue "Wesura", un seguro colaborativo basado en la confianza, en el que los usuarios pueden unirse con sus amigos y familiares para proteger sus pertenencias haciendo que la desconfianza de las aseguradoras hacia los que reclaman el robo sea validada por la comunidad del reclamante

 

2. Generar valor

Esta fase consiste en generar ideas pero que aporten en todo momento valor para los usuarios. Se tiene que buscar ideas disruptivas ya que vivimos en un momento en el que ya no funcionan las ideas convencionales.

La dreamer Diana Ballart nos presentó el proyecto "Chupachip", que consiste en cambiar disruptivamente la forma en la que se detecta la diabetes en niños. Lo que hicieron fué crear un caramelo que los niños, al chuparlo y generar saliva, detectaba si tenían diabetes a través de un mecanismo.

metodo lombard fase 2 visual engineering

 

3. Prototipar

Esa fase consiste en el prototipaje. Si se tiene una idea se debe probar lo antes posible aunque sea en fase beta.

Marc Gaixas nos presentó el proyecto "Fly me to the moon". El problema que se plantearon es que mucha gente terminaba guardando las cenizas de sus seres queridos en casa y tuvieron la idea de crear un prototipo que lo que hiciera fuera llevar las cenizas a 30.000 metros de altura y esparcirlas en el cielo cumpliendo el tópico de "llévame a la luna".

El prototipo que crearon fue un globo aerostático en el que llevara una urna biodegradable. Después de varias pruebas, alguna de ellas fallida, las primeras cenizas con las que lanzaron el prototipo fueron las de Neko, el gato de uno de los miembros del equipo.

metodo lombard fase 3 visual engineering

 

4. Comunicar la idea

Una buena idea, si no se comunica bien, no sirve para nada. Todos los emprendedores deben saber comunicar y ocuparse de hacerlo.

Adrià Curran es un médico que investiga sobre anafilaxia, una reacción alérgica grave. Participó en el Imagine 2013 junto con otra médico Anna Sala y crearon "AnAPPhylaxis".

A través del inyector de adrenalina, una carcasa inteligente y la aplicación móvil, "AnAPPhylaxis" es capaz de detectar el nivel de alergia que está afectando a tu cuerpo y ayuda a evitar hechos trágicos. Lala aplicación móvil, que está conectada a lacarcasa inteligente, es capaz de avisar al paciente si se ha olvidado el inyector de adrenalina en casa, si ésta no está conservado en la temperatura adecuada o si no está en buen estado. Además, con solo abrir la carcasa del inyector, la app avisa a los contactos de emergencia del paciente y les indica su estado y ubicación. Por último, la app abre automáticamente un vídeo explicativo de como inyectar la adrenalina al paciente, de modo que si el paciente está inconsciente, cualquier persona pueda asistirlo de forma rápida.

Ellos, como médicos especializados en el tema y conociéndolo en profundidad, supieron comunicar muy bien su idea y por eso ganaron la edición del Imagine2013. Cuando sabes de lo que hablas sabes comunicarlo bien.

metodo lombard fase 4 visual engineering

 

Imagine Africa 2018

Por último Mamadou Korka nos habló del Imagine Africa 2018. Mamadou és un chico senagalés que vino a Europa hace unos diez años. Ahora, convertido en un dreamer, quiere hacer realidad su sueño: hacer el Imagine en Africa. Quiere poder dar esa oportunidad a gente nativa africana y contribuir así en el desarrollo de Africa.

It always seems imposible until it's done (Nelson Mandela)


google assistant-features visual engineering

Google IO 2018: Google Assistant y sus novedades

Entre las novedades que se anunciaron en el Google I/O 2018, Google Assistant fue una gran protagonista, en la que la Inteligencia Artificial juega un papel importante. Como todos sabemos, Google Assistant es una herramienta que ya se encuentra en 500 millones de dispositivos compatibles con Assistant, y en más de 30 idiomas distintos, y que a finales de año estará disponible en 80 países.

A continuación contamos todas las novedades que tendrá incluidas Google Assistant.

Google Assistant y su nueva función Google Duplex

Una de las novedades más sorprendentes de Google Assistant será la nueva función de llamadas. Eso no quiere decir que nos permita llamar, que es lo que hasta ahora se había implementado, sino que ahora la máquina será capaz de llamarnos y mantener una conversación de forma natural. Es lo que ofrecerá la nueva función Google Duplex, el sistema de inteligencia artificial aplicado a la automatización de las conversaciones telefónicas.

El sistema de Google Duplex se basa en una Red Neuronal Recurrente (RNN), desarrollada mediante TensorFlow Extended, en el que las redes neuronales permiten buscar la combinación de parámetros que mejor se ajusta a un determinado problema. También hace uso de la tecnología Automatic Speech Recognition (ASR) para analizar distintos parámetros para lograr diferenciar el contexto y entender qué le está diciendo el interlocutor. Por último también cuenta con el sistema de dictado Text to Speech (TTS), usando Tacotron y WaveNet, para controlar la entonación y hacer que la voz suene lo más natural posible.

google duplex google assistant visual engineering

El objetivo de este sistema es demostrar que el asistente ya está preparado para hacerse pasar por nosotros mismos a la hora de llamar y hacer reservas en distintos negocios como peluquerías o restaurantes, o para consultar horarios y festivos. Por ahora, éstas serán las primeras acciones disponibles, pero no descartamos que en un futuro puedan haber más.

En el caso de las reservas, con indicar al asistente la franja horaria y el lugar, sólo tendremos que esperar a que el sistema haga la llamada y, finalmente, confirme que la cita se ha concretado. Veamos el siguiente vídeo de demostración que nos mostraron en el Google I/O 2018:

Como vemos, la demo fue sorprendente, ya que la conversación se producía de manera natural y se hacían hasta las pausas. Esto nos demuestra hasta qué punto la Inteligencia Artificial ha llegado a mejorar.

Tras las dudas y críticas que se han recibido después de ver que la peluquera no había detectado que era un asistente y de cuestionar que podrían haber faltas de transparencia, privacidad y malos usos, Google ha anunciado que están trabajando para hacer que cuando nos llame Google Assistant sea identificado como tal, y que trabajarán sobre cualquiera de estos aspectos para que sea lo más seguro posible.

Nuevas voces para Google Assistant

Google Assistant recibirá nuevas voces, más concretamente 6 nuevas. Se tratará de voces que parecen reales y que ya están disponibles, de momento en inglés. Una de ellas será la voz de John Legend, de la que ya han empezado a hacer locuciones, pero que no será implementada hasta finales de año.

john legend google assistant

Conversaciones naturales con Google Assistant

Hasta la fecha, para hablar con Google Assistant obligaba a decir constantemente "Ok Google". Ahora, esa necesidad se eliminará y permitirá poder mantener conversaciones más naturales.

Además, las familias también podrán disfrutar de una pequeña función llamada 'Pretty Please', en la que si solicitamos información a Google Assistant con un 'por favor', recibiremos una respuesta de agradecimiento por su parte.

Google Assistant en Google Maps y en Smart Displays

A partir de verano, Google Assistant estará disponible en Google Maps, con lo que podremos hablarle para recibir instrucciones, enviar mensajes o recibir información mientras estamos conduciendo.

Por otro lado, Google Assistant se expandirá en nuevos formatos: móviles, coches, teles, electrodomésticos, robots, y también en las pantallas inteligentes (o Smart Displays) como el Lenovo. Si hubiera que definir en pocas palabras a los Smart Display de Lenovo sería una mezcla entre Google Home y Chromecast. Por un lado tenemos al asistente de Google que nos puede mostrar información de todo tipo: tiempo, direcciones en Google Maps, fotos de Google Photos, buscar recetas, reproducir vídeos de YouTube,... (algo ya visto en Android TV) y por otro lado tendrá la capacidad de un Chromecast con lo que podremos enviar contenido a la tele para verlo en pantalla grande. Hasta ahora, este mercado sólo era competencia de Amazon pero ahora se le ha sumado Google que ya cuenta con acuerdos con JBL, LG, Sony y Lenovo.

Y por último, durante los próximos meses Google Assistant llegará a más países como México y España.

google assistant day-snapshot-lilian-rincon-Google-IO-2018

También podéis ver las otras novedades que se anunciaron en el Google IO, como las de Google Maps y la nueva versión Android P.


Android p visual engineering

Google IO 2018: Android P

Android P será la novena y la nueva versión de Android, de la que ya algunos móviles pueden disfrutar de su versión beta, según anunciaron en Google IO 2018. Su primera aparición fue el 7 de marzo de 2018, donde Google lanzó una primera vista previa de desarrollador al mismo día, y parece que la versión final estará disponible en agosto para todos. Aunque no se sabe su nombre definitivo, sí que hemos podido conocer una serie de importantes cambios y nuevas funciones que vendrán incluidas.

Para esta versión, Google se ha centrado en tres aspectos importantes: ofrecer un mayor control en el uso del móvil, conseguir un teléfono más inteligente gracias a la Inteligencia Artificial, y hacer la navegación más sencilla con nuevos gestos.

Controla el tiempo de uso de tu móvil

Una de las grandes preocupaciones de Google es luchar contra la adicción del móvil y combatir los problemas derivados del uso del teléfono. Por eso ha lanzado Google Dashboard, una nueva sección que permitirá controlar el tiempo de uso de cada aplicación, los desbloqueos de pantalla y más información de interés para el usuario.

Siguiendo con este control, tendremos App Timer, un temporizador que nos permitirá poner límite de uso para cada aplicación, tras lo cual la aplicación pasará a visualizarse en escala de grises. Lo mismo hará el modo Wind Down, que directamente aplicará una escala de grises a toda la interfaz cuando sea la hora de dormir.

Su finalidad será hacerlo menos llamativo y no estimular tanto nuestro cerebro y será realmente útil cuando estemos con el dispositivo en la cama, ya que nos ayudará a relajarnos e ir cogiendo el sueño de manera progresiva.

Estas opciones estarán activadas siempre y cuando tengan nuestro consentimiento.

Captura De Pantalla 2018 05 08 A Las 20 54 45

Inteligencia Artificial

El nuevo Android P será más inteligente y más adaptada a nosotros gracias al uso de la Inteligencia Artificial y a su aprendizaje automático aplicado a todo el sistema operativo. No se tratará sólo de cambios de Google Assistant, sino que también de acciones que afectarán directamente al teléfono.

Batería inteligente en Android P DP2

Android P será capaz de detectar qué aplicaciones utilizamos más en el día a día y cuáles apenas abrimos. De ese modo, gracias a su Adaptive Battery, priorizará el uso de la batería y la transmisión de datos en segundo plano en aquellas apps que utilicemos más, y por el contrario, reducir aquellas que no necesitamos. Eso supondría una mejora del rendimiento de la batería de hasta un 30% de optimización y uso de la CPU.
También se hará uso de este plus de inteligencia artificial para adaptar mejor el brillo automático según las condiciones lumínicas de nuestro entorno ofreciéndonos mejores resultados.

Otro aspecto muy interesante es que ahora el sistema nos hará recomendaciones concretas de apps según el contexto en el que nos encontramos. Por ejemplo, si cada día a las 5 de la tarde miramos el tráfico con una app, el móvil aprenderá de esa conducta y cuando sean las 5 de la tarde nos sugerirá que abramos esta app o llegará un punto que nos dejará ver el tráfico directamente. Lo mismo pasará al conectar auriculares que nos sugerirá una aplicación de música, entre otros posibles casos.

Nuevo sistema de control por gestos

Cada vez aparecen en el mercado más móviles que no cuentan con los tres botones clásicos en la parte inferior. Android P mejorará la navegación y sobre todo la accesibilidad con una sola mano en móviles de pantallas grandes. Sustituirá estos botones por una barra inteligente en la parte inferior que al deslizarla hacia arriba se abrirá una multitarea para navegar entre aplicaciones abiertas.

Por otro lado, Android P estrenará un nuevo sistema de control de volumen más cómodo y práctico. También permitirá rotar la pantalla desde la barra de navegación, siempre y cuando el teléfono detecte que está inclinado. Además, tendrá nuevas formas de realizar capturas de pantalla y una nueva gestión de notificaciones con más información y respuestas inteligentes sugeridas.

Todos esos pequeños cambios mejorarán el uso, según ha informado Google.

Google_Android p visual engineering

Y hasta aquí hemos detallado los cambios más relevantes que nos traerá Android P; además de las mejoras de Google Assistant y Google Maps. ¡Sólo nos quedarán unos meses para poder disfrutar y comprobarlo nosotros mismos! Por ahora, ¿os gustan esos cambios?


google maps_io18 visual engineering

Google IO 2018: Novedades en Google Maps

Desde su lanzamiento en 2005, Google Maps ha sido todo un éxito y se ha convertido en una de las herramientas más utilizadas a nivel mundial a diario por millones de personas. Nos ofrece imágenes de mapa de cualquier parte del mundo, incluso hasta la parte más remota, y nos permite ver fotografías por satélite de cualquier zona para poder tener una idea de cómo es. Todo esto, ha convertido Google Maps en un imprescindible en el móvil.

En esta edición IO 2018 Google ha decidido aportar nuevas novedades para convertirlo en una herramienta aún más potente.

Un nuevo rediseño en la función Explorar

Google Maps siempre quiere ofrecer una experiencia personalizada y adaptada a cada uno de nosotros. Por ese motivo, esta vez ha hecho un nuevo rediseño para conseguir una app aún más personal y que nos proporcione, cada vez más, información de calidad.

Lo primero que ha hecho Google Maps ha sido rediseñar una de las funciones más utilizadas: la pestaña Explorar. Ahora, al consultar una zona, Google nos ofrecerá información de sitios dónde ir a comer, eventos y otras actividades varias que se realizan en esta área. Además, nos informará de las tendencias más recientes de ese lugar, de los sitios más populares y de los mejores restaurantes, según los datos obtenidos de los expertos locales, de las publicaciones web y de los propios algoritmos de Google. Para añadir más, si en una zona hay una lista de restaurantes que no hemos ido, nos señalará que nos faltan probar. También, incluso será capaz de decirnos si un restaurante está lleno y ofrecernos otras opciones cercanas y similares que puedan sustituir a nuestra elección.

Otra novedad del rediseño será la función "Your match". Google combinará la nueva Inteligencia Artificial (presentada en el Google I/O 2018) con toda la gran cantidad de información que ha obtenido sobre nosotros, aprendiendo de nuestros movimientos, lugares y visitas. Esta funcionalidad nos indicará si lo que hay en un sitio nos gustará o no. Por ejemplo, si nos gusta mucho la comida japonesa y frecuentamos mucho a restaurantes de este tipo de comida, cualquier lugar que tenga un restaurante japonés, "Your match" nos indicará que hay un alto porcentaje de que nos guste este sitio. De este modo, "Your match" se convertirá en un gran consejero virtual de restaurantes, tiendas o zonas culturales, entre otras.

Por último, en esta pestaña encontramos la denominada selección grupal. Nos permitirá hacer planes grupales agregando a varios usuarios. Nuevamente, Google usará la Inteligencia Artificial para recomendarnos un listado de los lugares más adecuados para ir dependiendo de los gustos de cada uno. Ese listado se podrá guardar y permitirá gestionar estos lugares. Cada vez que se organice un plan, los integrantes del grupo podrán votar uno de los restaurantes recomendados y una vez elegido uno, Google Maps permitirá hacer la reserva sin tener que salir de la app, y nos buscará un método de transporte para llegar al destino elegido.

google io 2018 google maps explorar

Nuevo GPS con cámara y tecnología de Realidad Aumentada

Otra de las novedades anunciadas para Google Maps es una mejora en la funcionalidad GPS en la que incorpora el uso de la cámara para hacer la navegación a pie. Ahora cuando vayamos a pie y necesitemos indicaciones, la pantalla se dividirá en dos partes. En la media pantalla inferior, veremos el resumen de la ruta a realizar en formato mapa como hemos visto hasta ahora. También tendremos un breve resumen de los datos más relevantes: tiempo hasta destino, hora de llegada y distancia a recorrer.

La novedad se encontrará en la mitad superior. Gracias al uso de la cámara y al uso de la realidad aumentada podremos ver la calle y, además, ver flechas que nos irán indicando hacia donde debemos ir. Eso nos facilitará encontrar los destinos más difíciles.

google-io-2018-google maps-1-720x720

Y por último, ¡puede que en un futuro tengamos un guía personalizado! Google está pensando en la posibilidad de incorporar un guía personalizado como podría ser un animal o un personaje en realidad virtual para personalizar aún más la experiencia.

google-io-2018-google maps-guide

Nueva pestaña "Para ti"

Ahora, Google Maps abrirá una nueva pestaña llamada "Para ti". De la misma forma que la funcionalidad Explorar, Google nos mostrará información que nos pueda influir. Nos mostrará desde los restaurantes más visitados en nuestra zona como ya hemos mencionado anteriormente, qué actividades hay previstas o incluso noticias de relevancia que ocurran cerca de ti. De ese modo, podremos conocer bien nuestro lugar con sólo abrir la app.

google-io-2018-google maps-for you

Todas estas novedades y mejoras no vendrán integradas todas a la vez, sino que según Google se integrarán de forma escalonada durante los próximos meses a nivel global para Android e iOS.

Y si queréis ver más novedades de Google IO, nosotros hemos hablado de la nueva versión de Android P y de las novedades que nos traerá Google Assistant.


dialogflow visual engineering blog

Dialogflow y nuestra aplicación en la empresa

QUÉ ES DIALOGFLOW

Dialogflow es una tecnología de interacción humano-ordenador basada en conversaciones de lenguaje natural. El proceso que sigue un agente Dialogflow desde su invocación hasta al cumplimiento de ésta es similar a responder la pregunta de alguien.  En primer lugar, para poder hablar con un agente se necesita invocarlo, que para hacerlo más real, se han programado distintas formas de saludar, como si fuera una conversación real. En ese momento, ya se puede hacer cualquier pregunta al agente. Dialogflow detecta cuál es la intención del usuario o a qué tema se refiere y mediante esto, y una lógica para analizar la pregunta del usuario, responde a la petición del usuario.

Para que el agente entienda lo que el usuario pide, éste necesita ejemplos de cómo se podría formular esta pregunta de distintas formas. Los programadores añaden estas permutaciones en la sección de “usuario” señalando a qué intención pertenece. Cuántas más variaciones se añadan a una misma intención, mejor podrá comprender al usuario.

Dialogflow es personalizable y dispone de dos versiones: la versión gratuita para pequeñas y medianas empresas, y una opción de pago para grandes empresas. Además, dispone de un sistema de voz y chat para realizar las peticiones en distintos idiomas, y es un sistema muy intuitivo y potente.

Esta tecnología dispone principalmente de dos opciones para integrar su sistema:

  • La primera consiste en integrarlo como un bot en plataformas de chat ya existentes, y muy usadas hoy en día, como Slack, Facebook Messenger, Skype, Twitter y Telegram.
  • La otra opción consiste en integrar Dialogflow en un proyecto propio. En este caso está disponible en Java, NodeJS, Phyton,…

Anteriormente esta tecnología se llamaba API.AI cuando era de Speaktoit, pero la compró Google en Septiembre de 2016. Un año más tarde, el 10 de Octubre de 2017, la renombró y pasó a llamarse Dialogflow.

CÓMO FUNCIONA DIALOGFLOW

Para poder iniciar una conversación con Dialogflow, se sigue un procedimiento similar al de mantener un diálogo con una persona real. Por ese motivo, para explicar su funcionamiento, se hará una comparación entre una conversación real y una con un agente Dialogflow.

dialogflow 1 visual engineering

Para empezar una conversación con una persona, lo habitual es saludar primero. Con Dialogflow sucede lo mismo, para invocarlo, tienes que iniciar el diálogo con un mensaje de bienvenida, para lo cual se han programado diferentes formas de saludo, para hacerlo lo más natural posible.

dialogflow 2 visual engineering

dialogflow 3 visual engineering

Una vez invocado el agente Dialogflow, el usuario ya puede proceder a hacer las preguntas que desea. El developer se encarga de pre-programar diferentes versiones de posibles preguntas que se le puedan pedir, para obtener la información que quieren conocer los usuarios. Como se puede ver en la captura anterior, en la sección de Action, se declaran las variables necesarias para poder hacer una llamada a la API, algunas de ellas son propias de Dialogflow y otras están creadas por el propio developer, para poder obtener la información necesaria.

Cada una de ellas está relacionada con un color, para poder ser más fácilmente detectables. La lógica de Dialogflow se basa en la búsqueda de las preposiciones relacionadas, el uso de mayúsculas y un algoritmo para poder localizar los distintos tipos de variables dentro de la pregunta que ha introducido el usuario.

También se puede observar que las variables puedan ser obligatorias, por la cual, si el usuario no las ha incluido en su pregunta, hay una serie de preguntas preprogramadas para poder obtener la información sobre la variable respectiva.

dialogflow 4 visual engineering

Un agente Dialogflow tiene que tener programado distintos tipos de información. Aquí es donde entra en juego Contexto, el apartado donde se establecen los distintos temas de conversación que puede mantener con el agente. Con la lógica de Dialogflow y las variables que ha introducido el usuario, el agente detecta de qué tema están hablando y le responde en consecuencia. Lo mismo pasa con una conversación real, nuestro cerebro busca de forma automática el tema de la conversación a la que se está refiriendo la persona con la que se está hablando.

dialogflow 5 visual engineering

Una vez el agente Dialogflow ha entendido la pregunta del usuario y ha obtenido toda la información necesaria para poder hacer la llamada a la API, procede a responder. Las respuestas, al igual que las preguntas, también han sido pre-programadas por el developer.

Como se puede observar, a las respuestas pre-programadas hay unos caracteres precedidos por el símbolo $, que hacen referencia al tipo de variable. El agente reemplazará la variable por el valor de ésta, para hacer que la respuesta sea más natural. Es importante remarcar que el agente escogerá una respuesta u otra, en función de la información que el usuario ha introducido. En el caso de arriba, por ejemplo, la tercera opción sólo será utilizada si el usuario ha introducido la película que quiere ver.

 

dialogflow 6 visual engineering

En el diagrama anterior representa el ejemplo que ha utilizado Eva Olesa, en su TFG, que seguidamente explicaremos. Este diagrama representa el proceso que se sigue desde que el usuario hace una pregunta hasta que recibe la respuesta. El procedimiento era el siguiente: el primer paso es cuando el usuario envía toda la información necesaria para hacer la llamada a la API, donde en este caso hay cuatro variables: lugar, día, película y número de tickets; las dos primeras marcadas en * por su carácter obligatorio.

Entonces a la parte del agente de Dialogflow se puede observar un signo de interrogación, es aquí donde entra la parte más importante del proyecto que han realizado aquí: la creación de un sistema que permita detectar cuando el agente Dialogflow se ha perdido, después de 3 oportunidades para poder coger el hilo de la conversación. En este caso, el usuario será redirigido a un agente real con las mínimas molestias posibles para el usuario.

NUESTRO PROYECTO CON DIALOGFLOW

Un cliente de nuestra empresa pidió un sistema similar al que ya tenía, que le permitiera reducir la carga de trabajo de su centro de atención al cliente y atender a las peticiones realmente importantes con la mayor rapidez posible. La solución que se propuso al cliente era implementar el sistema de Dialogflow en las peticiones que se realizaban habitualmente en este centro, donde la mayoría de éstas solían ser preguntas frecuentes que se podían responder con una respuesta determinada. La idea principal de la solución propuesta, consistía en que una vez el usuario entrara en contacto con el centro de atención, éste fuera dirigido en primera instancia a un agente Dialogflow y sólo en caso de que éste no pudiera resolver la petición el usuario, fuera redirigido a un agente real.

La idea nos pareció muy interesante también para aplicarla en otros ámbitos y otros futuros proyectos.  Aprovechando que nuestra developer Eva Olesa tenía que realizar su TFG, se dio la oportunidad de que realizara este proyecto y a la vez analizar todo lo que podría ofrecer esta tecnología y sus ventajas.

Una vez elegido el proyecto, se estudió las distintas tecnologías que nos ofrecía el mercado en este ámbito y una de las opciones que salió como posible tecnología para usar, era Rasa NLU ya que consistía en una tecnología open source muy potente con una infraestructura muy consolidada. Finalmente, pero, se decantó para la opción de Dialogflow ja que ésta ofrecía una opción que se adaptaba muy bien a nuestras necesidades y contaba con los servidores potentes y fiables de Google. Podéis conocer más información en su web oficial.

Otro estudio que se realizó fue analizar en qué idioma se realizaría la aplicación y se eligió el inglés porque disponía de una plataforma mucho más robusta.

Una vez terminado este proyecto, nos demostró la viabilidad tecnológica y económica de implementar un sistema de reserva automática de eventos utilizando una Api de lenguaje natural. Y además, hemos sacado la conclusión de que esta tecnología es aplicable en cualquier sector, desde mostrar la cartelera de cine hasta realizar una consulta en una asesoría, y que la implementada en este proyecto era una de las múltiples opciones que ofrece este asistente inteligente.


penalización algorítmica google visual engineering

Penalización algorítmica de Google

Una penalización algorítmica es cuando un algoritmo detecta que tu sitio incumple las directrices del buscador en cierto grado y automáticamente te aplica una sanción.

¿Qué es el algoritmo de Google?

El algoritmo de Google es la forma que tiene el buscador de posicionar las páginas ante una búsqueda, es decir, es lo que decide si sales primero o en quinta página.

google-ranking-factors visual engineering

El problema viene cuando vemos que el algoritmo cambia unas 500 veces al año (cada 17.5 horas) y resulta difícil seguirle la pista.

Los cambios en el Algoritmo se orientan en dos aspectos:

  • Limpiar de la SERP (Search Engine Results Page) los resultados poco relevantes y spammy
  • Adaptarse a las necesidades de los usuarios y a las circunstancias del momento
  • Acercarse cada vez más a un buscador semántico

Actualmente nos encontramos con los siguientes cambios que se aplicaron en el algoritmo:

  • Panda
  • Penguin
  • Colibrí
  • Pigeon
  • Búho
  • Otros factores

Penalización algorítmica: PANDA

Se centra en la calidad del contenido. Su aparición proviene principalmente de la proliferación de webs con poco contenido, contenido duplicado, malware,.. También es importante conseguir tener contenido que sea compartible. Fue lanzado por primera vez el 23 de febrero del 2011.

Penalización algorítmica google panda visual engineering

Penalización algorítmica: PENGUIN

Se centra en la calidad de los enlaces. Google Penguin está destinado a filtrar de la SERP aquellas webs cuyo portfolio de links recibidos de otras webs no es natural, que sea spam o que no aporte nada al usuario. Es importante también conseguir enlaces en fuentes de calidad. Fue lanzado por primera vez el 24 de Abril del 2012.

Penalización algorítmica penguin google visual engineering

Penalización algorítmica: HUMMINGBIRD O COLIBRÍ

Colibrí NO es realmente un algoritmo que PENALIZA como Panda y Penguin, sino que tiene el objetivo de humanizar más el navegador que ya de por sí lo es. Es decir, trata de comprender y facilitar la búsqueda del usuario. Fue lanzado el 20 de Agosto del 2013.

Penalización algorítmica google-hummingbird-visual engineering

Penalización algorítmica: PIGEON

Se especializa en ofrecer una mejor experiencia en los resultados de las búsquedas locales. Busca priorizar los resultados de los sitios Web locales y los negocios más cercanos a la ubicación del usuario. Fue lanzado el 24 de Julio de 2014.

Penalización algorítmica Pigeon-google visual engineering

Penalización algorítmica: BÚHO

Éste es el algoritmo más reciente que salió justo el año pasado, en el 2017. Su trabajo consiste en aumentar la calidad y la autoridad del contenido. Filtra aquel contenido que pueda ser engañoso, lo que dice ser y no es, lo invasivo y lo que es inoportuno. Integra lo interesante con lo adecuado y por supuesto, también penaliza.

Penalización algorítmica owl google visual engineering

NOTA: Una sanción algorítmica sólo puede ser levantada nuevamente por el mismo algoritmo del filtro. No es posible una intervención manual por parte de un empleado de Google.

Penalización algorítmica: OTROS FACTORES

Otros factores que también afectan al algoritmo son:

  • Pirate: Google vigila y evita posicionar aquellas páginas que sean piratas o aquellas que tengan infracciones de derechos de autor. Se trata de aquellas páginas que contienen libros, películas y música que tienen contenido pirateado.

  • Mobile friendly: Una de las claves más importantes es la navegación en dispositivos móviles, de cara un futuro inmediato, y al presente. Es importante que toda web esté adaptada al móvil o a cualquier dispositivo portátil. Google premia enormemente en cuanto a posicionamiento, que nuestra web cumpla con estos estándares de navegación móvil.

  • Búsqueda por voz: Es una de las características en auge. Estas búsquedas suelen ser cortas, sencillas y precisas. Aquí es donde radica la importancia de que nuestra web, sea accesible a este tipo de búsquedas, pues el número de las mismas a las que accederemos, se verá incrementado, con el paso del tiempo.

  • Seguridad: Es conocido, que Google premia la seguridad, tanto es así, que sin ir más lejos, navegar por sitios web sin protocolo HTTPS, será visto por Chrome como sitio no seguro, y esto repercutirá directamente, en las visitas que podamos obtener, estamos hablando de potenciales clientes que no queremos perder. De ese modo, los sitios web sin HTTPS perderán posiciones, o incluso, desaparecerán de las primeras páginas de resultado.

  • Redes sociales: Otro gigante de internet, son las redes sociales: Youtube, Twitter, Facebook e Instagram, pueden ser, y deberían ser, nuestros grandes aliadas a la hora del marketing, y a la hora de posicionarnos en las búsquedas. Cada vez toma más fuerza la publicidad online, y estas plataformas, cuentan con su sistema de anuncios; tenemos que aprovechar esta oportunidad.

Por último, como ya hemos visto anteriormente, también existe otro tipo de penalización de Google,  la penalización manual, que nos puede imponer una sanción y en ese caso es mucho más difícil de resolver. Pero antes, si quieres saber qué sucede con las penalizaciones y cómo prevenirlas, accede aquí.


tracksco2 startup napptilus

TracksCO2: Salvemos el mundo

Problemática medioambiental actual y TracksCO2

Una de los mayores problemas de nuestro planeta es el calentamiento global, siendo uno de sus mayores responsables las altas emisiones de Dióxido de carbono (CO2).

Desde la revolución industrial la combustión de productos orgánicos (entre ellos los derivados del petróleo) junto a la deforestación causada por la actividad humana han incrementado en gran medida el nivel de concentración de CO2 en la atmósfera. Y no sólo esto, sino que se estima que este aumento de temperaturas sea de hasta 5 grados a lo largo del siglo XXI.

El cambio climático tiene consecuencias devastadoras como liberación masiva de gases de efecto invernadero a partir de la desglaciación de los casquetes polares, la destrucción de ecosistemas marinos dada la acidificación del océano y la destrucción de fauna y flora por las continuas oleadas de calor, entre otras.

Existen algunas herramientas para reducir las emisiones de CO2 de los principales actores, como los ETS en Estados Unidos, pero están demostrando un rendimiento bastante pobre. Y es en este punto en el que nace Track CO2, una plataforma descentralizada para el Mercado de Carbono Voluntario (Voluntary Carbon Market) basada en blockchain, que además de facilitar la inversión en proyectos medioambientales de absorción de CO2, te ayuda a conocer tu huella de carbono y te incentiva a reducir tu impacto en la atmósfera.

¿Cómo funciona TracksCO2?

Las empresas invierten en nuestra plataforma para compensar sus emisiones de carbono. Su dinero se distribuye (en forma de token) entre los usuarios de la app TracksCO2 que han logrado reducir sus emisiones. Posteriormente, los usuarios pueden decidir a qué proyectos del Voluntary Carbon Market activos en la plataforma quieren enviar ese dinero. Finalmente, éstos proyectos de VCP podrán reconvertir los tokens en dinero para así ejecutar sus proyectos, y la empresa que lo ha financiado recibe un token-certificado, que acredita la cantidad de toneladas de Carbono que ha compensado a través del proyecto medioambiental.

¿Cuáles son los objetivos de TracksCO2?

Para los usuarios el objetivo a conseguir será hacerles conscientes del impacto de sus emisiones de CO2 y también comprometerlos con corporaciones y proyectos ambientales.

Para corporaciones será hacer de amplificador de sus acciones para reducir el impacto medioambiental, ayudando a mejorar su imagen de marca mientras obtienen créditos de carbono verificables con total transparencia en la cadena de bloques.

TracksCO2 te va a informar de aquellos hábitos que tienen un mayor impacto en tu huella de carbono, proporcionando consejos para cambiar algunos de ellos y poder así disminuir tu huella de carbono promoviendo comportamientos ecológicos dando recompensas y construyendo una comunidad virtual.

Si queréis conocer más de TracksCo2 podéis acceder a su web o nos puedes encontrar en el 4YFN, en el stand P3. ¡Os esperamos!