Google I/O: todo lo que se anunció en la apertura del evento anual más importante del gigante tecnológico

Hoy se realizó la presentación principal o keynote de este encuentro virtual que se llevará a cabo hasta el 20 de mayo inclusive. Se presentó Android 12 así como mejoras en el buscador, Workspace y Maps

Guardar
El evento para desarrolladores se
El evento para desarrolladores se lleva acabo desde el 18 y hasta el 20 de mayo

Comenzó Google I/O, el evento anual para desarrolladores que realiza la compañía tecnológica, y que se extiende hasta el 20 de mayo, en formato 100% virtual

Se incluyeron 16 horas de
Se incluyeron 16 horas de canto en una red neuronal, que aprendió a reproducir cada tipo de voz en función de lo que escuchó y así surgieron The Blobs

El encuentro comenzó con una presentación de unos personajes bautizados The Blobs cantando un estilo de ópera según la interpretación del algoritmo desarrollado para este propósito. Se puede interactuar con el sistema y crear una ópera a medida ingresando aquí.

Estos personajes fueron creado por David Li en colaboración con el equipo de Arte y Cultura de Google, y dan cuenta de cómo se puede aprovechar el aprendizaje automático para crear algo diferente a partir de datos existentes.

Google I/O 2021 comenzó con
Google I/O 2021 comenzó con un show musical que dejó en evidencia el avance del aprendizaje automático

Luego de la previa musical se dio inicio formalmente al evento. El encargado de hacerlo fue Sundar Pichai, CEO de Google. Tras hacer una mención sobre la difícil situación que atraviesan muchos países del mundo por el COVID-19, como su India natal, recordó que hubo algunas incorporaciones que hizo el buscador para optimizar la disponibilidad de información vinculada con esta temática, como por ejemplo la posibilidad de conocer dónde se encuentran los centros de vacunación cercanos al usuario, entre otros.

Luego se pasó a uno de los anuncios más importantes de la presentación: la incorporación de Smart Canvas o una suerte de lienzos inteligentes en Google Worskpace, una herramienta que favorece el trabajo colaborativo, de cara al avance del trabajo remoto.

Smart Canvas en Workspace

Con Smart Canvas, el contenido y las conexiones se harán de forma más rica y fluida. Como se sabe, cuando se arroba a una persona en un documento, una etiqueta inteligente te muestra información adicional de ese usuario como su ubicación, el cargo y la información de contacto.

La novedad es que a partir de ahora esta opción estará disponible en Documentos para reuniones y archivos recomendados. Para insertar esas etiquetas inteligentes en el trabajo, simplemente hay que escribir “@” para ver una lista de personas, archivos y reuniones recomendados.

Desde la web o el móvil, sus colaboradores pueden hojear rápidamente las reuniones y personas asociadas u obtener una vista previa de los documentos vinculados, todo sin cambiar pestañas o contextos. Estos chips o etiquetas inteligentes llegarán en los próximos meses.

Además, a partir de hoy en Documentos, las listas de verificación están disponibles en la web y en dispositivos móviles, y pronto se podrán asignar elementos de acción de la lista de verificación a otras personas. Estos elementos de acción aparecerán en Tareas de Google, lo cual facilitará que todos administren la lista de tareas pendientes de un proyecto.

A su vez, con el nuevo formato sin páginas en Documentos, se podrán eliminar los límites de una página para crear una superficie que se expanda a cualquier dispositivo o pantalla que se esté usando, lo cual facilita el trabajo con tablas anchas, imágenes grandes o detalladas en los comentarios.

Es posible arrobar usuarios dentro
Es posible arrobar usuarios dentro del documento colaborativo

Google Meet

A partir de hoy, se implementará la capacidad de presentar el contenido en una llamada de Google Meet en la web directamente desde el documento, la hoja o la diapositiva donde se esté trabajando. El próximo paso es llevar Meet directamente a Documentos, Hojas de cálculo y Presentaciones en la Web, para que las personas puedan verse y escucharse entre sí mientras trabajan de forma colaborativa.

Actualmente en Google Meet se ofrecen subtítulos en vivo en cinco idiomas, pero pronto se sumarán más. En los próximos meses se presentarán las traducciones en vivo de subtítulos, comenzando con la traducción del inglés al español, portugués, francés o alemán, para luego sumar muchas más lenguas.

En los próximos meses, se presentarán funciones adicionales de escritura asistida en Documentos en la web. Esto incluye advertencias sobre palabras y lenguaje ofensivos, así como otras sugerencias estilísticas que pueden acelerar la edición y ayudar a que los textos estén mejor estructurados y tengan mayor impacto en la audiencia.

Pichai hizo un repaso por una serie de tecnologías de reconocimiento de voz e imágenes y los avances que hizo la compañía hacia la comprensión del lenguaje natural. En este sentido mencionó el modelo BERT. “Hemos revolucionado la capacidad de las computadoras para comprender el lenguaje natural”, subrayó el directivo de la compañía.

LaMDA, un modelo de lenguaje entrenado en el arte de dialogar como un humano

A diferencia de la mayoría
A diferencia de la mayoría de los otros modelos de lenguaje, LaMDA se entrenó en el arte del diálogo, según se explicó en Google I/O 2021

Habló sobre LaMDA, un modelo de lenguaje capaz de entender de forma más precisa las conversaciones. LaMDA son las siglas de “Modelo de lenguaje para aplicaciones de diálogo”, lo cual le permite al sistema participar de intercambios fluidos que empiezan en un punto y van moviéndose a lo largo de una variedad de temáticas con diferentes categorías y saltos.

Al igual que muchos modelos de lenguaje, entre ellos BERT y GPT-3, se basa en Transformer, una arquitectura de red neuronal que Google Research creó y es de código abierto. Esa arquitectura produce un modelo que se puede entrenar para leer muchas palabras y es capaz de identificar el contexto o cómo esas palabras se relacionan entre sí para luego predecir qué términos seguirán a continuación.

Pero a diferencia de la mayoría de los otros modelos de lenguaje, LaMDA se entrenó en el arte del diálogo. Durante su desarrollo, incorporó varios de los matices que distinguen la conversación abierta de otras formas de lenguaje.

También se anunció Tensor Processing Unit v4 o TPU v4, que ofrece mayor capacidad computacional y está orientada a los centros de datos de la compañía. A continuación Pichai habló de los desafíos de la computación cuántica, un tipo de tecnología en la cual la empresa, como otros gigantes tecnológicos, viene apostando.

Sundar Pichai, CEO de Google
Sundar Pichai, CEO de Google

Privacidad y seguridad

Jen Fitzpatrick, vicepresidenta senior de Google, subió al escenario para hablar sobre las medidas de seguridad y privacidad que implementa la empresa. Remarcó que los productos son seguros por default y dijo que uno de los grandes problemas que tienen los usuarios es el empleo de claves inseguras.

En este sentido, compartió novedades para ayudar a lidiar con esta problemática. El Administrador de contraseñas de Google tendrá una integración más profunda con Android y Chrome para continuar y avanzar con algunas características que ya ofrece. La idea es encontrar soluciones rápidas para contraseñas comprometidas y optimizar las alertas automáticas que emite el sistema.

Otra de las novedades mencionadas es que ahora se puede eliminar lo último que buscó en Google más fácilmente y se dijo que Google Maps le recordará periódicamente al usuario cuando tenga activado el historial de ubicaciones.

Google Maps enviará recordatorios periódicos
Google Maps enviará recordatorios periódicos al usuario cuando tenga activado su historial

MUM, o cómo el buscador se volvió más inteligente

En 2019, Google lanzó BERT, un modelo de inteligencia artificial que comprende mejor las consultas que se hacen al buscador. Ahora se presentó un modelo unificado de multitarea, bautizado como MUM que, al igual que BERT, se basa en una arquitectura que supuso un gran paso adelante en la comprensión del lenguaje.

MUM es 1.000 veces más poderoso que BERT y puede realizar múltiples tareas para obtener información de nuevas formas, aseguró Prabhakar Raghavan, vicepresidente senior de Google, en el marco del evento para desarrolladores Google I/O 2021.

Este sistema no solo comprende, sino que también genera lenguaje. Está capacitado en 75 idiomas y es capaz de realizar muchas tareas diferentes a la vez, lo cual le brinda una comprensión más completa de la información y el conocimiento del mundo que los modelos anteriores. Además, al ser multimodal, comprende la información en texto e imágenes y, en el futuro, puede expandirse a más modalidades como video y audio.

Al igual que BERT, MUM
Al igual que BERT, MUM se basa en una arquitectura Transformer, pero es 1.000 veces más potente

“Imagine una consulta compleja y conversacional, como ´He subido a la montaña Adams y ahora quiero caminar por el el Fuji el próximo otoño, ¿qué debería hacer diferente para prepararme?´ Esto dejaría perplejos a los motores de búsqueda de hoy, pero en el futuro, MUM podría entender esta complicada pregunta y generar una respuesta bien organizada, apuntando a resultados altamente relevantes. Hemos iniciado pruebas piloto internas con MUM y estamos entusiasmados con su potencial para mejorar los productos de Google”, se destaca en el comunicado oficial publicado por la compañía.

En el futuro, MUM podría entender que se están comparando dos montañas, por lo que la información de elevación y sendero puede ser relevante. También podría entender que, en el contexto de las caminatas, “prepararse” podría incluir cosas como entrenamiento físico, así como encontrar el equipo adecuado. Debido a que puede identificar y comprender estos matices, MUM tiene el potencial de mostrar información más relevante para preguntas como estas. La compañía destaca que todavía se está explorando y probando el sistema y que pasará un tiempo hasta que se incorpore al buscador.

Novedades en Google Maps

Desde Google anunciaron algunas novedades interesantes para Maps con el objetivo de mejorar la circulación en auto y a pie. Ideal para quienes tener datos detalladas literalmente al alcance de la mano. La primera tiene que ver con una actualización para evitar congestiones de tránsito y frenadas bruscas.

“Creemos que estos cambios tienen el potencial de eliminar 100 millones de eventos de frenado brusco en las rutas conducidas con Google Maps cada año, por lo que puede confiar en Maps para llevarlo de A a B rápidamente, pero también de manera más segura”, destacaron desde la compañía, en el marco su evento anual para desarrolladores Google I/O.

Otro anuncio estuvo vinculado con el uso de realidad aumentada para conocer más detalles sobre las tiendas y restaurantes que nos rodean. Con estas opciones a la función de Realidad Aumentada o Live View desde Maps, se podrá acceder a esta opción en vivo, directamente desde el mapa para ver detalles útiles sobre las tiendas y restaurantes alrededor, como cuan ocupadas están, reseñas recientes y fotos.

Además, se sumarán señales de tráfico nuevas y útiles para intersecciones complejas para que el usuario sepa exactamente en qué calle se encuentra y qué camino debe tomar. Por otro lado, será posible identificar las zonas más visitadas de un sitio en particular. En este sentido, es posible abrir Maps y ver instantáneamente los puntos de acceso concurridos que se deben evitar, como las calles cerca de algunos mercados o sitios muy concurridos.

Google Maps permitirá saber el
Google Maps permitirá saber el nivel de concentración de gente en diferentes puntos de la ciudad

Por el contrario, si el usuario desea conocer las zonas más populares de una ciudad o barrio podría utilizar esa información justamente para ir a esos sitios y conocer un poco más sobre los rincones más visitados de la zona.

A su vez, la compañía anunció que adaptará Maps para resaltar los lugares más relevantes según la hora del día y si se está viajando o no. Si, por ejemplo, el usuario vive en Buenos Aires y abre el mapa a las 8 a. M. en un día laboral, se destacarán las cafeterías o panaderías cercanas para que sepa dónde puede encontrar algo para desayunar.

Todas estas características comenzarán a implementarse a nivel mundial en Android e iOS en los próximos meses, y la función con mapas de calles detallados llegarán a 50 nuevas ciudades para fin de año.

Android 12

Uno de los anuncios más esperados del encuentro era, sin dudas, Android 12 y lo dejaron casi para el final. Comenzaron hablando de la nueva estética de la interfaz para la próxima edición del sistema operativo móvil. Se llama Material You, integra elementos más grandes y multicolor. Debería funcionar con cualquier aplicación, y la idea es que integre automáticamente al estilo del usuario.

Cambios en la interfaz de
Cambios en la interfaz de Android 12

Diseño

“Android 12 incluye el mayor cambio de diseño en la historia de Android. Repensamos toda la experiencia, desde los colores hasta las formas, la luz y el movimiento”, se destacó en el comunicado oficial. A partir de hoy está disponible la versión beta de esta edición.

A partir de Android 12 en dispositivos Pixel, se podrá personalizar el teléfono con una paleta de colores determinada y widgets rediseñados. Se emplea lo que se llama extracción de color, lo cual permite que el usuario seleccione su fondo de pantalla y el sistema determine automáticamente qué tonos son dominantes y cuáles son complementarios. Luego aplica esos colores en todo el sistema operativo: el tono de notificación, la pantalla de bloqueo, los controles de volumen, los nuevos widgets y más.

También se simplificaron las interacciones para que la experiencia sea más fluida y eficiente. “Los dispositivos Android ahora son más rápidos y responden mejor con una mejor eficiencia energética para que se pueda usar el dispositivo durante más tiempo sin cargo. Esto se logró mediante algunas mejoras internas, incluida la reducción del tiempo de CPU necesario para los servicios del sistema central hasta en un 22% y la reducción del uso de núcleos grandes por parte del servidor del sistema hasta en un 15%”, se menciona en el blog oficial.

El tono de notificación es más intuitivo y se sumaron configuraciones rápidas que permiten controlar todo el sistema operativo más fácilmente. El espacio de Configuración rápida incluye Google Pay y Home Controls, al tiempo que permite la personalización para que pueda tener todo lo que más necesita en un lugar de fácil acceso.

Además, ahora se puede presionar prolongadamente el botón de encendido para invocar al Asistente para hacer una llamada telefónica, abrir aplicaciones, hacer preguntas o leer artículos en voz alta.

Privacidad y seguridad

Android 12 sumó mejoras en
Android 12 sumó mejoras en la privacidad del usuario

Android 12 incluye nuevas funciones que le brindan al usuario más transparencia respecto de qué aplicaciones acceden a los datos. También hay más controles para que el usuario pueda determinar de forma más sencilla qué permisos habilitar a las plataformas.

El nuevo Panel de privacidad ofrece una vista nueva de la configuración de sus permisos, así como a qué datos se accede, con qué frecuencia y mediante qué aplicaciones. También le permite al usuario revocar fácilmente los permisos de las apps directamente desde el panel de control.

Al igual que en la última versión de iOS 14, de Apple, se añadió un indicador en la parte superior derecha de la barra de estado para que la persona sepa cuándo sus aplicaciones están accediendo a su micrófono o cámara. Y si desea eliminar el acceso de la aplicación a estos sensores para el sistema, se podrá recurrir a dos nuevos accesos en Configuración rápida.

Con los nuevos permisos de ubicación aproximada, las aplicaciones pueden limitarse a ver solo la ubicación aproximada en lugar de una precisa. Este anuncio también sigue la línea de actualizaciones planteadas previamente por Apple.

También se incorporó Android Private Compute Core, que permite introducir nuevas tecnologías que son privadas por diseño, lo cual ofrece mayor seguridad desde el corazón mismo del sistema, utilizando inteligencia artificial.

En este sentido se puntualizó que Private Compute Core habilita que en las funciones como Respuestas Inteligentes o subtitulado en vivo, el procesamiento de audio e idioma se realizan en el dispositivo, y no en la red, con el objetivo de resguardar la privacidad del usuario.

SEGUIR LEYENDO:

Guardar