Todo sobre el evento de inteligencia artificial “Live From Paris” de Google en 4 minutos en lugar de 40

Todo sobre el evento de inteligencia artificial “Live From Paris” de Google en 4 minutos en lugar de 40

Google llevó a cabo un evento de IA titulado "Live From Paris" el 8 de febrero de 2023. En este evento, los empleados de alto nivel de Google anunciaron los avances de Google en el campo de la IA y cómo el mundo va a experimentar cambios importantes en el campo de la IA. Búsqueda, mapas, arte y cultura y viajes.

Google celebra su 25.º aniversario este año. Este evento fue el primer evento del año 2023 y hubo algunas deficiencias que enumeramos al final de este artículo.

El evento completo de 40 minutos aún se puede ver en YouTube haciendo clic en este enlace.

O

Simplemente lea todo lo importante en 4 minutos.

¿Qué podemos esperar de Google en el futuro cercano?

Google Bard

Google anunció su nuevo servicio de chatbot de IA llamado Bard, que ya está causando sensación en la industria tecnológica. Le proporciona respuestas informativas y pertinentes a sus consultas, Bard hace uso de la tecnología LaMDA (Language Model for Dialogue Applications). Actualmente, aplicaciones como Bard y ChatGPT solo producen una respuesta por pregunta.

Google ha declarado que una variante "ligera" del modelo estará disponible en una prueba temprana. fase previa a su lanzamiento total. La fase de pruebas por parte de testers internos y externos ya ha comenzado. Muchas preguntas pueden tener múltiples soluciones posibles, por lo tanto, la nueva Búsqueda de Google proporcionará resultados de búsqueda convencionales y respuestas similares a las de AI ChatBot.

Google Translate

Más Mil millones de personas en todo el mundo utilizan Google Translate en 133 idiomas. En el mundo real, las personas desplazadas de Ucrania han descubierto que esta aplicación les salva la vida a medida que los refugiados se trasladan a muchos países diferentes de Europa. Google ha añadido recientemente 33 nuevos idiomas (corso, latín, yiddish, etc.) en el modo fuera de línea para que los usuarios puedan comunicarse sin Internet.

Un nuevo avance importante en la aplicación Google Translate es que pronto ofrecerá Múltiples significados para palabras que están diseñadas para usarse en más de un contexto. Esta función comenzará en inglés, alemán, francés, japonés y español y pronto se mostrarán en más idiomas. Tomemos, por ejemplo, la palabra 'Contenido' que puede usarse para sentirse feliz y describir el material (texto, video, audio).

Lens Multisearch

Los usuarios de Google pueden comprobar cualquier cosa en Internet tomándole una fotografía o utilizando una imagen f desde el banco de fotos de su dispositivo. La Lente se utiliza diez mil millones de veces cada mes, lo que indica que la búsqueda visual ha pasado de ser una novedad a una realidad. Los usuarios pueden buscar elementos específicos en imágenes o videos. Google Lens puede reconocer la estructura utilizando la capacidad de buscar el nombre de un edificio en un video. Esta nueva funcionalidad de Lens estará disponible en los próximos meses.

Una de las principales atracciones del evento fue la búsqueda múltiple de Google Lens. Usar tanto texto como una imagen para buscar algo es la idea principal. Por ejemplo, puedes tomar una fotografía de una camisa e ingresar el color en el que deseas comprarla. Esta función ha sido implementada por Google en todo el mundo.

Multibúsqueda cerca de mí

Google también demostró la “búsqueda múltiple cerca de mí”, que le permite buscar elementos como una comida específica o un artículo específico cercano. Actualmente, sólo es accesible en EE. UU. Los usuarios de Android pronto podrán utilizar Google Lens para realizar búsquedas de texto e imágenes sin tener que salir de la pantalla actual.

Vista inmersiva

Vista inmersiva, que fue diseñado únicamente para lugares emblemáticos, ahora está disponible en cinco ciudades: Londres, Los Ángeles, Nueva York, San Francisco y Tokio. Los usuarios pueden volar virtualmente sobre edificios para inspeccionar entradas, patrones de tráfico e incluso áreas concurridas. Pueden acceder a Google Maps para ver direcciones y hacer que las flechas de realidad aumentada de sus dispositivos proyecten direcciones en ubicaciones reales.

Los usuarios pueden usar el control deslizante de tiempo para ver cómo aparece una ubicación en varios veces. Los usuarios pueden incluso ver cómo se verá un lugar en distintos momentos del día y en diferentes condiciones climáticas, así como cuándo estaría menos concurrido. Los usuarios de Immersive View pueden incluso usar la aplicación para ver el interior de los cafés con el fin de explorar el lugar antes de visitarlos.

Los usuarios también pueden tener una idea de cómo aparece una ubicación en el interior con una Immersive View antes de llegar. Google hace esto con la ayuda de campos de radiación neuronal (NeRF), un método de inteligencia artificial que crea una escena renderizada en 3D a partir de muchas fotografías tomadas desde varias perspectivas mediante el mapeo del color y la luz. Los recorridos que se pueden explorar se realizan utilizando NeRF.

También se exhibió Interior Live View, una solución AR comparable para áreas interiores como aeropuertos y centros comerciales. Permite a los usuarios localizar rápidamente elementos como reclamos de equipaje, el ascensor más cercano y los patios de comidas. Se introduce a las 1.000 nuevas ubicaciones, incluidos centros comerciales, estaciones de tren y aeropuertos.

Filtro de carga de vehículos eléctricos

Google también está lanzando algunas herramientas nuevas para ayudar a los conductores de vehículos eléctricos. Para viajes rápidos, Google Maps recomendará estaciones de carga, con un filtro “muy rápido”. Cuando busque ubicaciones como hoteles o supermercados, también se mostrarán las estaciones de carga (si están disponibles). Estas funciones estarán disponibles para los vehículos eléctricos con Google Maps integrado.

Google Arts & Culture

Google proporcionó una actualización sobre Woolaroo, una aplicación fotográfica basada en IA. herramienta de traducción que se introdujo en mayo de 2021. Su objetivo es reconocer cosas en imágenes y proporcionar a los usuarios sus nombres en muchos idiomas en peligro de extinción.

Ahora se centró en utilizar el instrumento para preservar los aportes de las mujeres a la ciencia, entre otras cosas. El equipo de arte y cultura descubrió logros previamente ocultos de mujeres científicas mediante el uso de IA para evaluar fotografías y registros científicos históricos.

Google también empleó algoritmos de IA para analizar obras de arte conocidas, dando clientes una experiencia de realidad aumentada que les permitió ver la obra de arte hasta la última pincelada usando solo sus teléfonos inteligentes.

Algo picante: algunas deficiencias del evento de inteligencia artificial “Live From Paris” de Google

Todos los oradores estuvieron torpemente durante todo el evento.

Puede que este no sea un punto importante a la hora de juzgar el éxito de un evento, pero todos los oradores presentes en varias secciones de los eventos estuvieron torpemente durante todo el evento mientras hablaban. Parecía que no estaban listos para el evento o que el contenido del evento podría haber cambiado un poco después de que se llevó a cabo el evento de Microsoft sobre la integración de Bing con ChatGPT un día antes.

Google Bard no era el Centro de atracción del evento.

La mayoría de nosotros esperábamos que Google Bard fuera el principal punto de discusión pero, sorprendentemente, no hubo ninguna nueva revelación sobre Bard. Google había anunciado cierta información sobre Bard unos días antes de este evento y lo mismo se reiteró en el evento.

El dispositivo de prueba desapareció.

Si Si espera que Google lleve a cabo un evento, entonces probablemente será perfecto. Pueden ocurrir algunas deficiencias porque las cosas no siempre salen como las planeas. Pero la desaparición de un dispositivo de prueba demuestra una falta de preparación para el evento. Por eso nos perdimos la demostración de la funcionalidad de búsqueda múltiple. . Probablemente es por eso que el evento de 40 minutos se completó en 38 minutos.

Es posible que Google Bard no sea preciso en todo momento.

La tecnología AI ChatBot es bastante nuevo y podemos esperar cierto grado de imprecisiones por parte de Google Bard y sus rivales. Hay un ejemplo en particular, donde la demostración publicada por Google sobre las respuestas de Bard a un niño de 9 años contiene información un poco inexacta.

La NASA afirma que el último punto es inexacta ya que las primeras fotografías de un exoplaneta fueron tomadas por el Telescopio Espacial Hubble. (Artículo de referencia)

Su opinión sobre el evento de IA “Live From Paris” de Google

Los nuevos proyectos emprendidos por Google resultan interesantes y más atractivos que la integración de Bing de Microsoft con el evento ChatGPT celebrado ayer. Tenemos que esperar un tiempo antes de poder utilizar todas estas funciones impulsadas por la IA y luego observar por nosotros mismos cómo la IA hará que nuestras vidas sean mejores que antes.

Háganos saber en los comentarios a continuación si tiene alguna preguntas o recomendaciones. Estaremos encantados de ofrecerle una resolución. Con frecuencia publicamos consejos, trucos y soluciones a problemas comunes relacionados con la tecnología. También puede encontrarnos en Facebook, Twitter, YouTube, Instagram, Flipboard y Pinterest.

Leer: 0

yodax