Google lanza la versión Alpha de AI Edge Gallery para ejecutar modelos de lenguaje en dispositivos Android sin conexión
Google presenta una app experimental que permite ejecutar modelos de lenguaje en dispositivos Android sin conexión, facilitando pruebas y comparación de IA offline.
Google ha lanzado la versión alfa de su app AI Edge Gallery, que permite ejecutar grandes modelos de lenguaje (LLM) directamente en dispositivos Android de forma completamente offline, una vez que el modelo está cargado. Actualmente, se planea también una versión para iOS.
La aplicación, disponible a través de GitHub y considerada un proyecto experimental, busca crear un entorno interactivo donde desarrolladores puedan probar distintas tareas de inteligencia artificial sin necesidad de programar. AI Edge Gallery ofrece acceso a varios modelos open source de Hugging Face y facilita la comparación de su rendimiento en diversas tareas.
Entre sus funcionalidades destacan la generación de texto, resúmenes de contenido, comprensión de imágenes y la posibilidad de mantener conversaciones continuas con la IA. Además, incluye análisis en tiempo real del rendimiento, con métricas de latencia y velocidad de decodificación, y soporta modelos optimizados para la runtime LiteRT de Google. También es posible importar modelos propios para su evaluación y uso.
El rendimiento de la app puede variar según la potencia del hardware del dispositivo móvil, y Google ha confirmado que están en planes futuras versiones para Google Play Store y App Store. Esta iniciativa forma parte del esfuerzo de la compañía por integrar más inteligencia artificial en sus plataformas, complementando actualizaciones recientes que incluyen mejoras en diseño, privacidad y funciones de IA en sus sistemas operativos.