SearchGPT mejora las capacidades de búsqueda, Meta SAM2 puede segmentar hasta videos, Apple inaugura la era de los LLM locales: las 3 noticias sobre IA más importantes de la semana

Nuestro último resumen de IA cubre las noticias más importantes de la semana. Ihar Nestsiarenia, Lead Machine Learning Engineer de EPAM, comenta las noticias clave.

Lead Machine Learning Engineer Ihar Nestsiarenia


#1 — Se anuncia SearchGPT

OpenAI ha presentado SearchGPT, un prototipo que integra IA con datos web en tiempo real para mejorar las capacidades de búsqueda. Es similar a Perplexity y a las recientes actualizaciones de búsqueda anunciadas en la conferencia Google I/O 2024. SearchGPT va a proporcionar información actualizada con enlaces a recursos y responder a preguntas. Una característica clave es el plan de OpenAI de asociarse con editores y creadores de contenidos para resolver problemas potenciales en el uso de contenidos. Este enfoque está dando forma a la industria: Perplexity también tiene pensado compartir los ingresos por publicidad con las empresas de medios de comunicación cuyos contenidos se utilicen en las respuestas de la plataforma. Actualmente, solo es posible inscribirse en la lista de espera de SearchGPT.

EngX AI-Supported Testing
Leverage generative AI to minimize repetitive efforts throughout the software testing lifecycle.
View coursearrow-right-blue.svg

#2 — Meta SAM 2 ya segmenta videos

Meta Segment Anything Model 2 (SAM 2) amplía las capacidades del SAM original al video. Utilizando una arquitectura de transformadores con memoria streaming, SAM 2 puede procesar videos en tiempo real, creando mapas detallados de los objetos. Este modelo difiere de la típica comprensión visual de imágenes: ofrece resultados más precisos y predecibles. Resulta especialmente útil para sistemas robóticos y análisis de video.

#3 — Apple inaugura la era de los LLM locales

La última versión beta para desarrolladores de iOS 18.1 introduce Apple Inteligence, que se destaca por su integración entre productos y nuevas funciones. Entre ellas, es clave el uso de LLM locales mejorados por adaptadores especializados (LoRA) para tareas como resúmenes y corrección de errores. Esto significa que, incluso con un modelo relativamente pequeño alojado en el teléfono, Apple introduce un mecanismo para mejorar la especialización del modelo. Esta actualización marca el inicio de la era LLM local. Además, Apple ha habilitado la llamada a funciones, API externas para desarrolladores y ha publicado un informe técnico exhaustivo.

Publicaciones relacionadas
Sigue las noticias en tus plataformas favoritas