in

Apple va a crear un IA superior a ChatGPT

Los creativos de Apple han desarrollado un sistema de Inteligencia Artificial llamado ReALM (Reference Resolution as Language Modeling) que tiene como objetivo mejorar de una forma espectacular la forma en que los asistentes de voz entienden y responden a los comandos.

En un documento de investigación (realizado a través de VentureBeat), Apple describe un nuevo sistema en el que se ve cómo los modelos de lenguaje grande abordan la resolución de referencia, lo que implica descifrar las referencias ambiguas a las entidades en pantalla, así como la comprensión del contexto conversacional y de fondo. Como resultado, ReALM podría conducir a interacciones más intuitivas y naturales con los dispositivos.

La resolución de referencias es una parte importante de la comprensión del lenguaje natural, que permite a los usuarios usar pronombres y otras referencias indirectas en la conversación sin confusión. Para los asistentes digitales, esta capacidad ha sido históricamente un desafío significativo, limitado por la necesidad de interpretar una amplia gama de señales verbales e información visual. El sistema ReALM de Apple busca abordar esto convirtiendo el complejo proceso de resolución de referencia en un problema de modelado de lenguaje puro. Al hacerlo, puede comprender las referencias a los elementos visuales que se muestran en una pantalla e integrar esta comprensión en el flujo conversacional.

ReALM es el futuro de Apple

ReALM reconstruye el diseño visual de una pantalla utilizando representaciones textuales. Esto implica analizar entidades en pantalla y sus ubicaciones para generar un formato textual que capture el contenido y la estructura de la pantalla. Los investigadores de Apple descubrieron que esta estrategia, combinada con el ajuste específico de los modelos de lenguaje para las tareas de resolución de referencia, supera significativamente a los métodos tradicionales, incluidas las capacidades del GPT-4 de OpenAI.

ReALM podría permitir a los usuarios interactuar con los asistentes digitales de manera mucho más eficiente con referencia a lo que se muestra actualmente en su pantalla sin necesidad de instrucciones precisas y detalladas. Esto tiene el potencial de hacer que los asistentes de voz sean mucho más útiles en una variedad de entornos, como ayudar a los conductores a navegar por los sistemas de infoentretenimiento mientras conducen o ayudar a los usuarios con discapacidades al proporcionar un medio de interacción indirecta más fácil y preciso.

Apple ha publicado varios artículos de investigación de IA. En el mes de marzo de 2023, la compañía reveló un nuevo método para entrenar grandes modelos de lenguaje que integra a la perfección tanto el texto como la información visual. Se espera que Apple nos descubra algunas de sus características de IA en la WWDC en junio. Yo realmente quiero saber muchas cosas, especialmente qué va a pasar con Siri, si va a ser su nueva IA o va a desaparecer.

Written by Isabel Suárez

Soy una amante de la tecnología.