La investigación de Google encuentra un mejor aprendizaje automático


Google explora recientemente una técnica llamada ajuste fino de instrucción para entrenar un modelo para que pueda dar con problemas de procesamiento del lenguaje natural de una manera general. En lugar de entrenar un modelo para dar con un tipo de problema, este enfoque le enseña cómo dar con una amplia gama de problemas, haciéndolo más eficiente y avanzando en el estado del arte.

Google no utiliza todas las investigaciones en sus algoritmos

La declaración oficial de Google sobre los trabajos de investigación es que el hecho de que publique un algoritmo no significa que esté en uso en la Búsqueda de Google.

Nada en el artículo de investigación dice que deba usarse en la búsqueda. Pero lo que hace que esta investigación sea de interés es que avanza el estado del arte y mejora la tecnología actual.

El valor de conocer la tecnología

Las personas que no saben cómo funcionan los motores de búsqueda pueden terminar entendiéndolo en términos que son pura especulación.

Así es como la industria de la búsqueda terminó con ideas falsas como «Palabras clave LSI» y estrategias sin sentido como tratar de vencer a la competencia creando contenido diez veces mejor (o simplemente más grande) que el contenido de la competencia, sin tener en cuenta qué usuarios podría necesitar y requerir.

Anuncio publicitario

Continuar leyendo a continuación

El valor de conocer estos algoritmos y técnicas es ser consciente de los contornos generales de lo que sucede en los motores de búsqueda para no cometer el error de subestimar lo que los motores de búsqueda son capaces de hacer.

El problema que resuelve FLAN

El principal problema que resuelve esta técnica es permitir que una máquina utilice su gran cantidad de conocimientos para dar con tareas del mundo real.

El enfoque le enseña a la máquina cómo generalizar la resolución de problemas a problemas invisibles al alimentar instrucciones para dar con problemas específicos y luego generalizar esas instrucciones para dar con otros problemas.

Los investigadores afirman:

“El modelo se ajusta a distintos conjuntos de instrucciones y se generaliza a instrucciones invisibles. A medida que se agregan más tipos de tareas al ajuste fino del modelo de datos, mejora el rendimiento.

… Demostramos que al entrenar a un modelo en estas instrucciones, no solo se vuelve bueno para dar con los tipos de instrucciones que ha visto durante el entrenamiento, sino que también se vuelve bueno para seguir instrucciones en general «.

Anuncio publicitario

Continuar leyendo a continuación

El artículo de investigación cita una técnica popular actual llamada «indicaciones de disparo cero o de pocos disparos» que entrena una máquina para resolver un problema de lenguaje específico y describe las deficiencias de esta técnica.

Haciendo referencia a la técnica de indicación de disparos cero / pocos disparos:

“Esta técnica formula una tarea basada en texto que un modelo de lenguaje podría haber visto durante el entrenamiento, donde luego el modelo de lenguaje genera la respuesta al completar el texto.

Por ejemplo, para clasificar el sentimiento de una reseña de una película, un modelo de lenguaje podría recibir la oración «La reseña de la película ‘mejor RomCom desde Pretty Woman’ es _» y pedirle que complete la oración con la palabra «positivo» o «negativo».»

Los investigadores señalan que el enfoque de disparo cero funciona bien, pero que el rendimiento debe medirse con tareas que el modelo ha visto anteriormente.

Los investigadores escriben:

«… requiere una ingeniería rápida y cuidadosa para diseñar tareas de modo que se parezcan a los datos que el modelo ha visto durante el entrenamiento …»

Y ese tipo de deficiencia es lo que FLAN resuelve. Debido a que las instrucciones de entrenamiento están generalizadas, el modelo puede dar con más problemas, incluida la resolución de tareas en las que no se ha entrenado previamente.

¿Podría Google utilizar esta técnica?

Google rara vez analiza trabajos de investigación específicos y si lo que se describe está en uso o no. La postura oficial de Google sobre los trabajos de investigación de que publica muchos de ellos y que no necesariamente terminan en su algoritmo de clasificación de búsqueda.

Google es generalmente opaco sobre lo que contienen sus algoritmos y con razón.

Incluso cuando anuncia nuevas tecnologías, Google tiende a darles nombres que no se corresponden con los trabajos de investigación publicados. Por ejemplo, nombres como Neural Matching y Rank Brain no se corresponden con trabajos de investigación específicos.

Es importante revisar el éxito de la investigación porque algunas investigaciones no alcanzan sus objetivos y no funcionan tan bien como el estado actual del arte en técnicas y algoritmos.

Esos artículos de investigación que se quedan cortos pueden ignorarse más o menos, pero es bueno conocerlos.

Los trabajos de investigación que son más valiosos para la comunidad de marketing de búsqueda son aquellos que tienen éxito y funcionan significativamente mejor que el estado actual de la técnica.

Anuncio publicitario

Continuar leyendo a continuación

Y ese es el caso de FLAN.

FLAN funciona mejor que otras técnicas y por esa razón FLAN es algo a tener en cuenta.

Los investigadores anotaron:

“Evaluamos FLAN en 25 tareas y descubrimos que mejora con respecto a las indicaciones de disparo cero en todas menos cuatro. Descubrimos que nuestros resultados son mejores que el GPT-3 de disparo cero en 20 de 25 tareas, y mejores incluso que el GPT-3 de pocos disparos en algunas tareas «.

Inferencia de lenguaje natural

La tarea de inferencia de lenguaje natural es aquella en la que la máquina tiene que determinar si una premisa determinada es verdadera, falsa o indeterminada / neutral (ni verdadera ni falsa).

Rendimiento de inferencia de lenguaje natural de FLAN

Inferencia de lenguaje natural

Comprensión lectora

Esta es una tarea de responder una pregunta basada en el contenido de un documento.

Anuncio publicitario

Continuar leyendo a continuación

Rendimiento de comprensión lectora de FLAN

Comprensión lectora

Control de calidad a libro cerrado

Esta es la capacidad de responder preguntas con datos fácticos, que prueba la capacidad de relacionar hechos conocidos con las preguntas. Un ejemplo es responder preguntas como de qué color es el cielo o quién fue el primer presidente de Estados Unidos.

Rendimiento de control de calidad a libro cerrado de FLAN

Control de calidad de libro cerrado

¿Google utiliza FLAN?

Como se indicó anteriormente, Google generalmente no confirma si están usando un algoritmo o técnica específicos.

Anuncio publicitario

Continuar leyendo a continuación

Sin embargo, el hecho de que esta técnica en particular haga avanzar el estado de la técnica podría significar que no es descabellado especular que alguna forma de ella podría integrarse en el algoritmo de Google, mejorando su capacidad para responder consultas de búsqueda.

Esta investigación fue publicada el 28 de octubre de 2021.

¿Podría haberse incorporado algo de esto en la reciente Actualización del algoritmo central?

Las actualizaciones de algoritmos centrales generalmente se enfocan en comprender mejor las consultas y las páginas web y brindar mejores respuestas.

Solo se puede especular, ya que Google rara vez comparte detalles, especialmente con respecto a las actualizaciones del algoritmo central.

Citación

Presentamos FLAN: modelos de lenguaje más generalizables con perfeccionamiento de instrucciones

Imagen de Shutterstock





Consultar el artículo en la publicación original

La investigación de Google encuentra un mejor aprendizaje automático
× +info?
A %d blogueros les gusta esto: