Vinculación de entidades neuronales en JPMorgan Chase: hacia la IA

Estás leyendo la publicación: Vinculación de entidades neuronales en JPMorgan Chase: hacia la IA

Publicado originalmente en Hacia la IA, la empresa líder mundial en noticias y medios de IA y tecnología. Si está creando un producto o servicio relacionado con la IA, lo invitamos a considerar convertirse en patrocinador de la IA. En Hacia la IA, ayudamos a escalar las empresas emergentes de IA y tecnología. Permítanos ayudarlo a dar rienda suelta a su tecnología a las masas.

Vinculación de entidades neuronales en JPMorgan Chase

¿Qué es la vinculación de entidades?

Es la tarea de asignar un identidad única a menciones ambiguas de entidades nombradas en un texto

Aquí, “” del texto recibe una identidad única a través de una URL (el tipo más común de URI) “”. Tenga en cuenta que el tipo de URI utilizado para identificar la entidad mencionada depende únicamente del dominio. Por ejemplo, en lugar de una dirección web, podríamos haber usado ISBN si tuviéramos que identificar libros de un texto.

JPMC estaba interesado en:

Mapeo de menciones de instituciones financieras de artículos de noticias a las entidades almacenadas en su base de conocimiento interna (almacenado como un Gráfico de conocimiento)

A continuación se muestra un ejemplo:

Hay dos sub-problemas que deben ser definidos:

  1. Reconocimiento:
    Extracción de menciones de artículos de noticias financieras. JPMC ha utilizado espacioso para esto.
  2. Enlace:
    Elegir la entidad correcta del gráfico de conocimiento interno para vincularla a las menciones extraídas en el paso anterior. El documento analiza este paso.

Una representación pictórica de esto se muestra a continuación:

  1. Coincidencia de cadenas
    Estos enfoques capturan la estructura “morfológica” de los nombres de las entidades. El equipo experimentó con
    (a) jaccard
    (b) Levenshtein
    (C) Ratcliff-Obershelp (también conocido como )
    (d) Jaro Winkler
    (mi) Similitud del coseno N-Gramo
🔥 Recomendado:  Ejemplos de aplicación de recuperación de información en imagen y texto: hacia la IA

La desventaja de estos enfoques es que se enfocan solo en el “sintáctica” de los nombres y no de la semántica. Un ejemplo de un caso de falla sería la combinación de “Lumier” y “Lumier”. Aunque son exactamente iguales, se refieren a dos entidades diferentes.

2. Métodos de similitud de contexto
Estos métodos toman los contextos alrededor de las menciones y entidades para dar una puntuación de similitud.
El Contexto para “mención” es texto a la izquierda y a la derecha de la mención, mientras que
el Contexto de “entidad” son todos los datos que se almacenan en el KG para esta entidad.
Finalmente, la similitud de coseno/similitud de Jaccard se puede usar sobre los vectores de contexto.

3. Clasificación de LA
Naive Bayes, Logistic Regression y SVM se entrenan en pares (mención, entidad) para encontrar los que deben vincularse

4. Aprenda a clasificar los métodos (LTR)
Estos modelos funcionan en conjunto con los enfoques de ML, lo que podría darnos múltiples pares (mención, entidad) como soluciones. Los enfoques LTR simplemente se reducen a la solución más probable.

La idea es capturar a ambos. Distancia semántica(el significado que representa o representa) y distancia sintáctica (composición de caracteres del nombre) entre los nombres y use una función de pérdida contrastiva para entrenar un modelo.

Veremos a continuación cómo se calculan paso a paso ambas distancias.

Paso 1: Obtener incrustaciones para Entidades y Menciones

Para llegar a ambas distancias, los autores han propuesto utilizar incrustaciones tanto para como en el KG.

Para obtener incrustacioneslos autores han utilizado un Función de pérdida de triplete (mostrado a continuación)

Para cada entidad, utilizaron 10 muestras positivas y 10 negativas, haciendo 10 trillizos.

🔥 Recomendado:  Día 4: Por qué elegimos Shopify sobre BigCommerce para nuestra tienda

A diferencia de las incrustaciones, que habían calculado previamente, las incrustaciones fueron capacitados utilizando el enfoque de incrustaciones sobre la marcha, donde la matriz de incrustación se aprende durante la capacitación misma.

Paso 2: calcular la puntuación de la distancia sintáctica

Antes de continuar, vale la pena mencionar Arquitectura “ancha y profunda” que fue presentado por Google en 2016. Puedes encontrar su blog oficial aquí. No entraremos en detalles, pero para dar un resumen, es una arquitectura que tiene dos componentes: el componente ancho y el componente profundo.

Sintáctico Distancia el cálculo de la puntuación se realiza mediante la parte WIDE, que consiste en una Red siamesa lineal.

La salida de la red siamesa son los vectores tanto para el como para el que luego se comparan para encontrar la distancia euclidiana.

Paso 3: Calcule la puntuación de distancia semántica

Semántico Distancia el cálculo de la puntuación se realiza utilizando la parte DEEP

eₖ es la incrustación preentrenada para “Apache Corp” que se calculó en el paso 1. Para obtener la incrustación de , sus palabras de contexto izquierda y derecha se introducen en una red Bi-LSTM que entrena las incrustaciones. Los vectores de incrustación de (Vₘ) y el (Vₑ) luego se utilizan para encontrar la distancia euclidiana:

Paso 4: Calcular la pérdida contrastiva

Tanto las distancias sintácticas como las semánticas se combinan de manera ponderada de la siguiente manera:

La función de pérdida contrastiva se combina entonces de la siguiente manera:

donde Y es el valor de verdad fundamental, donde un valor de 1 indica que la mención m y la entidad e coinciden, 0 en caso contrario.

🔥 Recomendado:  QuickSwap Gaming Hub, impulsado por Polygon, cambia su énfasis de jugar para ganar y hacia el disfrute y la propiedad

Combinando todas las piezas, el marco del modelo final se muestra a continuación:

Al momento de escribir este documento, JPMC aún estaba en el proceso de implementación del modelo que, una vez hecho, ayudará a los usuarios de JPMC a descubrir noticias relevantes y seleccionadas que son importantes para su negocio.

Desde la perspectiva del costo, no todas las menciones se alimentan a través del marco JEL, ya que sería computacionalmente costoso. JPMC ha puesto otra capa de bloqueo para canalizar las menciones que comparten menos de 2 bigramas con las entidades de sus KG internos.

Una vez más, aquí es el enlace del documento si desea leer el documento completo.


La vinculación de entidades neuronales en JPMorgan Chase se publicó originalmente en Towards AI en Medium, donde las personas continúan la conversación resaltando y respondiendo a esta historia.

Publicado a través de Hacia la IA