Núcleo definido positivo

De testwiki
Revisión del 12:56 11 feb 2025 de imported>Downcellot (growthexperiments-addlink-summary-summary:1|2|0)
(difs.) ← Revisión anterior | Revisión actual (difs.) | Revisión siguiente → (difs.)
Ir a la navegación Ir a la búsqueda

En teoría de operadores, una rama de las matemáticas, un núcleo definido positivo es una generalización del concepto de función definida positiva o de matriz definida positiva. Fue introducido por primera vez por James Mercer a principios del Plantilla:Siglo, en el contexto de la resolución de ecuaciones con integrales. Desde entonces, las funciones definidas positivas y sus diversos análogos y generalizaciones han surgido en diversas partes de las matemáticas. Aparecen naturalmente en el análisis de Fourier, en la teoría de la probabilidad, en la teoría de operadores, en la teoría de funciones complejas, en problemas de momentos, en ecuaciones integrales, problemas de condiciones de contorno para ecuaciones en derivadas parciales, en aprendizaje automático, en problemas de embebido, en teoría de la información y en otras áreas.

Este artículo discute algunos de los desarrollos históricos y actuales de la teoría de los núcleos definidos positivos, comenzando con la idea general y las propiedades antes de considerar sus aplicaciones prácticas.

Definición

Sea 𝒳 un conjunto no vacío, a veces denominado conjunto índice. Una función simétrica K:𝒳×𝒳 se denomina núcleo definido positivo (d.p.) en 𝒳 si Plantilla:NumBlk se cumple para cualquier x1,,xn𝒳, dado n,c1,,cn.

En la teoría de la probabilidad, a veces se hace una distinción entre núcleos definidos positivos, para los cuales la igualdad en (1.1) implica ci=0(i), y núcleos semidefinidos positivos (s.d.p.), que no imponen esta condición. Téngase en cuenta que esto es equivalente a exigir que cualquier matriz finita construida mediante evaluación por pares, 𝐊ij=K(xi,xj), tenga autovalores completamente positivos (d.p.) o no negativos (s.d.p.).

En la literatura matemática, los núcleos suelen ser funciones de valores complejos, pero en el presente artículo figuran funciones de valores reales, que es la práctica común en las aplicaciones de núcleos d.p.

Algunas propiedades generales

  • Para una familia de núcleos d.p. (Ki)i,  Ki:𝒳×𝒳
    • La suma cónica i=1nλiKi es d.p., dado λ1,,λn0
    • El producto K1a1Knan es d.p., dado a1,,an
    • El límite K=limnKn es d.p. si el límite existe.
  • Si (𝒳i)i=1n es una secuencia de conjuntos y (Ki)i=1n,  Ki:𝒳i×𝒳i es una secuencia de núcleos d.p., entonces tanto
    K((x1,,xn),(y1,,yn))=i=1nKi(xi,yi)

como

    K((x1,,xn),(y1,,yn))=i=1nKi(xi,yi) son núcleos d.p. en 𝒳=𝒳1××𝒳n.
  • Sea 𝒳0𝒳. Entonces la restricción K0 de K a 𝒳0×𝒳0 también es un núcleo d.p.

Ejemplos de núcleos definidos positivos

  • Ejemplos comunes de núcleos d.p. definidos en el espacio euclídeo d incluyen:
    • Núcleo lineal: K(𝐱,𝐲)=𝐱T𝐲,𝐱,𝐲d.
    • Núcleo polinómico: K(𝐱,𝐲)=(𝐱T𝐲+r)n,𝐱,𝐲d,r0,n1.
    • Núcleo gaussiano (función núcleo de base radial): K(𝐱,𝐲)=e𝐱𝐲22σ2,𝐱,𝐲d,σ>0.
    • Núcleo laplaciano: K(𝐱,𝐲)=eα𝐱𝐲,𝐱,𝐲d,α>0.
    • Núcleo de Abel: K(x,y)=eα|xy|,x,y,α>0.
    • Núcleo que genera espacios de Sóbolev W2k(d): K(x,y)=xy2kd2Bkd2(xy2), donde Bν es la función de Bessel de tercera especie.
    • Núcleo que genera el espacio de Paley-Wiener: K(x,y)=sinc(α(xy)),x,y,α>0.
  • Si H es un espacio de Hilbert, entonces su producto interno correspondiente (,)H:H×H es un núcleo d.p. De hecho, se tiene que i,j=1ncicj(xi,xj)H=(i=1ncixi,j=1ncjxj)H=i=1ncixiH20
  • Núcleos definidos en +d e histogramas: los histogramas se encuentran con frecuencia en aplicaciones de problemas de la vida real. La mayoría de las observaciones suelen estar disponibles en forma de vectores de conteo no negativos que, si se normalizan, producen histogramas de frecuencias. Se ha demostrado[1] que la siguiente familia de métricas al cuadrado, respectivamente la divergencia de Jensen, el cuadrado χ, la variación total y dos variaciones de la distancia de Hellinger: ψJD=H(θ+θ2)H(θ)+H(θ)2,ψχ2=i(θiθi)2θi+θi,ψTV=i|θiθi|,ψH1=i|θiθi|,ψH2=i|θiθi|2, se pueden utilizar para definir núcleos d.p. utilizando la siguiente fórmula K(θ,θ)=eαψ(θ,θ),α>0.

Historia

Los núcleos definidos positivos, como se definen en (1.1), aparecieron por primera vez en 1909 en un artículo sobre ecuaciones integrales de James Mercer.[2] Varios otros autores hicieron uso de este concepto en las siguientes dos décadas, pero ninguno de ellos usó explícitamente núcleos K(x,y)=f(xy), es decir, funciones d.p. (de hecho, M. Mathias y S. Bochner parecen no haber estado al tanto de estos estudios). El trabajo de Mercer surgió del artículo de Hilbert de 1904[3] sobre las ecuaciones integrales de Fredholm del segundo tipo:

    Plantilla:NumBlk

En particular, Hilbert había demostrado que:

    Plantilla:NumBlk

donde K es un núcleo simétrico real continuo, x es continuo, {ψn} es un sistema completo de orthonormal eigenfunctions y los λn son los correspondientes autovalores de (1.2). Hilbert ideó la definición de un núcleo definido como uno para el cual la integral doble

J(x)=ababK(s,t)x(s)x(t) dsdt

satisface que J(x)>0 excepto para x(t)=0. El objeto original del artículo de Mercer era caracterizar los núcleos que son definidos en el sentido de Hilbert, pero pronto descubrió que la clase de tales funciones era demasiado restrictiva para caracterizarlas en términos de determinantes. Por lo tanto, definió un núcleo simétrico real continuo K(s,t) como de tipo positivo (es decir, definido positivo) si J(x)0 para todas las funciones continuas reales x sobre [a,b], y demostró que (1.1) es una condición necesaria y suficiente para que un núcleo sea de tipo positivo. Luego demostró que para cualquier núcleo d.p. la expansión

K(s,t)=nψn(s)ψn(t)λn

se mantiene absoluta y uniformemente.

Aproximadamente al mismo tiempo, W. H. Young,[4] motivado por una pregunta diferente en la teoría de ecuaciones integrales, demostró que para núcleos continuos la condición (1.1) es equivalente a J(x)0 para todo xL1[a,b].

E.H. Moore[5][6] inició el estudio de un tipo muy general de núcleo d.p. Si E es un conjunto abstracto, llama a las funciones K(x,y) definidas en E×E matrices hermíticas positivas si cumplen (1.1) para todo xiE. Moore estaba interesado en la generalización de ecuaciones integrales y demostró que para cada K existe un espacio de Hilbert H de funciones tales que, para cada fH,f(y)=(f,K(,y))H. Esta propiedad se denomina propiedad de reproducción del núcleo y resulta ser importante en la solución de problemas de valores de frontera para ecuaciones diferenciales parciales elípticas.

Otra línea de desarrollo en la que los núcleos d.p. jugaron un papel importante fue la teoría de los armónicos en espacios homogéneos, iniciada por E. Cartan en 1929, y continuada por H. Weyl y S. Ito. La teoría más completa sobre núcleos d.p. en espacios homogéneos es la de Mark Krein[7] que incluye como casos especiales el trabajo sobre funciones d.p. e irreducibles representaciones unitarias de grupos localmente compactos.

En la teoría de la probabilidad los núcleos d.p. surgen como núcleos de covarianza de procesos estocásticos.[8]

Conexión con la reproducción de núcleos de espacios de Hilbert y mapas de características

Plantilla:VT

Los núcleos definidos positivos proporcionan un marco que abarca algunas construcciones espaciales básicas de Hilbert. A continuación, se presenta una estrecha relación entre los núcleos definidos positivos y dos objetos matemáticos, a saber, la reproducción de núcleos de espacios de Hilbert y mapas de características.

Sea X un conjunto, H un espacio de Hilbert de funciones f:X y (,)H:H×H el producto interno correspondiente en H. Para cualquier xX, la evaluación funcional ex:H está definida por fex(f)=f(x). Primero se define un espacio de Hilbert del núcleo de reproducción (EHRN):

Definición: Un espacio

H

es denominado espacio de Hilbert con reproducción del núcleo si los funcionales valoración son continuos.

Cada EHRN tiene una función especial asociada, a saber, el núcleo reproductor:

Definición: El núcleo reproductor es una función

K:X×X

tal que

  1. Kx()H,xX, y
  2. (f,Kx)=f(x), para todo fH y xX.

La última propiedad se llama la propiedad de reproducción.

El siguiente resultado muestra la equivalencia entre EHRN y la reproducción de los núcleos: Plantilla:Teorema

Ahora, la conexión entre los núcleos definidos positivos y los EHRN viene dada por el siguiente teorema Plantilla:Teorema

Por lo tanto, dado un núcleo definido positivo K, es posible construir un EHRN asociado con K como núcleo reproductor.

Como se indicó anteriormente, los núcleos definidos positivos se pueden construir a partir de productos internos. Este hecho se puede utilizar para conectar los núcleos d.p. con otro objeto interesante que surge en las aplicaciones de aprendizaje automático, a saber, el mapa de características. Sea F un espacio de Hilbert y (,)F el producto interno correspondiente. Cualquier mapa Φ:XF se denomina mapa de características. En este caso se denomina F al espacio de características. Es fácil ver[9] que cada mapa de características define un único núcleo d.p. por

K(x,y)=(Φ(x),Φ(y))F.

De hecho, la definición positiva de K se deriva de la propiedad del producto interior definido positivo. Por otro lado, cada núcleo d.p. y su EHRN correspondiente tienen muchos mapas de características asociados. Por ejemplo: sean F=H, y Φ(x)=Kx para todo xX. Entonces (Φ(x),Φ(y))F=(Kx,Ky)H=K(x,y), por la propiedad de reproducción. Esto sugiere una nueva visión de los núcleos d.p. como productos internos en espacios de Hilbert propios, o en otras palabras, los núcleos d.p. se pueden ver como mapas de similitud que cuantifican de manera efectiva lo similares que son dos puntos x e y a través del valor K(x,y). Además, mediante la equivalencia de núcleos d.p. y su correspondiente EHRN, cada mapa de características se puede utilizar para construir un EHRN.

Núcleos y distancias

Los métodos del núcleo a menudo se comparan con los métodos basados en la distancia, como vecinos más próximos. En esta sección se discuten los paralelismos entre sus dos ingredientes respectivos, a saber, los núcleos K y las distancias d.

Aquí, por una función de distancia entre cada par de elementos de algún conjunto X, se hace referencia a una métrica definida en ese conjunto, es decir, cualquier función de valor no negativo d en 𝒳×𝒳 que satisfaga

  • d(x,y)0 y d(x,y)=0 si y solo si x=y,
  • d(x,y)=d(y,x),
  • d(x,z)d(x,y)+d(y,z).

Un enlace entre distancias y núcleos d.p. está dada por un tipo particular de núcleo, llamado núcleo definido negativo, caracterizado de la siguiente manera

Definición: Una función simétrica

ψ:𝒳×𝒳

se denomina núcleo definido negativo (d.n.) sobre

𝒳

si

    Plantilla:NumBlk

mantiene para cualquier n,x1,,xn𝒳, y c1,,cn tales que i=1nci=0.

El paralelismo entre núcleos d.n. y distancias es el siguiente: siempre que un núcleo d.n. desaparece en el conjunto {(x,x):x𝒳}, y es cero solo en este conjunto, entonces su raíz cuadrada es una distancia para 𝒳.[10] Al mismo tiempo cada distancia no corresponde necesariamente a un núcleo d.n. Esto solo es cierto para distancias hilbertianas, en las que la distancia d se llama hilbertiana si se puede embeber el espacio métrico (𝒳,d) isométricamente en algún espacio de Hilbert.

Por otra parte, los núcleos d.n. se pueden identificar con una subfamilia de núcleos d.p. conocidos como núcleos infinitamente divisibles. Se dice que un núcleo K de valor no negativo es infinitamente divisible si para cada n existe un núcleo Kn definido positivo tal que K=(Kn)n.

Otra relación es que un núcleo d.p. induce una pseudométrica, donde la primera restricción en la función de distancia se relaja para permitir que d(x,y)=0 para xy. Dado un núcleo definido positivo K, se puede definir una función de distancia como:

    d(x,y)=K(x,x)2K(x,y)+K(y,y)

Algunas aplicaciones

Núcleos en el aprendizaje automático

Plantilla:VT

Los núcleos definidos positivos, a través de su equivalencia con la reproducción de espacios de Hilbert del núcleo, son particularmente importantes en el campo de la teoría del aprendizaje estadística debido al célebre teorema de representación que establece que cada función minimizadora en un EHRN se puede escribir como una combinación lineal de la función del núcleo evaluada en los puntos de entrenamiento. Este es un resultado útil en la práctica, ya que simplifica eficazmente el problema de minimización de riesgos empíricos de un problema de optimización de dimensión infinita a uno de dimensión finita.

Núcleos en modelos probabilísticos

Hay varias formas diferentes en las que surgen núcleos en la teoría de la probabilidad.

  • Problemas de recuperación no deterministas: supóngase que se quiere encontrar la respuesta f(x) de una función modelo desconocida f en un nuevo punto x de un conjunto 𝒳, siempre que se tenga una muestra de pares de entrada-salida (xi,fi)=(xi,f(xi)) dada por observación o experimento. La respuesta fi en xi no es una función fija de xi sino una realización de una variable aleatoria de valor real Z(xi). El objetivo es obtener información sobre la función E[Z(xi)] que reemplaza a f en la configuración determinista. Para dos elementos x,y𝒳, las variables aleatorias Z(x) y Z(y) no estarán descorrelacionadas, porque si x está demasiado cerca de y, los experimentos aleatorios descritos por Z(x) y Z(y) a menudo mostrarán un comportamiento similar. Esto se describe mediante un núcleo de covarianza K(x,y)=E[Z(x)Z(y)]. Tal núcleo existe y es positivo-definido bajo suposiciones adicionales débiles. Sin embargo, se puede obtener una buena estimación de Z(x) utilizando la interpolación con el núcleo de covarianza, ignorando por completo el fondo probabilístico.

Supóngase ahora que una variable de ruido ϵ(x), con media cero y varianza σ2, se agrega a x, de modo que el ruido es independiente para diferentes x e independiente de Z, entonces el problema de encontrar una buena estimación para f es idéntico al anterior, pero con un núcleo modificado proporcionado por K(x,y)=E[Z(x)Z(y)]+σ2δxy.

  • Estimación de densidad por núcleos: el problema es recuperar la densidad f de una distribución multivariante sobre un dominio 𝒳, a partir de una muestra grande x1,,xn𝒳 incluyendo repeticiones. Cuando los puntos de muestreo son densos, la verdadera función de densidad debe tomar valores grandes. Es posible una estimación de densidad simple contando el número de muestras en cada celda de una cuadrícula y trazando el histograma resultante, que produce una estimación de densidad constante por partes. Se puede obtener una mejor estimación utilizando un núcleo invariante de traslación no negativa K, con integral total igual a uno, y definiendo f(x)=1ni=1nK(xxih) como una estimación suave.

Solución numérica de ecuaciones diferenciales parciales

Plantilla:VT

Una de las mayores áreas de aplicación de los llamados métodos sin malla es la solución numérica de ecuaciones en derivadas parciales. Algunos de los métodos populares sin malla están estrechamente relacionados con los núcleos definidos positivos (como el método sin malla local de Petrov Galerkin, el método de partícula del núcleo de reproducción y la hidrodinámica de partículas suavizadas). Estos procedimientos utilizan un núcleo de base radial con un método de colocación.[11]

Teorema de dilatación de Stinespring

Plantilla:VT

Otras aplicaciones

En la literatura sobre experimentos informáticos[12] y otros experimentos de ingeniería, se encuentran cada vez más modelos basados en núcleos d.p., la función núcleo de base radial o el krigeaje. Uno de esos temas es la metodología de superficie de respuesta. Otros tipos de aplicaciones que se reducen al ajuste de datos son el prototipado rápido y los gráficos por computadora. Aquí, a menudo se usan modelos de superficie implícitos para aproximar o interpolar datos de nubes de puntos.

Aplicaciones de los núcleos definidos positivos en varias otras ramas de las matemáticas se encuentran en la integración multivariante, la optimización multivariante y en el análisis numérico y la computación científica, donde se estudian algoritmos rápidos, precisos y adaptables, idealmente desarrollados en entornos informáticos de alto rendimiento.[13]

Véase también

Referencias

Plantilla:Listaref

Plantilla:Control de autoridades

  1. Hein, M. and Bousquet, O. (2005). "Hilbertian metrics and positive definite kernels on probability measures". In Ghahramani, Z. and Cowell, R., editors, Proceedings of AISTATS 2005.
  2. Mercer, J. (1909). “Functions of positive and negative type and their connection with the theory of integral equations”. Philosophical Transactions of the Royal Society of London, Series A 209, pp. 415-446.
  3. Hilbert, D. (1904). "Grundzuge einer allgemeinen Theorie der linearen Integralgleichungen I", Gott. Nachrichten, math.-phys. K1 (1904), pp. 49-91.
  4. Young, W. H. (1909). "A note on a class of symmetric functions and on a theorem required in the theory of integral equations", Philos. Trans. Roy.Soc. London, Ser. A, 209, pp. 415-446.
  5. Moore, E.H. (1916). "On properly positive Hermitian matrices", Bull. Amer. Math. Soc. 23, 59, pp. 66-67.
  6. Moore, E.H. (1935). "General Analysis, Part I", Memoirs Amer. Philos. Soc. 1, Philadelphia.
  7. Krein. M (1949/1950). "Hermitian-positive kernels on homogeneous spaces I and II" (in Russian), Ukrain. Mat. Z. 1(1949), pp. 64-98, and 2(1950), pp. 10-59. English translation: Amer. Math. Soc. Translations Ser. 2, 34 (1963), pp. 69-164.
  8. Loève, M. (1960). "Probability theory", 2nd ed., Van Nostrand, Princeton, N.J.
  9. Rosasco, L. and Poggio, T. (2015). "A Regularization Tour of Machine Learning - MIT 9.520 Lecture Notes" Manuscript.
  10. Berg, C., Christensen, J. P. R., and Ressel, P. (1984). "Harmonic Analysis on Semigroups". Number 100 in Graduate Texts in Mathematics, Springer Verlag.
  11. Schabak, R. and Wendland, H. (2006). "Kernel Techniques: From Machine Learning to Meshless Methods", Cambridge University Press, Acta Numerica (2006), pp. 1-97.
  12. Haaland, B. and Qian, P. Z. G. (2010). "Accurate emulators for large-scale computer experiments", Ann. Stat.
  13. Gumerov, N. A. and Duraiswami, R. (2007). "Fast radial basis function interpolation via preconditioned Krylov iterationPlantilla:Dead linkPlantilla:Cbignore". SIAM J. Scient. Computing 29/5, pp. 1876-1899.