XGBoost

De testwiki
Revisión del 00:12 4 ene 2025 de imported>Aosbot (Añadiendo Control de autoridades)
(difs.) ← Revisión anterior | Revisión actual (difs.) | Revisión siguiente → (difs.)
Ir a la navegación Ir a la búsqueda

Plantilla:Ficha de software

XGBoost [1] (eXtreme Gradient Boosting) es una biblioteca de software de código abierto que proporciona un marco de regularización de potenciación de gradiente para C++, Java, Python,[2] R,[3] Julia,[4] Perl,[5] y Scala. . Funciona en Linux, Microsoft Windows,[6] y macOS.[7] El propósito del proyecto es ofrecer una biblioteca distribuida, portátil y escalable para potenciación de gradiente. Esta biblioteca puede operar tanto en una única máquina como en entornos de procesamiento distribuido Apache Hadoop, Apache Spark, Apache Flink y Dask.[8][9]

A mediados de la década de 2010, XGBoost ganó mucha popularidad y atención al ser el algoritmo elegido por una gran cantidad de equipos ganadores de competiciones de aprendizaje automático.[10]

Historia

XGBoost comenzó inicialmente como un proyecto de investigación de Tianqi Chen [11] como parte del grupo Distributed (Deep) Machine Learning Community (DMLC). Se hizo muy conocido en los círculos de competencia de ML después de su uso en la solución ganadora del Higgs Machine Learning Challenge . Poco después, se crearon los paquetes Python y R, y XGBoost ahora tiene implementaciones de paquetes para Java, Scala, Julia, Perl y otros lenguajes. Esto permitió un mayor alcance de la biblioteca, atrayendo a más usuarios y contribuyendo a su creciente popularidad en la comunidad de Kaggle, donde ha sido empleada en numerosas competiciones.[10]

Rápidamente se integró con otros paquetes, lo que facilitó su uso en sus respectivas comunidades. Ahora se ha integrado con scikit-learn para usuarios de Python y con el paquete caret para usuarios de R. También se puede integrar en marcos de Data Flow como Apache Spark, Apache Hadoop y Apache Flink utilizando Rabit [12] y XGBoost4J resumidos.[13] XGBoost también está disponible en OpenCL para FPGA.[14]

Aunque el modelo XGBoost suele alcanzar una precisión superior a la de un solo árbol de decisión, esto se logra a expensas de la capacidad de interpretación intrínseca de los árboles individuales. Mientras que seguir el camino de un árbol de decisión para comprender su decisión es relativamente sencillo y autoexplicativo, hacer lo mismo para cientos o miles de árboles resulta considerablemente más complejo.

Características

Características destacadas de XGBoost que lo diferencian de otros algoritmos de potenciación de gradiente incluyen:[15][16][17]

  • Penalización inteligente de árboles
  • Reducción proporcional de nodos hoja
  • Potenciación de Newton
  • Parámetro adicional de aleatorización
  • Implementación en sistemas individuales y distribuidos, y cálculo fuera de línea
  • Selección automática de características
  • Esbozo ponderado de cuantiles justificado teóricamente para cálculos eficientes
  • Impulso de estructura de árbol paralelo con esparsidad
  • Estructura de bloques caché eficiente para el entrenamiento de árboles de decisión

El algoritmo

XGBoost funciona mediante una aproximación de Taylor de segundo orden en la función de pérdida para establecer la conexión con el método de Newton Raphson.

Un algoritmo XGBoost genérico no regularizado es:Plantilla:Framebox Entradas: conjunto de entrenamiento {(xi,yi)}i=1N, una función de pérdida diferenciable L(y,F(x)), un número de modelos de aprendizaje débiles M y una tasa de aprendizaje α.

Algoritmo:

  1. Inicializar modelo con un valor constante: f^(0)(x)=argminθi=1NL(yi,θ).
  2. Para Plantilla:Mvar = 1 hasta Plantilla:Mvar:
    1. Calcular los 'gradientes' y los 'hessianos': g^m(xi)=[L(yi,f(xi))f(xi)]f(x)=f^(m1)(x).h^m(xi)=[2L(yi,f(xi))f(xi)2]f(x)=f^(m1)(x).
    2. Ajustar un modelo base (o un modelo de aprendizaje débil, como un árbol) utilizando el conjunto de entrenamiento {xi,g^m(xi)h^m(xi)}i=1N resolviendo el problema de optimización a continuación: ϕ^m=argminϕΦi=1N12h^m(xi)[ϕ(xi)g^m(xi)h^m(xi)]2. f^m(x)=αϕ^m(x).
    3. Actualizar el modelo: f^(m)(x)=f^(m1)(x)+f^m(x).
  3. Salida f^(x)=f^(M)(x)=m=0Mf^m(x).

Plantilla:Frame-footer

Aplicaciones de XGBoost

XGBoost es apto para el manejo de relaciones no lineales y su poder predictivo es bueno. Esto lo vuelve un algoritmo eficaz para aplicar a los datos del mercado financiero.[18]

Referencias

Plantilla:Listaref

Plantilla:Control de autoridades