Bibliografía

Muchos lectores nos han preguntado qué podían leer para llegar más allá. Encontrará aquí una bibliografía razonada, diseñada para permitirle profundizar en los temas principales de nuestro libro.

Un texto de uno de los grandes autores de referencia del machine learning (si solo hubiera que leer a uno, sería él):

Vladimir Vapnik, S. Kotz (2010) Estimation of Dependences Based on Empirical Data (Reprint) Second Edition (Information Science and Statistics)

Todo lo que necesita saber sobre muchos algoritmos:

Brownlee, J., Clever algorithms: nature-inspired programming recipes, Lulu ed, 2012 Jun 15.

Un texto de referencia sobre la feature selection:

Guyon, I., Elisseeff, A.,An introduction to variable and feature selection, The Journal of Machine Learning Research 1157-82, 2003 Mar.

El descenso del gradiente, mucho más rico de lo que se podría pensar:

Andrychowicz, M., Denil, M., Pfau, D., Gomez, S., Schaul, T., Hoffman, M.W., 2016. Learning to learn by gradient descent by gradient descent 1-16.

Detectando valores outliers, cómo no corromper sus análisis y modelos:

Hodge, V.J., Austin, J., A survey of outlier detection methodologies, Artificial Intelligence Review, 22 (2) 85-126, 2004.

Texto didáctico a través de la explicación del paquete caret, base del machine learning con R:

Kuhn, M., 2016, The caret Package. Disponible en: https://topepo.github.io/caret/index.html

Para comprender los sistemas expertos con reglas de negocio difusas:...

Si desea saber más, le proponemos el siguiente libro:
couv_EPT3DASR.png
60-signet.svg
Versión impresa
20-ecran_lettre.svg
Versión online
41-logo_abonnement.svg
En ilimitado con la suscripción ENI
130-boutique.svg
En la tienda oficial de ENI
Anterior
Algunas formulaciones del álgebra lineal
Siguiente
Conclusión